Shutterstock/Valentyn640

Im Jahr 1956, während einer einjährigen Reise nach London und in seinen frühen Zwanzigern, besuchte der Mathematiker und theoretische Biologe Jack D. Cowan Wilfred Taylor und seine seltsame neue „Lernmaschine“. Bei seiner Ankunft war er verblüfft über die „riesige Menge an Apparaten“, mit der er konfrontiert war. Cowan konnte nur daneben stehen und zusehen, wie „die Maschine ihre Arbeit erledigt“. Das, was es zu tun schien, war die Durchführung eines „assoziativen Gedächtnisschemas“ – es schien in der Lage zu sein, zu lernen, wie man Verbindungen findet und Daten abruft.

Es sah vielleicht wie klobige Schaltkreisblöcke aus, die von Hand in einer Masse aus Drähten und Kästen zusammengelötet wurden, aber was Cowan erlebte, war eine frühe analoge Form eines neuronalen Netzwerks – ein Vorläufer der fortschrittlichsten künstlichen Intelligenz von heute, einschließlich der viel diskutiert ChatGPT mit seiner Fähigkeit, als Reaktion auf nahezu jeden Befehl schriftliche Inhalte zu generieren. Die zugrunde liegende Technologie von ChatGPT ist ein neuronales Netzwerk.

Als Cowan und Taylor dastanden und der Maschine bei der Arbeit zusahen, hatten sie wirklich keine Ahnung, wie genau sie diese Aufgabe bewältigen konnte. Die Antwort auf Taylors mysteriöses Maschinengehirn liegt irgendwo in seinen „analogen Neuronen“, in den Assoziationen seines Maschinengedächtnisses und vor allem in der Tatsache, dass seine automatisierte Funktionsweise nicht wirklich vollständig erklärt werden konnte. Es würde Jahrzehnte dauern, bis diese Systeme ihren Zweck finden und diese Macht freigesetzt werden kann.

Der Begriff neuronales Netzwerk umfasst ein breites Spektrum an Systemen, zentral jedoch laut IBM, sind diese „neuronalen Netze – auch bekannt als künstliche neuronale Netze (ANNs) oder simulierte neuronale Netze (SNNs) – eine Teilmenge des maschinellen Lernens und das Herzstück von Deep-Learning-Algorithmen“. Entscheidend ist, dass der Begriff selbst sowie seine Form und „Struktur vom menschlichen Gehirn inspiriert sind und die Art und Weise nachahmen, wie biologische Neuronen einander Signale senden“.

In der Anfangsphase mag es noch Zweifel an ihrem Wert gegeben haben, aber im Laufe der Jahre hat sich die KI-Mode stark in Richtung neuronaler Netze verlagert. Sie werden heute oft als die Zukunft der KI angesehen. Sie haben große Auswirkungen auf uns und darauf, was es bedeutet, ein Mensch zu sein. Wir haben gehört Echos dieser Bedenken in letzter Zeit mit Forderungen, neue KI-Entwicklungen für einen Zeitraum von sechs Monaten zu pausieren, um das Vertrauen in ihre Auswirkungen sicherzustellen.


Innerself-Abonnieren-Grafik


Es wäre sicherlich ein Fehler, das neuronale Netzwerk als reines Hochglanz- und auffälliges neues Gerät abzutun. Sie sind bereits fest in unserem Leben verankert. Einige überzeugen durch ihre praktische Anwendbarkeit. Bereits 1989 nutzte ein Team unter der Leitung von Yann LeCun von den AT&T Bell Laboratories Backpropagation-Techniken, um ein System darauf zu trainieren handgeschriebene Postleitzahlen erkennen. Die letzten Ankündigung von Microsoft Dass Bing-Suchen durch KI gesteuert werden und es zu Ihrem „Copiloten für das Web“ macht, zeigt, wie die Dinge, die wir entdecken und wie wir sie verstehen, zunehmend ein Produkt dieser Art von Automatisierung sein werden.

Indem man auf riesige Datenmengen zurückgreift, um Muster zu finden, kann KI in ähnlicher Weise darauf trainiert werden, Dinge wie Bilderkennung schnell durchzuführen – was dazu führt, dass sie in sie integriert werden Gesichtserkennung, zum Beispiel. Diese Fähigkeit, Muster zu erkennen, hat zu vielen anderen Anwendungen geführt, wie z Vorhersage von Aktienmärkten.

Neuronale Netze verändern auch die Art und Weise, wie wir interpretieren und kommunizieren. Entwickelt von dem interessant betitelten Google Brain-Team, Google Translate ist eine weitere prominente Anwendung eines neuronalen Netzwerks.

Sie möchten damit auch weder Schach noch Shogi spielen. Aufgrund ihres Verständnisses der Regeln und der Fähigkeit, sich an Strategien und alle aufgezeichneten Spielzüge zu erinnern, sind sie außergewöhnlich gut in Spielen (obwohl ChatGPT dies zu tun scheint). Kampf mit Wordle). Die Systeme, die menschlichen Go-Spielern (Go ist ein bekanntermaßen kniffliges Strategie-Brettspiel) und Schach-Großmeistern Probleme bereiten, sind es aus neuronalen Netzen.

Doch ihre Reichweite geht weit über diese Instanzen hinaus und wächst weiter. Eine Suche nach Patenten, die sich nur auf die Erwähnung des genauen Begriffs „Neuronale Netze“ beschränkt, liefert 135,828 Ergebnisse. Mit dieser schnellen und anhaltenden Expansion könnten die Chancen, dass wir den Einfluss der KI vollständig erklären können, immer geringer werden. Dies sind die Fragen, die ich in meiner Forschung untersucht habe und mein neues Buch über algorithmisches Denken.

Geheimnisvolle Schichten der „Unerkennbarkeit“

Ein Rückblick auf die Geschichte neuronaler Netze verrät uns etwas Wichtiges über die automatisierten Entscheidungen, die unsere Gegenwart bestimmen oder möglicherweise tiefgreifendere Auswirkungen auf die Zukunft haben werden. Ihre Anwesenheit zeigt uns auch, dass wir die Entscheidungen und Auswirkungen der KI mit der Zeit wahrscheinlich noch weniger verstehen werden. Diese Systeme sind nicht einfach nur Black Boxes, sie sind nicht nur versteckte Teile eines Systems, die weder gesehen noch verstanden werden können.

Es ist etwas anderes, etwas, das in den Zielen und der Gestaltung dieser Systeme selbst verwurzelt ist. Das Streben nach dem Unerklärlichen besteht schon lange. Je undurchsichtiger, desto authentischer und fortschrittlicher wird das System eingeschätzt. Dabei geht es nicht nur darum, dass die Systeme immer komplexer werden oder die Kontrolle des geistigen Eigentums den Zugang einschränkt (obwohl diese dazu gehören). Stattdessen soll gesagt werden, dass das Ethos, das sie antreibt, ein besonderes und verankertes Interesse an „Unerkennbarkeit“ hat. Das Geheimnis ist sogar in der Form und im Diskurs des neuronalen Netzwerks kodiert. Sie verfügen über tief gestapelte Schichten – daher der Begriff „Deep Learning“ – und in diesen Tiefen liegen die noch geheimnisvoller klingenden „verborgenen Schichten“. Die Geheimnisse dieser Systeme liegen tief unter der Oberfläche.

Es besteht eine gute Chance, dass wir umso weniger verstehen, wie und warum, je größer der Einfluss der künstlichen Intelligenz auf unser Leben ist. Heutzutage gibt es einen starken Vorstoß für KI, der erklärbar ist. Wir wollen wissen, wie es funktioniert und wie es zu Entscheidungen und Ergebnissen kommt. Die EU ist so besorgt über die potenziell „inakzeptablen Risiken“ und sogar „gefährlichen“ Anwendungen, die sie derzeit vorantreibt ein neues KI-Gesetz beabsichtigt, einen „globalen Standard“ für „die Entwicklung sicherer, vertrauenswürdiger und ethischer künstlicher Intelligenz“ zu setzen.

Diese neuen Gesetze werden auf dem Bedürfnis nach Erklärbarkeit basieren, das verlangen „Für KI-Systeme mit hohem Risiko sind die Anforderungen an qualitativ hochwertige Daten, Dokumentation und Rückverfolgbarkeit, Transparenz, menschliche Aufsicht, Genauigkeit und Robustheit unbedingt erforderlich, um die von KI ausgehenden Risiken für Grundrechte und Sicherheit zu mindern.“ Dabei geht es nicht nur um Dinge wie selbstfahrende Autos (obwohl Systeme, die Sicherheit gewährleisten, in die EU-Kategorie der Hochrisiko-KI fallen), sondern es besteht auch die Sorge, dass in Zukunft Systeme entstehen werden, die Auswirkungen auf die Menschenrechte haben werden.

Dies ist Teil umfassenderer Forderungen nach Transparenz in der KI, damit ihre Aktivitäten überprüft, geprüft und bewertet werden können. Ein anderes Beispiel wäre das der Royal Society Policy Briefing zu erklärbarer KI Darin weisen sie darauf hin, dass „in politischen Debatten auf der ganzen Welt zunehmend Forderungen nach einer Form der Erklärbarkeit von KI laut werden, als Teil der Bemühungen, ethische Grundsätze in die Gestaltung und den Einsatz KI-gestützter Systeme einzubetten“.

Aber die Geschichte der neuronalen Netze zeigt uns, dass wir uns in Zukunft eher von diesem Ziel entfernen als ihm näherkommen werden.

Inspiriert vom menschlichen Gehirn

Bei diesen neuronalen Netzen mag es sich um komplexe Systeme handeln, sie verfügen jedoch über einige Grundprinzipien. Inspiriert vom menschlichen Gehirn versuchen sie, Formen des biologischen und menschlichen Denkens zu kopieren oder zu simulieren. In Bezug auf Struktur und Design sind sie wie Auch IBM erklärt, bestehend aus „Knotenschichten, die eine Eingabeschicht, eine oder mehrere verborgene Schichten und eine Ausgabeschicht enthalten“. Dabei „verbindet sich jeder Knoten oder jedes künstliche Neuron mit einem anderen“. Da sie Eingaben und Informationen benötigen, um Ergebnisse zu erstellen, „verlassen sie sich auf Trainingsdaten, um zu lernen und ihre Genauigkeit im Laufe der Zeit zu verbessern“. Diese technischen Details sind wichtig, aber auch der Wunsch, diese Systeme an die Komplexität des menschlichen Gehirns anzupassen.

Um zu verstehen, welche Bedeutung diese technischen Details in der Praxis haben, ist es wichtig, den Ehrgeiz hinter diesen Systemen zu begreifen. In einem 1993 Interview, kam der Wissenschaftler für neuronale Netze Teuvo Kohonen zu dem Schluss, dass ein „selbstorganisierendes“ System „mein Traum ist“, das „so etwas wie das funktioniert, was unser Nervensystem instinktiv tut“. Als Beispiel stellte Kohonen vor, wie ein „selbstorganisierendes“ System, ein System, das sich selbst überwacht und verwaltet, „als Überwachungstafel für jede Maschine verwendet werden könnte … in jedem Flugzeug, Düsenflugzeug oder jedem Kernkraftwerk oder jedem.“ Auto". Dies würde seiner Meinung nach bedeuten, dass man in Zukunft „sofort sehen könnte, in welchem ​​Zustand sich das System befindet“.

Das übergeordnete Ziel bestand darin, ein System zu haben, das sich an seine Umgebung anpassen kann. Es wäre augenblicklich und autonom und würde im Stil des Nervensystems funktionieren. Das war der Traum, Systeme zu haben, die sich selbst verwalten können, ohne dass viel menschliches Eingreifen erforderlich ist. Die Komplexität und Unbekanntheit des Gehirns, des Nervensystems und der realen Welt würde bald in die Entwicklung und das Design neuronaler Netze einfließen.

„Irgendetwas faul daran“

Aber zurück zum Jahr 1956 und zu dieser seltsamen Lernmaschine: Es war der praktische Ansatz, den Taylor beim Bau gewählt hatte, der Cowans Aufmerksamkeit sofort erregte. Er hatte sichtlich beim Zusammenbau der Einzelteile geschwitzt. Taylor, Cowan beobachtete Während eines Interviews über seine eigene Rolle in der Geschichte dieser Systeme „hat er es nicht theoretisch gemacht, und er hat es nicht am Computer gemacht“. Stattdessen baute er mit Werkzeugen in der Hand „tatsächlich die Hardware“. Es war ein materielles Ding, eine Kombination aus Teilen, vielleicht sogar eine Vorrichtung. Und es wurde „alles mit analogen Schaltkreisen gemacht“, so Cowan. Taylor brauchte „mehrere Jahre, um es zu bauen und damit zu spielen“. Ein Fall von Versuch und Irrtum.

Verständlicherweise wollte Cowan das, was er sah, in den Griff bekommen. Er versuchte, Taylor dazu zu bringen, ihm diese Lernmaschine zu erklären. Die Klarstellungen kamen nicht. Cowan konnte Taylor nicht dazu bringen, ihm zu beschreiben, wie die Sache funktionierte. Die analogen Neuronen blieben ein Rätsel. Das überraschendere Problem bestand laut Cowan darin, dass Taylor „selbst nicht wirklich verstand, was vor sich ging“. Dies war nicht nur ein vorübergehender Zusammenbruch der Kommunikation zwischen den beiden Wissenschaftlern mit unterschiedlichen Fachgebieten, es war mehr als das.

In einem Interview aus der Mitte der 1990er JahreAls Cowan an Taylors Maschine zurückdachte, verriet er, dass „man in veröffentlichten Artikeln bis heute nicht ganz verstehen kann, wie sie funktioniert“. Diese Schlussfolgerung lässt darauf schließen, wie tief das Unbekannte in neuronalen Netzen verankert ist. Die Unerklärlichkeit dieser neuronalen Systeme besteht bereits seit den Grund- und Entwicklungsstadien, die fast sieben Jahrzehnte zurückreichen.

Dieses Geheimnis bleibt bis heute bestehen und ist in den fortschreitenden Formen der KI zu finden. Die Unergründlichkeit der Funktionsweise der von Taylors Maschine erzeugten Assoziationen veranlasste Cowan zu der Frage, ob daran „etwas faul“ sei.

Lange und verworrene Wurzeln

Cowan verwies auf seinen kurzen Besuch bei Taylor, als er einige Jahre später nach der Rezeption seiner eigenen Arbeit gefragt wurde. In den 1960er-Jahren waren die Menschen, so Cowan, „etwas zögerlich, den Sinn eines analogen neuronalen Netzwerks zu erkennen“. Cowan erinnert sich, dass Taylors Arbeiten zum „assoziativen Gedächtnis“ aus den 1950er Jahren auf „analogen Neuronen“ basierten. Der mit dem Nobelpreis ausgezeichnete Experte für neuronale Systeme, Leon N. Cooper, abgeschlossen dass die Entwicklungen rund um die Anwendung des Gehirnmodells in den 1960er Jahren als „zu den tiefen Mysterien“ zählten. Aufgrund dieser Unsicherheit blieb die Skepsis darüber bestehen, was ein neuronales Netzwerk leisten könnte. Aber langsam begannen sich die Dinge zu ändern.

Vor etwa 30 Jahren war der Neurowissenschaftler Walter J. Freeman überrascht von der „bemerkenswert” Anwendungsbereich, der für neuronale Netze gefunden wurde, kommentierte bereits die Tatsache, dass er sie nicht als „eine grundlegend neue Art von Maschine“ ansah. Sie waren ein langsamer Prozess, bei dem zuerst die Technologie kam und dann spätere Anwendungen dafür gefunden wurden. Das hat einige Zeit gedauert. Um die Wurzeln der neuronalen Netzwerktechnologie zu finden, könnten wir sogar noch weiter zurückgehen als bis zu Cowans Besuch bei Taylors mysteriöser Maschine.

Der neuronale Netzwissenschaftler James Anderson und der Wissenschaftsjournalist Edward Rosenfeld habe notiert dass der Hintergrund neuronaler Netze bis in die 1940er Jahre zurückreicht und einige frühe Versuche unternommen wurden, „das menschliche Nervensystem zu verstehen und künstliche Systeme zu bauen, die sich zumindest ein wenig so verhalten, wie wir es tun“, wie sie beschreiben. Und so wurden in den 1940er Jahren die Geheimnisse des menschlichen Nervensystems auch zu Geheimnissen des rechnerischen Denkens und der künstlichen Intelligenz.

Der Informatikautor fasst diese lange Geschichte zusammen Larry Hardesty hat darauf hingewiesen dass Deep Learning in Form neuronaler Netze „seit mehr als 70 Jahren in und aus der Mode gekommen ist“. Genauer gesagt, fügt er hinzu: „Diese neuronalen Netze wurden erstmals 1944 von Warren McCulloch und Walter Pitts vorgeschlagen, zwei Forschern der University of Chicago, die 1952 als Gründungsmitglieder der sogenannten ersten Abteilung für Kognitionswissenschaft an das MIT wechselten.“

In anderen Ländern, 1943 Manchmal wird als Datum das erste Jahr für die Technologie angegeben. Wie dem auch sei, seit etwa 70 Jahren deuten Berichte darauf hin, dass neuronale Netze immer wieder in Mode kamen, oft vernachlässigt wurden, sich dann aber manchmal durchsetzten und in mehr Mainstream-Anwendungen und Debatten vordrangen. Die Unsicherheit hielt an. Diese frühen Entwickler beschreiben häufig die Bedeutung ihrer Forschung als übersehen, bis sie oft Jahre und manchmal Jahrzehnte später ihren Zweck fand.

Von den 1960er bis in die späten 1970er Jahre können wir weitere Geschichten über die unbekannten Eigenschaften dieser Systeme finden. Selbst damals, nach drei Jahrzehnten, hatte das neuronale Netzwerk noch immer keinen Sinn gefunden. David Rumelhart, der einen Hintergrund in Psychologie hatte und Mitautor einer Reihe von Büchern war, die 1986 veröffentlicht wurden und die später die Aufmerksamkeit wieder auf neuronale Netze lenken sollten, war an der Entwicklung neuronaler Netze beteiligt mit seinem Kollegen Jay McClelland.

Sie waren nicht nur Kollegen, sondern hatten sich auch kürzlich auf einer Konferenz in Minnesota kennengelernt, wo Rumelharts Vortrag über „Story Understanding“ einige Diskussionen unter den Delegierten ausgelöst hatte.

Im Anschluss an diese Konferenz kam McClelland mit einem Gedanken darüber zurück, wie man ein neuronales Netzwerk entwickeln könnte, das Modelle kombinieren könnte, um interaktiver zu sein. Worauf es hier ankommt ist Rumelharts Erinnerung von den „stundenlangen Bastelarbeiten am Computer“.

Wir haben uns hingesetzt und das alles am Computer gemacht und diese Computermodelle gebaut, aber wir haben sie einfach nicht verstanden. Wir haben nicht verstanden, warum sie funktionierten oder warum sie nicht funktionierten oder was an ihnen kritisch war.

Wie Taylor bastelte auch Rumelhart am System herum. Auch sie schufen ein funktionierendes neuronales Netzwerk und waren sich vor allem nicht sicher, wie oder warum es auf die Art und Weise funktionierte, in der es scheinbar aus Daten lernte und Zusammenhänge herstellte.

Das Gehirn nachahmen – Schicht für Schicht

Sie haben vielleicht bereits bemerkt, dass bei der Diskussion über die Ursprünge neuronaler Netze das Bild des Gehirns und die damit verbundene Komplexität nie weit entfernt sind. Das menschliche Gehirn fungierte als eine Art Vorlage für diese Systeme. Vor allem in den frühen Stadien wurde das Gehirn – noch eine der großen Unbekannten – zum Modell für die Funktionsweise des neuronalen Netzwerks.

Diese experimentellen neuen Systeme basierten also auf etwas, dessen Funktionsweise selbst weitgehend unbekannt war. Der Neuroinformatiker Carver Mead hat aufschlussreich gesprochen von der Vorstellung eines „kognitiven Eisbergs“, die ihm besonders gefallen hatte. Es ist nur die Spitze des Eisbergs des Bewusstseins, die uns bewusst ist und die sichtbar ist. Das Ausmaß und die Form des Rests bleiben unter der Oberfläche unbekannt.

In 1998, JAMES ANDERSON, der seit einiger Zeit an neuronalen Netzen arbeitet, bemerkte, dass unsere größte Entdeckung bei der Erforschung des Gehirns „das Bewusstsein zu sein scheint, dass wir wirklich nicht wissen, was vor sich geht“.

In einer ausführlichen Darstellung im Financial Times im Jahr 2018Der Technologiejournalist Richard Waters bemerkte, dass neuronale Netze „einer Theorie darüber nachempfunden sind, wie das menschliche Gehirn funktioniert und Daten durch Schichten künstlicher Neuronen leitet, bis ein identifizierbares Muster entsteht“. Dies schafft ein Folgeproblem, so Waters, denn „im Gegensatz zu den Logikschaltungen, die in einem herkömmlichen Softwareprogramm verwendet werden, gibt es keine Möglichkeit, diesen Prozess zu verfolgen, um genau zu identifizieren, warum ein Computer eine bestimmte Antwort liefert“. Waters kommt zu dem Schluss, dass diese Ergebnisse nicht rückgängig gemacht werden können. Die Anwendung eines solchen Gehirnmodells, bei dem die Daten viele Schichten durchlaufen, bedeutet, dass die Antwort nicht ohne weiteres nachvollzogen werden kann. Die mehrfache Schichtung ist ein guter Grund dafür.

Hardesty stellte außerdem fest, dass diese Systeme „lose dem menschlichen Gehirn nachempfunden“ sind. Dies bringt den Wunsch mit sich, immer mehr Verarbeitungskomplexität einzubauen, um zu versuchen, mit dem Gehirn mitzuhalten. Das Ergebnis dieses Ziels ist ein neuronales Netz, das „aus Tausenden oder sogar Millionen einfacher Verarbeitungsknoten besteht, die dicht miteinander verbunden sind“. Daten bewegen sich durch diese Knoten nur in eine Richtung. Hardesty stellte fest, dass ein „einzelner Knoten mit mehreren Knoten in der darunter liegenden Schicht verbunden sein könnte, von denen er Daten empfängt, und mit mehreren Knoten in der darüber liegenden Schicht, an die er Daten sendet“.

Modelle des menschlichen Gehirns waren von Anfang an Teil der Konzeption und Gestaltung dieser neuronalen Netze. Dies ist besonders interessant, wenn man bedenkt, dass das Gehirn selbst ein Mysterium der damaligen Zeit war (und es in vielerlei Hinsicht immer noch ist).

„Anpassung ist das A und O“

Wissenschaftler wie Mead und Kohonen wollten ein System schaffen, das sich wirklich an die Welt anpassen kann, in der es sich befindet. Es würde auf seine Bedingungen reagieren. Mead war sich darüber im Klaren, dass der Wert neuronaler Netze darin besteht, dass sie diese Art der Anpassung erleichtern können. Damals, und angesichts dieses Ehrgeizes, Met hinzugefügt dass die Produktion einer Adaption „das ganze Spiel“ ist. Diese Anpassung sei notwendig, dachte er, „aufgrund der Natur der realen Welt“, die seiner Meinung nach „zu variabel ist, um etwas Absolutes zu tun“.

Mit diesem Problem musste man rechnen, vor allem weil es seiner Meinung nach etwas war, „das das Nervensystem schon vor langer Zeit herausgefunden hat“. Diese Innovatoren arbeiteten nicht nur mit einem Bild des Gehirns und seiner Unbekannten, sondern kombinierten dieses auch mit einer Vision der „realen Welt“ und den damit verbundenen Unsicherheiten, Unbekannten und Variabilitäten. Die Systeme, so dachte Mead, müssten in der Lage sein, auf die Umstände zu reagieren und sich anzupassen ohne Anweisung.

Etwa zur gleichen Zeit, in den 1990er Jahren, entdeckte Stephen Grossberg – ein Experte für kognitive Systeme in den Bereichen Mathematik, Psychologie und biomedizinische Technik – hat das auch argumentiert Die Anpassung würde auf lange Sicht der wichtige Schritt sein. Als Grossberg sich mit der Modellierung neuronaler Netze beschäftigte, dachte er sich, dass es „darum geht, wie biologische Mess- und Kontrollsysteme so konzipiert sind, dass sie sich schnell und stabil in Echtzeit an eine sich schnell verändernde Welt anpassen“. Wie wir zuvor bei Kohonens „Traum“ von einem „selbstorganisierenden“ System gesehen haben, wird eine Vorstellung von der „realen Welt“ zum Kontext, in dem Reaktion und Anpassung in diese Systeme kodiert werden. Die Art und Weise, wie diese reale Welt verstanden und vorgestellt wird, beeinflusst zweifellos die Art und Weise, wie diese Systeme angepasst werden sollen.

Verborgene Schichten

Als sich die Schichten vervielfachten, erschloss Deep Learning neue Tiefen. Das neuronale Netzwerk wird anhand von Trainingsdaten trainiert, die Hardesty erklärt, „wird der untersten Schicht – der Eingabeschicht – zugeführt und durchläuft die nachfolgenden Schichten, wird auf komplexe Weise multipliziert und addiert, bis es schließlich, radikal transformiert, auf der Ausgabeschicht ankommt“. Je mehr Schichten vorhanden sind, desto größer ist die Transformation und desto größer ist der Abstand von der Eingabe zur Ausgabe. Die Entwicklung von Grafikprozessoren (GPUs), beispielsweise im Gaming-Bereich, fügte Hardesty hinzu, „ermöglichte es den einschichtigen Netzwerken der 1960er und den zwei- bis dreischichtigen Netzwerken der 1980er Jahre, sich zu zehn, 15 oder sogar 50 zu entwickeln.“ -Schicht-Netzwerke von heute“.

Neuronale Netze werden immer tiefer. Tatsächlich ist es laut Hardesty dieses Hinzufügen von Schichten, „worauf sich das ‚deep‘ in ‚deep learning‘ bezieht“. Dies sei wichtig, schlägt er vor, denn „derzeit ist Deep Learning für die leistungsstärksten Systeme in fast allen Bereichen der Forschung im Bereich der künstlichen Intelligenz verantwortlich“.

Aber das Geheimnis geht noch tiefer. Je höher die Schichten neuronaler Netze geschichtet wurden, desto komplexer wurde auch ihre Komplexität. Es hat auch zum Wachstum sogenannter „verborgener Schichten“ in diesen Tiefen geführt. Die Diskussion über die optimale Anzahl verborgener Schichten in einem neuronalen Netzwerk ist im Gange. Der Medientheoretiker Beatrice Fazi hat geschrieben dass „Deep-Learning-Techniken aufgrund der Funktionsweise eines tiefen neuronalen Netzwerks, das auf versteckten neuronalen Schichten beruht, die zwischen der ersten Schicht von Neuronen (der Eingabeschicht) und der letzten Schicht (der Ausgabeschicht) liegen, oft undurchsichtig oder selbst für die Menschen unleserlich sind.“ Programmierer, die sie ursprünglich eingerichtet haben“.

Wenn die Schichten zunehmen (einschließlich der verborgenen Schichten), werden sie noch weniger erklärbar – selbst, wie sich wiederum herausstellt, für diejenigen, die sie erschaffen. Ähnlich vertritt die prominente und interdisziplinäre New-Media-Denkerin Katherine Hayles auch notiert dass es Grenzen gibt, „wie viel wir über das System wissen können, ein Ergebnis, das für die ‚verborgene Schicht‘ in neuronalen Netzen und Deep-Learning-Algorithmen relevant ist“.

Das Unerklärliche verfolgen

Zusammengenommen sind diese langen Entwicklungen Teil dessen, was der Techniksoziologe betrachtet Taina Bucher hat die „Problematik des Unbekannten“ genannt. Harry Collins erweitert seine einflussreiche Forschung zu wissenschaftlichen Erkenntnissen auf den Bereich der KI hat darauf hingewiesen Das Ziel neuronaler Netze besteht darin, dass sie zumindest zunächst von einem Menschen erstellt werden können, aber „sobald das Programm einmal geschrieben ist, lebt es sozusagen sein eigenes Leben; Ohne großen Aufwand kann die genaue Funktionsweise des Programms rätselhaft bleiben.“ Dies erinnert an die lang gehegten Träume eines selbstorganisierenden Systems.

Ich möchte hinzufügen, dass das Unbekannte und vielleicht sogar das Unerkennbare von Anfang an als grundlegender Bestandteil dieser Systeme verfolgt wurde. Es besteht eine gute Chance, dass wir umso weniger verstehen, wie und warum, je größer der Einfluss der künstlichen Intelligenz auf unser Leben ist.

Aber das gefällt vielen heute nicht mehr. Wir wollen wissen, wie KI funktioniert und wie sie zu Entscheidungen und Ergebnissen kommt, die sich auf uns auswirken. Während die Entwicklungen in der KI weiterhin unser Wissen und Verständnis der Welt prägen, was wir entdecken, wie wir behandelt werden, wie wir lernen, konsumieren und interagieren, wird dieser Impuls zum Verstehen zunehmen. Wenn es um erklärbare und transparente KI geht, zeigt uns die Geschichte der neuronalen Netze, dass wir uns in Zukunft eher von diesem Ziel entfernen als ihm nähern werden.

David Bier, Professor für Soziologie, University of York

Dieser Artikel wird erneut veröffentlicht Das Gespräch unter einer Creative Commons-Lizenz. Lies das Original Artikel.