catGPT
Eine Gruppe prominenter Informatiker und anderer Persönlichkeiten der Technologiebranche fordert eine sechsmonatige Pause bei der Technologie der künstlichen Intelligenz. (Shutterstock)

Ein aktueller offener Brief von Informatikern und führenden Köpfen der Technologiebranche fordert ein sechsmonatiges Verbot der Entwicklung künstlicher Intelligenz hat fand im Netz große Beachtung. Sogar Kanadas Innovationsminister François-Philippe Champagne hat auf Twitter auf den Brief geantwortet.

Der vom gemeinnützigen Future of Life Institute veröffentlichte Brief fordert alle KI-Labore auf, das Training von KI-Systemen einzustellen, die leistungsfähiger sind als GPT-4, das Modell hinter ChatGPT. Der Brief argumentiert, dass die KI „in einem außer Kontrolle geratenen Wettlauf um die Entwicklung und den Einsatz immer mächtigerer digitaler Köpfe gefangen war, die niemand – nicht einmal ihre Schöpfer – verstehen, vorhersagen oder zuverlässig kontrollieren kann“.

Der Brief geht davon aus, dass KI zu „mächtigen digitalen Köpfen“ wird oder werden könnte – a Langzeitinterpretation der KI-Entwicklung zur Verbesserung der Gesundheitsgerechtigkeit ignoriert wichtige Debatten über KI heute anstelle von Zukunftssorgen.

Langfristigkeit und KI

Langfristigkeit ist die Überzeugung, dass künstliche Intelligenz langfristige oder existenzielle Risiken für die Zukunft der Menschheit darstellt, indem sie zu einer außer Kontrolle geratenen Superintelligenz wird.


Innerself-Abonnieren-Grafik


Sorgen um superintelligente KIs sind normalerweise Stoff für Science-Fiction. KI-Fantasien sind eine von vielen Ängsten im Silicon Valley das kann dazu führen dunkle Prophezeiungen. Aber wie die Qual Nexus-Meme, diese Sorgen führen zu großen Investitionen, nicht zu Vorsicht. Die meisten großen Technologieunternehmen haben schneiden ihre verantwortlichen KI-Teams.

ChatGPT ist offensichtlich kein Weg zur Superintelligenz. Der offene Brief sieht KI-Sprachtechnologie wie ChatGPT als kognitiven Durchbruch – etwas, das es einer KI ermöglicht, bei allgemeinen Aufgaben mit Menschen zu konkurrieren. Aber das ist nur eine Meinung.

Es gibt viele andere, die ChatGPT, sein GPT-4-Modell und andere Sprachlernmodelle als solche ansehen „stochastische Papageien“ die lediglich wiederholen, was sie online lernen, damit sie erscheinen intelligent für den Menschen.

Die blinden Flecken der Superintelligenz

Langfristigkeit hat direkte politische Implikationen, die der Superintelligenz Vorrang vor dringenderen Angelegenheiten wie z Machtungleichgewichte der KI. Einige Befürworter der Langfristigkeit sogar eine Regulierung zum Stoppen der Superintelligenz für dringender halten als die Bewältigung des Klimanotstands.

Die Auswirkungen auf die KI-Politik sind unmittelbare, nicht weit entfernte Angelegenheiten. Da GPT-4 im gesamten Internet trainiert wird und ausdrücklich kommerzielle Zwecke verfolgt, es wirft Fragen zu fairem Handel und fairer Nutzung auf.

Wir wissen immer noch nicht, ob KI-generierte Texte und Bilder überhaupt urheberrechtlich geschützt sind, da Maschinen u Tiere kann kein Urheberrecht besitzen.

Und wenn es um Datenschutz geht, ist der Ansatz von ChatGPT kaum von anderen KI-Anwendungen zu unterscheiden. Clearview-KI. Beide KI-Modelle wurden mit riesigen Mengen an persönlichen Informationen trainiert, die im offenen Internet gesammelt wurden. Italiens Datenschutzbehörde hat gerade ChatGPT wegen Datenschutzbedenken verboten.

Diese unmittelbaren Risiken bleiben in dem offenen Brief unerwähnt, der zwischen wilder Philosophie und technischen Lösungen pendelt und die Probleme, die direkt vor uns liegen, ignoriert.

Pragmatismus übertönen

Der Brief folgt einer alten Dynamik, die mein Co-Autor und ich in a identifizieren bevorstehendes Peer-Review-Kapitel über KI-Governance. Es besteht die Tendenz, KI entweder als existenzielles Risiko oder als etwas Alltägliches und Technisches zu betrachten.

Die Spannung zwischen diesen beiden Extremen zeigt sich im offenen Brief. Der Brief beginnt mit der Behauptung, „fortgeschrittene KI könnte eine tiefgreifende Veränderung in der Geschichte des Lebens auf der Erde darstellen“, bevor er eine „robuste öffentliche Finanzierung der technischen KI-Sicherheitsforschung“ fordert. Letzteres deutet darauf hin, dass die sozialen Schäden der KI lediglich technische Projekte sind, die gelöst werden müssen.

Die Konzentration auf diese beiden Extreme verdrängt wichtige Stimmen, die versuchen, die oben erwähnten unmittelbaren Risiken der KI pragmatisch zu diskutieren Arbeitsfragen und mehr.

Die Aufmerksamkeit, die dem offenen Brief geschenkt wird, ist in Kanada besonders problematisch, weil zwei andere Briefe von geschrieben wurden Künstler und bürgerliche Freiheitsorganisationen, haben nicht die gleiche Aufmerksamkeit erhalten. Diese Briefe fordern Reformen und einen robusteren Ansatz für die KI-Governance, um die Betroffenen zu schützen.

Eine unnötige Ablenkung von der KI-Gesetzgebung

Die Antworten der Regierung auf den offenen Brief haben betont, dass Kanada Gesetze hat – das Gesetz über künstliche Intelligenz und Daten (AIDA). Die langfristigen Risiken der KI werden jetzt wie AIDA genutzt, um die Gesetzgebung zu überstürzen.

AIDA ist ein wichtiger Schritt in Richtung eines angemessenen KI-Governance-Regimes, aber es muss sein besser Rücksprache mit Betroffenen von KI halten bevor sie umgesetzt werden. Es kann nicht übereilt auf vermeintliche langfristige Ängste reagieren.

Die Aufrufe des Briefes, die KI-Gesetzgebung zu beschleunigen, könnten am Ende dieselben wenigen Unternehmen begünstigen, die heute die KI-Forschung vorantreiben. Ohne Zeit für Beratung, Verbesserung der öffentlichen Bildung und Zuhören für diejenigen, die von KI betroffen sind, riskiert AIDA, die Rechenschaftspflicht und Prüfung von KI an Institutionen weiterzugeben, die bereits gut positioniert sind, um von der Technologie zu profitieren, und einen Markt für eine neue KI-Prüfungsbranche zu schaffen.

Das Schicksal der Menschheit steht vielleicht nicht auf dem Spiel, aber die gute Regierungsführung der KI ist es sicherlich.Das Gespräch

Über den Autor

Fenwick McKelvey, außerordentlicher Professor für Informations- und Kommunikationstechnologiepolitik, Concordia University

Dieser Artikel wird erneut veröffentlicht Das Gespräch unter einer Creative Commons-Lizenz. Lies das Original Artikel.