Gefahr von AI 7 11
KI wird die Menschheit wahrscheinlich nicht versklaven, aber sie könnte viele Aspekte unseres Lebens übernehmen. elenabs/iStock über Getty Images

Der Aufstieg von ChatGPT und ähnlichen Systemen der künstlichen Intelligenz ging mit einem starken Anstieg einher Zunahme der Angst vor KI. In den letzten Monaten haben Führungskräfte und KI-Sicherheitsforscher Vorhersagen mit dem Titel „P(Untergang)„über die Wahrscheinlichkeit, dass KI eine Katastrophe großen Ausmaßes herbeiführen wird.“

Die Sorgen erreichten im Mai 2023 ihren Höhepunkt, als die gemeinnützige Forschungs- und Interessenvertretung Center for AI Safety eine Veröffentlichung veröffentlichte eine Aussage in einem Satz: „Die Eindämmung des Risikos des Aussterbens durch KI sollte neben anderen gesellschaftlichen Risiken wie Pandemien und Atomkrieg eine globale Priorität sein.“ Die Erklärung wurde von vielen wichtigen Akteuren auf diesem Gebiet unterzeichnet, darunter den Leitern von OpenAI, Google und Anthropic sowie zwei der sogenannten „Paten“ der KI: Geoffrey Hinton und Yoshua Bengio.

Sie fragen sich vielleicht, wie sich solche existenziellen Ängste auswirken sollen. Ein berühmtes Szenario ist das „Büroklammer-Maximierer„Gedankenexperiment eines Oxford-Philosophen Nick bostrom. Die Idee ist, dass ein KI-System, dessen Aufgabe es ist, so viele Büroklammern wie möglich zu produzieren, außerordentliche Anstrengungen unternehmen könnte, um Rohstoffe zu finden, indem es beispielsweise Fabriken zerstört und Autounfälle verursacht.

A weniger ressourcenintensive Variante hat eine KI damit beauftragt, eine Reservierung für ein beliebtes Restaurant zu beschaffen, indem sie Mobilfunknetze und Ampeln abschaltet, um zu verhindern, dass andere Gäste einen Tisch bekommen.


Innerself-Abonnieren-Grafik


Bürobedarf oder Abendessen, die Grundidee ist dieselbe: KI entwickelt sich schnell zu einer außerirdischen Intelligenz, die gut darin ist, Ziele zu erreichen, aber gefährlich, weil sie nicht unbedingt mit den moralischen Werten ihrer Schöpfer übereinstimmt. Und in seiner extremsten Version verwandelt sich dieses Argument in explizite Ängste vor KIs Versklavung oder Zerstörung der Menschheit.

Eine Variante des KI-Apokalypse-Szenarios ist, dass eine KI, die Büroklammern herstellt, Amok läuft.

 

Tatsächlicher Schaden

In den vergangenen Jahren haben meine Kollegen und ich an Angewandtes Ethikzentrum von UMass Boston Ich habe die Auswirkungen des Umgangs mit KI auf das Selbstverständnis der Menschen untersucht, und ich glaube, dass dies katastrophale Ängste sind übertrieben und fehlgeleitet.

Ja, die Fähigkeit der KI, überzeugende Deep-Fake-Videos und -Audios zu erstellen, ist beängstigend und kann von Menschen mit bösen Absichten missbraucht werden. Tatsächlich geschieht dies bereits: Russische Agenten haben wahrscheinlich versucht, Kremlkritiker in Verlegenheit zu bringen Bill Browder indem er ihn in ein Gespräch mit einem Avatar des ehemaligen ukrainischen Präsidenten Petro Poroschenko verwickelt. Cyberkriminelle haben das Klonen von KI-Stimmen für eine Vielzahl von Straftaten eingesetzt – von High-Tech-Überfälle zu gewöhnliche Betrügereien.

KI-Entscheidungssysteme, die Bieten Sie Kreditgenehmigungen und Einstellungsempfehlungen an bergen das Risiko algorithmischer Verzerrung, da die Trainingsdaten und Entscheidungsmodelle, auf denen sie basieren, langjährige gesellschaftliche Vorurteile widerspiegeln.

Das sind große Probleme, die die Aufmerksamkeit der politischen Entscheidungsträger erfordern. Aber sie gibt es schon seit einiger Zeit und sie sind kaum katastrophal.

Nicht in der gleichen Liga

In der Erklärung des Center for AI Safety wird KI mit Pandemien und Atomwaffen als großes Risiko für die Zivilisation in einen Topf geworfen. Bei diesem Vergleich gibt es Probleme. COVID-19 führte zu fast Weltweit 7 Millionen Todesfälle, brachte a massive und anhaltende psychische Krise und erstellt wirtschaftliche Herausforderungen, einschließlich chronischer Engpässe in der Lieferkette und galoppierender Inflation.

Atomwaffen wahrscheinlich getötet mehr als 200,000 Menschen in Hiroshima und Nagasaki im Jahr 1945, forderte in den darauffolgenden Jahren viele weitere Todesopfer durch Krebs, löste während des Kalten Krieges jahrzehntelange tiefe Angst aus und brachte die Welt während der Kubakrise im Jahr 1962 an den Rand der Vernichtung. Das haben sie auch veränderte die Berechnungen der nationalen Führer darüber, wie man auf internationale Aggressionen reagieren soll, wie sie sich derzeit bei der russischen Invasion in der Ukraine abspielen.

Die KI ist einfach bei weitem nicht in der Lage, diese Art von Schaden anzurichten. Das Büroklammer-Szenario und ähnliche Szenarien sind Science-Fiction. Bestehende KI-Anwendungen führen spezifische Aufgaben aus, anstatt umfassende Urteile zu fällen. Die Technologie ist weit davon entfernt, sich entscheiden und dann planen zu können die Ziele und untergeordneten Ziele, die notwendig sind, um den Verkehr lahmzulegen, um einen Platz in einem Restaurant zu bekommen, oder eine Autofabrik in die Luft zu jagen, um Ihren Drang nach Büroklammern zu stillen.

Der Technologie fehlt nicht nur die komplizierte Fähigkeit zur mehrschichtigen Beurteilung, die in diesen Szenarien erforderlich ist, sie verfügt auch nicht über einen autonomen Zugriff auf genügend Teile unserer kritischen Infrastruktur, um solche Schäden anzurichten.

Was es bedeutet, ein Mensch zu sein

Tatsächlich birgt der Einsatz von KI eine existenzielle Gefahr, aber dieses Risiko ist eher im philosophischen als im apokalyptischen Sinne existenziell. KI in ihrer jetzigen Form kann die Art und Weise verändern, wie Menschen sich selbst sehen. Es kann Fähigkeiten und Erfahrungen beeinträchtigen, die Menschen für das Menschsein als wesentlich erachten.

Zum Beispiel sind Menschen urteilsfähige Wesen. Bei der Arbeit und in der Freizeit wägen Menschen rational Einzelheiten ab und treffen täglich Entscheidungen darüber, wen sie einstellen, wer einen Kredit aufnehmen sollte, was sie im Auge behalten sollten und so weiter. Aber immer mehr dieser Urteile sind es werden automatisiert und an Algorithmen weitergegeben. Wenn das geschieht, wird die Welt nicht untergehen. Aber die Menschen werden nach und nach die Fähigkeit verlieren, diese Urteile selbst zu fällen. Je weniger davon Menschen machen, desto schlechter werden sie wahrscheinlich darin, sie herzustellen.

Oder denken Sie über die Rolle des Zufalls im Leben der Menschen nach. Menschen schätzen zufällige Begegnungen: zufällig auf einen Ort, eine Person oder eine Aktivität stoßen, sich hineinziehen lassen und im Nachhinein die Rolle schätzen, die der Zufall bei diesen bedeutungsvollen Funden gespielt hat. Aber die Rolle algorithmischer Empfehlungs-Engines besteht darin Reduzieren Sie diese Art von Zufall und ersetzen Sie es durch Planung und Vorhersage.

Betrachten Sie abschließend die Schreibfunktionen von ChatGPT. Die Technologie ist dabei, die Rolle des Schreibens von Aufgaben in der Hochschulbildung zu eliminieren. Wenn dies der Fall ist, verlieren Pädagogen ein wichtiges Instrument für den Unterricht von Schülern wie man kritisch denkt.

Nicht tot, aber vermindert

Also nein, KI wird die Welt nicht in die Luft jagen. Aber die zunehmend unkritische Akzeptanz davon in einer Vielzahl enger Kontexte bedeutet die allmähliche Erosion einiger der wichtigsten Fähigkeiten des Menschen. Algorithmen untergraben bereits die Fähigkeit der Menschen, Urteile zu fällen, zufällige Begegnungen zu genießen und kritisches Denken zu schärfen.

Die menschliche Spezies wird solche Verluste überleben. Aber unsere Art zu existieren wird dabei verarmen. Die großen Ängste vor der bevorstehenden KI-Katastrophe, der Singularität, Skynet oder wie auch immer Sie es denken, verschleiern diese subtileren Kosten. Erinnern Sie sich an TS Eliots berühmte Schlusszeilen von „Die hohlen Männer„So endet die Welt“, schrieb er, „nicht mit einem Knall, sondern mit einem Wimmern.“Das Gespräch

Über den Autor

Nir Eisikovits, Professor für Philosophie und Direktor, Zentrum für Angewandte Ethik, UMass Boston

Dieser Artikel wird erneut veröffentlicht Das Gespräch unter einer Creative Commons-Lizenz. Lies das Original Artikel.