Vertrauen in AI 7 20
 KI-Chatbots werden immer leistungsfähiger, aber woher wissen Sie, ob sie in Ihrem besten Interesse arbeiten? 

Wenn Sie Alexa, das Sprachassistent-KI-System von Amazon, fragen, ob Amazon ein Monopol ist, antwortet es mit sagen, es weiß es nicht. Es braucht nicht viel, um es zu schaffen Beschimpfen Sie die anderen Technologiegiganten, aber es schweigt über die Missetaten seiner eigenen Konzernmutter.

Wenn Alexa auf diese Weise reagiert, ist es offensichtlich, dass es die Interessen seiner Entwickler über Ihre Interessen stellt. Normalerweise ist jedoch nicht so offensichtlich, wem ein KI-System dient. Um nicht von diesen Systemen ausgenutzt zu werden, müssen die Menschen lernen, mit KI skeptisch umzugehen. Das bedeutet, dass Sie den Input, den Sie ihm geben, bewusst konstruieren und kritisch über den Output nachdenken.

Neuere Generationen von KI-Modellen machen es mit ihren ausgefeilteren und weniger routinemäßigen Reaktionen schwieriger zu erkennen, wer davon profitiert, wenn er spricht. Dass Internetunternehmen das, was Sie sehen, manipulieren, um ihren eigenen Interessen zu dienen, ist nichts Neues. Die Suchergebnisse von Google und Ihr Facebook-Feed sind gefüllt mit bezahlten Einträgen. Facebook, TikTok und andere manipulieren Ihre Feeds, um die Zeit, die Sie auf der Plattform verbringen, zu maximieren, was mehr Anzeigenaufrufe bedeutet, als Ihr Wohlbefinden.

Was KI-Systeme von diesen anderen Internetdiensten unterscheidet, ist ihre Interaktivität und die Art und Weise, wie diese Interaktionen zunehmend zu Beziehungen werden. Es bedarf keiner großen Extrapolation der heutigen Technologien, um sich KIs vorzustellen, die Reisen für Sie planen, in Ihrem Namen verhandeln oder als Therapeuten und Lebensberater fungieren.


Innerself-Abonnieren-Grafik


Sie sind wahrscheinlich rund um die Uhr für Sie da, kennen Sie genau und können Ihre Bedürfnisse vorhersehen. Diese Art von Konversationsschnittstelle zum riesigen Netzwerk von Diensten und Ressourcen im Web liegt innerhalb der Möglichkeiten bestehender generativer KIs wie ChatGPT. Sie sind auf dem besten Weg, es zu werden personalisierte digitale Assistenten.

Als ein Sicherheitsexperte und DatenwissenschaftlerWir glauben, dass Menschen, die sich auf diese KIs verlassen, ihnen bedingungslos vertrauen müssen, um sich im täglichen Leben zurechtzufinden. Das bedeutet, dass sie sicherstellen müssen, dass die KIs nicht heimlich für jemand anderen arbeiten. Überall im Internet arbeiten Geräte und Dienste, die für Sie zu funktionieren scheinen, insgeheim bereits gegen Sie. Smart-TVs dich ausspionieren. Telefon-Apps Sammeln und verkaufen Sie Ihre Daten. Viele Apps und Websites manipulieren dich durch dunkle Muster, Designelemente, die Website-Besucher absichtlich irreführen, zwingen oder täuschen. Dies ist Überwachungskapitalismus, und KI entwickelt sich zu einem Teil davon. KI spielt eine Rolle im Überwachungskapitalismus, der darauf hinausläuft, Sie auszuspionieren, um mit Ihnen Geld zu verdienen.

Im Dunkeln

Möglicherweise könnte es mit KI noch viel schlimmer sein. Damit dieser digitale KI-Assistent wirklich nützlich ist, muss er Sie wirklich kennen. Besser als Ihr Telefon Sie kennt. Besser als die Google-Suche Sie kennt. Vielleicht besser, als Ihre engen Freunde, Partner und Therapeuten Sie kennen.

Sie haben keinen Grund, den führenden generativen KI-Tools von heute zu vertrauen. Lassen Sie das beiseite Halluzinationen, die erfundenen „Fakten“, die GPT und andere große Sprachmodelle produzieren. Wir gehen davon aus, dass diese weitgehend bereinigt werden, da sich die Technologie in den nächsten Jahren verbessert.

Aber Sie wissen nicht, wie die KIs konfiguriert sind: wie sie trainiert wurden, welche Informationen sie erhalten haben und welche Anweisungen sie befolgen müssen. Zum Beispiel Forscher enthüllte die geheimen Regeln die das Verhalten des Microsoft Bing-Chatbots steuern. Sie sind weitgehend harmlos, können sich aber jederzeit ändern.

Geld verdienen

Viele dieser KIs werden von einigen der größten Technologiemonopolisten mit enormem Aufwand entwickelt und trainiert. Sie werden den Menschen zur kostenlosen Nutzung oder zu sehr geringen Kosten angeboten. Diese Unternehmen müssen sie irgendwie monetarisieren. Und wie im Rest des Internets beinhaltet dies wahrscheinlich auch Überwachung und Manipulation.

Stellen Sie sich vor, Sie bitten Ihren Chatbot, Ihren nächsten Urlaub zu planen. Hat es sich für eine bestimmte Fluggesellschaft, Hotelkette oder ein bestimmtes Restaurant entschieden, weil es für Sie das Beste war oder weil der Hersteller einen Rückschlag von den Unternehmen bekam? Wie bei bezahlten Ergebnissen in der Google-Suche, Newsfeed-Anzeigen auf Facebook und bezahlten Platzierungen bei Amazon-Suchanfragen werden diese bezahlten Einflüsse mit der Zeit wahrscheinlich immer verborgener.

Wenn Sie Ihren Chatbot nach politischen Informationen fragen, werden die Ergebnisse dann durch die Politik des Unternehmens, dem der Chatbot gehört, verzerrt? Oder der Kandidat, der dafür das meiste Geld bezahlt hat? Oder sogar die Ansichten der Bevölkerungsgruppe der Personen, deren Daten beim Training des Modells verwendet wurden? Ist Ihr KI-Agent insgeheim ein Doppelagent? Im Moment gibt es keine Möglichkeit, das herauszufinden.

Vom Gesetz her vertrauenswürdig

Wir glauben, dass die Menschen mehr von der Technologie erwarten sollten und dass Technologieunternehmen und KIs vertrauenswürdiger werden können. Der Vorschlag der Europäischen Union KI-Gesetz unternimmt einige wichtige Schritte und fordert Transparenz über die Daten, die zum Trainieren von KI-Modellen verwendet werden, die Abmilderung potenzieller Verzerrungen, die Offenlegung vorhersehbarer Risiken und die Berichterstattung über branchenübliche Tests. Die Europäische Union treibt die KI-Regulierung voran.

Die meisten vorhandenen KIs nicht nachkommen mit diesem entstehenden europäischen Mandat und trotzdem jüngstes Anstupsen Laut dem Mehrheitsführer im Senat, Chuck Schumer, sind die USA bei einer solchen Regulierung weit im Rückstand.

Die KIs der Zukunft sollten vertrauenswürdig sein. Solange die Regierung keinen soliden Verbraucherschutz für KI-Produkte bereitstellt, werden die Menschen auf sich allein gestellt sein, die potenziellen Risiken und Vorurteile der KI einzuschätzen und ihre schlimmsten Auswirkungen auf die Erfahrungen der Menschen mit ihnen abzumildern.

Wenn Sie also eine Reiseempfehlung oder politische Informationen von einem KI-Tool erhalten, gehen Sie mit der gleichen Skepsis an die Sache heran wie an eine Plakatanzeige oder einen Wahlkampfhelfer. Trotz all seiner technologischen Zauberei ist das KI-Tool möglicherweise kaum mehr als das Gleiche.Das Gespräch

Über den Autor

Bruce Schneier, außerordentlicher Dozent für öffentliche Ordnung, Harvard Kennedy Schule und Nathan Sander, Partner, Berkman Klein Center for Internet & Society, Harvard University

Dieser Artikel wird erneut veröffentlicht Das Gespräch unter einer Creative Commons-Lizenz. Lies das Original Artikel.