Künstliche Intelligenz kann jetzt menschliches Verhalten nachahmen und bald wird es gefährlich gut

Künstliche Intelligenz kann jetzt menschliches Verhalten nachahmen und bald wird es gefährlich gutIst dieses Gesicht nur eine Ansammlung von Computerbits? FOTOCREO Michal Bednarek / Shutterstock.com

Wenn künstliche Intelligenzsysteme kreativ werden, können sie großartige Dinge schaffen - und beängstigende. Nehmen Sie zum Beispiel ein KI-Programm, das es zulässt Webbenutzer komponieren Musik zusammen mit einem virtueller Johann Sebastian Bach indem Sie Noten in ein Programm eingeben, das Bach-ähnliche Harmonien erzeugt, die zu ihnen passen.

Wird von Google ausgeführt, die App drew groß Lob bahnbrechend und lustig zu spielen. Es zog auch an Kritikund äußerte Bedenken hinsichtlich der Gefahren von AI.

Mein Studium wie Neue Technologien beeinflussen das Leben der Menschen hat mir beigebracht, dass die Probleme über die zugegebenermaßen große Sorge hinausgehen ob Algorithmen kann wirklich Musik schaffen oder Kunst im Allgemeinen. Einige Beschwerden schienen klein zu sein, waren es aber nicht, wie Beobachtungen von Googles KI Grundregeln brechen von Musikkomposition.

In der Tat können Bemühungen, Computer zu haben, die das Verhalten von Menschen nachahmen, verwirrend und möglicherweise schädlich sein.

Identitätswechsel-Technologien

Googles Programm analysierte die Notizen in 306 von Bachs musikalischen Werken und fand Beziehungen zwischen der Melodie und den Noten, die die Harmonie bereitstellten. Da Bach strengen Kompositionsregeln folgte, lernte das Programm diese Regeln effektiv und konnte sie anwenden, wenn Benutzer eigene Notizen übermittelten.

Das Google Doodle-Team erklärt das Bach-Programm.


Holen Sie sich das Neueste von InnerSelf


Die Bach-App selbst ist neu, die zugrunde liegende Technologie jedoch nicht. Algorithmen trainiert Muster erkennen und machen probabilistische Entscheidungen habe lange existiert. Einige dieser Algorithmen sind so komplex, dass die Menschen dies tun verstehe nicht immer wie sie Entscheidungen treffen oder ein bestimmtes Ergebnis erzielen.

KI-Systeme sind nicht perfekt - viele von ihnen sind darauf angewiesen Daten, die nicht repräsentativ sind der gesamten Bevölkerung oder das sind beeinflusst durch menschliche Vorurteile. Es ist nicht ganz klar wer könnte rechtlich verantwortlich sein Wenn ein AI-System einen Fehler macht oder ein Problem verursacht.

Nun werden Technologien für künstliche Intelligenz jedoch so weit entwickelt, dass sie den Schreib- oder Sprechstil von Individuen und sogar Gesichtsausdrücke angleichen können. Das ist nicht immer schlecht: Eine ziemlich einfache KI gab Stephen Hawking die Möglichkeit Fähigkeit zu kommunizieren effizienter mit anderen durch die Vorhersage der Wörter, die er am häufigsten verwenden würde.

Komplexere Programme, die menschliche Stimmen imitieren Menschen mit Behinderungen helfen - kann aber auch dazu benutzt werden, um Zuhörer zu täuschen. Zum Beispiel die Macher von Lyrebird, ein Programm, das die Stimme nachahmt, hat a veröffentlicht simulierte Konversation zwischen Barack Obama, Donald Trump und Hillary Clinton. Es mag echt klingen, aber dieser Austausch fand nie statt.

Von gut bis schlecht

Im Februar hat 2019, die gemeinnützige Firma OpenAI, ein Programm erstellt, das Text generiert praktisch nicht vom Text zu unterscheiden von Menschen geschrieben. Es kann eine Rede im Stil von "schreiben" John F. Kennedy, JRR Tolkien in “Der Herr der Ringe”Oder ein Student schreibt eine Schulaufgabe über den US-Bürgerkrieg.

Der von OpenAI-Software erzeugte Text ist so glaubhaft, dass sich das Unternehmen entschieden hat nicht freigeben das Programm selbst.

Ähnliche Technologien können Fotos und Videos simulieren. Im frühen 2018 zum Beispiel hat der Schauspieler und Filmemacher Jordan Peele ein Video erstellt, das den ehemaligen US-Präsidenten Barack Obama zu zeigen schien Dinge, die Obama nie gesagt hat um die Öffentlichkeit vor den Gefahren dieser Technologien zu warnen.

Seien Sie vorsichtig, welche Videos Sie glauben.

Im frühen 2019, a gefälschte Aktfoto des US-Abgeordneten Alexandria Ocasio-Cortez online im Umlauf. Fabrizierte Videos, oft angerufen "DeepfakesWerden erwartet zunehmend benutzt in Wahlkampagnen.

Mitglieder des Kongresses haben begonnen, diese Frage zu untersuchen vor den 2020-Wahlen. Das US-Verteidigungsministerium unterrichtet die Öffentlichkeit wie man Doktorvideos entdeckt und Audio. Nachrichtenorganisationen mögen Reuters fangen an, Journalisten zu trainieren, um tief liegende Daten zu finden.

Aus meiner Sicht besteht jedoch noch ein größeres Anliegen: Die Benutzer können möglicherweise nicht schnell genug lernen, um gefälschte Inhalte zu unterscheiden, da die KI-Technologie komplexer wird. Zum Beispiel, als die Öffentlichkeit langsam von Deepfakes erfährt, wird die KI bereits für noch weiter fortgeschrittene Täuschungen eingesetzt. Es gibt jetzt Programme, die generieren können falsche Gesichter und gefälschte digitale Fingerabdrücke, effektiv die Informationen schaffen, die zur Herstellung einer ganzen Person erforderlich sind - zumindest in Unternehmens- oder Regierungsunterlagen.

Maschinen lernen weiter

Im Moment gibt es genügend potenzielle Fehler in diesen Technologien, um den Menschen die Chance zu geben, digitale Fabrikate zu erkennen. Googles Bach-Komponist Fehler gemacht Ein Experte könnte es erkennen. Als ich es zum Beispiel ausprobierte, erlaubte mir das Programm den Einstieg parallele Fünftel, ein Musikintervall, das Bach fleißig gemieden. Die App auch brach musikalische Regeln Kontrapunkt durch Harmonisierung der Melodien in der falschen Tonart. In ähnlicher Weise schrieb das Textgenerierungsprogramm von OpenAI gelegentlich Phrasen wieFeuer passieren unter Wasser”Das machte in ihrem Kontext keinen Sinn.

Wenn Entwickler an ihren Kreationen arbeiten, werden diese Fehler seltener. KI-Technologien werden sich effektiv entwickeln und lernen. Die verbesserte Leistung hat das Potenzial, viele soziale Vorteile zu bringen - einschließlich einer besseren Gesundheitsversorgung, da AI-Programme helfen die Praxis der Medizin zu demokratisieren.

Um Forschern und Unternehmen die Möglichkeit zu geben, frei zu erforschen, um diese positiven Erfolge von KI-Systemen anzustreben, müssen Sie das Risiko auf sich ziehen, fortschrittlichere Methoden zu entwickeln, um Täuschung und andere soziale Probleme zu verursachen. Die KI-Forschung könnte stark eingeschränkt werden diesen Fortschritt einzudämmen. Aber nützliche Technologien geben Platz zum Wachsen ist mit nicht geringen Kosten verbunden - und das Missbrauchspotenzial, ob ungenaue „Bach-ähnliche“ Musik oder Millionenbetrug, wird wahrscheinlich auf eine Weise wachsen, die die Menschen noch nicht erwarten können.Das Gespräch

Über den Autor

Ana Santos Rutschman, Assistant Professor für Recht, Saint Louis University

Dieser Artikel wird erneut veröffentlicht Das Gespräch unter einer Creative Commons-Lizenz. Lies das Original Artikel.

Bücher zum Thema

{amazonWS: searchindex = Bücher; Schlüsselwörter = künstliche Intelligenz; maxresults = 3}

enafarzh-CNzh-TWnltlfifrdehiiditjakomsnofaptruessvtrvi

Folge InnerSelf weiter

facebook-icontwitter-iconRSS-Symbol

Holen Sie sich das Neueste per E-Mail

{Emailcloak = off}