Warum Technologie die Menschenrechte gefährdet
Spainter_vfx / Shutterstock.com

Filme wie 2001: A Space Odyssey, Blade Runner und Terminator brachte schurkische Roboter und Computersysteme auf unsere Kinoleinwände. Heutzutage scheinen solche klassischen Science-Fiction-Spektakel nicht so weit von der Realität entfernt zu sein.

In zunehmendem Maße leben, arbeiten und spielen wir mit autonomen und intelligenten Computertechnologien. Diese Systeme umfassen Software und Hardware mit der Fähigkeit zur unabhängigen Begründung und Entscheidungsfindung. Sie arbeiten für uns in der Fabrikhalle; Sie entscheiden, ob wir eine Hypothek bekommen können; Sie verfolgen und messen unsere Aktivität und Fitness; Sie reinigen unsere Wohnzimmerböden und schneiden unsere Rasenflächen.

Autonome und intelligente Systeme haben das Potenzial, fast jeden Aspekt unseres sozialen, wirtschaftlichen, politischen und privaten Lebens zu beeinflussen, einschließlich banaler alltäglicher Aspekte. Vieles scheint unschuldig, aber es gibt Grund zur Sorge. Computergestützte Technologien wirken sich auf jedes Menschenrecht aus, vom Recht auf Leben, über das Recht auf Privatsphäre, das Recht auf freie Meinungsäußerung bis hin zu sozialen und wirtschaftlichen Rechten. Wie können wir die Menschenrechte in einer zunehmend von Robotik und künstlicher Intelligenz (KI) geprägten technologischen Landschaft verteidigen?

AI und Menschenrechte

Erstens besteht die reale Befürchtung, dass eine erhöhte Autonomie der Maschinen den Status des Menschen unterminieren wird. Diese Angst wird durch mangelnde Klarheit darüber verstärkt, wer rechtlich oder moralisch zur Verantwortung gezogen wird, wenn intelligente Maschinen Schaden anrichten. Aber ich bin mir nicht sicher, ob der Schwerpunkt unserer Sorge um die Menschenrechte wirklich liegen sollte Schurken-Roboter, wie es derzeit scheint. Wir sollten uns vielmehr Gedanken über den menschlichen Einsatz von Robotern und künstlicher Intelligenz und deren Einsatz in ungerechten und ungleichen politischen, militärischen, wirtschaftlichen und sozialen Kontexten machen.

Diese Sorge ist insbesondere relevant in Bezug auf tödliche autonome Waffensysteme (LAWS), die oft als Killerroboter beschrieben werden. Als wir Bewegen Sie sich in Richtung eines KI-WettrüstensMenschenrechtsforscher und Aktivisten wie Christof Heyns, der ehemalige UN-Sonderberichterstatter für außergerichtliche, summarische oder willkürliche Hinrichtungen, befürchten, dass der Einsatz von LAWS autonome Robotersysteme schaffen wird verantwortlich für Entscheidungen über Leben und Todmit eingeschränkter oder keiner menschlichen Kontrolle.


Innerself-Abonnieren-Grafik


AI revolutioniert auch die Verbindung zwischen Kriegs- und Überwachungspraktiken. Gruppen wie die Internationales Komitee für Roboterarmkontrolle (ICRAC) haben kürzlich ihre Ablehnung der Teilnahme von Google an Projekt Mavenein militärisches Programm, das mithilfe von maschinellem Lernen Drohnen-Überwachungsmaterial analysiert, das für außergerichtliche Tötungen verwendet werden kann. ICRAC Berufung Google stellt sicher, dass die Daten, die es für seine Nutzer erfasst, niemals für militärische Zwecke verwendet werden, und schließen sich Protesten von Google-Mitarbeitern über die Beteiligung des Unternehmens an dem Projekt an. Google hat das kürzlich angekündigt wird nicht erneuert werden sein Vertrag.

In 2013 wurde das Ausmaß der Überwachungspraktiken von Edward Snowden hervorgehoben Enthüllungen. Diese haben uns viel über die Bedrohung des Rechts auf Privatsphäre und den Austausch von Daten zwischen Nachrichtendiensten, Regierungsbehörden und privaten Unternehmen gelehrt. Die jüngste Kontroverse um Cambridge AnalytikDie Erhebung personenbezogener Daten über die Nutzung von sozialen Medien wie Facebook sorgt weiterhin für ernsthafte Besorgnis, diesmal wegen Manipulation und Einmischung in demokratische Wahlen, die das Recht auf freie Meinungsäußerung beeinträchtigen.

Unterdessen fordern kritische Datenanalytiker heraus diskriminierende Praktiken verbunden mit dem, was sie AI "White Guy Problem" nennen. Dies ist die Sorge, dass KI-Systeme, die auf vorhandenen Daten geschult sind, bestehende Rassen- und Geschlechterstereotype reproduzieren, die diskriminierende Praktiken in Bereichen wie Polizeiarbeit, Gerichtsentscheidungen oder Beschäftigung aufrechterhalten.

AI kann Stereotypen replizieren und festhalten.
AI kann Stereotypen replizieren und festhalten.
Ollyy / Shutterstock.com

Mehrdeutige Bots

Die potentielle Bedrohung durch Computertechnologien für die Menschenrechte und für die physische, politische und digitale Sicherheit wurde in einer kürzlich veröffentlichten Studie zum Thema Der böswillige Einsatz künstlicher Intelligenz. Die in diesem Bericht der University of Cambridge geäußerten Bedenken müssen ernst genommen werden. Aber wie sollen wir mit diesen Bedrohungen umgehen? Sind Menschenrechte für das Zeitalter der Robotik und KI bereit?

Es gibt anhaltende Bemühungen, die bestehenden Menschenrechtsgrundsätze für diese Ära zu aktualisieren. Dazu gehören die UN Framing und Leitprinzipien für Wirtschaft und Menschenrechte, versucht, ein zu schreiben Magna Carta für das digitale Zeitalter und das Future of Life Institute Asilomar AI Prinzipien, die Richtlinien für ethische Forschung, Wertetreue und eine Verpflichtung zur längerfristigen Entwicklung von KI identifizieren.

Diese Bemühungen sind lobenswert, aber nicht ausreichend. Regierungen und Regierungsbehörden, politische Parteien und private Unternehmen, insbesondere die führenden Technologieunternehmen, müssen sich zu ethischen Zwecken der KI verpflichten. Wir brauchen auch eine wirksame und durchsetzbare gesetzgeberische Kontrolle.

Welche neuen Maßnahmen wir auch einführen, es ist wichtig zu erkennen, dass unser Leben zunehmend mit autonomen Maschinen und intelligenten Systemen verflochten ist. Diese Verstrickung fördert das menschliche Wohlergehen in Bereichen wie der medizinischen Forschung und Behandlung, in unserem Transportsystem, in Sozialeinrichtungen und in den Bemühungen, die Umwelt zu schützen.

Aber in anderen Bereichen wirft diese Verstrickung besorgniserregende Aussichten auf. Computational Technologies werden verwendet, um unsere Handlungen und Verhaltensweisen zu beobachten und zu verfolgen, verfolgen unsere Schritte, unseren Standort, unsere Gesundheit, unseren Geschmack und unsere Freundschaften. Diese Systeme prägen das menschliche Verhalten und bringen uns zu Praktiken der Selbstüberwachung, die unsere Freiheit einschränken und die Ideen und Ideale der Menschenrechte untergraben.

Das GesprächUnd hier liegt der Kern: Die Fähigkeit zur doppelten Nutzung von Computertechnologien verwischt die Grenze zwischen wohltätigen und böswilligen Praktiken. Darüber hinaus sind computergestützte Technologien tief in die ungleichen Machtverhältnisse zwischen einzelnen Bürgern, dem Staat und seinen Behörden und privaten Unternehmen verwickelt. Wenn sie sich von wirksamen nationalen und internationalen Systemen der Kontrolle und Kontrolle lösen, stellen sie eine echte und besorgniserregende Bedrohung für unsere Menschenrechte dar.

Über den Autor

Birgit Schippers, Gastwissenschaftlerin, Senatorin George J Mitchell Institut für globalen Frieden, Sicherheit und Recht, Queens University Belfast

Dieser Artikel wurde ursprünglich veröffentlicht am Das Gespräch.. Lies das Original Artikel.

Bücher zum Thema

{amazonWS:searchindex=Books;Birgit Schippers=innerself" target="_blank" rel="nofollow noopener">InnerSelf Market und Amazon