Wie Uber und andere digitale Plattformen uns mit Behavioral Science austricksen können Ihr Standort ist nicht alles, was er weiß. AP Foto / Mary Altaffer

Das Geschäftsmodell von Uber ist unglaublich einfach: Es ist eine Plattform, die den Austausch zwischen Menschen erleichtert. Und Uber war unglaublich erfolgreich, Fast die Transaktionskosten zu beseitigen of Geschäfte machen von der Beförderung von Menschen in der Stadt bis zur Lieferung von Lebensmitteln.

Wenn Sie Uber verwenden - oder vielleicht auch wenn du nicht - Es kennt eine Schatztruhe an Daten über Sie, einschließlich Ihres Standorts, Ihres Geschlechts, Ihrer Ausgaben, Ihrer Kontakte, Akkuladestand des Telefons und sogar ob Sie von einem One-Night-Stand auf dem Heimweg sind. Es kann bald wissen ob du betrunken bist oder nicht.

Kombinieren Sie all diese Daten mit Uber's Expertise bei der Analyse durch die Linse von Verhaltensforschung und Sie haben ein gefährliches Potenzial, Benutzer für Profit auszunutzen.

Uber ist kaum allein. Unsere Forschung zeigt Die größten digitalen Plattformen - Airbnb, Facebook, eBay und andere - sammeln so viele Daten über unser Leben, dass sie ihre Benutzer bereits in großem Umfang manipulieren können. Sie können Verhalten vorhersagen und unsere Entscheidungen darüber beeinflussen, wohin geklickt, geteilt und ausgegeben wird.

Während die meisten Plattformen noch nicht alle diese Funktionen nutzen, kann die Manipulation durch verhaltenspsychologische Techniken leise erfolgen und wenig Spuren hinterlassen. Wenn wir jetzt keine Verkehrsregeln festlegen, wird es viel schwieriger sein, sie später zu erkennen und anzuhalten.


Innerself-Abonnieren-Grafik


"Choice Architektur"

Eine Plattform kann ein beliebiger Bereich sein, der Transaktionen zwischen Käufern und Verkäufern erleichtert. Traditionelle Beispiele sind Flohmärkte und Börsen.

Eine digitale Plattform dient demselben Zweck, gibt dem Eigentümer jedoch die Möglichkeit, seine Benutzer zu „vermitteln“, während sie sie verwenden - und oft, wenn sie dies nicht tun. Damit meinen wir, dass es eine unglaubliche Menge an Informationen über das Nutzerverhalten beobachten und lernen kann, um das zu perfektionieren, was Verhaltenswissenschaftler nennen. “auserlesene Architekturen, “Unauffällige Designelemente, die das menschliche Verhalten durch die Präsentation von Entscheidungen beeinflussen sollen.

Wie Uber und andere digitale Plattformen uns mit Behavioral Science austricksen können Uber weiß, wann der Akku Ihres Telefons schwach wird. boyhey / Shutterstock.com

Zum Beispiel Uber hat mit seinen Treibern experimentiert Ermittlung der effektivsten Strategien, um sie so lange wie möglich auf der Straße zu halten. Zu diesen Strategien gehört es, kognitive Vorurteile wie Verlustaversion zu berücksichtigen und Ereignisse mit geringer Wahrscheinlichkeit zu überschätzen, selbst wenn ein Fahrer kaum genug Geld verdient, um es sich zu lohnen. Fahrer landen wie Spieler in einem Casino und müssen trotz der Gewinnchancen etwas länger spielen.

Uber antwortete nicht sofort auf eine Bitte um einen Kommentar.

Airbnb experimentiert auch mit seinen Nutzern. Es hat Verhaltenswissenschaften verwendet Hosts dazu zu bringen, ihre Preise zu senken und Buchungen zu akzeptieren, ohne Gäste zu überprüfen - was echte Risiken für Hosts mit sich bringt, insbesondere wenn sie ihre eigene Wohnung teilen.

Obwohl diese Beispiele relativ harmlos erscheinen, zeigen sie, wie digitale Plattformen Systeme im Hintergrund entwerfen können, um die Aktionen der Benutzer auf potenziell manipulative Weise zu steuern.

Und wenn Plattformen wachsen, werden sie nur zu Architekten mit besserer Wahl. Durch den enormen Zufluss von Investorengeldern an den Börsengang werden mehr Daten und VerhaltensforschungUber könnte in ein gefährlich unethisches Gebiet vordringen - leicht vorstellbar angesichts seiner bisherigen Praktiken.

Wenn die App beispielsweise erkennt, dass Sie betrunken sind oder sich in einer Gegend befinden, in die Sie selten reisen - und deren Daten eine hohe Kriminalitätsrate aufweisen -, wird möglicherweise eine höhere Gebühr erhoben, da Sie wissen, dass Sie diese wahrscheinlich nicht ablehnen werden.

Rechtliche Herausforderungen

Und es ist nicht alles Spekulation.

In dem Bestreben, die Strafverfolgungsbehörden zu täuschen und zu versuchen, das Unternehmen zu untersuchen, hat Uber es tatsächlich getan einen Weg gefunden, um staatliche Regulierungsbehörden zu identifizieren versucht, seine App zu verwenden, und verhindert dann, dass sie Fahrten bekommen.

Das ist ein Grund, warum Gesetzgeber und Aufsichtsbehörden habe diskutiert die schwierigen, miteinander verbundenen Rollen von Verhaltenswissenschaft und -technologie jahrelang. Und einige Unternehmen, Uber wurden insbesondere auf eine Vielzahl von schlechten Geschäftspraktiken untersucht, von Unterscheidung zu Missbrauch von Benutzerdaten.

Aber die meisten Manipulationen, die wir identifiziert haben und über die wir uns Sorgen machen, sind nicht ausdrücklich illegal. Und weil die Regulierungsbehörden mit dem sich ständig weiterentwickelnden Einsatz von Technologie und Entscheidungsarchitektur oft nicht Schritt halten können, dürfte dies auch so bleiben.

Angesichts des Fehlens klar definierter und durchsetzbarer rechtlicher Vorgaben wird die Neigung der Plattformunternehmen, Verhaltenswissenschaften auf Kosten der Nutzer zu nutzen, weitgehend unkontrolliert bleiben.

Ein ethischer Kodex

Aus unserer Sicht besteht eine Lösung darin, einen Ethikkodex festzulegen, dem Plattformunternehmen folgen müssen. Und wenn sie es nicht bereitwillig annehmen, können es Investoren, Mitarbeiter und Nutzer verlangen.

Seit der Mitte des 20. Jahrhunderts werden Verhaltenskodizes verfasst war eine Heftklammer von US-Unternehmen. Die juristischen und medizinischen Berufe haben sich auf sie verlassen für Jahrtausende. Und Suchvorschläge Sie fördern effektiv ethisches Verhalten in Unternehmen.

Wir haben Hunderte von Ethikkodizes überprüft, einschließlich solcher, die sich an Technologie- und Computerunternehmen richten. Basierend auf unseren Untersuchungen fordern wir digitale Plattformen dringend auf, fünf ethische Richtlinien zu verabschieden:

  1. Alle auf einer Plattform verwendeten Architekturen sollten vollständig transparent sein. Plattformen sollten offenlegen, wann sie verhaltenswissenschaftliche Instrumente einsetzen, um das Nutzerverhalten zu beeinflussen

  2. Benutzer sollten in der Lage sein, auf der Plattform frei und einfach Entscheidungen zu treffen, und Auswahlarchitekten sollten Verhaltensinterventionen auf Erinnerungen oder Eingabeaufforderungen beschränken, die die Benutzerautonomie am wenigsten beeinträchtigen

  3. Plattformen sollten vermeiden, Benutzer auf eine Weise zu „stupsen“, die unbewusste und irrationale Entscheidungen ausnutzt, die auf Impulsen und Emotionen beruhen. Neue Forschung zeigt, dass transparente Entscheidungsarchitektur genauso gut funktionieren kann

  4. Plattformen sollten ihre Macht erkennen und darauf achten, die von ihnen geschaffenen Märkte nicht auszunutzen, indem sie unter anderem Informationsasymmetrien zwischen sich und den Nutzern missbrauchen oder sich gegen angemessene Vorschriften aussprechen

  5. Plattformen sollten die Verwendung von Choice-Architekturen vermeiden, die Benutzer davon abhalten, in ihrem eigenen Interesse zu handeln. Als Nobelpreisträger Verhaltensökonom Richard Thaler Leg es, wir sollten nur "für immer stupsen."

Big Tech und Verhaltensforschung sind jetzt so integriert, dass Unternehmen von Anfang an unglaublich erfolgreich sind summende Zahnbürsten die machen zähne putzen scheinen sich zu lohnen Verwenden von Texten, um ärmere Mütter dazu zu bewegen, die Gesundheitsfürsorge zu nutzen.

Obwohl die Ergebnisse unser Leben erheblich verbessern können, ist es für Unternehmen so einfach wie nie zuvor, Benutzer zu manipulieren, um ihr Geschäftsergebnis zu verbessern.Das Gespräch

Über den Autor

Abbey Stemler, Assistenzprofessor für Wirtschaftsrecht und Ethik, Indiana University; Joshua E. Perry, außerordentlicher Professor für Wirtschaftsrecht und Ethik, Indiana Universityund Todd Haugh, Assistenzprofessor für Wirtschaftsrecht und Ethik, Indiana University

Dieser Artikel wird erneut veröffentlicht Das Gespräch unter einer Creative Commons-Lizenz. Lies das Original Artikel.

Bücher zum Thema

at InnerSelf Market und Amazon