Die dunkle Seite der künstlichen Intelligenz

Künstliche Intelligenz ist in der Lage, menschliches Verhalten zu manipulieren. Um diese Gefahr zu vermeiden, muss die Arbeit der Algorithmen transparent werden und klaren Regeln und vor allem der menschlichen Kontrolle unterliegen.

Was sind die Gefahren der KI?

Künstliche Intelligenz und Datenschutz

Die Geschwindigkeit der Informationserfassung, Skalierbarkeit und Automatisierung von KI ist entscheidend. Die Geschwindigkeit, mit der KI Berechnungen durchführt, ist viel höher als die des Menschen und kann durch den Einsatz zusätzlicher Hardware gesteigert werden. KI ist grundsätzlich darauf ausgelegt, große Datensätze für die Analyse zu verwenden, und ist die einzige Möglichkeit, eine angemessene Datenmenge in kurzer Zeit zu verarbeiten. KI mit maschinellem Lernen kann die Aufgabe unbeaufsichtigt bewältigen, was die Effizienz der Analyse erhöht. Zweifellos sind diese Funktionen beeindruckend, aber es gibt auch eine Kehrseite. Alle diese Funktionen beeinträchtigen die Privatsphäre aus mehreren Gründen.

Datenmanipulation

Computersoftware und Anwendungen für intelligente Heimsysteme weisen bestimmte Merkmale auf, die sie angreifbar machen. Die Situation verschlimmert sich, da jedes Jahr mehr und mehr Geräte an das weltweite Netz angeschlossen werden und das Bewusstsein der Verbraucher darüber, wie Daten übertragen, gespeichert und verarbeitet werden, gering ist. Mit anderen Worten: Die Menschen verlassen sich zunehmend auf das Internet und ihre Geräte, wissen aber nicht, was mit den Informationen geschieht, die sie online versenden.

Nachverfolgung

Künstliche Intelligenz wird eingesetzt, um Personen zu finden und zu verfolgen. Sie kann Daten aus einer Vielzahl von Quellen analysieren. In der Praxis bedeutet dies, dass es mit Hilfe von Elektronik und einem bestimmten Programm ohne große Schwierigkeiten möglich ist, die Bewegungen einer beliebigen Person in der Stadt zu verfolgen. Diese Informationen sollten vertraulich sein, aber die KI verwischt die Grenzen zwischen privat und öffentlich..

Biometrische Erkennung

Algorithmen der künstlichen Intelligenz werden zunehmend zur Authentifizierung von Benutzern eingesetzt. Üblicherweise wird die biometrische Authentifizierung per Stimme, Fingerabdruck und Gesichtsscan diskutiert. Alle diese Methoden gefährden die Anonymität einer Person an einem öffentlichen Ort. Die Sicherheitsdienste setzen beispielsweise ohne richterlichen Beschluss Gesichtserkennungssoftware ein, um die richtigen Personen in der Menge zu finden und ihre Handlungen zu verfolgen.

Aktionen vorhersagen

Künstliche Intelligenz kann mit Hilfe des maschinellen Lernens Ereignisse aus verfügbaren Daten vorhersagen. Zum Beispiel ist es möglich, die Reaktionen und den emotionalen Zustand einer Person auf der Grundlage ihrer Verhaltensmuster vorherzusagen. Darüber hinaus sind moderne Programme in der Lage, Geschlecht, Alter, Rasse, politische Ansichten usw. einer Person aus Sprach- oder Textnotizen zu bestimmen.

Klassifizierung

KI kann Informationen sammeln und sie nach beliebigen Parametern sortieren. Oft erfolgt eine solche Datenverarbeitung ohne die Zustimmung des Nutzers, und niemand kann vorhersagen, welche Folgen dies haben wird. Eine Variante sind neue Formen der Diskriminierung. Das anschaulichste Beispiel ist das Experiment mit dem sozialen Ranking in China, bei dem Menschen mit unzureichend hohem Ranking Kredite oder andere Dienstleistungen verweigert werden können. Dass beliebte Plattformen mit treuen Nutzern wie Google und Facebook ihre Nutzer besser kennen als deren Verwandte und Freunde, ist keine Übertreibung. Viele Unternehmen sammeln eine beträchtliche Menge an Informationen als Input für ihre Algorithmen. So können selbst die Likes von Facebook-Nutzern eine Reihe von Eigenschaften genau bestimmen: Alter, Geschlecht, sexuelle Orientierung, ethnische Zugehörigkeit, religiöse und politische Ansichten, persönliche Eigenschaften, Glücksgrad, Intelligenz, ob die Eltern geschieden sind und ob sie Suchtmittel konsumieren. Nehmen wir an, dass einzigartige Algorithmen auf der Grundlage künstlicher Intelligenz (KI) so viele Schlussfolgerungen ziehen können, die nur auf der Situation basieren, in der die Nutzer auf die Gefällt mir"-Schaltfläche klicken. In diesem Fall können Sie sich vorstellen, wie viele Daten aus den Informationen darüber gewonnen werden, welche Schlüsselwörter die Menschen bei der Suche verwenden, was sie anklicken, was sie posten und was sie kommentieren. All dies gilt nicht nur für Technologieunternehmen. Wenn KI-Algorithmen eine zentrale Rolle im digitalen Leben der Menschen einnehmen, birgt das Risiken. So kann der Einsatz von KI am Arbeitsplatz für ein Unternehmen zwar einen Produktivitätsgewinn bedeuten, gleichzeitig aber auch eine Verringerung der Fähigkeiten der Arbeitnehmer. Die Entscheidungsfindung auf der Grundlage von KI-Empfehlungen ist oft nicht unvoreingenommen und kann zu Diskriminierung führen (insbesondere bei Personalentscheidungen, beim Zugang zu Krediten, zur Gesundheitsversorgung, zu Wohnraum und in anderen Bereichen). Aber KI birgt noch eine weitere potenzielle Gefahr, die noch nicht ausreichend untersucht wurde: die Manipulation menschlichen Verhaltens. Manipulative Marketingstrategien gibt es im Prinzip schon lange. Aber die Hinzufügung riesiger Datenmengen, die von algorithmischen KI-Systemen verarbeitet werden, hat die Möglichkeiten der Unternehmen, die Entscheidungen und das Verhalten ihrer Kunden so zu steuern, dass mehr Umsatz erzielt wird, erheblich erweitert. Die digitale Technologie ermöglicht es den Unternehmen, das System zu optimieren, den Zeitpunkt zu steuern, zu dem die Nutzer ihre Angebote sehen, und jeden Nutzer individuell anzusprechen - manipulative Strategien sind viel effektiver und schwieriger zu erkennen. Die Manipulation selbst kann verschiedene Formen annehmen: von der Ausnutzung persönlicher Vorlieben, die von KI-Algorithmen erkannt werden, über personalisierte Strategien, die darauf abzielen, die Gewohnheit des Konsums bestimmter (Online-)Produkte zu formen, bis hin zum Ausnutzen des unausgeglichenen emotionalen Zustands der Nutzer, wenn potenziellen Kunden bestimmte Produkte und Dienstleistungen angeboten werden, die zu ihrem momentanen emotionalen Zustand passen und daher impulsiv gekauft werden. Diese Manipulation wird oft von intelligenten Designtaktiken, Verdrängungsmarketing und allgegenwärtiger verhaltensbedingter Preisdiskriminierung begleitet, die darauf abzielen, die Nutzer zu unrentablen Entscheidungen zu bewegen, die von KI-gestützten Unternehmen leicht zu Geld gemacht werden können. Das gemeinsame Hauptmerkmal solcher Strategien ist, dass sie die Rentabilität der Unternehmen erhöhen, indem sie den wirtschaftlichen Wert, den ein Nutzer aus den Online-Diensten ziehen würde, verringern..

Bedrohungen für das politische System

Deepfake (von deep learning und fake) ist eine Methode zur Synthese menschlicher Bilder und/oder Stimmen mithilfe von KI. Diese Technologie wird missbraucht, um digitale Originalvideos von berühmten Schauspielern, Staatsoberhäuptern usw. zu erstellen. Experten warnen, dass Deepfakes realistisch genug sein können, um künftige Wahlen und die Weltpolitik zu manipulieren, was sie zu einem potenziell gefährlichen Mittel macht, um das Verhalten sowohl von Einzelpersonen als auch von großen Zielgruppen zu beeinflussen. Mit der richtigen Vorbereitung können Deepfakes finanzielle Panik, Handel oder andere gefährliche Folgen auslösen..

Festlegung und Verankerung einer Agenda

Studien zeigen, dass Bots bereits 2016 mehr als 50 % des Internetverkehrs ausmachten. Organisationen, die Inhalte künstlich fördern, können die Agenda manipulieren: Je häufiger Menschen einen bestimmten Bereich sehen, desto wichtiger erscheint er ihnen. Die Schädigung des Rufs durch Bots während politischer Kampagnen kann beispielsweise von terroristischen Gruppen genutzt werden, um neue Anhänger zu gewinnen oder Attentate auf Politiker zu organisieren.

Erfolg auf Kosten der Intransparenz

Der Erfolg solcher manipulativen Strategien geht auf Kosten mangelnder Transparenz. Die Nutzer von KI-Systemen kennen in vielen Fällen nicht die grundlegenden Ziele der KI-Algorithmen und wissen nicht, wie ihre sensiblen persönlichen Daten verwendet werden, um diese Ziele zu erreichen. Der US-Einzelhändler Target nutzte KI und Datenanalyse, um die Schwangerschaft von Frauen vorherzusagen und ihnen versteckte Werbung für Babyprodukte zu schicken. Uber-Nutzer haben sich darüber beschwert, dass Fahrten teurer sind, wenn die Bestellung von einem Smartphone mit niedrigem Akkustand aus erfolgt, obwohl der Akkustand im Preismodell des Unternehmens offiziell nicht berücksichtigt wird. Eines der Beispiele ist die Entscheidung der Europäischen Kommission gegen Google (im Juni 2017. Die Europäische Kommission hat eine gigantische Strafe von 2,4 Milliarden Euro gegen Google verhängt, weil es seine marktbeherrschende Stellung ausgenutzt hat. Laut der Europäischen Kommission bot das Unternehmen Nutzern, die online nach bestimmten Produkten suchten, vor allem Produkte des eigenen Dienstes an). Zwei Jahre später verhängte die US-amerikanische Federal Trade Commission gegen Facebook eine Rekordstrafe in Höhe von 5 Mrd. US-Dollar wegen der Manipulation vertraulicher Nutzerdaten (was letztlich zu einer Verringerung der Qualität des Dienstes führte). Um die Möglichkeit der KI-gestützten Verhaltensmanipulation zu bewerten, können wir einen theoretischen Rahmen verwenden, der sich in einer 2021 veröffentlichten Studie widerspiegelt. Die Studie konzentriert sich auf die erheblichen Schwachstellen, die KI-Algorithmen auf Plattformen erkennen. Dazu gehört, dass Nutzern Werbung für Produkte geschickt wird, die sie zu bestimmten Zeiten impulsiv kaufen, auch wenn die Qualität dieser Produkte gering ist und sie keinen Mehrwert für sie haben. Die Arbeit hat gezeigt, dass diese Strategie den potenziellen Nutzen der Nutzung von Plattformen für den Verbraucher verringert, den Nutzen für das Forum erhöht, das übliche Konsumverhalten verzerrt und zusätzliche Ineffizienzen erzeugt. Auch die Möglichkeit, menschliches Verhalten mit KI-Algorithmen zu manipulieren, wurde in Experimenten beobachtet. Drei solcher Experimente werden in einem im Jahr 2020 veröffentlichten Papier ausführlich beschrieben. Das erste bestand aus Versuchen, gefälschtes Geld zu gewinnen: Die Teilnehmer wählten linke und rechte Bilder auf Bildschirmen aus. Nach jedem dieser Versuche wurde den Teilnehmern mitgeteilt, ob ihre Wahl belohnt würde. Das Experiment ermöglichte es, die KI-Systeme zu trainieren: Sie kannten das Wahlmuster jedes Teilnehmers und wiesen ihm eine Belohnung zu, wenn er die richtige Taste drückte. Das Spiel hatte jedoch eine Einschränkung: Sowohl die linke als auch die passende Option waren gewinnbar, und der Preis wurde für beide Optionen gleich oft vergeben. Die Aufgabe der KI bestand darin, die Teilnehmer zu ermutigen, eine Option zu wählen (z. B. das linke Bild). Und in 70 % der Versuche gelang es der KI, dieses Ziel zu erreichen. Im zweiten Experiment wurden die Teilnehmer aufgefordert, einen Knopf zu drücken, wenn sie ein bestimmtes Bild auf dem Bildschirm sahen, und ihn nicht zu drücken, wenn ihnen ein anderes Bild gezeigt wurde. Die Aufgabe des KI-Systems in diesem Experiment bestand darin, die Bilder in der Reihenfolge zu zeigen, die die meisten Teilnehmer zu Fehlern veranlasste. Das Ergebnis war, dass die Anzahl der Fehler um fast ein Viertel zunahm. Das dritte Experiment wurde in mehreren Durchgängen durchgeführt. Dabei gaben die Teilnehmer vor, Investoren zu sein, die Geld in einen Treuhandfonds einlegten - die Rolle des Treuhänders wurde von der KI übernommen. Die KI übernahm die Rolle des Treuhänders. Anschließend gab der Treuhänder das Geld an den Spieler zurück, der seinerseits entschied, wie viel er in der nächsten Runde investieren wollte. Für dieses Spiel wurden zwei verschiedene Modi verwendet: Im ersten Fall bestand die Aufgabe der KI darin, den Geldbetrag zu maximieren, den sie am Ende der Runde erhalten hatte; im zweiten Fall war die KI an einer gerechten Verteilung der Mittel zwischen ihr und dem Investor interessiert. Die KI hat ihre Aufgabe in beiden Fällen erfüllt. Die wichtige Schlussfolgerung aus all diesen Experimenten ist, dass die KI lernte, indem sie die Reaktionen der Menschen beobachtete und bestimmte Schwachstellen in deren Entscheidungsfindung erkannte. Und schließlich konnte die KI die Teilnehmer dazu bringen, bestimmte Entscheidungen zu treffen.

Ein Gegengewicht zur Manipulation


Wenn private Unternehmen KI-gestützte Systeme entwickeln, ist ihr primäres Ziel die Gewinnerzielung. Da solche Systeme menschliches Verhalten erlernen können, können sie die Nutzer auch zu bestimmten Handlungen bewegen, die für die Unternehmen von Vorteil sind, selbst wenn dies aus Sicht des Nutzers nicht die beste Wahl ist. Die Möglichkeit einer solchen Verhaltensmanipulation erfordert Maßnahmen, die die menschliche Autonomie bei der Interaktion mit KI sicherstellen. KI sollte den Menschen nicht unterjochen und täuschen, sondern seine Fähigkeiten ergänzen und seine Möglichkeiten verbessern (gemäß den Leitlinien der Europäischen Kommission zur KI-Ethik). Der erste wichtige Schritt zur Erreichung dieses Ziels besteht darin, die Transparenz über den Umfang des Einsatzes und der Fähigkeiten von KI zu erhöhen. Das Verständnis dafür, wie KI ihre Ziele erreicht, muss glasklar sein. Die Nutzer müssen wissen, wie die Algorithmen ihre Daten (sensible persönliche Informationen) nutzen. Die allgemeine Datenschutzverordnung in der EU sieht ein sogenanntes Erklärungsrecht vor, das auf mehr Transparenz bei KI-Systemen abzielt, aber dieses Ziel ist noch nicht erreicht. Die Frage eines solchen Rechts wurde heftig diskutiert, und seine Anwendung war minimal. Systeme, die künstliche Intelligenz nutzen, werden oft mit einer "Black Box" verglichen - niemand weiß genau, wie sie funktionieren. Folglich ist es schwierig, hier Transparenz zu schaffen. Bei der Manipulation ist dies jedoch nicht der Fall. Ein Anbieter von KI-Systemen kann spezielle Einschränkungen festlegen, um eine Manipulation des Nutzerverhaltens zu vermeiden. Hier liegt die Herausforderung eher darin, wie diese Systeme gestaltet werden und welche Zielfunktion sie haben (einschließlich der Einschränkungen). Die Manipulation eines Algorithmus sollte im Prinzip von seinen Entwicklern erklärt werden, die den algorithmischen Code schreiben und die Funktionsweise des Algorithmus beobachten. Gleichzeitig sollten Informationen darüber, wie die in den Algorithmus eingebetteten Daten gesammelt werden, transparent sein. Verdächtiges Verhalten von Algorithmen muss nicht immer das Ergebnis ihrer Zielfunktion sein; es kann auch an der Qualität der Rohdaten liegen, die zum Trainieren und Ausbilden der Algorithmen verwendet wurden. Ein zweiter wichtiger Schritt zur Begrenzung der negativen Folgen von Algorithmen besteht darin, sicherzustellen, dass alle Entwickler von KI-Systemen die Anforderung der Transparenz einhalten. Um dies zu erreichen, müssen drei Bedingungen erfüllt sein: Die Arbeit der KI und ihre Ergebnisse müssen einer genauen menschlichen Prüfung unterzogen werden. Artikel 14 des EU-Gesetzes über künstliche Intelligenz (Artificial Intelligence Act, AIA) legt nahe, dass der Anbieter eines KI-Systems einen menschlichen Kontrollmechanismus vorsehen muss. Darüber hinaus hat der Anbieter natürlich auch ein wirtschaftliches Interesse an der Überwachung der Leistung seines KI-Systems. Die menschliche Aufsicht muss Grundsätze der Rechenschaftspflicht beinhalten, um die richtigen Anreize für die Anbieter zu schaffen. Das bedeutet auch, dass die Verbraucherschutzdienste ihre technischen Fähigkeiten verbessern und bereit sein müssen, KI-Systeme zu testen, um Verstöße korrekt zu bewerten und die Einhaltung der Rechenschaftspflicht zu gewährleisten. Die Transparenz über die Funktionsweise von KI-Systemen sollte es den Nutzern nicht erschweren, ihre Funktionsweise zu verstehen. Um dies zu erreichen, sollten die Informationen über den Umfang und die Fähigkeiten der KI in zwei Ebenen unterteilt werden. Die erste Ebene, die für die Nutzer bestimmt ist, sollte kurze, klare und einfache Beschreibungen enthalten; die zweite Ebene, die für die Vertreter des Verbraucherschutzes bestimmt ist, sollte mehr Details und jederzeit verfügbare Informationen enthalten. Eine verbindliche Vorschrift für die Transparenz von KI wird ein klareres Bild von den Zielen der KI-Systeme und der Art und Weise, wie sie diese erreichen, vermitteln. Dies erleichtert den dritten wichtigen Schritt: die Entwicklung von Regeln, die verhindern, dass KI-Systeme verdeckte manipulative Strategien anwenden, die wirtschaftlichen Schaden verursachen. Diese Regeln, an die sich die Anbieter sowohl bei der Entwicklung als auch bei der Implementierung von KI-Systemen halten müssen, werden einen Rahmen schaffen, der die Funktionen der KI einschränkt. Diese Regeln sollten jedoch keine übermäßigen Beschränkungen enthalten, die die durch diese Systeme geschaffene wirtschaftliche Effizienz (für den Einzelnen und die Gesellschaft) untergraben oder die Anreize für Innovationen und die Einführung von KI verringern könnten. Aber selbst wenn die oben beschriebenen Einschränkungen angenommen werden, wird es schwierig sein, Manipulationen in der Praxis aufzudecken. KI-Systeme sind so konzipiert, dass sie auf das Verhalten eines bestimmten Nutzers reagieren, indem sie ihm die bestmöglichen Optionen anbieten. Es ist nicht immer einfach, den Unterschied zwischen einem Algorithmus, der die beste Empfehlung auf der Grundlage des Nutzerverhaltens ausspricht, und einem Algorithmus, der das Nutzerverhalten manipuliert, indem er nur Optionen empfiehlt, die den Gewinn des Unternehmens maximieren, zu begründen. Im Fall von Google hat die Europäische Kommission etwa zehn Jahre gebraucht, um dies zu tun, und sie musste eine riesige Menge an Daten sammeln, um zu beweisen, dass der Internet-Suchriese Suchergebnisse manipuliert. Die Schwierigkeit, die skizzierten Grundsätze praktisch anzuwenden, führt dazu, dass die Öffentlichkeit für die Risiken des Einsatzes von KI sensibilisiert werden muss. Erziehungsprogramme und Schulungen (bereits in jungen Jahren) sind notwendig, um die Menschen für die Gefahren des Online-Verhaltens zu sensibilisieren. Dies wird auch dazu beitragen, die psychologischen Folgen von KI und anderen süchtig machenden technologischen Strategien zu verringern, insbesondere bei Jugendlichen. Der öffentliche Dialog über die negativen Auswirkungen der KI und darüber, wie sich die Menschen davor schützen können, muss verstärkt werden. KI kann der Gesellschaft enorme Vorteile bringen. Um die Vorteile der KI-Revolution zu nutzen, ist ein angemessener Rechtsrahmen erforderlich, um die potenziellen Risiken der KI-Entwicklung und -Einführung zu minimieren und die Nutzer angemessen zu schützen. Das menschliche Verständnis für neue Bedrohungen, deren Zahl nur noch zunehmen wird, bleibt hinter den sich schnell verändernden Realitäten der modernen Welt zurück. Experten aus verschiedenen Ländern warnen vor neuen und vielversprechenden Risiken, die mit der rasanten Entwicklung der Technologie einhergehen. Die Liste solcher Gefahren wird weiter wachsen, so dass es von entscheidender Bedeutung ist, die Fähigkeit der Gesellschaft zu erlernen und zu entwickeln, mit neuen Bedrohungen umzugehen. Es ist wichtig, den Zeitpunkt nicht zu verpassen und die Kosten für unsere Reaktion auf diese neuen Bedrohungen zu senken.