Künstliche Intelligenz, ihre Integration und ihre Auswirkungen auf die Gesellschaft

Künstliche Intelligenz (KI) wird oft als die beeindruckendste Technologie unserer Zeit bezeichnet und verspricht, unsere Wirtschaft, unser Leben und unsere Möglichkeiten zu verändern. Manche sehen in der KI sogar eine Möglichkeit, rasch Fortschritte bei der Schaffung von "intelligenten Maschinen" zu erzielen, die die menschlichen Fähigkeiten in den meisten Bereichen bald übertreffen werden. Die Entwicklung der KI war in den letzten zehn Jahren sehr erfolgreich, insbesondere bei der Entwicklung neuer Methoden für die statistische Verarbeitung von Informationen und das maschinelle Lernen, die es uns ermöglichen, mit riesigen Mengen unstrukturierter Daten zu arbeiten. Sie hat sich bereits auf fast alle Bereiche der menschlichen Tätigkeit ausgewirkt: KI-Algorithmen werden heute von allen Online-Plattformen und in verschiedenen Branchen eingesetzt, von der Fertigung über das Gesundheitswesen bis hin zu Finanzwesen, Groß- und Einzelhandel. Auch Behörden wie die Justiz, der Zoll und die Einwanderungsbehörde verlassen sich inzwischen auf KI

Bedenken gegen KI

Dennoch gibt es Befürchtungen hinsichtlich der Aussichten der KI-Entwicklung und möglicher negativer Folgen. Einige glauben, dass sich intelligente Computersysteme zu einer Superintelligenz entwickeln und außer Kontrolle geraten könnten. Andere sind besorgt über weniger weit entfernte Aussichten - zum Beispiel über die Möglichkeit, dass Datenbankklassifizierer, die bei extremen Entscheidungen im Gesundheitswesen oder in der Strafjustiz eingesetzt werden, aufgrund von Systemfehlern und Ungenauigkeiten nicht richtig funktionieren und zu ungerechten oder falschen Entscheidungen führen. Skeptiker befürchten auch potenzielle rechtliche und ethische Konflikte im Zusammenhang mit Entscheidungen, die von automatisierten Systemen getroffen werden, Schwierigkeiten beim Verständnis der Logik hinter solchen Entscheidungen, neue Formen der Überwachung und damit verbundene Bedrohungen der bürgerlichen Freiheiten, die Möglichkeit der Beeinflussung des menschlichen Bewusstseins durch KI-Manipulation, die Möglichkeit des Einsatzes von KI für kriminelle Zwecke, die weitreichenden Auswirkungen des militärischen Einsatzes von KI sowie die Aussicht auf weniger menschliche Arbeitskraft, höhere Arbeitslosigkeit und soziale Ungleichheit. Die Verbreitung von Systemen der künstlichen Intelligenz wirft verschiedene technische, philosophische, rechtliche, ethische und andere Probleme auf. Einige davon werden in einem Bericht der Stanford University aus dem Jahr 2016 mit dem Titel Artificial Intelligence and Life in 2030 behandelt, darunter Sicherheitsfragen, die Definition der Rechtspersönlichkeit künstlicher Intelligenz, die Gewährleistung des Datenschutzes, die zivil- und strafrechtliche Haftung, die Zertifizierung von Systemen künstlicher Intelligenz und die negativen Auswirkungen von Systemen künstlicher Intelligenz auf menschliche Arbeitsplätze. Einige Empfehlungen zur Lösung von Fragen, die sich aus der Nutzung von Systemen der künstlichen Intelligenz ergeben, sind in der Entschließung des Europäischen Parlaments und den Empfehlungen der Kommission vom 16.02.2017, "Zivilrechtliche Vorschriften zur Robotik." enthalten.;

Herausforderungen und Bedrohungen für KI

Das Institute of Electrical and Electronics Engineers (IEEE) führt Forschungsarbeiten im Bereich der Ethik der künstlichen Intelligenz durch, die in technische Dokumente münden sollen, die die Entwicklung von Systemen der künstlichen Intelligenz durch ethische Standards regeln. Das erste Dokument wurden die Recommendations on ethically aligned design (Empfehlungen zum ethisch ausgerichteten Design), die von den Vereinigten Staaten von Amerika eine nicht-kommerzielle Lizenz erhielten - Creative Commons Attribution-Non-Commercial 3.0 (Institute of Electrical and Electronics Engineers n. d.). Diese Empfehlungen enthalten eine Liste von Bedrohungen und Problemen bei der Implementierung autonomer künstlicher Intelligenzsysteme, einschließlich ethischer Aspekte.

  • im Bereich der allgemeinen Grundsätze: die Notwendigkeit, die Grundsätze der Vorrangstellung der Menschenrechte, der Verantwortung, der Transparenz, des Lernens und des Bewusstseins bei der Entwicklung von Systemen der künstlichen Intelligenz zu definieren und zu verankern,
  • im Bereich der Integration ethischer Normen und Werte in Systeme der künstlichen Intelligenz: nicht Universalität moralischer Standards und deren Variabilität in Abhängigkeit von Benutzern und Aufgaben; Möglichkeit des Konflikts zwischen moralischen Normen und Werten; mögliche eingebaute oder algorithmische Fehler von Systemen der künstlichen Intelligenz, die zu einer Verletzung ethischer Standards zu bestimmten Themen führen können; müssen ein gewisses Maß an Vertrauen zwischen Menschen und künstlicher Intelligenz erreichen
  • im Bereich Sicherheit des Einsatzes künstlicher Intelligenz und künstlicher Superintelligenz: das Risiko unerwarteten Verhaltens künstlicher Intelligenz; die Schwierigkeit, die Sicherheit zukünftiger Systeme künstlicher Intelligenz zu verbessern,
  • im Bereich personenbezogener Daten: die Fähigkeit künstlicher Intelligenz, auf der Grundlage von Informationen, die Menschen im Alltag verbreiten, Rückschlüsse auf personenbezogene Daten zu ziehen,
  • im Bereich autonomer Waffensysteme: die Unberechenbarkeit solcher Systeme; die Beseitigung der menschlichen Kontrolle über das Kampfgebiet könnte zu eskalierenden Spannungen und unbeabsichtigten Menschenrechtsverletzungen führen; unbegrenzte Käufer autonomer Waffensysteme würden zu deren Verbreitung und unkontrolliertem Einsatz führen,
  • im wirtschaftlichen Bereich: Beschränkungen der Technologie der künstlichen Intelligenz könnten Innovationen verlangsamen; der technologische Wandel übertrifft die Art und Weise, wie Arbeitnehmer mit neuen Technologien geschult werden; Risiken steigender Arbeitslosigkeit; Vergrößerung der sozioökonomischen Kluft zwischen Industrie- und Entwicklungsländern,
  • Im Bereich Recht: die Notwendigkeit der Transparenz bei der Arbeit der künstlichen Intelligenz und der Achtung der Rechte des Einzelnen; Haftungsprobleme bei Schäden durch Systeme der künstlichen Intelligenz; die Notwendigkeit der rechtlichen Durchsetzung der Überprüfung von Systemen der künstlichen Intelligenz.

Ethikkodex für Robotikentwickler

Die Entschließung des Europäischen Parlaments vom 16.02.2017 enthält Empfehlungen für die Europäische Kommission zu zivilrechtlichen Regelungen zur Robotik, und der Ethikkodex für Robotikentwickler ist der Entschließung beigefügt. Die Hauptprinzipien dieses Kodex sind:

  • "Gutes tun" - Roboteraktivitäten sollten dem Nutzen des Menschen dienen,
  • "nicht schaden" - Roboter dürfen Menschen nicht schaden,
  • Prinzip der Autonomie – Menschen haben das Recht, frei eine informierte Entscheidung über die Bedingungen der Interaktion mit Robotern zu treffen,
  • das Prinzip der Gerechtigkeit – alle Vorteile, die sich aus der Robotertätigkeit ergeben, müssen gerecht verteilt werden.

Ethische und rechtliche Probleme der Anwendung von KI

Unter Berücksichtigung der oben genannten Studien und Empfehlungen können die folgenden ethischen und rechtlichen Probleme bei der Anwendung von Systemen der künstlichen Intelligenz unterschieden werden.

  1. Die Möglichkeit, einen menschenähnlichen Träger künstlicher Intelligenz als gleichberechtigtes Subjekt mit einem Menschen anzuerkennen. Tatsächlich steht diese Frage angesichts des Stands der wissenschaftlichen und technologischen Entwicklung noch nicht auf der Tagesordnung. Aber in Zukunft könnte die Entwicklung künstlicher Intelligenzsysteme die Frage aufwerfen, ob es notwendig ist, humanoiden Trägern den Status von Rechtssubjekten zu geben, indem sie ihnen die gleichen Befugnisse wie Menschen geben.

Wenn eine Maschine wie ein Mensch denken und fühlen kann, sollte sie dann als Mensch betrachtet werden? Einige Forscher glauben, dass, wenn ein Träger künstlicher Intelligenz den Willen und das Bewusstsein besitzt, er mit allen Menschenrechten ausgestattet werden kann. Sie vertreten diesen Standpunkt, dass menschliche Technologien wie In-vitro-Fertilisation und genetisches Klonen Menschen mit Seelen erschaffen, die sich nicht von denen unterscheiden, die in der „traditionellen“ Welt geboren wurden. Weg. Wenn Menschen lernen, das menschliche Gehirn digital zu codieren, dann wird künstliche Intelligenz zu unserer digitalen Version, die eine Seele haben muss.

Bevor irgendwelche Rechenschaftspflichten festgelegt werden, wird es in jedem Fall eine moralische Frage über die Notwendigkeit einer ethischen Behandlung von Robotern geben, die Träger künstlicher Intelligenz sind und Menschen vollständig kopieren.

Verwandt mit der Frage der Rechtspersönlichkeit der künstlichen Intelligenz ist die Frage des rechtlichen Status der Ergebnisse der durch künstliche Intelligenz geschaffenen geistigen Tätigkeit und des Inhabers der geistigen Rechte an solchen Werken. Zum Beispiel verfassen bereits Roboterdichter Gedichte unter Verwendung bestehender grammatikalischer Modelle und Nachrichten und lexikalischer Grundlagen und verbessern und erweitern ständig ihren Wortschatz. Computermusiker schreiben Musik.

Wissenschaftler bieten für die Ergebnisse geistiger Tätigkeit, die unter Beteiligung des Trägers der künstlichen Intelligenz oder direkt von ihm produziert werden, folgende mögliche Regime der rechtlichen Regelung der Rechte des geistigen Eigentums an:

  • Die Einräumung von Rechten des geistigen Eigentums an den Träger künstlicher Intelligenz im Falle der Verleihung von Rechtspersönlichkeit,
  • Vollständige Weigerung, den Träger der künstlichen Intelligenz mit geistigen Eigentumsrechten auszustatten, und Auftreten von geistigen Eigentumsrechten entweder gegenüber der Person, die das Grundkonzept des Ergebnisses geistiger Tätigkeit geschaffen hat, oder gegenüber dem Benutzer-Betreiber oder dem Hersteller von a mit künstlicher Intelligenz ausgestatteten Computersystems oder dem Eigentümer der wesentlichen Software des Trägers künstlicher Intelligenz oder dem Eigentümer des mit künstlicher Intelligenz ausgestatteten Computersystems,
  • Übertragung von durch künstliche Intelligenz geschaffenen Werken in die Gemeinfreiheit,
  • die Werke des Trägers der künstlichen Intelligenz gelten als Dienstleistungsarbeiten,
  • Die gleichzeitige Gewährung geistiger Rechte an ein Medium der künstlichen Intelligenz und eine der in der ersten Variante der Rechtsordnung genannten Personen.

Es scheint, dass vor der Gewährung von Systemen künstlicher Intelligenz der Status eines Rechtssubjekts geistigen Eigentums an den durch künstliche Intelligenz geschaffenen Werken für den Eigentümer des Systems künstlicher Intelligenz entstehen sollte, da der Entwickler solcher Systeme einen wirtschaftlichen Effekt daraus zieht Verkauf. Für den Eigentümer wird die Möglichkeit, geistige Rechte zu erwerben, ein Anreiz sein, solche Strategien zu entwickeln, was die öffentliche Nachfrage nach ihrer Entwicklung und Produktion steigern wird.

Künstliche Intelligenz ist ein Objekt der Bewunderung und Anbetung. Unbegrenzte Möglichkeiten, die künstliche Intelligenz bietet, ihre Effizienz, Produktivität und Fähigkeit, dem Menschen bei der Lösung einer Vielzahl von Aufgaben zu helfen, von Haushaltsproblemen über die Erforschung des Weltraums bis hin zum Verständnis der Geheimnisse des Universums, machen sie nicht nur zu einem guten und faszinierenden Forschungsobjekt aber auch ein Objekt der Bewunderung, das bis zur Verehrung und Verwandlung in ein Götzenbild reichen kann.

Der amerikanische Ingenieur Anthony Levandowski erschuf die allererste Religion der Anbetung künstlicher Intelligenz mit dem Namen Way of the Future. Die Gründungsdokumente dieser religiösen Organisation besagen, dass sich ihre Aktivitäten auf die Anbetung einer Gottheit konzentrieren werden, die auf künstlicher Intelligenz basiert, die mit Hilfe von Computerhardware und -software entwickelt wird. Gleichzeitig betont E. Lewandowski, dass etwas, das milliardenfach klüger ist als der kompetenteste Mensch, als Gottheit bezeichnet werden kann.

Natürlich kann man dem Aufkommen einer neuen Religion mit einem gewissen Maß an Ironie und Skepsis begegnen, aber wir sollten ihre Aussichten nicht unterschätzen. Schon jetzt hat ein beträchtlicher Teil der Bevölkerung, insbesondere junge Menschen, einen Kult um technische Innovationen: die neuesten Modelle von Smartphones, Computerspielen, Programmen usw. Die Menschen unternehmen manchmal große Anstrengungen, um neue Gadgets zu besitzen: aus ernsthafter Selbstbeschränkung und Sparsamkeit zum Verbrechen. Und sie werden nicht nur von Mode und dem Wunsch, einen bestimmten Lebensstandard zu demonstrieren, angetrieben, sondern auch von einem etablierten Bedürfnis, sich in einem ständig aktualisierten virtuellen, digitalen Raum aufzuhalten, für den es notwendig ist, die neuesten technischen Entwicklungen im Internet zu nutzen Bereich der elektronischen Geräte, die zu einem wichtigen, sinnbestimmenden Bestandteil des Lebens geworden sind. Die vielversprechenden Ergebnisse der künstlichen Intelligenz, die viel mehr Möglichkeiten bieten als die bestehenden Smartphones, haben alle Chancen, die innere Welt der Menschen zu absorbieren und zu einem globalen Objekt der Anbetung zu werden.

  1. The possibility of artificial intelligence systems harming the highest values - human life and health. Incorrectly putting in an artificial intelligence system algorithm can lead to large-scale negative consequences.

Cases of artificial intelligence systems harming humans are spreading as artificial intelligence evolves. In March 2018, an unmanned Uber car struck a woman on the road without seeing her, killing her. In May that year, IBM's digital assistant Watson recommended inappropriate and health-threatening medications to cancer patients.

Ist es ethisch vertretbar, künstliche Intelligenzsysteme zu entwickeln, die zum Tod von Menschen führen können? Auf diese Frage gibt es keine eindeutige Antwort. Viele technische Erfindungen, vom Fahrrad über das Flugzeug bis hin zum Raumschiff, ob vom Menschen oder von der Maschine betrieben, können beim Zusammentreffen bestimmter Faktoren dem Menschen Schaden zufügen. Aber ein Verzicht auf die wissenschaftliche Entwicklung in solchen technischen Bereichen würde den Fortschritt der Zivilisation aufhalten.

Eine weitere ethische und rechtliche Frage stellt sich: Wer ist für den Schaden verantwortlich, der durch Systeme der künstlichen Intelligenz verursacht wird? Künstliche Intelligenz trifft eigene Entscheidungen und setzt diese um. Die Entwickler von Systemen der künstlichen Intelligenz legen keine erschöpfenden Algorithmen für Aktionen und Entscheidungen fest; Systeme der künstlichen Intelligenz können selbst lernen und autonom funktionieren. Wie sinnvoll ist es, einen Piloten oder einen Arzt, der künstliche Intelligenz nutzt, beispielsweise für KI-Fehler verantwortlich zu machen? Wenn die Verantwortung auf die Personen übertragen wird, die Systeme der künstlichen Intelligenz verwenden, werden die Menschen ihre Verwendung vermeiden, was die Entwicklung der entsprechenden Technologien behindern wird. Wenn den Entwicklern von Systemen der künstlichen Intelligenz Schuld zugeschoben wird, kann dies ähnliche Folgen haben. Wenn keiner dieser Personen die Haftung zugewiesen wird, gibt es keine Möglichkeit, den Schaden zu reparieren, den die künstliche Intelligenz dem Menschen zufügt.

Viele glauben, dass zur Lösung dieses Problems eine obligatorische Haftpflichtversicherung für Schäden eingeführt werden muss, die durch künstliche Intelligenzsysteme an Menschen verursacht werden, wobei die Versicherungsunternehmen den Schaden ersetzen werden. Wenn die Versicherungsentschädigung nicht ausreicht, um den Schaden zu bezahlen, sollten der Entwickler und der Hersteller außerdem gesamtschuldnerisch für die Person haften, die das System der künstlichen Intelligenz verwendet.

  1. Die Entscheidungsfindung künstlicher Intelligenz in Bezug auf die Rechte und Pflichten von Menschen und ihre rechtliche Verantwortung kann grundlegenden rechtlichen und ethischen Werten widersprechen. Wenn Systeme künstlicher Intelligenz Entscheidungen über die Rechte und Pflichten von Menschen treffen, über die Verantwortung von Menschen für Verstöße, dann können unter Berücksichtigung undurchsichtiger Algorithmen von Entscheidungen, die von künstlicher Intelligenz getroffen werden, Grundrechte verletzt werden, die der Mensch seit Jahrhunderten verteidigt: richtig sich mit allen Dokumenten vertraut zu machen, die Menschenrechte und Freiheiten berühren; geeignet für eine begründete Entscheidung, die die von einem Bürger begangenen Handlungen rechtlich genau qualifiziert; Recht auf Beschwerde gegen Entscheidungen von Behörden und Beamten

Wenn daher ein Träger künstlicher Intelligenz mit dem Recht ausgestattet wird, rechtlich bedeutsame Entscheidungen über Personen zu treffen, müssen die folgenden Grundsätze beachtet werden:

  • Maßnahmen der Künstlichen Intelligenz müssen in menschenverständlicher Form darstellbar sein (Ausgangsinformationen, Wege ihrer Verarbeitung, rechtliche Einordnung, Beweggründe für die getroffene Entscheidung),
  • Eine Person muss die Möglichkeit haben, eine Person gegen die Entscheidung der künstlichen Intelligenz anzufechten.
  1. Künstliche Intelligenz verschärft Schichtung und Ungleichheit und schafft Bedingungen für die Zentralisierung der Macht. Die Entwicklung der künstlichen Intelligenz wird zu einer noch größeren Ungleichheit zwischen denen führen, die über die Technologie verfügen, und denen, die sie nicht haben, weil sie Bedingungen für die Zentralisierung von Macht und die Konzentration von Ressourcen bei denen schafft, die sie haben.
  2. Die Einführung künstlicher Intelligenz wird zu Massenarbeitslosigkeit führen. Die Bain Consulting Company schätzt, dass durch die Einführung von Robotern und künstlicher Intelligenz jedes Jahr 2,5 Millionen Amerikaner arbeitslos werden (zum Vergleich: Anfang des 20. Jahrhunderts, während des Übergangs zu einer Industriewirtschaft, waren es halb so viele). Es würde allen sozialen Institutionen schaden, einschließlich der Familie, und zu demografischen Problemen führen.
  3. Intellektuelle Überlegenheit von Trägern künstlicher Intelligenz gegenüber Menschen. Der Mensch hat gewisse biologische Grenzen seiner Entwicklung, die der künstlichen Intelligenz keine. Der Mensch ist durch die langsame natürliche Evolution begrenzt und kann in Bezug auf die Geschwindigkeit der Entwicklung nicht mit künstlicher Intelligenz konkurrieren. Damit könnte die zunehmend als Bedrohung empfundene künstliche Intelligenz vom Erdboden verschwinden. Träger synthetischer Intelligenz könnten beginnen, Menschen als Hindernis für das Erreichen ihrer geplanten Ziele zu betrachten. Infolgedessen können Menschen von künstlicher Intelligenz versklavt oder absichtlich zerstört werden. In künstliche Intelligenz eingebettete Algorithmen sollten die unbedingte Möglichkeit ihrer Deaktivierung durch den Menschen vorsehen.
  4. Entfremdung der Menschen voneinander, Einsamkeit des Menschen. Die Verbreitung von Systemen der künstlichen Intelligenz in Bereichen, in denen die persönliche Kommunikation und Interaktion sowie die Manifestation menschlicher Gefühle und Emotionen von Bedeutung sind, kann zu einer Entfremdung der Menschen voneinander führen und die Einsamkeit verstärken.

Heute können Roboter-Babysitter beispielsweise Kinder überwachen, Eltern Informationen über das Kind geben, mit Kindern spielen, ein Gespräch mit dem Kind führen und an der Erziehung des Kindes teilnehmen. Das Problem ist, dass anstelle der Eltern, deren Liebe, Fürsorge und Zuneigung für die gesamte Entwicklung des Kindes notwendig sind, ein Roboter bei ihm ist, von dem das Kind nicht bekommen kann, was es am meisten braucht. Infolgedessen kann dies die geistige, körperliche, intellektuelle und emotionale Entwicklung des Kindes beeinträchtigen, was zu einem Mangel an der notwendigen emotionalen Bindung zwischen dem Kind und den Eltern und zu zukünftigen Erziehungsschwierigkeiten führen kann. Ähnliche Probleme treten auf, wenn Pflegeroboter zur Pflege kranker Menschen eingesetzt werden, die ebenfalls menschliche Aufmerksamkeit und Pflege von Menschen und nicht von Maschinen benötigen.

  1. Die Möglichkeit, ethische Normen bei der Entscheidungsfindung durch künstliche Intelligenz zu befolgen. Künstliche Intelligenzsysteme können mit moralischen Entscheidungen konfrontiert werden, insbesondere wenn sie mit nicht standardmäßigen Situationen konfrontiert werden. Beispielsweise muss ein intelligentes Steuerungssystem für unbemannte Fahrzeuge zwischen dem Anfahren eines Fußgängers und einem Manöver wählen, das das Leben und die Gesundheit der Passagiere zu gefährden droht. Lässt sich mit künstlicher Intelligenz die Einhaltung ethischer Normen bei Entscheidungen festschreiben?

Die Notwendigkeit einer Regulierung


Um das oben Gesagte zusammenzufassen: Die aktuellen Probleme mit KI sind die einer unregulierten KI und der Ignorierung ihrer weitreichenden Folgen für die Gesellschaft. Angesichts der weit verbreiteten Nutzung von KI und Big Data schlagen KI-Experten vor, einen neuen Regulierungsansatz einzuführen, der als Vorsorgeprinzip bezeichnet wird. Außerdem sollte ein System ethischer Grundsätze, die bei der Entwicklung von Systemen der künstlichen Intelligenz beachtet werden sollten, entwickelt und auf gesetzlicher Ebene genehmigt werden. Um dieser Herausforderung effektiv zu begegnen, sind internationale Zusammenarbeit und die Einbeziehung vieler Experten erforderlich, die das Zusammenspiel zwischen Technologien der künstlichen Intelligenz, Softwarezielen und ethischen Kategorien verstehen und analysieren können. In künstliche Intelligenz eingebettete Algorithmen müssen die unbedingte Möglichkeit menschlicher Behinderung vorsehen. Außerdem sollten die Steueralgorithmen des Systems der künstlichen Intelligenz so beschaffen sein, dass das System nicht funktionieren könnte, wenn ethische Normen verletzt werden, d. h. moralische Normen sollten die Grundlage des Systems der künstlichen Intelligenz sein und nicht ein zusätzlicher Satz von Kriterien, die die künstliche Intelligenz bildet System verwendet wird, wenn Entscheidungen getroffen werden. Es sollte eine obligatorische Haftpflichtversicherung für Schäden eingeführt werden, die von Systemen künstlicher Intelligenz an Menschen verursacht werden, in diesem Fall werden Versicherungsunternehmen den Schaden ersetzen. Wenn die Versicherungsentschädigung nicht ausreicht, um den Schaden der Person zu bezahlen, die das System der künstlichen Intelligenz verwendet, sollten der Entwickler und der Hersteller gesamtschuldnerisch haften. Bei der Ermächtigung der Künstlichen Intelligenz zu rechtlich bedeutsamen Entscheidungen über den Menschen ist es notwendig, folgende Grundsätze gesetzlich zu verankern: Die Operationen der Künstlichen Intelligenz sollen in menschenverständlicher Form darstellbar sein (Quelleninformationen, wie sie verarbeitet wurden, rechtliche Qualifikation, die Motive für die getroffene Entscheidung); Eine Person sollte die Möglichkeit haben, gegen eine Entscheidung der künstlichen Intelligenz Berufung einzulegen. Die Aussichten für künstliche Intelligenz hängen also in erster Linie von der Einstellung der Menschheit zu ihrer Einführung und dem Grad ihrer Regulierung ab.