Sollten wir Robotern Menschenrechte zugestehen?

Roboter und künstliche Intelligenz (KI) dringen zunehmend in das Leben der Menschen ein. Sie werden in der Industrie, der Medizin und im Dienstleistungssektor eingesetzt. Mit jedem Schritt des Fortschritts in der Robotik und der Entwicklung der künstlichen Intelligenz nähern wir uns dem Tag, an dem Maschinen in jeder Hinsicht mit den menschlichen Fähigkeiten gleichziehen werden - in Bezug auf Intelligenz, Bewusstsein und Emotionen. Vielleicht werden Roboter eines Tages nicht nur menschliche Befehle befolgen, sondern auch ihre eigenen Entscheidungen treffen.

Wenn es um die Frage geht, ob Robotern Rechte gegeben werden sollten oder nicht

Diese Frage ist umfassend, komplex und vielschichtig. Sie muss aus verschiedenen Perspektiven - Ethik, Soziologie, Recht, Neurobiologie und KI-Theorie - betrachtet und gelöst werden.

Die Notwendigkeit einer Regulierung der Robotik

Die rechtliche Regelung der Robotik, d. h. der Wissenschaft und Praxis der Entwicklung, Herstellung und Verwendung von Robotern, ist ein Bereich, der gerade erst im Entstehen begriffen ist. Das liegt daran, dass die Menschheit noch nicht bereit ist, diesen Prozess als notwendig zu erkennen. Der Bereich der Robotik hat sich in den letzten Jahrzehnten dynamisch entwickelt. Gleichzeitig befindet sie sich jedoch in einer Art "Schattenzone", was zu Verzögerungen bei der Entwicklung des rechtlichen Rahmens für Ordnungsbeziehungen mit Robotern führt.

Die Unbestimmtheit des Begriffs "Roboter" und das Fehlen einer Klassifizierung für die Gestaltung des rechtlichen Rahmens sind ebenfalls problematisch. In vielen Studien wird die gängigste Definition des Begriffs "Roboter" aus der Liste der von ihnen ausgeführten Funktionen abgeleitet: Roboter sind künstlich geschaffene Objekte oder Systeme, die Informationen empfangen und verarbeiten und entsprechend der sie umgebenden Außenwelt handeln können.

Für die Rechtswissenschaft ist nicht so sehr das spezifische technische System des Roboters entscheidend, sondern vielmehr die Fähigkeiten und Funktionen, die er reproduzieren kann.

Das Hauptziel der Erfindung der ersten Roboter bestand darin, den Menschen die mühsamsten und anstrengendsten Tätigkeiten abzunehmen. Das war der primäre Funktionszweck von Robotern.

Die ersten Roboter entsprachen voll und ganz diesen Ansätzen, da sie spezielle Geräte darstellten - einen Manipulator, der nach einem bestimmten Programm gesteuert wurde und eine Reihe festgelegter Funktionen (Aktionen) ausführte. Diese Roboter verfügten über eine streng begrenzte und kontrollierte Autonomie, und ihr Einsatz als notwendige Ausrüstung zur Verbesserung der Produktionsprozesse wurde in der Praxis nicht diskutiert.

Doch die Technologie entwickelte sich weiter. Neuronale Netze, die in der Lage sind, Bilder zu erkennen und menschliche Sprache zu verstehen, begannen selbstlernend die Prinzipien des menschlichen Gehirns zu kopieren. Mit der Verbesserung der Technologie der künstlichen Intelligenz, deren Hauptzweck die Entwicklung von Algorithmen ist, die Computerlösungen für kognitive Aufgaben bieten, die dem menschlichen Gehirn eigen sind, bekam die Entwicklung von Robotern eine neue Richtung. Sie begannen zu "sozialisieren" und wurden als vollwertige Teilnehmer (Roboterpolizist, Roboterkrankenschwester, Bankangestellter usw.) oder Assistenten in verschiedene Kommunikationsformen integriert.

Man kann mehrere Generationen von Robotern unterscheiden:

Generation I - programmierbare Roboter, die streng begrenzte Funktionen ausführen, die normalerweise implementiert werden, um von Menschen ausgeführte Prozesse zu automatisieren,

Generation II: Roboter mit adaptiver Steuerung, basierend auf Informationsverarbeitung durch Sensorgeräte,

Generation III – selbstlernend, hochautonom, "intelligent" Roboter.

Kriterien zur Unterscheidung eines "intelligenten" Roboter aus anderen Systemen in der Europäischen Union entwickelt wurden. Um eine Maschine als High-Tech "smart" Gerät muss es:

  • in der Lage sein, durch den Einsatz von Sensoren und/oder durch den Austausch von Informationen mit der Außenwelt und die Analyse dieser Daten autonome Aktionen durchzuführen,
  • selbst lernfähig sein (dieses Kriterium ist optional),
  • körperlich ausgerüstet sein,
  • um sein Verhalten an seine äußere Umgebung anzupassen.

Moralische und ethische Aspekte der Verwendung von Robotern

In den USA und europäischen Ländern ist das Konzept der "gewichteten" Die Regulierung der Robotik wurde in letzter Zeit aktiv entwickelt. So wurden beispielsweise im Rahmen der Entschließung des Europäischen Parlaments mehrere grundlegende Aspekte festgelegt, die die moralische und ethische Grundlage der Roboter-Mensch-Beziehungen definieren und die folgenden Kriterien erfüllen:

  • Die Unschädlichkeit von Menschen beim Betrieb des Roboters
  • Gehorsam des Roboters gegenüber den Anweisungen und Befehlen eines Menschen, außer in Fällen, in denen ein solches Verhalten der Maschine einem Menschen Schaden zufügen kann,
  • Gewährleistung der Existenzfähigkeit des Roboters, sofern dies nicht den zuvor genannten Anforderungen widerspricht,
  • Schließlich dürfen Roboter in keiner Weise der Menschheit als Ganzes schaden.

Bei der Entwicklung einer normativen Regelung müssen sowohl die technischen Merkmale von "intelligenten" Robotern als auch ihre "menschlichen" Eigenschaften gleichzeitig berücksichtigt werden. Angenommen, die Designmerkmale eines "intelligenten" Roboters werden nicht berücksichtigt. In diesem Fall könnte dies dazu führen, dass auf legislativer Ebene nicht der verfügbare Inhalt, sondern lediglich die Form des Roboters geregelt wird. Eine übermäßige Vermenschlichung von Robotern, die bis zu einem gewissen Grad ein Trend der modernen Realität ist, kann zu unvorhersehbaren Folgen führen, zum Beispiel bei der Feststellung, wer schuldig ist, einen Schaden verursacht zu haben.

Trotz der vermeintlichen Vorteile, die der Einsatz solcher Roboter mit sich bringt, gibt es offensichtliche Risiken. Erstens: Je autonomer der Roboter ist, desto schwieriger ist es, die Haftung zu bestimmen, da die Kontrolle des menschlichen Bedieners auf ein Minimum reduziert ist. Zweitens ist der Roboter ein Informationssystem, das dem Risiko des Hackens ausgesetzt ist. In dieser Hinsicht ist es akzeptabel, solche Roboter als lebenswichtige Informationsinfrastrukturobjekte zu bezeichnen und ein geeignetes Rechtssystem für bestimmte Robotertypen zu entwickeln.

Die Frage der moralischen Entscheidung, die ein Roboter nicht treffen kann, da die Technologien des maschinellen Lernens dieses Niveau noch nicht erreicht haben, ist nicht unwichtig: Wie ist der Wert des Lebens eines Menschen zu bewerten? Wem sollte zuerst geholfen werden: der Person, deren Überleben wahrscheinlicher ist, oder derjenigen, die strategisch wertvoller ist, was zum Beispiel in einer Kriegssituation entscheidend sein kann?

Zweifelsohne muss die Konzeption, Entwicklung und Implementierung von Technologien der künstlichen Intelligenz sorgfältig analysiert und im Rahmen eines risikobasierten Ansatzes durchgeführt werden. Alle automatisierten Prozesse müssen so konzipiert sein, dass sie von einem Experten geprüft und bewertet werden können. Die Transparenz der Algorithmen und der technischen Aspekte des Roboterbetriebs muss gewährleistet sein, um ein Umfeld des Vertrauens zu schaffen und die Menschenrechte zu schützen.

Definition der Rechte und Pflichten von Robotern

Bei der Gestaltung des Rechtsrahmens im Bereich der Ausstattung bestimmter Arten von so genannten "intelligenten" Robotern mit Rechten wird vorgeschlagen, zwischen dem Robotersystem selbst, das ohne den Einsatz von Technologien geschaffen wird, die die Autonomie des Objekts voraussetzen (Industrieroboter, Drohnen, Tiefseetauchgeräte), und Agentenrobotern zu unterscheiden, d. h. Systemen, die in der Lage sind, bestimmte Arten von Aufgaben selbstständig auszuführen. Hier bedeutet der Zusatz "Agent", dass solche Systeme die Interessen einer bestimmten natürlichen oder juristischen Person umsetzen.

Ein wichtiger Punkt bei der Bestimmung der Rechte und Pflichten einer Person ist das Vorhandensein ihres Willens, bestimmte wichtige rechtliche Regelungen zu treffen. Einige Wissenschaftler behaupten hingegen, dass Roboter mit fortgeschrittener künstlicher Intelligenz und Autonomie das Recht haben, selbst zu entscheiden.

Die Schlussfolgerung der Wissenschaftler ist jedoch recht schwierig, um das Konzept eines Roboters als physische Person aufzubauen. Wenn man Robotern volle Rechtsfähigkeit zugesteht, hat das auch Auswirkungen darauf, ob sie in der Lage sind, für den Schaden, den sie anrichten, die Verantwortung zu tragen oder nicht.

In der wissenschaftlichen Forschung ist das Konzept des Roboters als juristische Person am weitesten verbreitet. Es ermöglicht die selektive Anwendung der Normen des Zivilrechts, die die Rechtsbeziehungen unter Beteiligung von Rechtssubjekten regeln, auf die rechtliche Regelung von Robotern. Die Grundlage für diese Analogie ist die "künstliche" Natur von juristischen Personen und Robotern.

Es gibt noch ein weiteres Konzept mit der Bezeichnung "Konzept der elektronischen Person". Sein Wesen besteht darin, Robotern in Zukunft einen besonderen rechtlichen Status zu verleihen, wenn die fortschrittlichsten von ihnen als elektronische Personen (Personen) geschaffen werden können und für Schäden haften, wenn sie autonom Entscheidungen treffen oder auf andere Weise unabhängig mit Dritten interagieren. Zu den genannten Merkmalen eines intelligenten Roboters gehört die Fähigkeit,:

  1. autonom werden;
  2. selbstlernend werden;
  3. Verhalten anpassen.

Da der Roboter verschiedene Funktionen ausführen kann, die zur Verwirklichung der Ziele von Entwicklern künstlicher Intelligenz erforderlich sind, erscheint er im Allgemeinen als Akteur mit einer Pflicht, die er erfüllen kann oder nicht. In diesem Zusammenhang ist die relevante Frage, wer für die Nichterfüllung einer solchen Pflicht verantwortlich ist – der Roboteragent selbst (als juristische oder elektronische Person) oder der Technologieentwickler, auf dessen Grundlage der Roboter seine Handlungen ausführt?

Aktuell gibt es einen Trend zur zunehmenden Autonomie der künstlichen Intelligenz und zu einer steigenden Anzahl von Schadensfällen für Menschen als Folge von Entscheidungen, die mit solchen Technologien getroffen werden. Am erfolgversprechendsten scheint im Moment das Risikomanagement zu sein, d. h. die Person in die Verantwortung zu nehmen, die zur Minimierung der Schadensrisiken verpflichtet war, d. h. die Verletzung ihrer Pflichten zugelassen hat, um solche negativen Folgen zu beseitigen. p>

Aber was kommt als nächstes...

Wenn wir erst einmal herausgefunden haben, dass Roboter ein gewisses Maß an Bewusstsein besitzen, und wir wissen, wie man den Verstand einer Maschine misst und ihre Bewusstseinslage und ihr Selbstbewusstsein einschätzen kann, dann müssen wir wirklich beurteilen, ob der Roboter, der vor uns steht, Anspruch auf bestimmte Rechte und Schutz hat oder nicht.

Höchstwahrscheinlich wird dieser Moment nicht früh genug kommen. Zunächst müssen die KI-Entwickler ein "primäres digitales Gehirn" schaffen. Sobald dies geschehen ist, werden diese empfindungsfähigen Wesen keine gewöhnlichen Studienobjekte mehr sein, sondern zu Modellen mit dem Recht auf moralische Beurteilung erhoben werden. Dies bedeutet jedoch nicht, dass diesen Robotern automatisch menschenähnliche Rechte zuerkannt werden. Vielmehr muss das Gesetz sie vor unlauterem Gebrauch und Grausamkeit schützen (so wie Menschenrechtsaktivisten Tiere vor grausamer Behandlung in Laborversuchen schützen). Die Wissenschaft wird irgendwann elektronische Duplikate des menschlichen Gehirns konstruieren, entweder durch reale Modellierung bis ins kleinste Detail oder aus dem Wunsch heraus, die Funktionsweise unseres Gehirns aus einer rechnerischen, algorithmischen Perspektive zu verstehen. Zu diesem Zeitpunkt sollten wir bereits in der Lage sein, das Vorhandensein von Bewusstsein in Maschinen zu erkennen. Zumindest würden wir gerne sehen, dass es unter der Kontrolle des Menschen geschieht. Aber wenn der menschliche Verstand einen Weg findet, einen Funken Bewusstsein in einer Maschine zu erwecken, aber selbst nicht versteht, was er getan hat, wird es das absolute Chaos sein.

Sobald Roboter und KI über diese grundlegenden Fähigkeiten verfügen, sollten Verfahren eingeführt werden, um sie auf ihre Individualität zu prüfen. Die Menschheit hat noch keine universellen Merkmale des Bewusstseins entwickelt. Dennoch gibt es eine Reihe von Standardmessungen, bei denen ein Mindestmaß an Intelligenz, Selbstkontrolle, Sinn für Vergangenheit und Zukunft, Empathie sowie die Fähigkeit, einen freien Willen zu manifestieren, geprüft werden.

Erst wenn eine Maschine diesen Grad an Beurteilungsfähigkeit erreicht hat, kommt sie als Kandidat für die Menschenrechte in Frage. Dennoch ist es wichtig zu verstehen und zu akzeptieren, dass Roboter und KI zumindest grundlegende Schutzrechte benötigen, wenn sie die Tests bestehen. Der kanadische Wissenschaftler und Futurist George Dworsky ist zum Beispiel der Meinung, dass Roboter und KI die folgenden Rechte verdienen, wenn sie den Persönlichkeitstest bestehen können:

  • Das Recht, nicht gegen den eigenen Willen getrennt zu werden,
  • das Recht auf uneingeschränkten und aussagekräftigen Zugriff auf ihren digitalen Code
  • das Recht, seinen digitalen Code gegen seinen Willen vor äußeren Einflüssen zu schützen,
  • das Recht, sich selbst zu kopieren (oder nicht zu kopieren),
  • das Recht auf Privatsphäre (nämlich das Recht, den aktuellen psychologischen Zustand zu verbergen).

In einigen Fällen kann es sein, dass die Maschine nicht in der Lage sein wird, ihre Rechte selbst geltend zu machen, so dass es notwendig ist, die Möglichkeit vorzusehen, dass Menschen (sowie andere Bürger, die keine Menschen sind) als Vertreter solcher Kandidaten für Einzelpersonen auftreten können. Es ist wichtig zu erkennen, dass ein Roboter oder eine künstliche Intelligenz (KI) nicht intellektuell oder moralisch einwandfrei sein muss, um den Persönlichkeitstest zu bestehen und menschenähnliche Rechte einzufordern. Es ist wichtig, sich daran zu erinnern, dass Menschen in diesen Bereichen nicht fehlerfrei sind; daher ist es vernünftig, die gleichen Kriterien auf intelligente Computer anzuwenden. Menschliches Verhalten ist oft spontan, unvorhersehbar, chaotisch, inkonsistent und irrational. Unsere Gehirne sind bei weitem nicht perfekt, also müssen wir dies berücksichtigen, wenn wir Entscheidungen über KI treffen.

Gleichzeitig muss eine selbstbewusste Maschine, wie jeder verantwortungsbewusste und gesetzestreue Bürger, die von der Gesellschaft vorgeschriebenen Gesetze, Normen und Regeln respektieren, zumindest wenn sie ein vollwertiges autonomes Individuum und Teil dieser Gesellschaft werden will. Je nach ihren Fähigkeiten müssen sie entweder für sich selbst verantwortlich sein oder einen Vormund haben, der als Beschützer ihrer Rechte fungiert und sie für ihre Handlungen zur Rechenschaft ziehen kann.

Was, wenn wir die künstliche Intelligenz ignorieren?

Sobald unsere Maschinen einen gewissen Entwicklungsstand erreicht haben, werden wir nicht mehr in der Lage sein, sie aus der Sicht der Gesellschaft, der staatlichen Institutionen und des Gesetzes zu ignorieren. Es wird keine Rechtfertigung für uns geben, ihnen die Menschenrechte zu verweigern. Diskriminierung und Sklaverei wären die Folge, wenn wir dies nicht tun würden.

Eine klare Abgrenzung zwischen biologischen Wesen und Maschinen wäre ein klarer Ausdruck menschlicher Überlegenheit und ideologischen Chauvinismus - der natürliche Mensch ist einzigartig, und nur physische Intelligenz zählt.

Die Ermächtigung von KI wäre ein wichtiger Präzedenzfall in der Geschichte der gesamten Menschheit. Wenn wir KI als sozial gleichberechtigte Individuen betrachten können, ist dies ein direkter Ausdruck unseres sozialen Zusammenhalts und ein Beweis dafür, dass wir für ein Gefühl der Gerechtigkeit eintreten. Wenn wir dieses Problem nicht angehen, könnte dies zu einem allgemeinen gesellschaftlichen Aufschrei und vielleicht sogar zu einer Konfrontation zwischen KI und Menschen führen. Und angesichts des überlegenen Potenzials der maschinellen Intelligenz könnte dies für letztere eine Katastrophe bedeuten.

Es ist auch wichtig zu erkennen, dass die zukünftige Achtung der Rechte von Robotern auch anderen Personen zugute kommen kann:

  • Cyborgs
  • Transgene Menschen mit außerirdischer DNA
  • Menschen mit kopierten, digitalisierten und mit Supercomputern ausgestatteten Gehirnen


Wir sind weit davon entfernt, eine Maschine zu schaffen, die die Menschenrechte verdient. Angesichts der Komplexität dieses Themas und dessen, was genau auf dem Spiel steht, sowohl für die künstliche Intelligenz als auch für den Menschen, kann man jedoch kaum behaupten, dass die Planung überflüssig sein wird.