Devrions-nous accorder des droits humains aux robots ?

Les robots et l'intelligence artificielle (IA) pénètrent de plus en plus dans la vie des gens. Ils sont utilisés dans l'industrie, la médecine et les services. Avec chaque étape de progrès dans la robotique et le développement de l'intelligence artificielle, nous approchons du jour où les machines égaleront les capacités humaines dans tous les aspects - intelligence, conscience et émotion. Peut-être qu'à terme, les robots ne se contenteront pas de suivre les ordres de l'homme, mais prendront également leurs propres décisions.

Quand il s'agit de savoir si les robots devraient avoir des droits ou non

Cette question est globale, complexe et multidimensionnelle. Elle doit être envisagée et résolue sous différents angles : éthique, sociologie, droit, neurobiologie et théorie de l'IA.

La nécessité de réglementer la robotique

La réglementation juridique de la robotique, c'est-à-dire la science et la pratique du développement, de la fabrication et de l'utilisation des robots, est un domaine qui commence tout juste à émerger. C'est parce que l'humanité est assez longue et peu disposée à réaliser ce processus comme il se doit. La sphère de la robotique s'est développée de manière dynamique au cours des dernières décennies. Pourtant, elle se trouve en même temps dans une sorte de "zone d'ombre", ce qui entraîne des retards dans les processus d'élaboration du cadre juridique régissant les relations impliquant des robots.

L'imprécision du concept de "robot" et l'absence de classification pour l'élaboration du cadre juridique sont également problématiques. Dans de nombreuses études, la définition la plus courante du terme "robot" est dérivée de la liste des fonctions qu'il remplit : les robots sont des objets ou des systèmes créés artificiellement qui peuvent recevoir et traiter des informations et agir en fonction du monde extérieur qui les entoure.

Pour la science juridique, l’aspect critique n’est pas tant l’ingénierie et le système technique spécifiques du robot que les capacités et les fonctions qu’il peut reproduire.

L'objectif principal de l'invention des premiers robots était de soulager les humains des activités les plus ardues et les plus épuisantes. C'était le principal objectif fonctionnel des robots.

Les premiers robots correspondaient pleinement à ces approches, représentant un équipement spécial - un manipulateur contrôlé selon un programme spécifique, exécutant un ensemble de fonctions définies (actions). Ces robots avaient une autonomie strictement limitée et contrôlée, et leur utilisation en tant qu'équipement nécessaire pour améliorer les processus de production n'était pas discutée en termes pratiques.

Cependant, la technologie évoluait. Les réseaux neuronaux capables de reconnaître des images et de comprendre la parole humaine, l'auto-apprentissage ont commencé à copier les principes du cerveau humain. Avec l'amélioration de la technologie de l'intelligence artificielle, dont le but principal est de développer des algorithmes fournissant des solutions informatiques pour les tâches cognitives propres au cerveau humain, le développement des robots a pris une nouvelle direction. Ils ont commencé à "socialiser", à s'intégrer dans diverses communications en tant que participants à part entière (robot policier, robot infirmier, employé de banque, etc.) ou assistants.

Il est possible de distinguer plusieurs générations de robots :

Génération I - robots programmables qui remplissent des fonctions strictement limitées, généralement mis en œuvre pour automatiser des processus réalisés par des humains,

Génération II : robots à commande adaptative, basés sur le traitement de l'information par des capteurs,

Génération III - autodidacte, hautement autonome, "intelligent" robots.

Critères distinguant un "intelligent" robot d'autres systèmes de l'Union européenne ont été développés. Pour qualifier une machine de high-tech "intelligent" appareil, il doit :

  • être capable d'effectuer des actions autonomes grâce à l'utilisation de capteurs et/ou en échangeant des informations avec le monde extérieur et en analysant ces données,
  • être autodidacte (ce critère est facultatif),
  • être physiquement équipé,
  • adapter son comportement à son environnement extérieur.

Aspects moraux et éthiques de l'utilisation des robots

Aux États-Unis et dans les pays européens, le concept de "pondéré" la réglementation de la robotique a été activement développée récemment. Ainsi, par exemple, dans le cadre de la résolution du Parlement européen, plusieurs aspects fondamentaux, qui définissent la base morale et éthique des relations robot-humain, ont été fixés qui satisfont aux critères suivants :

  • La non-nocivité des êtres humains dans le fonctionnement du robot,
  • l'obéissance du robot aux instructions et commandes d'un humain, sauf dans les cas où un tel comportement de la machine peut causer des dommages à un humain,
  • garantir la capacité du robot à maintenir son existence à condition qu'il ne contredise pas les exigences mentionnées précédemment,
  • enfin, les robots ne doivent en aucun cas nuire à l'humanité dans son ensemble.

Lors de l'élaboration d'un règlement normatif, les deux caractéristiques techniques de "intelligent" les robots et leur "humain" caractéristiques doivent être considérées simultanément. Supposons que les caractéristiques de conception d'un "intelligent" robot ne sont pas pris en compte. Dans ce cas, cela peut conduire à une réglementation au niveau législatif, non pas du contenu disponible mais simplement de la forme robotique. "Humanisation" excessive des robots, qui dans une certaine mesure est une tendance des réalités modernes, peut entraîner des conséquences imprévisibles, par exemple, pour déterminer qui est coupable d'avoir causé un préjudice.

Malgré les avantages perçus de l'utilisation de tels robots, il existe des risques évidents. Premièrement, plus le robot est hautement autonome, plus il est difficile de déterminer la responsabilité, car le contrôle de l'opérateur humain est minimisé. Deuxièmement, le robot est un système d'information soumis aux risques de piratage. À cet égard, il est acceptable d'envisager de désigner ces robots comme des objets d'infrastructure d'information vitaux et de développer un système juridique approprié pour des types de robots spécifiques.

La question du choix moral, qu'un robot n'est pas en mesure de faire puisque les technologies d'apprentissage automatique n'ont pas encore atteint ce niveau, n'est pas sans importance : comment évaluer la valeur de la vie d'une personne ? Qui doit être assisté en premier : la personne qui a le plus de chances de survivre ou celle qui a le plus de valeur stratégique, ce qui peut être crucial, par exemple, dans une situation de guerre ?

Il ne fait aucun doute que la conception, le développement et la mise en œuvre des technologies d'intelligence artificielle doivent être soigneusement analysés et réalisés dans le cadre d'une approche fondée sur le risque. Tous les processus automatisés doivent être conçus de manière à pouvoir être examinés et évalués par un expert. La transparence des algorithmes et des aspects techniques du fonctionnement des robots doit être assurée pour créer un environnement de confiance et protéger les droits de l'homme.

Définition des droits et des responsabilités des robots

Dans la formation du cadre législatif dans le domaine de l'attribution de droits à certains types de robots dits "intelligents", il est proposé de distinguer entre le système robotique lui-même, créé sans utiliser de technologie qui suppose l'autonomie de l'objet (robots industriels, drones, submersibles de haute mer), et les robots agents, c'est-à-dire les systèmes capables d'exécuter certains types de tâches de manière indépendante. Ici, l'ajout du mot "agent" signifie que ces systèmes mettent en œuvre les intérêts d'une personne physique ou morale spécifique.

Un point important pour déterminer les droits et les responsabilités de toute personne est la présence de sa volonté d'accomplir des actions spécifiques significatives de régulation juridique. Certains chercheurs, en revanche, affirment que les robots dotés d'une intelligence artificielle avancée et d'une autonomie ont le droit légal de choisir.

Cependant, la conclusion des scientifiques est assez difficile à utiliser pour construire le concept d’un robot comme une personne physique. Le fait de donner aux robots une pleine compétence juridique a également une incidence sur leur capacité à assumer la responsabilité des dommages qu'ils causent.

La plus courante dans la recherche scientifique est le concept de robot en tant que personne morale. Il permet une application sélective des normes de droit civil régissant les relations juridiques avec la participation de personnes morales à la réglementation juridique des robots. Le fondement de cette analogie est la nature "artificielle" des personnes morales et des robots.

Il existe encore un autre concept appelé "concept de personne électronique". Son essence est de donner aux robots un statut juridique spécial dans le futur, lorsque les plus avancés d'entre eux pourront être créés comme des personnes électroniques (personnes) et être responsables des dommages s'ils prennent des décisions de manière autonome ou interagissent de manière indépendante avec des tiers. Parmi les caractéristiques d'un robot intelligent, on trouve la capacité de :

  1. devenir autonome ;
  2. devenir autodidacte ;
  3. adapter le comportement.

Étant donné que le robot peut remplir diverses fonctions nécessaires à la réalisation des objectifs des développeurs d'intelligence artificielle, il apparaît généralement comme un acteur ayant un devoir, qu'il peut ou non remplir. À cet égard, la question pertinente est de savoir qui sera responsable de l'inexécution d'une telle obligation - l'agent robot lui-même (en tant que personne morale ou électronique) ou le développeur de la technologie sur la base de laquelle le robot effectue ses actions ?

Actuellement, il y a une tendance à l'autonomie croissante de l'intelligence artificielle et un nombre croissant de cas de dommages à l'homme à la suite de décisions prises à l'aide de ces technologies. À l'heure actuelle, l'idée la plus prometteuse semble être la gestion des risques, c'est-à-dire responsabiliser la personne qui avait l'obligation de minimiser les risques de préjudice, c'est-à-dire qui a permis le non-respect de ses devoirs pour éliminer ces conséquences négatives.

Mais quelle est la prochaine étape...

Une fois que nous aurons découvert que les robots ont atteint un certain niveau de conscience, et que nous saurons comment mesurer l'esprit d'une machine et évaluer son niveau de conscience et de conscience de soi, nous devrons alors déterminer si le robot qui se trouve devant nous a droit ou non à certains droits et à une certaine protection.

Il est fort probable que ce moment n'arrivera pas assez tôt. Pour commencer, les développeurs d'IA doivent créer un "cerveau numérique primaire". Dès lors, ces êtres sensibles cesseront d'être de simples objets d'étude et seront élevés au rang de modèles ayant droit à un jugement moral. Toutefois, cela ne signifie pas que ces robots se verront automatiquement accorder des droits similaires à ceux des humains. Au contraire, la loi devra les protéger contre toute utilisation déloyale et toute cruauté (de la même manière que les militants des droits de l'homme protègent les animaux contre les traitements cruels dans les expériences de laboratoire). La science finira par construire des duplicatas électroniques du cerveau humain, soit par une modélisation réelle jusque dans les moindres détails, soit par le désir de comprendre le fonctionnement de notre cerveau d'un point de vue informatique et algorithmique. À ce moment-là, nous devrions déjà être en mesure de détecter la présence de la conscience dans les machines. À tout le moins, nous aimerions que cela se produise sous le contrôle de l'humanité. Mais si les esprits humains parviennent à trouver un moyen d'éveiller une étincelle de conscience dans une machine mais ne comprennent pas eux-mêmes ce qu'ils ont fait, ce sera le chaos absolu.

Une fois que les robots et les IA disposeront de ces capacités de base, il est suggéré de mettre en place des procédures pour tester leur individualité. L'humanité n'a pas encore établi les caractéristiques universelles de la conscience. Il existe néanmoins un ensemble standard de mesures qui impliquent l'évaluation d'un niveau minimum d'intelligence, de maîtrise de soi, de sens du passé et du futur, d'empathie, ainsi que la capacité à manifester son libre arbitre.

Ce n'est qu'en atteignant ce niveau de sophistication de l'évaluation qu'une machine pourra prétendre aux droits de l'homme. Néanmoins, il est crucial de comprendre et d'accepter que les robots et l'IA auront besoin au moins de droits de protection fondamentaux s'ils réussissent les tests. Par exemple, le scientifique et futuriste canadien George Dworsky estime que les robots et l'IA mériteront l'ensemble des droits suivants s'ils réussissent le test de personnalité :

  • Le droit de ne pas être déconnecté contre sa volonté,
  • le droit à un accès illimité et significatif à leur code numérique,
  • le droit de protéger son code numérique contre toute influence extérieure contre sa volonté,
  • le droit de vous copier (ou de ne pas vous copier),
  • le droit à la vie privée (à savoir, le droit de dissimuler son état psychologique actuel).

Dans certains cas, il se peut que la machine ne soit pas en mesure de faire valoir ses droits par elle-même, il est donc nécessaire de prévoir la possibilité que des humains (ainsi que d'autres citoyens, non humains) puissent agir en tant que représentants de ces candidats à l'individualisation. Il est essentiel de reconnaître qu'un robot ou une intelligence artificielle (IA) n'a pas besoin d'être intellectuellement ou moralement irréprochable pour passer le test de personnalité et revendiquer des droits de type humain. Il est crucial de se rappeler que les gens ne sont pas sans défaut dans ces domaines ; par conséquent, il est raisonnable d’appliquer les mêmes critères aux ordinateurs intelligents. Le comportement humain est souvent spontané, imprévisible, chaotique, incohérent et irrationnel. Nos cerveaux sont loin d'être parfaits, et nous devons donc en tenir compte lorsque nous prenons des décisions concernant l'IA.

En même temps, une machine consciente d'elle-même, comme tout citoyen responsable et respectueux des lois, doit respecter les lois, les normes et les règles prescrites par la société, du moins si elle veut devenir un individu autonome à part entière et faire partie de cette société. En fonction de ses capacités, elle doit soit être responsable d'elle-même, soit avoir un tuteur qui peut agir comme protecteur de ses droits et la tenir responsable de ses actes.

Et si nous ignorions l'intelligence artificielle

Lorsque nos machines auront atteint un certain niveau de sophistication, nous ne pourrons plus les ignorer du point de vue de la société, des institutions gouvernementales et de la loi. Il n'y aura aucune justification pour nous de leur refuser les droits de l'homme. La discrimination et l'esclavage en résulteraient si nous ne le faisions pas..

Une frontière nette entre les êtres biologiques et les machines ressemblerait à une expression claire de la supériorité humaine et du chauvinisme idéologique - les humains naturels sont uniques, et seule l'intelligence physique compte.

L'autonomisation de l'IA constituerait un précédent important dans l'histoire de l'humanité tout entière. Si nous pouvons considérer les IA comme des individus socialement égaux, cela reflétera directement notre cohésion sociale et la preuve de notre soutien au sens de la justice. Si nous ne parvenons pas à régler cette question, cela pourrait provoquer un tollé social général et peut-être même une confrontation entre l'IA et les humains. Et étant donné le potentiel supérieur de l'intelligence des machines, cela pourrait être un désastre pour ces derniers.

Il est également important de réaliser que le respect futur des droits des robots peut également bénéficier à d'autres personnes :

  • Cyborgs
  • Humains transgéniques avec ADN extraterrestre
  • Des humains avec des cerveaux copiés, numérisés et chargés par des superordinateurs


Nous sommes loin de créer une machine qui mérite des droits humains. Cependant, étant donné la complexité de cette question et ce qui sera exactement en jeu, tant pour l'intelligence artificielle que pour les humains, on peut difficilement dire que la planification sera superflue.