L'intelligence artificielle, son intégration et son impact sur la société

L'intelligence artificielle (IA) est souvent considérée comme la technologie la plus impressionnante de notre époque, promettant de transformer notre économie, nos vies et nos opportunités. Certains considèrent même l'IA comme un moyen de progresser rapidement en créant des "machines intelligentes" qui dépasseront bientôt les compétences humaines dans la plupart des domaines. Le développement de l'IA a connu un grand succès au cours de la dernière décennie, notamment en mettant au point de nouvelles méthodes de traitement statistique de l'information et d'apprentissage automatique, qui nous permettent de travailler avec de grandes quantités de données non structurées. Elle a déjà affecté presque tous les domaines de l'activité humaine : Les algorithmes d'IA sont désormais utilisés par toutes les plateformes en ligne et dans divers secteurs d'activité, de la fabrication à la santé en passant par la finance, le commerce de gros et de détail. Les organismes publics, tels que le système judiciaire, les douanes et l'immigration, ont également recours à l'IA..

Préoccupations concernant l'IA

Néanmoins, les perspectives de développement de l'IA suscitent des inquiétudes quant aux conséquences négatives possibles. Certains pensent que les systèmes informatiques intelligents pourraient évoluer vers une super-intelligence et devenir incontrôlables. D'autres s'inquiètent de perspectives moins lointaines - par exemple, la possibilité que les classificateurs de bases de données utilisés dans des décisions extrêmes en matière de soins de santé ou de justice pénale ne fonctionnent pas correctement en raison d'erreurs et d'imprécisions du système, ce qui entraînerait des choix injustes ou incorrects. Les sceptiques craignent également d'éventuels conflits juridiques et éthiques autour des décisions prises par les systèmes automatisés, des difficultés à comprendre la logique qui sous-tend ces décisions, de nouvelles formes de surveillance et les menaces qui en découlent pour les libertés civiles, la possibilité d'influencer la conscience humaine par la manipulation de l'IA, le potentiel d'utilisation de l'IA à des fins criminelles, les effets considérables de l'utilisation militaire de l'IA, et la perspective d'une réduction de la main-d'œuvre humaine, d'une augmentation du chômage et des inégalités sociales. La prolifération des systèmes d'intelligence artificielle soulève plusieurs problèmes techniques, philosophiques, juridiques, éthiques et autres. Certains d'entre eux sont abordés dans un rapport de 2016 de l'Université de Stanford, intitulé Artificial Intelligence and Life in 2030, notamment les questions de sécurité, la définition de la personnalité juridique de l'intelligence artificielle, la garantie de la confidentialité des données personnelles, la responsabilité civile et pénale, la certification des systèmes d'intelligence artificielle et l'impact négatif de ces systèmes sur les emplois humains. Certaines recommandations pour résoudre les problèmes découlant de l'utilisation des systèmes d'intelligence artificielle sont contenues dans la résolution du Parlement européen et les recommandations de la Commission du 16.02.2017, "Règles de droit civil en matière de robotique." ;

Défis et menaces pour l'IA

L'Institute of Electrical and Electronics Engineers (IEEE) mène des recherches sur l'éthique de l'intelligence artificielle, qui devraient aboutir à des documents techniques réglementant le développement des systèmes d'intelligence artificielle par des normes éthiques. Le premier document est devenu les Recommendations on ethically aligned design, qui ont reçu une licence non commerciale des États-Unis d'Amérique - Creative Commons Attribution-Non-Commercial 3.0 (Institute of Electrical and Electronics Engineers n. d.). Ces recommandations contiennent une liste de menaces et de problèmes liés à la mise en œuvre de systèmes d'intelligence artificielle autonomes, notamment en matière d'éthique..

  • dans le domaine des principes généraux : la nécessité de définir et de consacrer les principes de suprématie des droits de l'homme, de responsabilité, de transparence, d'apprentissage et de sensibilisation dans le développement de systèmes d'intelligence artificielle,
  • dans le domaine de l'intégration des normes et valeurs éthiques dans les systèmes d'intelligence artificielle : non l'universalité des normes morales et leur variabilité en fonction des utilisateurs et des tâches ; possibilité de conflit entre les normes morales et les valeurs ; d'éventuelles erreurs intégrées ou algorithmiques des systèmes d'intelligence artificielle pouvant entraîner une violation des normes éthiques sur des sujets spécifiques ; besoin d'atteindre un certain niveau de confiance entre les gens et l'intelligence artificielle
  • dans le domaine de la sécurité de l'utilisation de l'intelligence artificielle et de la super-intelligence artificielle : le risque de comportement inattendu de l'intelligence artificielle ; la difficulté d'améliorer la sécurité des futurs systèmes d'intelligence artificielle,
  • dans le domaine des données personnelles : la capacité de l'intelligence artificielle à tirer des conclusions sur les données personnelles à partir des informations que les humains distribuent dans la vie quotidienne,
  • dans le domaine des systèmes d'armes autonomes : l'imprévisibilité de ces systèmes ; l'élimination du contrôle humain de l'espace de combat pourrait entraîner une escalade des tensions et des violations involontaires des droits de l'homme ; des acheteurs illimités de systèmes d'armes autonomes conduiraient à leur prolifération et à leur utilisation incontrôlée,
  • dans le domaine économique : les restrictions sur la technologie de l'intelligence artificielle pourraient ralentir l'innovation ; le changement technologique dépasse la façon dont les travailleurs sont formés aux nouvelles technologies; risques de hausse du chômage; creuser le fossé socio-économique entre pays développés et pays en développement,
  • Dans le domaine du droit : le besoin de transparence dans le travail de l'intelligence artificielle et le respect des droits individuels ; les problèmes de responsabilité légale en cas de dommages causés par les systèmes d'intelligence artificielle ; la nécessité d'une application légale de la vérification des systèmes d'intelligence artificielle.

Code d'éthique pour les développeurs robotiques

La résolution du Parlement européen du 16.02.2017 contient des recommandations à l'intention de la Commission européenne sur les règles de droit civil relatives à la robotique, et le code d'éthique pour les développeurs de robotique est annexé à la résolution. Les grands principes de ce Code sont :

  • "faire le bien" - les activités robotiques devraient être au profit des humains,
  • "ne pas nuire" - les robots ne doivent pas nuire aux humains,
  • Principe d'autonomie : les êtres humains ont le droit de décider librement et en toute connaissance de cause des conditions d'interaction avec les robots,
  • le principe de justice : tous les avantages résultant de l'activité du robot doivent être équitablement répartis.

Problèmes éthiques et juridiques de l'application de l'IA

Compte tenu des études mentionnées ci-dessus et des recommandations, les problèmes éthiques et juridiques suivants liés à l'application de systèmes d'intelligence artificielle peuvent être distingués.

  1. La possibilité de reconnaître un porteur d'intelligence artificielle de type humain comme un sujet égal à un humain. En effet, cette question n'est pas encore à l'ordre du jour, compte tenu du niveau de développement de la science et de la technologie. Mais à l'avenir, le développement des systèmes d'intelligence artificielle pourrait poser la question de la nécessité de donner aux porteurs humanoïdes le statut de sujets de droit en leur donnant des pouvoirs égaux à ceux des personnes.

Si une machine peut penser et ressentir comme un humain, doit-elle être considérée comme humaine ? Certains chercheurs pensent que si un porteur d'intelligence artificielle possède la volonté et la conscience, il peut être doté de tous les droits de l'homme. Ils soutiennent en faveur de ce point de vue que les technologies humaines telles que la fécondation in vitro et le clonage génétique créent des humains avec des âmes qui ne sont pas différentes de celles nées dans le "traditionnel" ; façon. Si les humains apprennent à coder numériquement le cerveau humain, alors l'intelligence artificielle deviendra notre version numérique, qui doit avoir une âme.

Avant que des mesures de responsabilisation ne soient établies, il y aura, de toute façon, une question morale sur la nécessité d'un traitement éthique des robots porteurs d'intelligence artificielle et qui copient complètement les humains.

La question de la personnalité juridique de l'intelligence artificielle est liée à celle du statut juridique des résultats de l'activité intellectuelle créés par l'intelligence artificielle et du titulaire des droits intellectuels sur ces œuvres. Par exemple, les robots poètes composent déjà des poèmes en utilisant des modèles grammaticaux et des bases d'informations et lexicales existants, améliorant et élargissant constamment leur vocabulaire. Les ordinateurs musiciens écrivent de la musique.

Les scientifiques proposent les régimes possibles suivants de réglementation juridique des droits de propriété intellectuelle pour les résultats de l'activité intellectuelle, produits avec la participation du porteur de l'intelligence artificielle ou directement par lui :

  • L'octroi de droits de propriété intellectuelle au porteur d'intelligence artificielle en cas de dotation de la personnalité juridique,
  • Refus total de doter le porteur d'intelligence artificielle de tout droit de propriété intellectuelle et occurrence de droits intellectuels soit à la personne qui a créé le concept de base du résultat de l'activité intellectuelle, soit à l'utilisateur-opérateur, soit au producteur d'un système informatique équipé d'intelligence artificielle, ou au propriétaire du logiciel essentiel du porteur d'intelligence artificielle, ou au propriétaire du système informatique équipé d'intelligence artificielle,
  • transfert d'œuvres créées par l'intelligence artificielle dans le domaine public,
  • les travaux du porteur d'intelligence artificielle sont considérés comme des travaux de service,
  • Accorder simultanément des droits intellectuels à un support d'intelligence artificielle et à l'une des personnes spécifiées dans la première variante du régime juridique.

Il semble qu'avant d'accorder des systèmes d'intelligence artificielle, le statut de sujet de droit des droits intellectuels sur les œuvres créées par l'intelligence artificielle devrait se poser pour le propriétaire du système d'intelligence artificielle car le développeur de tels systèmes tire un effet économique de leur vendre. Pour le propriétaire, la possibilité d'acquérir des droits intellectuels sera une incitation à développer de telles stratégies, ce qui augmentera la demande du public pour leur développement et leur production.

L'intelligence artificielle est un objet d'admiration et de culte. Les possibilités illimitées offertes par l'intelligence artificielle, son efficacité, sa productivité et sa capacité à aider l'homme à résoudre une variété de tâches, des problèmes domestiques à l'exploration spatiale et à la compréhension des mystères de l'univers, en font non seulement un bon et fascinant objet de recherche. mais aussi un objet d'admiration, pouvant atteindre le niveau d'adoration et de transformation en idole.

L'ingénieur américain Anthony Levandowski a créé la toute première religion de culte de l'intelligence artificielle, appelée Way of the Future. Les documents de charte de cette organisation religieuse stipulent que ses activités seront axées sur l'adoration d'une divinité basée sur l'intelligence artificielle, développée à l'aide de matériel informatique et de logiciels. Dans le même temps, E. Lewandowski souligne que si quelque chose est un milliard de fois plus intelligent que la personne la plus compétente, on peut l'appeler une divinité.

Bien sûr, il est possible de traiter l'émergence d'une nouvelle religion avec un certain degré d'ironie et de scepticisme, mais nous ne devons pas sous-estimer ses perspectives. Déjà, une partie importante de la population, notamment les jeunes, voue un culte aux innovations techniques : les derniers modèles de smartphones, les jeux vidéo, les programmes, etc. Les gens vont parfois jusqu'au bout pour posséder de nouveaux gadgets : de la retenue et de l'austérité sérieuses jusqu'au crime. Et ils sont poussés non seulement par la mode et le désir de démontrer un certain niveau de vie, mais aussi par un besoin avéré de se trouver dans un espace virtuel, numérique, constamment actualisé, pour lequel il est nécessaire d'utiliser les dernières évolutions techniques dans le domaine des appareils électroniques, qui sont devenus une partie importante et déterminante de la vie. Les résultats prometteurs de l'intelligence artificielle, qui offrent bien plus de possibilités que les smartphones existants, ont toutes les chances d'absorber le monde intérieur des gens et de devenir un objet de culte mondial....

  1. La possibilité que les systèmes d'intelligence artificielle nuisent aux valeurs les plus élevées - la vie et la santé humaines. L'installation incorrecte d'un algorithme de système d'intelligence artificielle peut entraîner des conséquences négatives à grande échelle.

Les cas de systèmes d'intelligence artificielle nuisant aux humains se multiplient à mesure que l'intelligence artificielle évolue. En mars 2018, une voiture Uber sans pilote a heurté une femme sur la route sans la voir, la tuant. En mai de la même année, Watson, l'assistant numérique d'IBM, a recommandé aux patients atteints de cancer des médicaments inappropriés et dangereux pour la santé.

Est-il éthiquement acceptable de développer des systèmes d'intelligence artificielle pouvant entraîner la mort humaine ? Il ne peut y avoir de réponse définitive à cette question. De nombreuses inventions techniques, du vélo à l'avion en passant par le vaisseau spatial, qu'elles soient conduites par l'homme ou la machine, peuvent, compte tenu de la confluence de certains facteurs, causer des dommages à l'homme. Mais abandonner le développement scientifique dans de tels domaines techniques stopperait l'avancée de la civilisation.

Une autre question éthique et juridique se pose : qui est responsable des dommages causés par les systèmes d'intelligence artificielle ? L'intelligence artificielle prend ses propres décisions et les met en œuvre. Les développeurs de systèmes d'intelligence artificielle ne fixent pas d'algorithmes exhaustifs pour l'action et la prise de décision ; les systèmes d'intelligence artificielle peuvent s'auto-apprendre et fonctionner de manière autonome. Dans quelle mesure est-il raisonnable de tenir un pilote ou un médecin utilisant une technologie d'intelligence artificielle responsable, par exemple, d'erreurs d'IA ? Si la responsabilité est placée sur les personnes qui utilisent les systèmes d'intelligence artificielle, les gens éviteront de les utiliser, ce qui entravera le développement des technologies pertinentes. Si la culpabilité est placée sur les développeurs de systèmes d'intelligence artificielle, cela peut avoir des conséquences similaires. Si la responsabilité n'est attribuée à aucun de ces individus, alors il n'y a aucun moyen de réparer les dommages causés par l'intelligence artificielle aux humains.

Beaucoup pensent que pour résoudre ce problème, il est nécessaire d'introduire une assurance responsabilité civile obligatoire pour les dommages causés par les systèmes d'intelligence artificielle aux humains, que les compagnies d'assurance indemniseront pour les dommages. De plus, si l'indemnité d'assurance est insuffisante pour payer le préjudice, le développeur et le fabricant devraient être conjointement et solidairement responsables de la personne utilisant le système d'intelligence artificielle.

  1. La prise de décision par l'intelligence artificielle concernant les droits et les devoirs des personnes et leur responsabilité légale peut contredire les valeurs juridiques et éthiques fondamentales. Si les systèmes d'intelligence artificielle prennent des décisions sur les droits et obligations des personnes, sur la responsabilité des personnes en cas de violation, alors, en tenant compte d'algorithmes opaques de décisions prises par l'intelligence artificielle, les droits fondamentaux, défendus par l'homme depuis des siècles, peuvent être violés : droit à se familiariser avec tous les documents touchant aux droits de l'homme et aux libertés ; apte à une décision motivée, qui donne une qualification juridique détaillée des actes commis par un citoyen ; droit de faire appel des décisions des autorités et fonctionnaires

Par conséquent, si un porteur d'intelligence artificielle est doté du droit de prendre des décisions juridiquement significatives concernant des personnes, les principes suivants doivent être observés:

  • il doit être possible de présenter les opérations de l'Intelligence Artificielle sous une forme compréhensible par l'homme (informations initiales, modes de traitement, qualification juridique, motifs de la décision prise),
  • Une personne doit avoir la possibilité de faire appel auprès d'une autre personne contre la décision prise par l'intelligence artificielle.
  1. L'intelligence artificielle exacerbe la stratification et les inégalités, créant les conditions de la centralisation du pouvoir. Le développement de l'intelligence artificielle conduira à une inégalité encore plus grande entre ceux qui ont la technologie et ceux qui ne l'ont pas, car il crée des conditions pour la centralisation du pouvoir et la concentration des ressources chez ceux qui l'ont.
  2. L'introduction de l'intelligence artificielle créera un chômage de masse. La Bain Consulting Company estime que l'introduction des robots et de l'intelligence artificielle ajoutera 2,5 millions d'Américains au chômage chaque année (en comparaison, au début du XXe siècle, lors de la transition vers une économie industrielle, ce chiffre était moitié moins). Cela nuirait à toutes les institutions sociales, y compris la famille, et entraînerait des problèmes démographiques.
  3. Supériorité intellectuelle des porteurs d'Intelligence Artificielle sur les humains. Les êtres humains ont certaines limites biologiques à leur développement, tandis que l'intelligence artificielle n'en a aucune. Les humains sont limités par une évolution naturelle lente et ne peuvent pas rivaliser avec l'intelligence artificielle en ce qui concerne la vitesse de développement. En conséquence, l'intelligence artificielle, qui commence à être perçue comme une menace, pourrait être rayée de la surface de la terre. Les porteurs d'intelligence synthétique peuvent commencer à considérer les humains comme un obstacle à la réalisation de leurs objectifs. En conséquence, les humains peuvent se retrouver asservis ou délibérément détruits par l'intelligence artificielle. Les algorithmes intégrés à l'intelligence artificielle devraient prévoir la possibilité inconditionnelle de leur désactivation par l'homme.
  4. Éloignement des gens les uns des autres, solitude de l'homme. La distribution de systèmes d'intelligence artificielle dans des sphères où la communication et l'interaction personnelles et la manifestation de sentiments et d'émotions humaines sont importantes peut conduire à l'aliénation des personnes les unes des autres et accroître la solitude.

Par exemple, de nos jours, les robots baby-sitters peuvent surveiller les enfants, donner aux parents des informations sur l’enfant, jouer avec les enfants, entretenir une conversation avec l’enfant et participer à son éducation. Le problème est qu’au lieu des parents, dont l’amour, les soins et l’affection sont nécessaires au développement total de l’enfant, il y a un robot avec lui, duquel l’enfant ne peut obtenir ce dont il a le plus besoin. Par conséquent, cela peut affecter le développement mental, physique, intellectuel et émotionnel de l’enfant, entraînant l’absence du lien émotionnel nécessaire entre l’enfant et ses parents et des difficultés futures dans l’éducation. Des problèmes similaires se posent lorsque l'on utilise des robots soignants pour s'occuper de personnes malades, qui ont également besoin de l'attention et des soins d'êtres humains, et non de machines.

  1. La possibilité de suivre des normes éthiques dans la prise de décision par l'intelligence artificielle. Les systèmes d'intelligence artificielle peuvent être confrontés à des choix moraux, en particulier lorsqu'ils sont confrontés à des situations non standard. Par exemple, un système de contrôle intelligent de véhicule sans pilote doit choisir entre heurter un piéton et une manœuvre qui menace de nuire à la vie et à la santé des passagers. Est-il possible d'établir la nécessité de suivre des normes éthiques lors de la prise de décisions avec l'intelligence artificielle ?

Le besoin de réglementation


Pour résumer tout ce qui précède : les problèmes actuels de l'IA sont ceux d'une IA non réglementée et ignorant ses conséquences à grande échelle pour la société. Compte tenu de l'utilisation généralisée de l'IA et des mégadonnées, les experts en IA suggèrent d'introduire une nouvelle approche réglementaire appelée principe réglementaire de précaution. En outre, un système de principes éthiques à respecter dans le développement de systèmes d'intelligence artificielle devrait être élaboré et approuvé au niveau législatif. La coopération internationale et l'implication de nombreux experts qui comprennent et peuvent analyser l'interaction entre les technologies d'intelligence artificielle, les objectifs des logiciels et les catégories éthiques sont nécessaires pour relever efficacement ce défi. Les algorithmes intégrés à l'intelligence artificielle doivent prévoir la possibilité inconditionnelle d'une incapacité humaine. En outre, les algorithmes de contrôle du système d'intelligence artificielle devraient être tels que le système ne pourrait pas fonctionner si les normes éthiques sont violées, c'est-à-dire que les normes morales devraient être la base du système d'intelligence artificielle, plutôt qu'un ensemble supplémentaire de critères que l'intelligence artificielle système utilisera pour prendre des décisions. Une assurance responsabilité civile obligatoire pour les dommages causés par les systèmes d'intelligence artificielle à l'homme devrait être mise en place, auquel cas les compagnies d'assurance indemniseront les dommages. Si l'indemnité d'assurance est insuffisante pour payer le préjudice causé à la personne utilisant le système d'intelligence artificielle, le développeur et le fabricant devraient être conjointement et solidairement responsables. Lors de l'habilitation de l'intelligence artificielle à prendre des décisions juridiquement significatives concernant les humains, il est nécessaire de légiférer sur les principes suivants : il doit être possible de présenter les opérations de l'intelligence artificielle sous une forme compréhensible pour l'homme (informations sources, comment elles ont été traitées, informations juridiques qualification, les motifs de la décision prise) ; une personne devrait avoir la possibilité de faire appel d'une décision prise par l'intelligence artificielle. Ainsi, les perspectives de l'intelligence artificielle dépendent principalement de l'attitude de l'humanité face à son introduction et du degré de sa régulation.