L'intelligence artificielle en droit

L'impact économique global des technologies de l'IA pourrait représenter jusqu'à 35 % de la croissance économique d'ici à 2035 (Accenture, 2018). Le champ des technologies identifiées comme "intelligence artificielle" ; est vaste et, selon les définitions utilisées, peut conduire à des évaluations différentes de son impact positif et négatif sur la société. Dans le même temps, l'universalité de l'IA est considérée non seulement du point de vue de sa compatibilité technologique avec tout processus de production, mais aussi dans la perspective de remplacer les humains. Certains scientifiques pensent qu'il y a un danger à faire de l'IA une "superintelligence" dont les objectifs pourraient ne pas être les mêmes que ceux de l'homme. Selon diverses estimations de membres de l'Association pour le développement de l'intelligence artificielle et de spécialistes de l'IA, la création d'une intelligence artificielle dont les capacités cognitives sont comparables à celles des humains est possible en 2075, tandis qu'environ 70 % des chercheurs interrogés pensent que l'apparition d'une "super IA" est possible. Compte tenu de ces prévisions et de ces préoccupations, plus de 1 000 chercheurs en IA ont signé une lettre commune proposant d'interdire l'utilisation de systèmes entièrement autonomes comme armes. À cet égard, il est crucial de former un cadre réglementaire international unifié pour réglementer l'IA à l'échelle mondiale.

Problèmes de régulation de l'IA

Tout d'abord, la réglementation dans le domaine de l'IA doit être complète et couvrir plusieurs technologies connexes, notamment le "big data", l'informatique dématérialisée, l'apprentissage automatique et la robotique, qui constituent la base technique et logicielle de l'IA. En outre, la recherche sur l'IA est vaste et interdisciplinaire par nature : L'IA est l'objet d'études tant dans les sciences techniques que dans les sciences humaines. Actuellement, il n'existe pas de réglementation globale de l'IA aux niveaux national et international qui prenne en compte toutes les questions liées au développement, à la production et à la mise en œuvre de systèmes d'IA dans divers domaines. Seuls quelques États, comme les États-Unis, l'Allemagne, la Corée du Sud, la Chine et l'Union européenne, ont adopté une approche approfondie pour résoudre des problèmes individuels dans le domaine de la législation - la plus accentuée est celle de la réglementation de l'utilisation des véhicules sans pilote. Mais dans l'ensemble, l'élaboration actuelle des règles manque de cohérence et de compréhension d'une approche unifiée. La création de normes optimales peut conduire à une augmentation de l’attrait de la région pour les investissements. Un excellent exemple de la relation entre la législation et le développement technologique est la loi anglaise sur le drapeau rouge de 1865, qui a établi une limite de vitesse pour les voitures (jusqu'à 2 miles par heure) et a exigé qu'un signaleur marche devant chaque voiture pour signaler le mouvement du véhicule. En conséquence, l'industrie automobile en Angleterre était en déclin, ce qui a conduit à la cession de la position de leader de l'industrie à la France et à l'Allemagne. Ainsi, une réglementation appropriée encouragera le développement technologique. Dans le même temps, la création d'un ensemble de réglementations permettant d'équilibrer les intérêts de tous les participants à la relation IA constitue une tâche ambitieuse et difficile. Des macro-facteurs tels que:

  • Rigidité législative,
  • conséquences sociales et économiques, compte tenu du niveau de chômage et de la stratification sociale,
  • confidentialité et protection des données personnelles,
  • sécurité,
  • l'éthique, y compris les attitudes homme-robot, les dommages humains potentiels, etc.

Problèmes de développement et de réglementation de l'IA dans les organisations internationales

Aujourd'hui, le paysage mondial général, les approches de base et les principes dans le domaine du décret législatif sur l'IA sont façonnés par les organisations et plateformes internationales les plus autorisées.

DAPRA

Le champ d'intérêt de la DARPA comprend également les projets d'IA, dans lesquels trois domaines d'IA peuvent être distingués :

  • "connaissances manuelles" - est un ensemble de règles créées par des ingénieurs qui représentent des connaissances dans un domaine bien défini. Dans ce cas, la structure des connaissances est déterminée par les humains, et la machine explore les spécificités de ces connaissances,
  • "apprentissage statistique" - les ingénieurs créent des modèles statistiques pour des domaines spécifiques et entraînent l'IA à travailler avec les données. Cette direction se distingue car elle permet une bonne classification et la capacité de prédire des événements spécifiques. Un inconvénient majeur de l'IA est sa capacité minimale à raisonner,
  • "adaptation conceptuelle" - cette direction prévoit le développement de systèmes qui génèrent des modèles explicatifs contextuels pour les classes et les phénomènes du monde réel (par exemple, un modèle génératif conçu pour expliquer comment un objet donné aurait pu être créé. Le concept DARPA est profondément et logiquement lié au courant situation dans le domaine du développement de l'IA ; cependant, ces technologies n'ont pas été étudiées en termes de fonctionnalité et de définition des limites morales, juridiques et organisationnelles.

Les Nations Unies

En 2018, les Nations Unies ont signalé avoir, entre autres, examiné l'impact des technologies de l'IA sur les droits de l'homme dans l'environnement de l'information. Le document note que les entreprises devraient réfléchir à la manière d'élaborer des normes professionnelles pour les ingénieurs en IA, en traduisant les responsabilités en matière de droits de l'homme en orientations pour les choix techniques lors de la conception et de l'exploitation de systèmes d'IA. Il est également recommandé que des systèmes de réclamation et de recours soient mis en place pour répondre rapidement aux plaintes et aux appels des utilisateurs. Des données devraient être régulièrement publiées sur la fréquence des plaintes et des demandes de recours pour les situations où des systèmes d'IA se sont produits, ainsi que sur les types et l'efficacité des traitements disponibles. Les questions d'IA ont également commencé à être abordées dans le cadre des compétences essentielles de la Commission du développement économique et social (ECOSOC) et de la Conférence des Nations Unies sur le commerce et le développement (CNUCED). La CNUCED a pris certaines initiatives pour élargir le débat sur le transfert de données et ses risques associés pour les pays en retard dans l'économie numérique. En 2018, le rapport sur l'économie numérique a été publié, et l'un de ses problèmes centraux était le transfert de données et son impact potentiel sur le développement d'une blockchain, d'un cloud, de l'IoT et de l'IA.

L'Organisation des Nations Unies pour l'éducation, la science et la culture (UNESCO)

L'UNESCO note que l'accumulation de données sur le comportement humain et l'utilisation de technologies informatiques pour les traiter soulèvent de nouvelles questions concernant les droits de l'homme, la liberté de partage de l'information et l'éducation. L'objectif de la politique de l'UNESCO en matière d'IA est d'exploiter la puissance des nouvelles technologies de l'information pour construire une "société de la connaissance" et atteindre les objectifs de développement durable (ODD). L'UNESCO recommande d'aborder le développement mondial de l'IA du point de vue des principes de la ROAM (droits de l'homme, ouverture, accessibilité et participation de tous les groupes d'acteurs) énoncés précédemment dans le contexte du "développement universel de l'Internet". Outre les principes de la ROAM, le document de position de l'UNESCO souligne la nécessité de développer des principes éthiques pour l'IA, ainsi que la nécessité de respecter les minorités sexuelles et sociales et d'accorder une attention particulière à la réduction de la fracture numérique, notamment dans les pays africains.

L'expérience de l'Union européenne en matière de réglementation juridique de l'IA

Le 10 avril 2018 . Vingt-cinq pays européens ont signé une déclaration sur la coopération dans le domaine de l'IA. Les États membres ont convenu de travailler ensemble sur les questions les plus critiques de l'ère numérique, qu'il s'agisse d'assurer la compétitivité de l'Europe dans la recherche sur l'IA ou de relever les défis sociaux de l'adoption de l'IA. En outre, les États ont défini une "approche proactive" de la réglementation de l'IA, ce qui implique de moderniser le système européen d'éducation et de formation, y compris la formation avancée et le recyclage des citoyens européens. La déclaration a été suivie d'un document tout aussi important, les recommandations en matière de politique et d'investissement pour une IA robuste. Cette ligne directrice met en évidence les éléments suivants dans le domaine de la réglementation juridique de l'IA :

  • Améliorer les connaissances socialement pratiques sur l'IA,
  • accélérer l'adoption des technologies et des services d'IA dans tous les secteurs de l'Union européenne,
  • promouvoir et faire évoluer les solutions d'IA en innovant et en facilitant la transformation du secteur technologique,
  • développer des initiatives de gestion et de partage des données juridiquement compatibles et éthiques au sein de l'Union européenne,
  • développer et prendre en charge des infrastructures de cybersécurité centrées sur l'IA. Les orientations soulignent la nécessité de développer un régime de cybersécurité pour l'infrastructure et les méthodes d'IA. En outre, le document souligne l'intérêt de développer des politiques de cybersécurité de l'IA centrées sur l'utilisateur pour protéger les droits des utilisateurs sur Internet. Il convient de noter qu'un inconvénient du Guide est son multitâche et son faible niveau de réglementation de l'IA. La réglementation de l'IA ne s'arrête pas là ; le 19 février 2020. La Commission européenne a publié un livre blanc qui met l'accent sur la création d'un écosystème d'IA. Le livre blanc met en évidence les éléments suivants dans le domaine des activités de réglementation de l'IA :
  • Créer des centres d'innovation et de recherche clés en matière d'IA et développer leurs politiques
  • promouvoir l'adoption de l'IA dans le secteur public. La Commission européenne initie des dialogues sectoriels ouverts et transparents, donnant la priorité aux soins de santé, etc.,
  • créer des principes éthiques et élaborer des recommandations sur l'IA. Le Livre blanc proclame également un "écosystème de confiance" qui sert de cadre normatif pour l'IA. Les directives sont étayées par des principes de cybersécurité, qui devraient être basés sur la fiabilité technique, la confidentialité, la transparence, la diversité, la non-discrimination et l'équité. Ce document décrit dans les grandes lignes l'orientation du cadre réglementaire, qui implique l'élimination des risques possibles de l'IA (c'est-à-dire une IA entièrement autonome). Le défi le plus critique du cadre juridique de l'UE est son applicabilité à l'IA. Le livre blanc souligne qu'une évaluation adéquate du cadre juridique et de sa pertinence est nécessaire. On note une évolution du concept de sécurité. Le fait est que l'utilisation de l'IA dans les produits et services génère beaucoup de risques, ce qui crée le besoin d'une réglementation légale dans ce domaine (par exemple, la création de normes liées aux nouvelles applications de l'IA). Sur la base de l'analyse du Livre blanc, nous pouvons conclure que les problèmes de régulation juridique de l'IA doivent être résolus non seulement au niveau des règles mais aussi en considérant l'essence de l'IA, ses perspectives d'utilisation sur les marchés (par exemple, le problème des systèmes d'IA autonomes). Il est également essentiel de s'entendre sur les enjeux juridiques de la régulation de l'IA (basée sur l'essence de l'IA), les limites de son développement et la dynamique de son introduction dans d'autres industries. Après la publication du livre blanc, une consultation publique a été menée au niveau de l'Union européenne. Au cours de cet exercice, tous les États membres de l'UE et les parties prenantes concernées (y compris la société civile, l'industrie et les universités) ont été invités à participer à la consultation. L'événement mentionné ci-dessus a fourni une expérience pertinente pour l'amélioration de la législation. L'Union européenne étudie l'IA dans le cadre du projet Horizon 2020. Ce projet permet la recherche en IA dans les vecteurs de développement suivants :
  • Renforcer les centres de recherche sur l'IA au sein de l'Union européenne
  • soutenir le développement d'une "IA à la demande" plate-forme qui fournira un accès aux ressources d'IA pertinentes dans l'UE,
  • soutenir le développement d'applications d'IA spécifiques dans des secteurs économiques clés. En outre, le projet de plate-forme d'IA à la demande est activement développé au niveau de l'Union européenne. Cette plateforme est un ensemble d'actualités dans le domaine des développements de l'IA, qui permet de fournir une composante informative spécifique pour la formation de nouvelles initiatives dans le domaine de l'IA. Le 15 septembre, le Parlement européen et le Conseil de l'UE ont approuvé le programme de développement Path 2030 to a Digital Decade. Le programme vise à ce que d'ici 2030, au moins 75 % de toutes les entreprises européennes mettent en œuvre les technologies de l'IA, le big data et le cloud computing dans leur travail. La voie vers une décennie numérique est cohérente, compatible et complémentaire avec d'autres programmes de développement et documents politiques de l'UE tels que la boussole numérique, la stratégie pour façonner l'avenir numérique de l'Europe, la stratégie industrielle, la stratégie de cybersécurité, le programme Europe numérique et Horizon Europe. . Path to a Digital Decade est basé sur des actes législatifs existants et prévus, tels que la loi sur la gouvernance des données, la loi sur les services numériques et la loi sur les marchés numériques. En général, la Commission européenne a formulé sept conditions principales pour la formation d'une base solide d'IA :
  • Gouvernance et contrôle. Une référence complète est faite à une sorte de "société équitable" à atteindre grâce à l'IA,
  • fiabilité et sécurité. La sécurité de l'IA doit être garantie à travers son système d'algorithmes (et à toutes les étapes du cycle de vie de l'IA),
  • confidentialité et gestion des données. Les citoyens doivent avoir un contrôle total sur leurs données, tandis que les données les concernant ne seront pas utilisées pour les nuire ou les discriminer,
  • transparence. La déclaration de la CE indique qu'il devrait y avoir un système de filtrage de l'IA en termes de solutions proposées par l'IA elle-même et de coordination avec le sujet du traitement de ces informations. Cependant, la CE ne donne pas de détails sur la question du traitement,
  • L'IA doit être multifonctionnelle et prendre en compte l'ensemble des capacités humaines,
  • le bien-être social et environnemental. Dans ce bloc, la CE note que l'IA devrait également être utilisée pour améliorer la durabilité sociale et les objectifs environnementaux (mentionne même le concept de "responsabilité environnementale, mais il ne semble pas clair comment il devrait être mis en œuvre),
  • responsabilité. La CE informe à juste titre les États membres qu'il est nécessaire de créer des mécanismes qui garantiraient la responsabilité et l'obligation de rendre compte des organismes dans le domaine du fonctionnement du système d'IA. Ces blocages ne caractérisent pas l'attitude générale de l'Union européenne à l'égard du développement de l'IA, mais pointent des problèmes spécifiques qui peuvent devenir une difficulté dans le développement de l'écosystème de l'IA et du cadre juridique dans ce domaine. Classiquement, nous pouvons identifier les problèmes suivants dans l'application des conditions formulées par la CE :
  • Problèmes de responsabilité. Le schéma de responsabilité des autorités pour le travail de l'IA et la manière dont cela sera argumenté en termes de preuves n'est pas encore transparent,
  • l'incohérence des dispositions entre elles. De plus, il convient de mentionner qu'il existe une contradiction cachée entre le bloc mentionné ci-dessus et le bloc sur le développement de l'IA en général, où ce dernier vise à développer l'IA en prenant en compte toute la gamme des capacités humaines. On parle de créer un système assez autonome avec des compétences humaines dans la prise de décision, et le lien de causalité n'est pas révélé à cause de cela,
  • le système de transparence est vague, c'est-à-dire que la façon dont les décisions de l'IA seront filtrées n'est pas tout à fait claire. La CE a fait des tentatives juridiques critiques mais ne contient pas d'actions institutionnelles et juridiques spécifiques (par exemple, des règlements techniques, des politiques supplémentaires, des directives). Une telle expérience de la réglementation juridique internationale de l'IA est perçue de deux manières. D'une part, l'utilisation de documents juridiques adoptés permet de définir l'ensemble des problèmes d'IA (y compris la cybersécurité). D'autre part, la réglementation juridique internationale ne se limite pas à ces actes. Une élaboration plus détaillée des blocs identifiés par la CE est nécessaire pour éliminer leurs contradictions. Il convient de noter que malgré les étapes initiales de développement de la plupart des blocs, la CE a créé une unité organisationnelle - le groupe dans le domaine de l'IA (AI Group). C'est ce groupe qui a élaboré les "Règles d'éthique en IA", qui contiennent les recommandations suivantes :
  • Conception et utilisation des systèmes d'IA selon des principes éthiques : respect de l'être humain, autonomie de l'IA (limites autorisées à définir et élaborer progressivement), prévention des actes répréhensibles et explicabilité des processus d'IA. La direction indique l'élimination des contradictions entre les principes.
  • attention aux groupes vulnérables, tels que les personnes handicapées et les enfants, qui sont les plus exposés au facteur de risque des nouvelles technologies (IA),
  • attention aux risques du système d'IA, qui sont difficilement prévisibles (à cet égard, une attention doit être portée aux mesures légales qui peuvent être prises),
  • la conception, le déploiement et l'utilisation des systèmes d'IA doivent répondre aux exigences suivantes : contrôle humain des fonctions d'IA spécifiques (supervision) ; fiabilité technique et sécurité; confidentialité; transparence; diversité, non-discrimination et équité ; bien-être environnemental et social; responsabilité
  • les recommandations du groupe AI devraient être mises en œuvre dans la législation nationale des autres États. Il convient de noter que le modèle mentionné précédemment de réglementation juridique choisi par l'UE présente plusieurs avantages :
  • Des stratégies et des recommandations permettent une réponse rapide à la dynamique de l'IA et à ses capacités, selon lesquelles la matière juridique au sein de l'UE et des États membres est constamment soumise à des changements,
  • La Déclaration sur la coopération dans le domaine de l'IA n'implique aucune définition ni formulation de cadre, ce qui permet d'approfondir les questions individuelles dans les documents analysés ci-dessus. Il convient de souligner que, d'une manière générale, les documents de l'UE manquent encore de systématisation.

Les moyens d'améliorer la situation


Actuellement, on constate une croissance sans précédent de l'intérêt pour la réglementation des relations sociales liées à l'IA dans le monde. Cette tendance est due à certains facteurs, parmi lesquels il convient de noter l’accroissement spectaculaire de l’influence des technologies de l’information sur la vie des gens et la dépendance de l’homme vis-à-vis de la technologie, qui s’est produite et est devenue évidente depuis le début de la pandémie de COVID-19. Le deuxième facteur, bien sûr, est l'émergence objective des technologies de l'information, notamment celles réunies sous le terme d'IA, à un nouveau niveau qualitatif, ainsi que la croissance rapide de leur mise en œuvre massive. Ces facteurs suscitent des attentes anxieuses et amènent beaucoup de gens à penser que les scénarios de science-fiction bien connus pourraient devenir une réalité si des mesures urgentes ne sont pas prises pour établir un contrôle sur l'IA et sur ceux qui la détiennent. Parallèlement, on se rend compte que les technologies de l'information sont par nature extraterritoriales et transfrontalières et que la réglementation au seul niveau national a peu de chances d'être efficace. Aucune juridiction n'est capable à elle seule de réglementer et de contrôler l'IA. La réglementation de l'IA nécessite des approches flexibles et une combinaison de différents outils, notamment l'autorégulation, la normalisation, la réglementation morale et éthique, et les moyens techniques de régulation (étiquetage, utilisation de codes, métadonnées). Ce sont ces facteurs qui semblent avoir créé les conditions préalables pour que le discours pertinent atteigne le niveau d'interaction entre les principales organisations internationales (UNESCO, OCDE, CoE) et une organisation internationale universelle (ONU), ainsi que pour le début du développement de documents internationaux juridiquement contraignants (le chef de file ici est traditionnellement le Conseil de l'Europe)..