Menaces de l'IA : comment ne pas devenir une victime des robots

L'intelligence artificielle est en train de changer le monde. Certaines personnes sont effrayées par cette perspective. D'autres sont investis dans les nouvelles technologies. D'autres encore, effrayés par les robots, proposent une nouvelle éthique : résolution de problèmes, émotion et libre arbitre dans un monde d'intelligence virtuelle. Quelle est la menace que représentent pour l'humanité les robots dotés d'une intelligence artificielle avancée, et comment la prévenir (et ne pas essayer d'arrêter le progrès) ?

Comment les machines intelligentes peuvent-elles être dangereuses : les problèmes de la robotisation et du développement de l'IA

L'intelligence artificielle peut changer fondamentalement la société humaine, et l'ampleur des changements découlant de son introduction est comparable aux conséquences de la révolution industrielle. Selon le cabinet de conseil international Frost & ; Sullivan, le volume mondial des investissements dans le développement de l'IA, provenant principalement des géants de l'informatique tels qu'Alibaba, Amazon, Baidu, Google, Facebook et autres, atteindra environ 52,5 milliards de dollars en 2022, soit près de quatre fois plus qu'en 2017. 90 % des fonds sont destinés à la recherche et au développement internes. Les acteurs industriels les plus importants financent également la recherche, principalement dans l'apprentissage automatique et la robotique : ABB, Bosch, GE, Siemens, ainsi que les constructeurs automobiles - BMW, Tesla, Toyota, et d'autres. De nombreux chercheurs et futurologues pensent que l'intelligence artificielle pourrait égaler l'intelligence humaine au XXIe siècle. Dans les 10 à 20 prochaines années, des percées importantes seront réalisées dans la reconnaissance vocale et le contrôle des robots (y compris les voitures autonomes). L'IA apprendra également à simuler parfaitement les émotions.

Cela ne va-t-il pas être désastreux pour l'humanité ?

Cette technologie a un énorme potentiel malveillant. La plus grande crainte est la perte de contrôle de l'homme sur la superintelligence. Il existe également des difficultés d'ordre éthique. La liste des préoccupations éthiques liées à l'utilisation de l'intelligence artificielle, notamment, comprend la question de savoir comment cette technologie affectera le comportement et l'interaction humains. Le McKinsey Global Institute, dans ses recherches, pointe un autre problème : les préjugés humains - racisme, sexisme, etc. - peuvent être introduits dans l'intelligence artificielle. On ne sait pas encore quelle morale sera inculquée à l'IA, mais en internalisant les préjugés humains, elle fondera ses conclusions sur les prêts, les embauches, etc. L'intelligence artificielle reconnaît non seulement le sexe et la race apparents, mais aussi l'orientation sexuelle. Comment éviter l'imposition de biens et de services par l'intelligence artificielle ? Les applications alimentées par l’intelligence artificielle ne vont-elles pas manipuler les gens pour les inciter à dépenser ? L’intelligence artificielle ne va-t-elle pas essayer de limiter les choix émotionnels libres des gens en général ? On s'inquiète également des mauvaises décisions qu'un ordinateur pourrait faire prendre à un médecin ou à un juge. Qui sera responsable des erreurs de l'IA - les développeurs ou les utilisateurs ? Nick Bostrom, célèbre philosophe suédois, écrit dans son ouvrage Ethics of Artificial Intelligence qu'une personne peut oublier ou cesser de comprendre pourquoi l'IA conseille de faire les choses de telle ou telle manière. Néanmoins, la technologie n'a pas encore cessé d'évoluer, conduisant à une interaction et une coopération plus importantes entre les humains et les machines dans la production et la vie quotidienne. Inévitablement, la question se pose, qui est la première et la plus dangereuse des menaces : comment pouvons-nous nous assurer que les machines ne blessent pas physiquement les humains, accidentellement ou intentionnellement ?

Les vraies victimes des robots

Même du vivant de l'écrivain de science-fiction et futurologue Isaac Asimov, qui a formulé trois lois de coexistence pacifique entre un robot et un humain, une machine a été trouvée qui les a brisées.

Les lois formulées par Asimov

  1. Un robot ne peut pas nuire à un humain ou permettre qu'un humain soit blessé par son inaction.
  2. Un robot doit obéir à tous les ordres donnés par un humain, sauf lorsque ces ordres contredisent la première loi.
  3. Le robot doit prendre soin de sa propre sécurité dans la mesure où il ne contredit pas la première ou la deuxième loi.

Le 25 janvier 1979, à Flat Rock, dans le Michigan, aux États-Unis, Robert Williams, un employé d'un entrepôt de l'usine Ford âgé de 25 ans, a été chargé de retirer des pièces stockées sur une étagère massive, qui fonctionnait en même temps par un manipulateur à cinq niveaux. Il a effectué les opérations de déplacement des flans dans l'entrepôt. Une partie de la machine était constituée de véhicules de transport d'une tonne - des chariots à roues en caoutchouc équipés de manipulateurs mécaniques pour déplacer les bornes. Williams a été envoyé pour faire un travail que le robot ne pouvait pas gérer - certaines pièces ont été laissées en dehors de la machine. Le travailleur est monté au troisième niveau du rack et a commencé la tâche. Entre-temps, l'un des chariots est apparu ici et a tué sur le coup l'ouvrier qui n'avait pas remarqué son approche d'un coup de manipulateur. Williams' le corps est resté sur l'étagère pendant une demi-heure jusqu'à ce que les ouvriers le découvrent. Le robot a continué à être banal alors qu'il déplaçait les billettes. Les proches du travailleur ont intenté une action en justice pour 10 millions de dollars de dommages et intérêts, et Williams, ne le sachant pas, est entré dans l'histoire comme la première victime du robot.

Cependant, selon les normes légales, appeler Robert Williams' meurtre à mort est de permettre une grande exagération car la machine de l'usine n'avait pas le principal "attribut qualificatif" de meurtre avec préméditation : mobile. Et même en juillet 2016, lorsqu'un robot policier avec des explosifs a été utilisé pour éliminer un criminel à Dallas, au Texas, aux États-Unis, les actions de la machine étaient toujours dirigées par un humain.

Les robots nuisent-ils souvent aux humains ?

Bien que tous les robots, à l'exception des militaires, soient conçus de manière à ne violer aucune des règles d'Asimov, il est impossible d'éviter totalement les pertes. Sont-elles nombreuses ? Les statistiques relatives aux incidents dramatiques impliquant des robots sont peu nombreuses, même si des blessures et même des meurtres impliquant des machines se produisent régulièrement. Selon une étude de l'administration américaine de la santé et de la sécurité au travail (OSHA), les robots industriels ont causé au moins 33 décès et blessures sur le lieu de travail dans ce pays en 30 ans. Cependant, il existe également des données plus sombres. En 2013, les compagnies d'assurance allemandes ont estimé qu'environ 100 incidents impliquant des robots industriels se produisaient chaque année dans le pays. Une étude antérieure réalisée en 1987 auprès d'entreprises des États-Unis, de l'Allemagne, de la Suède et du Japon a montré exactement comment les robots nuisaient aux travailleurs : dans 56 % des cas, ils causaient des blessures par pénétration, et dans 44 %, ils frappaient. La plupart des accidents étaient dus à une mauvaise organisation du lieu de travail (20 des 32 incidents analysés), tandis que l'erreur humaine n'était à l'origine que de 13 situations désagréables.

Il existe des statistiques sur l'utilisation infructueuse des robots dans des domaines d'application spécifiques. Par exemple, dans le domaine des сobots médicaux : en 2013, une équipe de scientifiques a analysé les statistiques de la Food and Drug Administration (FDA) américaine et a constaté que, de 2000 à 2013, 144 décès, 1 391 blessures et 8 000 dysfonctionnements de dispositifs ont été enregistrés lors de procédures chirurgicales assistées par des robots. Parmi ceux-ci, deux décès et 52 blessures ont été causés par l'arrêt spontané du robot pendant l'opération ou par un mouvement inapproprié. Un décès et 119 blessures ont été causés par la chute de parties du robot ou de ses accessoires sur le patient.

Pourquoi les robots sont-ils devenus plus dangereux ?

Le problème fondamental et presque philosophique est que les robots n'ont pas conscience de faire partie du monde et peuvent être dangereux pour les autres. Toutefois, s'il y a 20-40 ans, un robot était une machine électromécanique effectuant une gamme minimale de tâches répétitives, et que l'accès à celle-ci pouvait être limité afin qu'elle ne nuise pas accidentellement à quelqu'un, aujourd'hui, la situation change. Deux trieurs - un vivant et un mécanique - peuvent travailler simultanément sur le même tapis roulant. De plus, les robots deviennent des multitâches, pour lesquelles ils ont besoin de se déplacer sur le territoire. Par conséquent, un espace de travail unique entre l'homme et la machine se forme, dans lequel tout peut arriver.

Les robots industriels présentent plusieurs types de dangers, selon leur origine :

  • Les dangers mécaniques, qui résultent de mouvements involontaires et inattendus ou de la perte d'outils par le robot ;
  • Risques électriques, tels que le contact avec des pièces ou des connexions sous tension ;
  • risques thermiques, tels que ceux associés aux surfaces chaudes ou à l'exposition à des températures extrêmes ;
  • Bruit pouvant nuire à l'ouïe. Alors, qu'est-ce qui déclenche ces dangers? L'OSHA a observé que de nombreux incidents impliquant des robots ne se produisent pas dans des conditions de fonctionnement normales mais plutôt dans des situations anormales, telles que lors d'une reprogrammation, d'une maintenance, d'une réparation, d'un test, d'un réglage ou d'un ajustement. Ensuite, il y a des facteurs externes échappant au contrôle humain, naturels ou techniques, comme une panne de courant.

Il y a au total sept raisons principales pour lesquelles les robots deviennent incontrôlables :

  1. les erreurs de contrôle, c'est-à-dire les erreurs dans le système de contrôle ou le logiciel qui entraînent un comportement instable ou une augmentation du potentiel énergétique dangereux de la machine ;
  2. accès non autorisé - une violation par un technicien non formé de la zone de sécurité à proximité de la machine ;
  3. dysfonctionnements mécaniques - les dysfonctionnements les plus imprévisibles et les plus dangereux pouvant entraîner un fonctionnement incorrect ou inattendu du robot ;
  4. facteurs naturels - ce groupe de causes comprend tout ce qui peut affecter le comportement du robot pour des raisons réelles, en particulier les interférences électromagnétiques ou radiofréquences, ainsi que les conditions météorologiques défavorables ;
  5. défaillance du système d'alimentation - par exemple, les actionneurs pneumatiques, hydrauliques ou électriques peuvent perturber les signaux électriques dans les lignes de commande ; le résultat est une libération d'énergie, un choc électrique et un risque accru d'incendie, en particulier lorsque quelque chose produit des étincelles dans les robots utilisant de l'huile hydraulique combustible ;
  6. une mauvaise installation du robot ou de ses composants provoque de nombreux accidents, y compris des tentatives de correction d'erreurs ;
  7. le facteur humain : programmation, interface, erreurs de contrôle, violation des règles de sécurité.

Le plus souvent, des situations anormales se produisent en raison d'une intervention humaine dans le travail du robot ou de changements dans l'environnement auxquels le travailleur mécanique ne peut pas réagir. Quelles technologies empêchent que cela se produise ?

Quelles technologies rendent les robots sûrs ?

Trois compétences essentielles assurent la sécurité d'un travailleur robot :

  1. arrêt contrôlé,

  2. contrôle de la vitesse et séparation des zones,

  3. limitation de puissance et de force.

Arrêt surveillé de sécurité (SMS)

Un arrêt surveillé de sécurité se produit dès qu'une personne se trouve dans une zone particulière à proximité de la machine, par exemple, pour des changements d'outils, des réglages, des réglages ou d'autres travaux directs sur le robot. L'alimentation continue et le robot passe automatiquement en mode inactivité. Dès que l'opérateur quitte la zone de contrôle, le robot reprend les opérations sans commandes supplémentaires. Différents types de capteurs de distance (optiques, acoustiques, etc.) sont utilisés pour mesurer la distance entre le robot et une personne (ou autre perturbation), qui déterminent la longueur de l'objet en envoyant un signal et en recevant une réponse. Pour assurer une sécurité maximale, les capteurs disposent de deux systèmes parallèles de transmission et de traitement des signaux lors de l'apparition d'interférences dans une zone donnée. Les signes vont à deux modules dans le contrôleur du robot et sont traités séparément et par différents algorithmes. Ensuite, ils sont recoupés. Par conséquent, si l'un des canaux tombe en panne pour une raison quelconque, le robot s'arrêtera quand même.

Surveillance de la vitesse et de la séparation (SSM)

Cette technologie de sécurité plus complexe consiste à modifier le comportement du robot lorsqu'un humain se trouve dans une zone spécifique à proximité de la machine - par exemple, en ralentissant le robot. Techniquement, cela fonctionne comme suit : la machine mesure en permanence la position et la vitesse d'un objet dans sa ligne de visée. Le SSM peut être mis en œuvre dans des conditions statiques et dynamiques. La clé ici est la technologie permettant de reconnaître les objets environnants. Si le robot doit voir ce qu'il saisit, pourquoi ne peut-il pas apprendre à reconnaître les autres, y compris les personnes ? La technologie de reconnaissance repose sur l'utilisation de deux caméras, une caméra RVB et une caméra 3D. En combinant les images qu'elles capturent, le robot peut déterminer la position d'un objet dans l'espace et la direction de son mouvement.

Limité en puissance et en force (PFL)

C’est l’une des technologies les plus utilisées pour éviter les blessures humaines lorsqu’une personne et une machine sont en contact. Elle implique l'utilisation de diverses techniques, dont les capteurs à force limitée. Ils convertissent les composantes mesurées des vecteurs force et moment en signaux pouvant être traités par un robot qui "touche" des objets spécifiques. Par exemple, ces capteurs sont installés sur les bras des robots qui trient différents types de colis, y compris les colis fragiles. Avant de prendre un lot, le robot le "touche" et le capteur détermine l'objet auquel la machine a affaire en termes de forme, de résilience et de taille. En fonction des données obtenues, le robot sélectionne la force de serrage et la vitesse de manipulation de l'objet.

Quelles sont les technologies qui rendront le robot plus sûr à l'avenir ?

À l'avenir, les robots industriels interagiront avec l'environnement changeant et les humains, contrairement à leurs prédécesseurs, qui n'étaient capables que de répéter de manière rythmée une gamme limitée de tâches. Pour qu'un robot puisse faire cela et accomplir des tâches atypiques, il doit, dans une certaine mesure, apprendre les compétences humaines de base, notamment la capacité d'écoute. Toshiba a présenté une technologie de reconnaissance vocale basée sur l'intelligence artificielle. Il s’agit du premier développement de ce type au monde : n’importe quel robot ou appareil électronique simple sera capable de traiter des commandes vocales sans connexion à Internet ou aux données en nuage. En d'autres termes, le dispositif de traitement est intégré à la machine. Tout d'abord, le réseau neuronal traite le son, en séparant les commandes vocales des bruits parasites, puis la technique d'expansion des données dans le réseau neuronal est utilisée. L'expansion des données est une technique d'apprentissage de petites quantités d'informations, telles que les énoncés verbaux. L'identification réussie des personnes se fait en entraînant l'IA sur la base d'échantillons de leur discours, ce qui lui permet de reconnaître des locuteurs spécifiques même lorsque seul un petit nombre d'énoncés est disponible. Toshiba a réduit le nombre d'échantillons de parole requis au point que la nouvelle technologie peut reconnaître un utilisateur sur la base de trois énoncés seulement. Cette technologie est idéale pour les robots et les cobots qui n’ont pas besoin d’être bavards. Du moins pour l'instant. À l'avenir, l'intelligence artificielle aidera les robots à non seulement mieux entendre, mais aussi à mieux voir, penser et se déplacer, ce qui, à terme, éliminera les barrières entre les travailleurs humains et leurs homologues artificiels.

Réglementation et contrôle


Ainsi, la robotisation et les améliorations de l'IA ne sont une menace que si elles ne sont pas contrôlées. Ces processus doivent être contrôlés. Par exemple, il est suggéré qu'au lieu d'introduire des machines avec des degrés croissants d'autonomie par rapport aux humains, créer des dispositifs dont le contrôle nécessite plus d'attention au côté éthique de la question. Les géants de la technologie créent déjà des divisions spéciales qui conseilleront les dirigeants d'entreprise sur les questions éthiques du développement de l'IA. Amazon, Apple, Facebook, Google, IBM, Microsoft et d'autres créent diverses associations et partenariats sur l'IA, qui constituent un forum ouvert pour discuter de la robotisation et de l'intelligence artificielle et de leur impact sur les personnes et la société. Malgré tous les risques associés à l'introduction de robots avec des éléments d'IA, les gouvernements et les entreprises ne devraient pas tarder à utiliser l'intelligence artificielle. Il y a un risque de ne pas être préparé à temps aux nouveaux défis et opportunités mondiaux. Par exemple, les systèmes éducatifs devraient commencer à se restructurer dès maintenant pour former le personnel non pas pour concurrencer les machines mais pour les surveiller et les contrôler. Cette répartition des domaines de responsabilité à l'avenir doit s'effectuer au sein de chaque organisation, publique ou privée. Des règles devraient être mises en place pour limiter la portée de la mise en œuvre de l'intelligence artificielle dans les processus opérationnels. Après tout, l'intelligence artificielle n'est pas développée pour l'intelligence artificielle mais pour de nouvelles opportunités pour les humains.