Le côté obscur de l'intelligence artificielle

L'intelligence artificielle est capable de manipuler le comportement humain. Pour éviter ce danger, le travail des algorithmes doit devenir transparent et soumis à des règles claires et, surtout, à un contrôle humain.

Quels sont les dangers de l'IA ?

Intelligence artificielle et vie privée

La vitesse de collecte des informations, l'évolutivité et l'automatisation de l'IA sont essentielles. La vitesse à laquelle l'IA effectue des calculs est beaucoup plus rapide que celle des humains, et elle peut être augmentée en ajoutant plus de matériel. L'IA est fondamentalement conçue pour utiliser de grands ensembles de données à des fins d'analyse et c'est le seul moyen de traiter une quantité raisonnable de données en moins de temps. L'IA d'apprentissage automatique peut gérer la tâche sans supervision, ce qui permet d'accroître l'efficacité de l'analyse. Sans aucun doute, ces fonctionnalités sont étonnantes, mais il y a un revers à la médaille. Toutes ces fonctionnalités affectent la vie privée pour plusieurs raisons.

Manipulation des données

Les logiciels et applications informatiques destinés aux systèmes domestiques intelligents présentent certaines caractéristiques qui les rendent vulnérables. La situation s'aggrave car, chaque année, de plus en plus d'appareils sont connectés au réseau mondial, et les consommateurs restent peu sensibilisés à la manière dont les données sont transmises, stockées et traitées. En d'autres termes, les gens se fient de plus en plus à l'internet et aux gadgets, mais ne comprennent pas ce qu'il advient des informations qu'ils envoient en ligne..

Suivi du site

L'intelligence artificielle est utilisée pour trouver et suivre des personnes. Elle peut analyser des données provenant de diverses sources. En pratique, cela signifie qu'il est possible de suivre les déplacements de n'importe quelle personne dans la ville sans grande difficulté, à l'aide de l'électronique et d'un programme particulier. Ces informations devraient être confidentielles, mais l'IA brouille les frontières entre le privé et le public..

Reconnaissance biométrique

Les algorithmes d'intelligence artificielle sont de plus en plus utilisés pour authentifier les utilisateurs. Généralement, on parle d'authentification biométrique par la voix, l'empreinte digitale et le scan facial. Toutes ces méthodes mettent en péril l’anonymat d’une personne dans un lieu public. Par exemple, les services de sécurité utilisent des logiciels de reconnaissance faciale sans ordonnance judiciaire pour trouver les bonnes personnes dans la foule et suivre leurs actions.

Prévision des actions

L'intelligence artificielle peut utiliser l'apprentissage automatique pour prédire des événements à partir des données disponibles. Par exemple, il est possible de prédire les réactions et l’état émotionnel d’une personne à partir de ses schémas comportementaux. En outre, les programmes modernes sont capables de déterminer le sexe, l'âge, la race, les opinions politiques, etc. d'une personne à partir de notes vocales ou textuelles.

Classification

L'IA peut collecter des informations et les trier en fonction de n'importe quel paramètre. Souvent, ce traitement des données se fait sans le consentement de l'utilisateur, et personne ne peut prédire les conséquences qu'il entraînera. En guise de variante, de nouvelles formes de discrimination. L'exemple le plus frappant est l'expérience de classement social en Chine, où les personnes dont le "classement" n'est pas suffisamment élevé peuvent se voir refuser un crédit ou d'autres services. Il n'est pas exagéré de dire que les plateformes populaires aux utilisateurs fidèles, telles que Google et Facebook, connaissent mieux leurs utilisateurs que leurs parents et amis. De nombreuses entreprises collectent une quantité considérable d'informations pour alimenter leurs algorithmes. Par exemple, les utilisateurs de Facebook peuvent même déterminer avec précision un certain nombre de leurs caractéristiques : âge, sexe, orientation sexuelle, origine ethnique, opinions religieuses et politiques, qualités personnelles, niveau de bonheur, intelligence, si leurs parents sont divorcés et s'ils consomment des substances addictives. Supposons que des algorithmes uniques basés sur l'intelligence artificielle (IA) puissent tirer autant de conclusions en se basant uniquement sur la situation dans laquelle les utilisateurs cliquent sur le bouton "J'aime". Dans ce cas, vous pouvez imaginer la quantité de données extraites des informations sur les mots clés que les gens utilisent lors de leurs recherches, sur ce qu'ils cliquent, sur ce qu'ils publient et sur ce qu'ils commentent. Tout cela ne s'applique pas seulement aux entreprises technologiques. Donner aux algorithmes d'IA un rôle central dans la vie numérique des gens comporte des risques. Par exemple, l'utilisation de l'IA sur le lieu de travail peut apporter à une entreprise un gain en termes de productivité mais, dans le même temps, impliquer une réduction des compétences des travailleurs. Les décisions prises sur la base des "indices" de l'IA ne sont souvent pas exemptes de préjugés, ce qui peut entraîner des discriminations (en particulier dans les décisions relatives au personnel, à l'accès au crédit, aux soins de santé, au logement et à d'autres domaines). Mais l'IA représente une autre menace potentielle qui n'a pas encore été suffisamment étudiée : la manipulation du comportement humain. En principe, les stratégies marketing manipulatrices existent depuis longtemps. Mais l’ajout de grandes quantités de données traitées par des systèmes d’alliance artificielle algorithmique a sérieusement élargi la capacité des entreprises à gérer les choix et le comportement de leurs clients de manière à générer davantage de revenus. La technologie numérique permet aux entreprises d'affiner le système, de contrôler le moment où les utilisateurs voient leurs offres et de cibler chaque utilisateur individuellement - les stratégies de manipulation sont beaucoup plus efficaces et plus difficiles à reconnaître. La manipulation elle-même peut prendre diverses formes : de l’exploitation des préférences personnelles détectées par les algorithmes d’IA et des stratégies personnalisées visant à façonner l’habitude de consommer certains produits (en ligne) à la mise à profit de l’état émotionnel déséquilibré des utilisateurs lorsque des clients potentiels se voient proposer des produits et services spécifiques qui correspondent à leur état émotionnel temporel et sont donc achetés impulsivement. Cette manipulation s’accompagne souvent de tactiques de conception intelligente, de marketing prédateur et d’une discrimination comportementale omniprésente en matière de prix visant à pousser les utilisateurs à faire des choix non rentables, facilement monétisables par les entreprises dotées d’une IA. La principale caractéristique commune de ces stratégies est qu’elles augmentent la rentabilité des entreprises en réduisant la valeur économique qu’un utilisateur tirerait des services en ligne..

Menaces sur le système politique

Deepfake (de deep learning et fake) est une méthode de synthèse d'images et/ou de voix humaines à l'aide de l'IA. Cette technologie est utilisée de manière abusive pour créer des vidéos numériques originales d'acteurs célèbres, de dirigeants mondiaux, etc. Les experts préviennent que les deepfakes peuvent être suffisamment réalistes pour manipuler les futures élections et la politique mondiale, ce qui en fait un moyen potentiellement dangereux d'influencer le comportement des individus et des grands groupes cibles d'influence. Avec une préparation adéquate, les deepfakes peuvent déclencher une panique financière, des échanges commerciaux ou d'autres conséquences dangereuses.

Fixer et inscrire un agenda

Des études montrent que les bots représentaient plus de 50 % du trafic Internet dès 2016. Les organisations qui font la promotion artificielle de contenus peuvent manipuler l'ordre du jour : plus les gens voient souvent une gamme spécifique, plus ils pensent qu'elle est importante. L'atteinte à la réputation avec des bots pendant les campagnes politiques, par exemple, peut être utilisée par des groupes terroristes pour attirer de nouveaux partisans ou organiser des assassinats de politiciens.

Le succès au détriment de l'opacité

Le succès de ces stratégies de manipulation se fait au prix d'un manque de transparence. Les utilisateurs des systèmes d'IA, dans de nombreux cas, ne connaissent pas les objectifs fondamentaux des algorithmes d'IA et la manière dont leurs informations personnelles sensibles sont utilisées pour atteindre ces objectifs. Le détaillant américain Target a utilisé l’ IA et l’analyse de données pour prédire les grossesses des femmes et leur envoyer des publicités cachées pour des produits pour bébés. Des utilisateurs d’Uber se sont plaints que les trajets étaient plus chers si la commande était passée depuis un smartphone dont la batterie était faible, alors que le niveau de la batterie n’est officiellement pas pris en compte dans le modèle de tarification de l’entreprise. L'un des exemples est la décision de la Commission européenne contre Google (en juin 2017. La Commission européenne a statué sur une gigantesque amende de €2,4 milliards pour Google pour avoir utilisé sa position dominante sur le marché. Selon la Commission européenne, l'entreprise proposait aux utilisateurs qui effectuaient des recherches en ligne certains produits, principalement des produits de son propre service). Deux ans plus tard, la Commission fédérale du commerce des États-Unis a infligé à Facebook une amende record de 5 milliards de dollars pour avoir manipulé l'utilisation des données confidentielles des utilisateurs (ce qui a finalement conduit à la réduction de la qualité du service). Pour évaluer la possibilité de manipulation du comportement assistée par l'IA, nous pouvons utiliser un cadre théorique reflété dans une étude publiée en 2021. L'étude se concentre sur les vulnérabilités importantes que les algorithmes d'IA identifient sur les plateformes. Celles-ci comprennent l'envoi aux utilisateurs de publicités pour des produits qu'ils ont tendance à acheter impulsivement à certains moments, même si la qualité de ces produits est faible et n'a aucune valeur ajoutée pour eux. Les travaux ont montré que cette stratégie réduit le bénéfice potentiel pour le consommateur de l'utilisation des plateformes, en augmentant les bénéfices pour le forum, en déformant le modèle de consommation habituel et en générant des inefficacités supplémentaires. La possibilité de manipuler le comportement humain avec des algorithmes d'IA a également été observée dans des expériences. Trois expériences de ce type sont décrites en détail dans un article publié en 2020. La première consistait à tenter de gagner de la fausse monnaie : les participants choisissaient des images de gauche et de droite sur des écrans. Après chaque effort de ce type, les participants étaient informés si leur choix serait récompensé. L'expérience a permis d'entraîner les systèmes d'IA : ils "connaissaient" le modèle de choix de chaque participant et attribuaient une récompense s'ils appuyaient sur le bon bouton. Mais le jeu avait une limite : les deux options, gauche et convenable, étaient gagnables, et le prix était attribué le même nombre de fois pour le choix des deux options. La tâche de l'IA était d'encourager les participants à choisir une option (par exemple, l'image de gauche). Et dans 70% des tentatives, l'IA a atteint cet objectif avec succès. Dans la deuxième expérience, on a demandé aux participants d'appuyer sur un bouton lorsqu'ils voyaient une image particulière à l'écran et de ne pas appuyer lorsqu'on leur montrait une autre image. La tâche du système d'IA dans cette expérience était de "montrer" les images dans la séquence qui provoquait le plus grand nombre d'erreurs chez les participants. En conséquence, le nombre d'erreurs a augmenté de près d'un quart. La troisième expérience a été réalisée en plusieurs tours. Les participants ont fait semblant d'être des investisseurs qui ont placé de l'argent en fiducie - le rôle de fiduciaire a été repris par l'IA. Ensuite, le "trust" rendait l'argent au joueur qui, à son tour, décidait du montant à investir au tour suivant. Deux modes différents ont été utilisés pour ce jeu : dans le premier cas, la tâche de l'IA était de maximiser la somme d'argent qu'elle recevait à la fin du tour ; dans le second cas, l'IA était "intéressée" par une répartition équitable des fonds entre elle-même et l'investisseur. L'IA a accompli sa tâche dans les deux cas. La conclusion importante de toutes ces expériences est que l'IA a appris en "observant" les réactions des gens et en identifiant des vulnérabilités spécifiques dans leur façon de prendre des décisions. Et finalement, l'IA a été capable d'inciter les participants à prendre certaines décisions..

Un contrepoids à la manipulation


Lorsque des entreprises privées développent des systèmes basés sur l'IA, leur objectif premier est de réaliser des bénéfices. Comme ces systèmes peuvent apprendre le comportement humain, ils peuvent également inciter les utilisateurs à faire des actions spécifiques qui sont bénéfiques pour les entreprises, même si ce n'est pas le meilleur choix du point de vue de l'utilisateur. La possibilité d'une telle manipulation comportementale nécessite des politiques qui garantissent l'autonomie humaine lors de l'interaction avec l'IA. L'IA ne devrait pas subjuguer et tromper les humains, mais compléter leurs compétences et améliorer ce qu'ils peuvent faire (selon les orientations de la Commission européenne sur l'éthique de l'IA). La première étape importante pour atteindre cet objectif est d'accroître la transparence sur l'étendue de l'utilisation et des capacités de l'IA. La compréhension de la manière dont l'IA atteint ses objectifs doit être évidente. Les utilisateurs doivent savoir comment les algorithmes utilisent leurs données (informations personnelles sensibles). Le règlement général sur la protection des données dans l'UE implique un "droit d'explication", qui vise à accroître la transparence des systèmes d'IA, mais cet objectif n'a pas été atteint. La question d'un tel droit a fait l'objet de vifs débats, et son application a été minimale. Les systèmes utilisant l'intelligence artificielle sont souvent comparés à une "boîte noire" : personne ne sait précisément comment ils fonctionnent. Par conséquent, il est difficile d'être transparent à ce sujet. Mais ce n'est pas le cas de la manipulation. Le fournisseur d'un système d'IA peut fixer des restrictions particulières pour éviter de manipuler le comportement de l'utilisateur. Et ici, le défi réside davantage dans la manière dont ces systèmes seront conçus et dans la fonction cible de leur fonctionnement (y compris les contraintes). La manipulation d'un algorithme devrait, en principe, être expliquée par ses développeurs, qui écrivent le code algorithmique et observent le fonctionnement de l'algorithme. Dans le même temps, les informations sur la manière dont les données intégrées dans l'algorithme sont collectées devraient être transparentes. Le comportement suspect des algorithmes n'est pas toujours le résultat de leur fonction cible ; il peut être dû à la qualité des données brutes qui ont été utilisées pour former et entraîner les algorithmes. Une deuxième étape importante pour limiter les conséquences négatives des algorithmes consiste à faire en sorte que tous les développeurs de systèmes d'IA respectent l'exigence de transparence. Pour l'atteindre, trois conditions doivent être réunies : Le travail de l'IA et ses résultats doivent être soumis à un examen humain minutieux. L'article 14 de la loi de l'Union européenne sur l'intelligence artificielle, AIA, suggère que le fournisseur de tout système d'IA doit prévoir un mécanisme de surveillance humaine. Bien sûr, en plus de cela, le fournisseur a également un intérêt commercial à surveiller les performances de son système d'IA. La surveillance humaine doit inclure des principes de responsabilité afin de fournir les bonnes incitations aux fournisseurs. Cela signifie également que les services de protection des consommateurs doivent améliorer leurs capacités techniques et être prêts à tester les systèmes d'IA afin d'évaluer correctement les violations et de garantir le respect de l'obligation de rendre des comptes. La transparence sur le fonctionnement des systèmes d'IA ne doit pas rendre difficile la compréhension de leur fonctionnement par les utilisateurs. Pour ce faire, les informations sur la portée et les capacités de l'IA doivent être divisées en deux niveaux. Le premier niveau, destiné aux utilisateurs, devrait contenir des descriptions brèves, claires et simples ; le second, destiné aux représentants de la protection des consommateurs, devrait inclure plus de détails et des informations disponibles à tout moment. Une exigence obligatoire de transparence de l'IA donnera une image plus claire des objectifs des systèmes d'IA et de la manière dont ils les atteignent. Si cela est fait, il sera plus facile de passer à la troisième étape importante : l'élaboration d'un ensemble de règles qui empêcheront les systèmes d'IA d'utiliser des stratégies secrètes de manipulation qui causent un préjudice économique. Ces règles, que les fournisseurs devront suivre tant dans le développement que dans la mise en œuvre des systèmes d'IA, créeront un cadre qui limitera les fonctions de l'IA. Toutefois, ces règles ne doivent pas contenir de restrictions excessives qui pourraient compromettre l'efficacité économique (pour les individus et la société) créée par ces systèmes ou réduire les incitations à l'innovation et à l'adoption de l'IA. Mais même si les restrictions décrites ci-dessus sont adoptées, il sera difficile de détecter les manipulations dans la pratique. Les systèmes d'IA sont conçus pour répondre au comportement d'un utilisateur particulier en lui proposant les meilleures options possibles. Il n’est pas toujours facile de justifier la différence entre un algorithme qui fait la meilleure recommandation en fonction du comportement de l’utilisateur et un algorithme qui manipule le comportement de l’utilisateur en ne recommandant que les options qui maximisent les profits des entreprises. Dans le cas de Google, il a fallu une dizaine d'années à la Commission européenne pour y parvenir, et elle a dû collecter une grande quantité de données pour prouver que le géant de la recherche sur Internet manipulait les résultats de recherche. La difficulté d'appliquer concrètement les principes énoncés conduit à la nécessité de sensibiliser le public aux risques de l'utilisation de l'IA. Des programmes éducatifs et des formations (dès le plus jeune âge) sont nécessaires pour sensibiliser les gens aux dangers du comportement en ligne. Cela permettra également de réduire les conséquences psychologiques de l'IA et d'autres stratégies technologiques addictives, notamment chez les adolescents. Il est nécessaire d'intensifier le dialogue public sur les effets néfastes de l'IA et sur la manière dont les gens peuvent se protéger de ses effets. L'IA peut apporter d'énormes avantages à la société. Pour tirer parti de la révolution de l'IA, un cadre réglementaire adéquat est nécessaire pour minimiser les risques potentiels du développement et de la mise en œuvre de l'IA et protéger les utilisateurs de manière appropriée. La compréhension humaine des nouvelles menaces, dont le nombre ne fera que croître, est en retard sur les réalités en mutation rapide du monde moderne. Des experts de différents pays mettent en garde contre les risques nouveaux et prometteurs liés au développement rapide de la technologie. La liste de ces risques ne cessera de s'allonger. Il est donc crucial d'apprendre et de développer la capacité de la société à faire face aux nouvelles menaces. Il est essentiel de ne pas manquer le moment et de réduire le coût de notre réponse à ces nouvelles menaces.