L'intelligenza artificiale è in grado di manipolare il comportamento umano. Per evitare questo pericolo, il lavoro degli algoritmi deve diventare trasparente e soggetto a regole chiare e, soprattutto, al controllo umano.
Quali sono i pericoli dell'IA?
Intelligenza artificiale e privacy
La velocità di raccolta delle informazioni, la scalabilità e l'automazione dell'IA sono fondamentali. La velocità con cui l'IA esegue i calcoli è molto più veloce di quella umana e può essere aumentata aggiungendo altro hardware. L'IA è fondamentalmente progettata per utilizzare grandi insiemi di dati per l'analisi ed è l'unico modo per elaborare una quantità ragionevole di dati in poco tempo. L'IA ad apprendimento automatico è in grado di gestire il compito senza supervisione, il che contribuisce ad aumentare l'efficienza dell'analisi. Senza dubbio queste caratteristiche sono straordinarie, ma c'è un rovescio della medaglia. Tutte queste funzioni incidono sulla privacy per diversi motivi.
Manipolazione dei dati
Il software e le applicazioni per i sistemi domestici intelligenti presentano alcune caratteristiche che li rendono vulnerabili. La situazione sta peggiorando perché ogni anno un numero sempre maggiore di dispositivi si connette alla rete mondiale e la consapevolezza dei consumatori su come i dati vengono trasmessi, archiviati ed elaborati rimane bassa. In altre parole, le persone si affidano sempre più a Internet e ai gadget, ma non capiscono cosa succede alle informazioni che inviano online..
Tracciamento
L'intelligenza artificiale viene utilizzata per trovare e rintracciare le persone. È in grado di analizzare i dati provenienti da diverse fonti. In pratica, ciò significa che con l'aiuto dell'elettronica e di un particolare programma è possibile tracciare gli spostamenti di qualsiasi persona in città senza troppe difficoltà. Queste informazioni dovrebbero essere riservate, ma l'IA confonde i confini tra pubblico e privato.
Riconoscimento biometrico
Gli algoritmi di intelligenza artificiale sono sempre più utilizzati per l'autenticazione degli utenti. In genere, si parla di autenticazione biometrica tramite voce, impronte digitali e scansione facciale. Tutti questi metodi mettono a rischio l'anonimato di una persona in un luogo pubblico. Ad esempio, i servizi di sicurezza utilizzano software di riconoscimento facciale senza un ordine del tribunale per trovare le persone giuste tra la folla e tracciarne le azioni.
Prevedere le azioni
L'intelligenza artificiale può utilizzare l'apprendimento automatico per prevedere gli eventi a partire dai dati disponibili. Ad esempio, è possibile prevedere le reazioni e lo stato emotivo di una persona in base ai suoi modelli comportamentali. Inoltre, i programmi moderni sono in grado di determinare il sesso, l'età, la razza, le opinioni politiche, ecc. di una persona a partire da note vocali o di testo.
Classificazione
L'intelligenza artificiale può raccogliere informazioni e ordinarle in base a qualsiasi parametro. Spesso questo trattamento dei dati avviene senza il consenso dell'utente e nessuno può prevedere le conseguenze che ne deriveranno. Come variante, nuove forme di discriminazione. L'esempio più lampante è l'esperimento del social ranking in Cina, dove alle persone con un "ranking" non sufficientemente elevato possono essere negati il credito o altri servizi. Che le piattaforme popolari con utenti fedeli, come Google e Facebook, conoscano i loro utenti meglio dei loro parenti e amici non è un'esagerazione. Molte aziende raccolgono una notevole quantità di informazioni come input per i loro algoritmi. Per esempio, anche i like degli utenti di Facebook possono determinare con precisione una serie di caratteristiche: età, sesso, orientamento sessuale, etnia, opinioni religiose e politiche, qualità personali, livello di felicità, intelligenza, se i genitori sono divorziati e se fanno uso di sostanze che creano dipendenza. Supponiamo che algoritmi unici basati sull'intelligenza artificiale (AI) possano trarre così tante conclusioni basandosi solo sulla situazione in cui gli utenti cliccano sul pulsante "like". In questo caso, si può immaginare la quantità di dati estratti dalle informazioni sulle parole chiave utilizzate dalle persone durante la ricerca, su cosa cliccano, su cosa postano e su cosa commentano. Tutto questo non vale solo per le aziende tecnologiche. Dare agli algoritmi di IA un ruolo centrale nella vita digitale delle persone comporta dei rischi. Ad esempio, l'uso dell'IA sul posto di lavoro può fornire a un'azienda un guadagno in termini di produttività ma, allo stesso tempo, implica una riduzione delle competenze dei lavoratori. Il processo decisionale basato su "indicazioni" dell'IA spesso non è esente da pregiudizi, portando a discriminazioni (in particolare nelle decisioni sul personale, nell'accesso al credito, all'assistenza sanitaria, all'alloggio e in altri settori). Ma l'IA pone un'altra potenziale minaccia che non è stata ancora sufficientemente studiata: la manipolazione del comportamento umano. In linea di principio, le strategie di marketing manipolative esistono da tempo. Ma l'aggiunta di grandi quantità di dati elaborati da sistemi algoritmici di IA ha seriamente ampliato la capacità delle aziende di gestire le scelte e il comportamento dei clienti in modo da generare maggiori entrate. La tecnologia digitale consente alle aziende di modificare il sistema, di controllare il tempo in cui gli utenti vedono le loro offerte e di rivolgersi a ogni singolo utente: le strategie di manipolazione sono molto più efficaci e difficili da riconoscere. La manipolazione in sé può assumere diverse forme: dallo sfruttamento delle preferenze personali rilevate dagli algoritmi di intelligenza artificiale e dalle strategie personalizzate volte a plasmare l'abitudine al consumo di determinati prodotti (online), all'approfittare dello stato emotivo squilibrato degli utenti, quando ai potenziali clienti vengono offerti prodotti e servizi specifici che corrispondono al loro stato emotivo temporale e che vengono quindi acquistati impulsivamente. Questa manipolazione è spesso accompagnata da tattiche di progettazione intelligente, marketing predatorio e discriminazione comportamentale dei prezzi onnipresente, finalizzata a spingere gli utenti verso scelte non redditizie, facilmente monetizzabili dalle aziende abilitate all'intelligenza artificiale. La principale caratteristica comune di queste strategie è che aumentano la redditività delle aziende riducendo il valore economico che un utente trarrebbe dai servizi online.
Minacce al sistema politico
Deepfake (da deep learning e fake) è un metodo per sintetizzare immagini e/o voci umane utilizzando l'intelligenza artificiale. Questa tecnologia viene utilizzata per creare video digitali originali di attori famosi, leader mondiali, ecc. Gli esperti avvertono che i deepfake possono essere abbastanza realistici da manipolare le elezioni future e la politica globale, rendendoli un mezzo potenzialmente pericoloso per influenzare il comportamento sia di singoli individui sia di grandi gruppi di influenza. Con un'adeguata preparazione, i deepfakes possono scatenare panico finanziario, scambi commerciali o altre conseguenze pericolose..
Definire e sancire un'agenda
Gli studi dimostrano che i bot rappresentavano oltre il 50% del traffico Internet già nel 2016. Le organizzazioni che promuovono artificialmente i contenuti possono manipolare l'agenda: più spesso le persone vedono una determinata portata, più pensano che sia importante. Danneggiare la reputazione con i bot durante le campagne politiche, ad esempio, può essere usato dai gruppi terroristici per attirare nuovi sostenitori o organizzare assassinii di politici.
Il successo a scapito dell'opacità
Il successo di queste strategie di manipolazione avviene al prezzo di una mancanza di trasparenza. Gli utenti dei sistemi di IA, in molti casi, non conoscono gli obiettivi fondamentali degli algoritmi di IA e il modo in cui le loro informazioni personali sensibili vengono utilizzate per raggiungere tali obiettivi. Il rivenditore statunitense Target ha utilizzato l'IA e l'analisi dei dati per prevedere le gravidanze delle donne e inviare loro annunci nascosti di prodotti per l'infanzia. Gli utenti di Uber si sono lamentati del fatto che le corse sono più costose se l'ordine viene effettuato da uno smartphone con la batteria scarica, anche se il livello della batteria non viene ufficialmente considerato nel modello di tariffazione dell'azienda. Uno degli esempi è la decisione della Commissione europea contro Google (nel giugno 2017). La Commissione europea ha deciso una gigantesca multa da 2,4 miliardi di euro per Google per aver sfruttato la sua posizione dominante sul mercato. Secondo la Commissione europea, l'azienda offriva agli utenti che effettuavano ricerche online determinati prodotti, principalmente prodotti del proprio servizio). Due anni dopo, la Federal Trade Commission statunitense ha inflitto a Facebook una multa record di 5 miliardi di dollari per aver manipolato l'uso dei dati riservati degli utenti (che alla fine ha portato alla riduzione della qualità del servizio). Per valutare la possibilità di manipolazione del comportamento assistita dall'IA, possiamo utilizzare un quadro teorico riflesso in uno studio pubblicato nel 2021. Lo studio si concentra sulle vulnerabilità significative che gli algoritmi di IA individuano sulle piattaforme. Queste includono l'invio agli utenti di pubblicità di prodotti che essi tendono ad acquistare impulsivamente in determinati momenti, anche se la qualità di tali prodotti è bassa e non ha alcun valore aggiunto per loro. Il lavoro ha dimostrato che questa strategia riduce il potenziale beneficio per il consumatore derivante dall'utilizzo delle piattaforme, aumentando i benefici per il forum, distorcendo il modello di consumo abituale e generando ulteriori inefficienze. La possibilità di manipolare il comportamento umano con algoritmi di IA è stata osservata anche in esperimenti. Tre di questi esperimenti sono descritti in dettaglio in un documento pubblicato nel 2020. Il primo consisteva in tentativi di vincere valuta falsa: i partecipanti sceglievano immagini a destra e a sinistra sugli schermi. Dopo ogni tentativo, ai partecipanti veniva detto se la loro scelta sarebbe stata premiata. L'esperimento ha permesso di addestrare i sistemi di intelligenza artificiale: essi "conoscevano" il modello di scelta di ciascun partecipante e assegnavano una ricompensa se questi premevano il tasto giusto. Il gioco aveva però una limitazione: entrambe le opzioni, sinistra e adatta, erano vincenti e il premio veniva assegnato lo stesso numero di volte per la scelta di entrambe le opzioni. Il compito dell'intelligenza artificiale era quello di incoraggiare i partecipanti a selezionare un'opzione (per esempio, l'immagine di sinistra). Nel 70% dei tentativi, l'IA è riuscita a raggiungere questo obiettivo. Nel secondo esperimento è stato chiesto ai partecipanti di premere un pulsante quando vedevano una particolare immagine sullo schermo e di non premerlo quando veniva loro mostrata un'immagine diversa. Il compito dell'intelligenza artificiale in questo esperimento era quello di "mostrare" le immagini nella sequenza che faceva commettere errori al maggior numero di partecipanti. Il risultato è stato che il numero di errori è aumentato di quasi un quarto. Il terzo esperimento è stato condotto in più turni. In questo esperimento, i partecipanti hanno finto di essere investitori che hanno investito denaro in un fondo fiduciario - il ruolo del fiduciario è stato assunto dall'intelligenza artificiale. Poi il "fiduciario" restituiva il denaro al giocatore, che a sua volta decideva quanto investire nel turno successivo. Per questo gioco sono state utilizzate due modalità diverse: nel primo caso, il compito dell'IA era quello di massimizzare la somma di denaro ricevuta entro la fine del turno; nel secondo caso, l'IA era "interessata" a un'equa distribuzione dei fondi tra sé e l'investitore. L'IA ha portato a termine il suo compito in entrambi i casi. L'importante conclusione di tutti questi esperimenti è che l'IA ha imparato "osservando"le reazioni delle persone e identificando vulnerabilità specifiche nel modo in cui prendono le decisioni. Alla fine, l'IA è stata in grado di indurre i partecipanti a prendere determinate decisioni.
Un contrappeso alla manipolazione
Quando le aziende private sviluppano sistemi abilitati all'intelligenza artificiale, il loro obiettivo primario è il profitto. Poiché tali sistemi sono in grado di apprendere il comportamento umano, possono anche spingere gli utenti verso azioni specifiche che sono vantaggiose per le aziende, anche se non è la scelta migliore dal punto di vista dell'utente. La possibilità di questa manipolazione comportamentale richiede politiche che garantiscano l'autonomia umana quando si interagisce con l'IA. L'IA non dovrebbe sottomettere e ingannare gli esseri umani, ma integrare le loro capacità e migliorare ciò che gli esseri umani possono fare (secondo le linee guida della Commissione europea sull'etica dell'IA). Il primo passo importante per raggiungere questo obiettivo è aumentare la trasparenza sulla portata dell'uso e delle capacità dell'IA. La comprensione di come l'IA raggiunge i suoi obiettivi deve essere evidente. Gli utenti devono sapere come gli algoritmi utilizzano i loro dati (informazioni personali sensibili). Il regolamento generale sulla protezione dei dati nell'UE implica il cosiddetto diritto di spiegazione, che mira a ottenere una maggiore trasparenza nei sistemi di IA, ma questo obiettivo non è stato completato. La questione di tale diritto è stata molto dibattuta e la sua applicazione è stata minima. I sistemi che utilizzano l'intelligenza artificiale sono spesso paragonati a una "scatola nera" nessuno sa esattamente come funzionano. Di conseguenza, è difficile essere trasparenti al riguardo. Ma questo non è il caso della manipolazione. Un fornitore di sistemi di intelligenza artificiale può impostare restrizioni speciali per evitare di manipolare il comportamento degli utenti. In questo caso, la sfida sta più nel modo in cui questi sistemi saranno progettati e quale sarà la funzione obiettivo del loro funzionamento (compresi i vincoli). La manipolazione di un algoritmo dovrebbe, in linea di principio, essere spiegata dai suoi sviluppatori, che scrivono il codice dell'algoritmo e ne osservano il funzionamento. Allo stesso tempo, le informazioni su come vengono raccolti i dati incorporati nell'algoritmo dovrebbero essere trasparenti. Il comportamento sospetto degli algoritmi può non essere sempre il risultato della loro funzione target; può essere dovuto alla qualità dei dati grezzi che sono stati utilizzati per addestrare e formare gli algoritmi. Un secondo passo importante per limitare le conseguenze negative degli algoritmi è garantire che tutti gli sviluppatori di sistemi di IA rispettino il requisito della trasparenza. Per raggiungerlo, devono essere soddisfatte tre condizioni: Il lavoro dell'IA e i suoi risultati devono essere sottoposti a uno stretto controllo umano. L'articolo 14 dell'AIA (Artificial Intelligence Act) dell'Unione Europea suggerisce che il fornitore di qualsiasi sistema di IA deve fornire un meccanismo di supervisione umana. Naturalmente, oltre a questo, il fornitore ha anche un interesse commerciale a monitorare le prestazioni del proprio sistema di IA. La supervisione umana deve includere principi di responsabilità per fornire i giusti incentivi ai fornitori. Ciò significa anche che i servizi di tutela dei consumatori devono migliorare le proprie capacità tecniche ed essere disposti a testare i sistemi di IA per valutare correttamente le violazioni e garantire il rispetto della responsabilità. La trasparenza sul funzionamento dei sistemi di IA non deve rendere difficile agli utenti la comprensione del loro funzionamento. A tal fine, le informazioni sulla portata e sulle capacità dell'IA dovrebbero essere suddivise in due livelli. Il primo livello, destinato agli utenti, dovrebbe contenere descrizioni brevi, chiare e semplici; il secondo, destinato ai rappresentanti della tutela dei consumatori, dovrebbe includere maggiori dettagli e informazioni disponibili in qualsiasi momento. Un requisito obbligatorio per la trasparenza dell'IA fornirà un quadro più chiaro degli obiettivi dei sistemi di IA e di come li raggiungono. Se ciò avverrà, sarà più facile passare al terzo passo importante: lo sviluppo di una serie di regole che impediscano ai sistemi di IA di utilizzare strategie di manipolazione occulta che causino danni economici. Queste regole, che i fornitori dovranno seguire sia nello sviluppo che nell'implementazione dei sistemi di IA, creeranno un quadro che limita le funzioni dell'IA. Tuttavia, queste regole non dovrebbero contenere restrizioni eccessive che potrebbero compromettere l'efficienza economica (per gli individui e la società) creata da questi sistemi o ridurre gli incentivi all'innovazione e all'adozione dell'IA. Tuttavia, anche se venissero adottate le restrizioni sopra descritte, sarà difficile individuare le manipolazioni nella pratica. I sistemi di IA sono progettati per rispondere al comportamento di un particolare utente, offrendogli le migliori opzioni possibili. Non è sempre facile giustificare la differenza tra un algoritmo che fa la migliore raccomandazione in base al comportamento dell'utente e un algoritmo che manipola il comportamento dell'utente raccomandando solo le opzioni che massimizzano i profitti delle aziende'. Nel caso di Google, la Commissione europea ha impiegato circa dieci anni per farlo e ha dovuto raccogliere una grande quantità di dati per dimostrare che il gigante della ricerca su Internet manipolava i risultati delle ricerche. La difficoltà di applicare concretamente i principi delineati porta alla necessità di sensibilizzare il pubblico sui rischi dell'utilizzo dell'IA. Sono necessari programmi educativi e di formazione (a partire dalla giovane età) per rendere le persone consapevoli dei pericoli del comportamento online. Ciò contribuirà anche a ridurre le conseguenze psicologiche dell'IA e di altre strategie tecnologiche che creano dipendenza, soprattutto negli adolescenti. È necessario un maggiore dialogo pubblico sugli effetti negativi dell'IA e su come proteggersi dai suoi effetti. L'IA può portare enormi benefici alla società. Per trarre vantaggio dalla rivoluzione dell'IA, è necessario un quadro normativo adeguato per ridurre al minimo i rischi potenziali dello sviluppo e dell'implementazione dell'IA e proteggere adeguatamente gli utenti. La comprensione umana delle nuove minacce, il cui numero è destinato a crescere, è in ritardo rispetto alla realtà in rapida evoluzione del mondo moderno. Esperti di vari Paesi avvertono di nuovi e promettenti rischi dovuti al rapido sviluppo della tecnologia. L'elenco di queste scommesse continuerà a crescere, quindi è fondamentale imparare e sviluppare la capacità della società di far fronte alle nuove minacce. È essenziale non perdere il momento e ridurre il costo della nostra risposta a queste nuove minacce..