L'impatto economico complessivo delle tecnologie di intelligenza artificiale potrebbe raggiungere il 35% della crescita economica da qui al 2035 (Accenture, 2018). Il campo delle tecnologie identificate come "intelligenza artificiale" è vasto e, a seconda delle definizioni utilizzate, può portare a valutazioni diverse del suo impatto positivo e negativo sulla società. Allo stesso tempo, l'universalità dell'IA è considerata non solo dal punto di vista della sua compatibilità tecnologica con qualsiasi processo produttivo, ma anche dal punto di vista della sostituzione dell'uomo. Alcuni scienziati ritengono che sia pericoloso trasformare l'IA in una "superintelligente" i cui obiettivi potrebbero non essere gli stessi delle persone. Secondo diverse stime dei membri dell'Associazione per lo Sviluppo dell'Intelligenza Artificiale e degli specialisti di IA, la creazione di un'intelligenza artificiale con capacità cognitive paragonabili a quelle umane è possibile nel 2075, mentre circa il 70% dei ricercatori intervistati ritiene possibile il risultato di una "super IA". Alla luce di queste previsioni e preoccupazioni, più di 1.000 ricercatori di IA hanno firmato una lettera congiunta che propone di vietare l'uso di sistemi completamente autonomi come armi. A questo proposito, è fondamentale la creazione di un quadro normativo internazionale unificato per regolamentare l'IA su scala globale..
Problemi di regolamentazione dell'IA
Innanzitutto, la regolamentazione nel campo dell'IA deve essere completa e coprire diverse tecnologie correlate, tra cui i "big data,"cloud computing, l'apprendimento automatico e la robotica come base tecnica e software per l'IA. Inoltre, la ricerca sull'IA è ampia e di natura interdisciplinare: L'IA è oggetto di studio sia nelle scienze tecniche che in quelle umanistiche. Attualmente non esiste una regolamentazione olistica dell'IA a livello nazionale e internazionale che prenda in considerazione tutte le questioni relative allo sviluppo, alla produzione e all'implementazione di sistemi di IA in vari campi. Solo alcuni Stati, come gli Stati Uniti, la Germania, la Corea del Sud, la Cina e l'Unione Europea, hanno adottato un approccio approfondito per risolvere singoli problemi nel campo della legislazione - l'accento maggiore è posto sulla regolamentazione dell'uso dei veicoli senza pilota. Ma nel complesso, l'attuale regolamentazione manca di coerenza e di comprensione di un approccio unificato. La creazione di standard ottimali può portare a un aumento dell'attrattiva della regione per gli investimenti. Un ottimo esempio del rapporto tra legislazione e sviluppo tecnologico è il Red Flag Act inglese del 1865, che stabiliva un limite di velocità per le auto (fino a 2 miglia all'ora) e imponeva che un segnalatore dovesse marciare davanti a ogni auto per segnalare il movimento del veicolo. Di conseguenza, l'industria automobilistica inglese andò in declino e cedette la posizione di leader del settore a Francia e Germania. Pertanto, un'adeguata regolamentazione incoraggerà lo sviluppo tecnologico. Allo stesso tempo, è ambizioso e impegnativo creare una serie di regolamenti che bilancino gli interessi di tutti i partecipanti al rapporto con l'IA. Macrofattori come:
- Rigidità legislativa,
- conseguenze sociali ed economiche, tenendo conto del livello di disoccupazione e della stratificazione sociale,
- Riservatezza e protezione dei dati personali,
- sicurezza,
- etica, inclusi atteggiamenti umani-robot, potenziali danni umani e così via.
Problemi relativi allo sviluppo e alla regolamentazione dell'IA nelle organizzazioni internazionali
Oggi il panorama globale generale, gli approcci di base e i principi nel campo del decreto legislativo dell'IA sono plasmati dalle organizzazioni e piattaforme internazionali più autorevoli.
DAPRA
L'ambito di interesse della DARPA comprende anche i progetti di intelligenza artificiale, in cui si possono distinguere tre aree di intelligenza artificiale:
- "conoscenza manuale" - è un insieme di regole create da ingegneri che rappresentano la conoscenza in un dominio ben definito. In questo caso, la struttura della conoscenza è determinata dagli esseri umani e la macchina esplora le specificità di questa conoscenza,
- "apprendimento statistico" - gli ingegneri creano modelli statistici per domini specifici e addestrano l'IA a lavorare con i dati. Questa direzione si distingue perché prevede una buona classificazione e la capacità di prevedere eventi specifici. Uno svantaggio significativo dell'IA è la sua capacità minima di ragionare,
- "adattamento concettuale" - questa direzione prevede lo sviluppo di sistemi che generino modelli esplicativi contestuali per classi e fenomeni del mondo reale (ad es. un modello generativo progettato per spiegare come un dato oggetto potrebbe essere stato creato. Il concetto DARPA è profondamente e logicamente correlato all'attuale situazione nel campo dello sviluppo dell'IA; tuttavia, queste tecnologie non sono state studiate in termini di funzionalità e definizione di limiti morali, legali e organizzativi.
Le Nazioni Unite
Nel 2018, le Nazioni Unite hanno pubblicato un rapporto che, tra le altre cose, esamina l'impatto delle tecnologie di IA sui diritti umani nell'ambiente dell'informazione. Il documento rileva che le aziende dovrebbero valutare come sviluppare standard professionali per gli ingegneri dell'IA, traducendo le responsabilità in materia di diritti umani in indicazioni per le scelte tecniche nella progettazione e nel funzionamento dei sistemi di IA. Si raccomanda inoltre di istituire sistemi di reclamo e di ricorso per rispondere tempestivamente ai reclami e agli appelli degli utenti. Dovrebbero essere pubblicati regolarmente dati sulla frequenza dei reclami e delle richieste di rimedio per le situazioni in cui si sono verificati sistemi di IA, nonché sui tipi e sull'efficacia dei trattamenti disponibili. Le questioni relative all'IA hanno iniziato a essere affrontate anche nell'ambito delle competenze fondamentali della Commissione per lo sviluppo economico e sociale (ECOSOC) e della Conferenza delle Nazioni Unite sul commercio e lo sviluppo (UNCTAD). L'UNCTAD ha intrapreso alcune iniziative per ampliare la discussione sul trasferimento dei dati e sui rischi associati per i Paesi in ritardo nell'economia digitale. Nel 2018 è stato pubblicato il Rapporto sull'economia digitale, uno dei cui temi centrali è stato il trasferimento dei dati e il suo potenziale impatto sullo sviluppo di blockchain, cloud, IoT e AI..
L'Organizzazione delle Nazioni Unite per l'educazione, la scienza e la cultura (UNESCO)
L'UNESCO osserva che l'accumulo di dati sul comportamento umano e l'uso di tecnologie informatiche per elaborarli solleva nuove questioni riguardanti i diritti umani, la libertà di condivisione delle informazioni e l'istruzione. L'obiettivo della politica dell'UNESCO in materia di IA è quello di sfruttare il potere delle nuove tecnologie informatiche per costruire una "società della conoscenza" e raggiungere gli Obiettivi di sviluppo sostenibile (SDGs). L'UNESCO raccomanda di affrontare lo sviluppo globale dell'IA dal punto di vista dei principi ROAM (diritti umani, apertura, accessibilità e partecipazione di tutti i gruppi di interesse), articolati in precedenza nel contesto dello "sviluppo universale di Internet". Oltre ai principi ROAM, il documento di posizione dell'UNESCO rileva la necessità di sviluppare principi etici per l'IA, nonché la necessità di rispettare le minoranze sociali e di genere e di prestare particolare attenzione al superamento del divario digitale, soprattutto per quanto riguarda i Paesi africani..
L'esperienza dell'Unione Europea nella regolamentazione giuridica dell'IA
Il 10 aprile 2018. Venticinque Paesi europei hanno firmato una dichiarazione sulla cooperazione nel campo dell'IA. Gli Stati membri hanno concordato di lavorare insieme sulle questioni più critiche dell'era digitale, dal garantire la competitività dell'Europa nella ricerca sull'IA all'affrontare le sfide sociali dell'adozione dell'IA. Inoltre, gli Stati hanno definito un "approccio proattivo"alla regolamentazione dell'IA, che significa modernizzare il sistema europeo di istruzione e formazione, compresa la formazione avanzata e la riqualificazione dei cittadini europei. La dichiarazione è stata seguita da un documento altrettanto importante, le Raccomandazioni politiche e di investimento per un'IA robusta. Questa linea guida evidenzia i seguenti elementi nell'ambito della regolamentazione giuridica dell'IA:
- Aumento delle conoscenze socialmente pratiche sull'IA,
- accelerare l'adozione di tecnologie e servizi di IA in tutti i settori dell'Unione Europea,
- promuovere e ampliare le soluzioni di IA innovando e facilitando la trasformazione del settore tecnologico,
- sviluppare iniziative di gestione dei dati e condivisione dei dati giuridicamente compatibili ed etiche all'interno dell'Unione europea,
- sviluppare e supportare infrastrutture di sicurezza informatica incentrate sull'intelligenza artificiale. La guida sottolinea la necessità di sviluppare un regime di sicurezza informatica per le infrastrutture di IA e i metodi di IA. Inoltre, il documento evidenzia il punto di sviluppare politiche di sicurezza informatica AI incentrate sull'utente per proteggere i diritti degli utenti su Internet. Va notato che uno svantaggio della Guida è il suo multitasking e il basso livello di regolamentazione dell'IA. La regolamentazione dell'IA non finisce qui; il 19 febbraio 2020. La Commissione europea ha pubblicato un Libro bianco che sposta l'attenzione sulla creazione di un ecosistema di intelligenza artificiale. Il Libro bianco evidenzia i seguenti punti nell'area delle attività di regolamentazione dell'IA:
- Istituzione di centri chiave di ricerca e innovazione sull'IA e sviluppo delle loro disposizioni politiche,
- promuovere l'adozione dell'IA nel settore pubblico. La Commissione europea sta avviando dialoghi settoriali aperti e trasparenti, dando priorità all'assistenza sanitaria, ecc.
- creare principi etici e sviluppare raccomandazioni sull'IA. Il Libro bianco proclama anche un "ecosistema di fiducia", che funge da quadro normativo per l'IA. Le linee guida sono sostenute da principi di sicurezza informatica, che dovrebbero basarsi su affidabilità tecnica, privacy, trasparenza, diversità, non discriminazione ed equità. Questo documento delinea in linea di massima la direzione nel quadro normativo, che implica l'eliminazione dei possibili rischi dell'IA (ovvero l'IA completamente autonoma). La sfida più critica del quadro giuridico dell'UE è la sua applicabilità all'IA. Il Libro bianco sottolinea che è necessaria un'adeguata valutazione del quadro giuridico e della sua pertinenza. Si nota un cambiamento nel concetto di sicurezza. Il fatto è che l'uso dell'IA in prodotti e servizi genera molti rischi, il che crea la necessità di una regolamentazione legale in questo settore (ad esempio, la creazione di standard relativi alle nuove applicazioni dell'IA). Sulla base dell'analisi del Libro bianco, possiamo concludere che i problemi di regolamentazione giuridica dell'IA devono essere risolti non solo a livello di regole ma anche considerando l'essenza dell'IA, le sue prospettive di utilizzo nei mercati (ad esempio, il problema dei sistemi di IA autonomi). È inoltre essenziale concordare le questioni legali della regolamentazione dell'IA (basata sull'essenza dell'IA), i limiti del suo sviluppo e le dinamiche della sua introduzione in altri settori. Dopo la pubblicazione del Libro bianco, è stata condotta una consultazione pubblica a livello di Unione Europea. Durante questo esercizio, tutti gli Stati membri dell'UE e le parti interessate (comprese la società civile, l'industria e il mondo accademico) sono stati invitati a partecipare alla consultazione. L'evento di cui sopra ha fornito un'esperienza rilevante per un ulteriore miglioramento della legislazione. L'Unione Europea sta ricercando l'IA nell'ambito del progetto Horizon 2020. Questo progetto consente la ricerca sull'IA all'interno dei seguenti vettori di sviluppo:
- Rafforzare i centri di ricerca sull'IA all'interno dell'Unione Europea,
- sostenere lo sviluppo di una "AI-on-demand"; piattaforma che fornirà l'accesso alle pertinenti risorse di IA nell'UE,
- supportare lo sviluppo di specifiche applicazioni di intelligenza artificiale in settori economici chiave. Inoltre, il progetto della piattaforma AI-on-demand è attivamente sviluppato a livello di Unione Europea. Questa piattaforma è un insieme di novità nel campo degli sviluppi dell'IA, che consente di fornire una specifica componente informativa per la formazione di nuove iniziative nel campo dell'IA. Il 15 settembre il Parlamento europeo e il Consiglio dell'UE hanno approvato il programma di sviluppo Path to a Digital Decade 2030. Il programma mira a far sì che entro il 2030 almeno il 75% di tutte le imprese europee implementi tecnologie di intelligenza artificiale, big data e cloud computing nel proprio lavoro. Il percorso verso un decennio digitale è coerente, compatibile e complementare con altri programmi di sviluppo dell'UE e documenti politici come la comunicazione della bussola digitale, la strategia per plasmare il futuro digitale dell'Europa, la strategia industriale, la strategia per la sicurezza informatica, il programma Europa digitale e Orizzonte Europa . Il percorso verso un decennio digitale si basa su atti legislativi esistenti e pianificati, come il Data Governance Act, il Digital Services Act e il Digital Markets Act. In generale, la Commissione Europea ha formulato sette condizioni primarie per la formazione di una solida base di AI:
- Governance e supervisione. Si fa ampio riferimento a una sorta di "società equa"; da raggiungere attraverso l'IA,
- affidabilità e sicurezza. La sicurezza dell'IA deve essere garantita attraverso il suo sistema di algoritmi (e in tutte le fasi del ciclo di vita dell'IA),
- privacy e gestione dei dati. I cittadini dovrebbero avere il controllo completo sui propri dati, mentre i dati che li riguardano non saranno utilizzati per danneggiarli o discriminarli,
- trasparenza. La dichiarazione della CE indica che dovrebbe esserci un sistema di filtraggio dell'IA in termini di soluzioni proposte dall'IA stessa e coordinamento con l'oggetto dell'elaborazione di queste informazioni. Tuttavia, la CE non fornisce dettagli sulla questione del trattamento,
- L'IA deve essere multifunzionale e tenere conto dell'intera gamma delle capacità umane,
- benessere sociale e ambientale. In questo blocco, la CE rileva che l'IA dovrebbe essere utilizzata anche per migliorare la sostenibilità sociale e gli obiettivi ambientali (cita anche il concetto di "responsabilità ambientale, ma non sembra chiaro come dovrebbe essere implementato),
- responsabilità. La CE informa giustamente gli Stati membri che è necessario creare meccanismi che assicurino la responsabilità e la responsabilità degli organismi nel campo di funzionamento del sistema di IA. Questi blocchi non caratterizzano l'atteggiamento generale dell'Unione Europea verso lo sviluppo dell'IA, ma indicano problemi specifici che possono diventare una difficoltà nello sviluppo dell'ecosistema dell'IA e del quadro giuridico in questo settore. Convenzionalmente, possiamo identificare le seguenti questioni nell'applicazione delle condizioni formulate dalla CE:
- Problemi di responsabilità. Lo schema di responsabilità delle autorità per il lavoro dell'IA e come questo verrà argomentato in termini di prove non è ancora trasparente,
- l'incoerenza delle disposizioni reciproche. Inoltre, vale la pena ricordare che esiste una contraddizione nascosta tra il blocco sopra menzionato e il blocco sullo sviluppo dell'IA in generale, dove quest'ultimo è inteso a sviluppare l'IA tenendo conto dell'intera gamma delle abilità umane. Stiamo parlando di creare un sistema abbastanza autonomo con capacità umane nel processo decisionale, e per questo il nesso causale non viene rivelato,
- il sistema di trasparenza è vago, ovvero come verranno filtrate le decisioni dell'IA non è del tutto chiaro. La CE ha compiuto tentativi legali critici ma non contiene azioni istituzionali e legali specifiche (ad es. Regolamenti tecnici, politiche integrative, direttive). Tale esperienza con la regolamentazione legale internazionale dell'IA è percepita in due modi. Da un lato, l'utilizzo dei documenti legali adottati aiuta a delineare l'intera gamma di problemi relativi all'IA (compresa la sicurezza informatica). D'altra parte, la regolamentazione del diritto internazionale non si limita a questi atti. È necessaria un'ulteriore elaborazione dettagliata dei blocchi individuati dalla CE per eliminarne le contraddizioni. Va notato che, nonostante le fasi iniziali di sviluppo della maggior parte dei blocchi, la CE ha creato un'unità organizzativa: il gruppo nel campo dell'IA (Gruppo AI). È stato questo gruppo a sviluppare le "Regole etiche nell'IA", che contengono le seguenti raccomandazioni:
- Progettazione e utilizzo dei sistemi di IA secondo principi etici: rispetto dell'essere umano, autonomia dell'IA (limiti ammissibili da definire ed elaborare progressivamente), prevenzione degli illeciti e spiegabilità dei processi di IA. La direzione indica l'eliminazione delle contraddizioni tra i principi.
- attenzione ai gruppi vulnerabili, come persone con disabilità e bambini, che sono più esposti al fattore di rischio delle nuove tecnologie (IA),
- attenzione ai rischi del sistema di IA, difficili da prevedere (a questo proposito occorre prestare attenzione alle misure legali che possono essere adottate),
- la progettazione, l'implementazione e l'uso dei sistemi di IA dovrebbero soddisfare i seguenti requisiti: controllo umano di specifiche funzioni di IA (supervisione); affidabilità e sicurezza tecnica; riservatezza; trasparenza; diversità, non discriminazione ed equità; benessere ambientale e sociale; responsabilità
- le raccomandazioni del Gruppo AI dovrebbero essere recepite nella legislazione nazionale di altri stati. Va notato che il modello di regolamentazione giuridica scelto dall'UE come accennato in precedenza presenta diversi vantaggi:
- Le strategie e le raccomandazioni consentono una risposta rapida alle dinamiche dell'IA e alle sue capacità, secondo le quali sottoporre costantemente la materia giuridica all'interno dell'UE e degli Stati membri a cambiare,
- La Dichiarazione sulla cooperazione nel campo dell'IA non implica alcuna definizione quadro e formulazione, il che consente un'ulteriore elaborazione di singole questioni nei documenti sopra analizzati. Va sottolineato che, in generale, i documenti dell'UE mancano ancora di sistematizzazione.
I modi per migliorare la situazione
Attualmente si assiste a una crescita senza precedenti dell'interesse per la regolamentazione delle relazioni sociali legate all'IA nel mondo. Questa tendenza è dovuta ad alcuni fattori, tra i quali va segnalato il drammatico aumento dell'influenza delle tecnologie informatiche sulla vita delle persone e la dipendenza dell'uomo dalla tecnologia, che si è verificata e resa evidente dall'inizio della pandemia COVID-19. Il secondo fattore, ovviamente, è l'oggettivo emergere delle tecnologie informatiche, in particolare di quelle riunite sotto il termine IA, a un nuovo livello qualitativo, nonché la rapida crescita della loro implementazione di massa. Questi fattori suscitano aspettative ansiose e inducono molti a ritenere che i noti scenari fantascientifici possano diventare realtà, a meno che non si prendano misure urgenti per stabilire un controllo sull'IA e su coloro nelle cui mani è detenuta. A ciò si aggiunge la consapevolezza che la tecnologia dell'informazione è intrinsecamente extraterritoriale e transfrontaliera e che è improbabile che la regolamentazione a livello nazionale sia efficace. Nessuna giurisdizione è in grado da sola di regolamentare e controllare l'IA. La regolamentazione dell'IA richiede approcci flessibili e una combinazione di strumenti diversi, tra cui l'autoregolamentazione, la standardizzazione, la regolamentazione morale ed etica e i mezzi tecnici di regolamentazione (etichettatura, uso del codice, metadati). Sono questi i fattori che sembrano aver creato i presupposti affinché il discorso in materia raggiunga il livello di interazione tra le principali organizzazioni internazionali (UNESCO, OCSE, CdE) e un'organizzazione internazionale universale (ONU), nonché l'inizio dello sviluppo di documenti internazionali giuridicamente vincolanti (il leader in questo caso è tradizionalmente il Consiglio d'Europa).