L'intelligenza artificiale, la sua integrazione e il suo impatto sulla società

L'intelligenza artificiale (AI) è spesso definita la tecnologia più impressionante della nostra epoca, che promette di trasformare la nostra economia, le nostre vite e le nostre opportunità. Alcuni vedono nell'IA un modo per progredire rapidamente nella creazione di "macchine intelligenti" che presto supereranno le capacità umane nella maggior parte dei settori. Lo sviluppo dell'IA ha avuto un grande successo nell'ultimo decennio, soprattutto nello sviluppo di nuovi metodi per l'elaborazione statistica delle informazioni e l'apprendimento automatico, che ci permettono di lavorare con grandi quantità di dati non strutturati. Ha già influenzato quasi tutti i settori dell'attività umana: Gli algoritmi di IA sono ora utilizzati da tutte le piattaforme online e in vari settori, dalla produzione alla sanità, dalla finanza alla vendita all'ingrosso e al dettaglio. Anche le agenzie governative, come la magistratura, le dogane e l'immigrazione, si sono affidate all'IA..

Preoccupazioni per l'IA

Tuttavia, le prospettive di sviluppo dell'IA destano preoccupazione per le possibili conseguenze negative. Alcuni ritengono che i sistemi informatici intelligenti potrebbero evolvere in super-intelligenza e andare fuori controllo. Altri si preoccupano di prospettive meno lontane: ad esempio, la possibilità che i classificatori di database utilizzati per decisioni estreme in ambito sanitario o di giustizia penale non funzionino correttamente a causa di errori e imprecisioni del sistema, con conseguenti scelte ingiuste o errate. Gli scettici temono anche i potenziali conflitti legali ed etici legati alle decisioni prese dai sistemi automatizzati, le difficoltà nel comprendere la logica alla base di tali decisioni, le nuove forme di sorveglianza e le relative minacce alle libertà civili, la possibilità di influenzare la coscienza umana attraverso la manipolazione dell'IA, il potenziale utilizzo dell'IA per scopi criminali, gli effetti di vasta portata dell'uso militare dell'IA e la prospettiva di una riduzione del lavoro umano, di un aumento della disoccupazione e della disuguaglianza sociale. La proliferazione dei sistemi di intelligenza artificiale solleva diversi problemi tecnici, filosofici, legali, etici e di altro tipo. Alcuni di questi sono affrontati in un rapporto dell'Università di Stanford del 2016, Artificial Intelligence and Life in 2030, tra cui i problemi di sicurezza, la definizione della personalità giuridica dell'intelligenza artificiale, la garanzia della privacy dei dati personali, la responsabilità civile e penale, la certificazione dei sistemi di intelligenza artificiale e l'impatto negativo dei sistemi di intelligenza artificiale sui lavori umani. Alcune raccomandazioni per risolvere le questioni derivanti dall'uso dei sistemi di intelligenza artificiale sono contenute nella risoluzione del Parlamento europeo e nelle raccomandazioni della Commissione del 16.02.2017, "Norme di diritto civile sulla robotica."

Sfide e minacce all'IA

L'Institute of Electrical and Electronics Engineers (IEEE) sta conducendo una ricerca sull'etica dell'intelligenza artificiale, che dovrebbe sfociare in documenti tecnici che regolamentino lo sviluppo di sistemi di intelligenza artificiale secondo standard etici. Il primo documento è diventato le Raccomandazioni sulla progettazione eticamente allineata, che ha ricevuto una licenza non commerciale dagli Stati Uniti d'America - Creative Commons Attribution-Non-Commercial 3.0 (Institute of Electrical and Electronics Engineers n. d.). Queste raccomandazioni contengono un elenco di minacce e problemi per l'implementazione di sistemi autonomi di intelligenza artificiale, tra cui l'etica..

  • nell'area dei principi generali: la necessità di definire e sancire i principi di supremazia, responsabilità, trasparenza, apprendimento e consapevolezza dei diritti umani nello sviluppo di sistemi di intelligenza artificiale,
  • nell'ambito dell'integrazione di norme e valori etici nei sistemi di intelligenza artificiale: non universalità degli standard morali e loro variabilità a seconda degli utenti e dei compiti; possibilità di conflitto tra norme e valori morali; possibili errori incorporati o algoritmici dei sistemi di intelligenza artificiale che possono portare alla violazione di standard etici su argomenti specifici; necessità di raggiungere un certo livello di fiducia tra le persone e l'intelligenza artificiale
  • nell'area della sicurezza dell'uso dell'intelligenza artificiale e della superintelligenza artificiale: il rischio di comportamenti imprevisti dell'Intelligenza Artificiale; la difficoltà di migliorare la sicurezza dei futuri sistemi di intelligenza artificiale,
  • nel regno dei dati personali: la capacità dell'intelligenza artificiale di trarre inferenze sui dati personali sulla base delle informazioni che gli esseri umani distribuiscono nella vita di tutti i giorni,
  • nel regno dei sistemi d'arma autonomi: l'imprevedibilità di tali sistemi; l'eliminazione del controllo umano dello spazio di battaglia potrebbe portare a un'escalation delle tensioni e a violazioni indesiderate dei diritti umani; acquirenti illimitati di sistemi d'arma autonomi porterebbero alla loro proliferazione e uso incontrollato,
  • in ambito economico: le restrizioni alla tecnologia dell'intelligenza artificiale potrebbero rallentare l'innovazione; il cambiamento tecnologico supera il modo in cui i lavoratori vengono formati con le nuove tecnologie; rischi di aumento della disoccupazione; ampliando il divario socioeconomico tra paesi sviluppati e in via di sviluppo,
  • In ambito giuridico: necessità di trasparenza nell'operato dell'intelligenza artificiale e rispetto dei diritti individuali; problemi di responsabilità legale in caso di danni causati da sistemi di intelligenza artificiale; la necessità di un'applicazione legale della verifica dei sistemi di intelligenza artificiale.

Codice etico per gli sviluppatori di robotica

La risoluzione del Parlamento europeo del 16.02.2017 contiene raccomandazioni per la Commissione europea sulle norme di diritto civile sulla robotica e il Codice etico per gli sviluppatori di robotica è allegato alla risoluzione. I principi fondamentali di questo Codice sono:

  • "fai del bene" - le attività robotiche dovrebbero essere a beneficio degli esseri umani,
  • "non nuocere" - i robot non devono danneggiare gli esseri umani,
  • Principio di autonomia: gli esseri umani hanno il diritto di prendere una decisione informata liberamente sulle condizioni di interazione con i robot,
  • il principio di giustizia: tutti i benefici derivanti dall'attività dei robot devono essere equamente distribuiti.

Problemi etici e legali di applicazione dell'IA

Considerando gli studi sopra citati e le raccomandazioni, si possono distinguere i seguenti problemi etici e legali nell'applicazione dei sistemi di intelligenza artificiale.

  1. La possibilità di riconoscere un portatore di intelligenza artificiale simile a un umano come un soggetto uguale a un umano. In effetti, questa domanda non è ancora all'ordine del giorno, considerando il livello di sviluppo della scienza e della tecnologia. Ma in futuro, lo sviluppo di sistemi di intelligenza artificiale potrebbe sollevare la questione della necessità di conferire ai portatori umanoidi lo status di soggetti di diritto conferendo loro uguali poteri con le persone.

Se una macchina può pensare e sentirsi come un essere umano, dovrebbe essere considerata umana? Alcuni ricercatori ritengono che se un portatore di intelligenza artificiale possiede la volontà e la coscienza, può essere dotato di tutti i diritti umani. Sostengono a favore di questo punto di vista che le tecnologie umane come la fecondazione in vitro e la clonazione genetica creano esseri umani con anime che non sono diverse da quelle nate nel "tradizionale"; modo. Se gli esseri umani imparano a codificare il cervello umano digitalmente, l'intelligenza artificiale diventerà la nostra versione digitale, che deve avere un'anima.

Prima di stabilire qualsiasi misura di responsabilità, ci sarà, in ogni caso, una questione morale sulla necessità del trattamento etico dei robot che sono portatori di intelligenza artificiale e copiano completamente gli esseri umani.

Relativa alla questione della personalità giuridica dell'intelligenza artificiale è la questione dello status giuridico dei risultati dell'attività intellettuale creata dall'intelligenza artificiale e del titolare dei diritti intellettuali su tali opere. Ad esempio, già poeti robot compongono poesie utilizzando modelli grammaticali e notizie e basi lessicali esistenti, migliorando e ampliando costantemente il loro vocabolario. I musicisti informatici scrivono musica.

Gli scienziati propongono i seguenti possibili regimi di regolamentazione giuridica dei diritti di proprietà intellettuale per i risultati dell'attività intellettuale, prodotti con la partecipazione del portatore di intelligenza artificiale o direttamente da lui:

  • La concessione di diritti di proprietà intellettuale al portatore di intelligenza artificiale nel caso di dotarlo di personalità giuridica,
  • Rifiuto totale di conferire al portatore di intelligenza artificiale qualsiasi diritto di proprietà intellettuale e esistenza di diritti intellettuali sia alla persona che ha creato il concetto base del risultato dell'attività intellettuale, sia all'utente-operatore, o al produttore di un sistema informatico dotato di intelligenza artificiale, o al proprietario del software essenziale del vettore di intelligenza artificiale, o al proprietario del sistema informatico dotato di intelligenza artificiale,
  • trasferimento di opere create dall'intelligenza artificiale nel pubblico dominio,
  • le opere del portatore di intelligenza artificiale sono considerate opere di servizio,
  • Concedere simultaneamente i diritti intellettuali a un mezzo di intelligenza artificiale e a una delle persone specificate nella prima variante del regime giuridico.

Sembra che prima di concedere sistemi di intelligenza artificiale, debba sorgere per il proprietario del sistema di intelligenza artificiale lo status di soggetto di diritto dei diritti intellettuali sulle opere realizzate dall'intelligenza artificiale perché lo sviluppatore di tali sistemi ottiene un effetto economico dalla loro saldi. Per il proprietario, la possibilità di acquisire diritti intellettuali sarà un incentivo a sviluppare tali strategie, che aumenteranno la domanda pubblica per il loro sviluppo e produzione.

L'intelligenza artificiale è oggetto di ammirazione e adorazione. Le opportunità illimitate fornite dall'intelligenza artificiale, la sua efficienza, produttività e capacità di aiutare l'uomo a risolvere una varietà di compiti, dai problemi domestici all'esplorazione dello spazio e alla comprensione dei misteri dell'universo, ne fanno non solo un buon e affascinante oggetto di ricerca ma anche oggetto di ammirazione, che può raggiungere il livello del culto e della trasformazione in idolo.

L'ingegnere americano Anthony Levandowski ha creato la prima religione di culto dell'intelligenza artificiale, chiamata Way of the Future. I documenti della carta di questa organizzazione religiosa affermano che le sue attività saranno incentrate sull'adorazione di una divinità basata sull'intelligenza artificiale, sviluppata con l'aiuto di hardware e software per computer. Allo stesso tempo, E. Lewandowski sottolinea che se qualcosa è un miliardo di volte più intelligente della persona più competente, può essere definita una divinità.

Certo, è possibile trattare l'emergere di una nuova religione con un certo grado di ironia e scetticismo, ma non dobbiamo sottovalutare le sue prospettive. Già oggi una parte significativa della popolazione, soprattutto i giovani, ha il culto delle innovazioni tecniche: gli ultimi modelli di smartphone, i giochi per computer, i programmi, ecc. Per possedere i nuovi gadget, le persone si spingono a volte fino a un punto estremo: dal serio autocontrollo e dall'austerità al crimine. E sono spinti non solo dalla moda e dal desiderio di dimostrare un certo tenore di vita, ma anche da un'esigenza consolidata di essere in uno spazio virtuale e digitale costantemente aggiornato, per il quale è necessario utilizzare gli ultimi sviluppi tecnici nel campo dei dispositivi elettronici, che sono diventati una parte importante e determinante della vita. I promettenti risultati dell'intelligenza artificiale, che offrono molte più possibilità degli attuali smartphone, hanno tutte le possibilità di assorbire il mondo interiore delle persone e di diventare un oggetto di culto globale..

  1. The possibility of artificial intelligence systems harming the highest values - human life and health. Incorrectly putting in an artificial intelligence system algorithm can lead to large-scale negative consequences.

Cases of artificial intelligence systems harming humans are spreading as artificial intelligence evolves. In March 2018, an unmanned Uber car struck a woman on the road without seeing her, killing her. In May that year, IBM's digital assistant Watson recommended inappropriate and health-threatening medications to cancer patients.

Is it ethically acceptable to develop artificial intelligence systems that can lead to human death? There can be no definite answer to this question. Many technical inventions, from the bicycle to the airplane to the spaceship, whether operated by man or the machine, can, given the confluence of certain factors, cause harm to humans. But to abandon scientific development in such technical fields would halt the advance of civilization.

Another ethical and legal question arises: who is responsible for the harm caused by artificial intelligence systems? Artificial intelligence makes its own decisions and implements them. Gli sviluppatori dei sistemi di intelligenza artificiale non stabiliscono algoritmi esaustivi per l'azione e il processo decisionale; i sistemi di intelligenza artificiale possono autoapprendere e funzionare autonomamente. Quanto è ragionevole ritenere responsabile un pilota o un medico che utilizza una tecnologia di intelligenza artificiale, ad esempio, per gli errori dell'IA? Se la responsabilità viene attribuita alle persone che utilizzano i sistemi di intelligenza artificiale, le persone eviteranno di utilizzarli, ostacolando così lo sviluppo delle relative tecnologie. Se la responsabilità viene attribuita agli sviluppatori dei sistemi di intelligenza artificiale, le conseguenze possono essere analoghe. Se la responsabilità non viene attribuita a nessuno di questi individui, non c'è modo di riparare i danni causati dall'intelligenza artificiale agli esseri umani.

Molti ritengono che per risolvere questo problema sia necessario introdurre un'assicurazione di responsabilità civile obbligatoria per i danni causati dai sistemi di intelligenza artificiale agli esseri umani, che le compagnie assicurative risarciranno per i danni. Inoltre, se il risarcimento assicurativo non è sufficiente a pagare il danno, lo sviluppatore e il produttore dovrebbero essere responsabili in solido per la persona che utilizza il sistema di intelligenza artificiale.

  1. Il processo decisionale dell'intelligenza artificiale in merito ai diritti e doveri delle persone e alla loro responsabilità legale può contraddire i valori legali ed etici fondamentali. Se i sistemi di intelligenza artificiale prendono decisioni sui diritti e doveri delle persone, sulla responsabilità delle persone per le violazioni, allora, tenendo conto degli algoritmi opachi delle decisioni prese dall'intelligenza artificiale, i diritti fondamentali, difesi dall'uomo per secoli, possono essere violati: diritto alla familiarizzazione con tutti i documenti che riguardano i diritti umani e le libertà; idoneo a una decisione motivata, che dia una qualificazione giuridica dettagliata delle azioni commesse da un cittadino; diritto di ricorso contro decisioni di autorità e funzionari

Pertanto, se un portatore di intelligenza artificiale è dotato del diritto di prendere decisioni giuridicamente significative riguardanti le persone, devono essere osservati i seguenti principi:

  • deve essere possibile esporre le operazioni dell'Intelligenza Artificiale in una forma umanamente comprensibile (iniziali informazioni, modalità del suo trattamento, qualificazione giuridica, motivazioni della decisione presa),
  • Una persona deve avere l'opportunità di fare appello a una persona contro la decisione presa dall'intelligenza artificiale.
  1. L'intelligenza artificiale esacerba la stratificazione e la disuguaglianza, creando le condizioni per la centralizzazione del potere. Lo sviluppo dell'intelligenza artificiale porterà a una disuguaglianza ancora maggiore tra chi ha la tecnologia e chi non l'ha perché crea le condizioni per la centralizzazione del potere e la concentrazione delle risorse in chi la possiede.
  2. L'introduzione dell'intelligenza artificiale creerà disoccupazione di massa. La Bain Consulting Company stima che l'introduzione di robot e intelligenza artificiale aggiungerà 2,5 milioni di americani ai disoccupati ogni anno (in confronto, all'inizio del XX secolo, durante la transizione verso un'economia industriale, questa cifra era la metà). Danneggerebbe tutte le istituzioni sociali, compresa la famiglia, e porterebbe a problemi demografici.
  3. Superiorità intellettuale dei portatori di Intelligenza Artificiale sugli esseri umani. Gli esseri umani hanno determinati limiti biologici al loro sviluppo, mentre l'intelligenza artificiale non ne ha. Gli esseri umani sono limitati dalla lenta evoluzione naturale e non possono competere con l'intelligenza artificiale per quanto riguarda la velocità di sviluppo. Di conseguenza, l'intelligenza artificiale, che inizia a essere percepita come una minaccia, potrebbe essere cancellata dalla faccia della terra. I portatori di intelligenza sintetica possono iniziare a vedere gli esseri umani come un ostacolo al raggiungimento degli obiettivi prefissati. Di conseguenza, gli esseri umani possono trovarsi ridotti in schiavitù o intenzionalmente distrutti dall'intelligenza artificiale. Gli algoritmi incorporati nell'intelligenza artificiale dovrebbero prevedere la possibilità incondizionata della loro disattivazione da parte dell'uomo.
  4. Eliminazione delle persone l'una dall'altra, solitudine dell'uomo. La distribuzione di sistemi di intelligenza artificiale in sfere in cui la comunicazione e l'interazione personale e la manifestazione di sentimenti ed emozioni umane sono significative può portare all'alienazione delle persone l'una dall'altra e aumentare la solitudine.

Ad esempio, al giorno d'oggi i robot babysitter sono in grado di monitorare i bambini, fornire ai genitori informazioni sul bambino, giocare con i bambini, mantenere una conversazione con il bambino e partecipare alla sua educazione. Il problema è che al posto dei genitori, il cui amore, cura e affetto sono necessari per lo sviluppo totale del bambino, c'è un robot con lui, dal quale il bambino non può ottenere ciò di cui ha più bisogno. Di conseguenza, ciò può influire sullo sviluppo mentale, fisico, intellettuale ed emotivo del bambino, portando alla mancanza del necessario legame emotivo tra il bambino e i genitori e a future difficoltà nell'educazione. Problemi simili sorgono quando si utilizzano assistenti robotici per curare persone malate, che hanno bisogno di attenzioni e cure umane, non di macchine..

  1. La possibilità di seguire le norme etiche nel processo decisionale mediante l'intelligenza artificiale. I sistemi di intelligenza artificiale possono essere messi di fronte a scelte morali, in particolare di fronte a situazioni non standard. Ad esempio, un sistema intelligente di controllo dei veicoli senza pilota deve scegliere tra colpire un pedone e una manovra che minaccia di danneggiare la vita e la salute dei passeggeri. È possibile stabilire la necessità di seguire norme etiche quando si prendono decisioni con l'intelligenza artificiale?

La necessità di regolamentazione


Per riassumere tutto quanto sopra: i problemi attuali con l'IA sono quelli dell'IA non regolamentata e che ne ignorano le conseguenze su larga scala per la società. Dato l'uso diffuso dell'IA e dei big data, gli esperti di IA suggeriscono di introdurre un nuovo approccio normativo chiamato principio di regolamentazione precauzionale. Inoltre, dovrebbe essere sviluppato e approvato a livello legislativo un sistema di principi etici che dovrebbero essere osservati nello sviluppo di sistemi di intelligenza artificiale. Per affrontare questa sfida in modo efficace sono necessari la cooperazione internazionale e il coinvolgimento di molti esperti che comprendano e possano analizzare l'interazione tra tecnologie di intelligenza artificiale, obiettivi software e categorie etiche. Gli algoritmi incorporati nell'intelligenza artificiale devono prevedere la possibilità incondizionata della disabilità umana. Inoltre, gli algoritmi di controllo del sistema di intelligenza artificiale dovrebbero essere tali che il sistema non potrebbe funzionare se le norme etiche vengono violate, ovvero le norme morali dovrebbero essere la base del sistema di intelligenza artificiale, piuttosto che un insieme aggiuntivo di criteri che l'intelligenza artificiale il sistema utilizzerà per prendere decisioni. Dovrebbe essere introdotta un'assicurazione di responsabilità civile obbligatoria per i danni causati dai sistemi di intelligenza artificiale all'uomo, nel qual caso le compagnie di assicurazione risarciranno il danno. Se l'indennità assicurativa non è sufficiente a pagare per aver danneggiato la persona che utilizza il sistema di intelligenza artificiale, lo sviluppatore e il produttore dovrebbero essere responsabili in solido. Quando si autorizza l'intelligenza artificiale a prendere decisioni giuridicamente significative riguardanti l'uomo, è necessario legiferare sui seguenti principi: dovrebbe essere possibile presentare le operazioni dell'Intelligenza Artificiale in una forma comprensibile dall'uomo (fonte delle informazioni, come è stata elaborata, qualificazione, i motivi della decisione presa); una persona dovrebbe avere l'opportunità di impugnare una decisione presa dall'intelligenza artificiale. Pertanto, le prospettive dell'intelligenza artificiale dipendono principalmente dall'atteggiamento dell'umanità nei confronti della sua introduzione e dal grado della sua regolamentazione.