L'intelligenza artificiale sta cambiando il mondo. Alcuni sono spaventati da questa prospettiva. Altri investono nelle nuove tecnologie. Altri ancora, timorosi dei robot, propongono una nuova etica: risoluzione dei problemi, emozioni e libero arbitrio in un mondo di intelligenza virtuale. Qual è la minaccia per l'umanità rappresentata dai robot con intelligenza artificiale avanzata e come prevenirla (senza cercare di fermare il progresso)?
Come possono essere pericolose le macchine intelligenti: i problemi della robotizzazione e dello sviluppo dell'IA
L'intelligenza artificiale può cambiare radicalmente la società umana e la portata dei cambiamenti derivanti dalla sua introduzione è paragonabile alle conseguenze della rivoluzione industriale. Secondo la società di consulenza internazionale Frost & Sullivan, il volume globale degli investimenti nello sviluppo dell'intelligenza artificiale, principalmente da parte di giganti dell'informatica come Alibaba, Amazon, Baidu, Google, Facebook e altri, raggiungerà circa 52,5 miliardi di dollari nel 2022, quasi quattro volte di più rispetto al 2017. Il 90% dei fondi è destinato alla R&S interna. Anche gli attori industriali più importanti finanziano la ricerca, soprattutto nell'apprendimento automatico e nella robotica: ABB, Bosch, GE, Siemens, oltre alle case automobilistiche - BMW, Tesla, Toyota e altre. Molti ricercatori e futurologi ritengono che l'intelligenza artificiale possa eguagliare quella umana nel XXI secolo. Nei prossimi 10-20 anni, ci saranno progressi significativi nel riconoscimento vocale e nel controllo dei robot (comprese le auto autonome). L'intelligenza artificiale imparerà anche a simulare perfettamente le emozioni.
Non sarà un disastro per l'umanità?
La tecnologia ha un enorme potenziale maligno. Il timore maggiore è la perdita del controllo umano sulla superintelligenza. Ci sono anche difficoltà etiche. L'elenco delle preoccupazioni etiche sull'uso dell'intelligenza artificiale, in particolare, include la questione di come questa tecnologia influenzerà il comportamento e l'interazione umana. Il McKinsey Global Institute, nella sua ricerca, sottolinea un altro problema: i pregiudizi umani - razzismo, sessismo, ecc. - possono essere introdotti nell'intelligenza artificiale. Non è ancora chiaro quale morale verrà instillata nell'intelligenza artificiale, ma interiorizzando i pregiudizi umani, essa baserà le sue conclusioni su prestiti, assunzioni, ecc. L'intelligenza artificiale riconosce non solo il sesso e la razza apparente, ma anche l'orientamento sessuale. Come possiamo evitare l'imposizione di beni e servizi da parte dell'intelligenza artificiale? Le app alimentate dall'intelligenza artificiale non manipoleranno le persone a spendere? L'intelligenza artificiale non cercherà di limitare le libere scelte emotive delle persone in generale? Ci sono anche preoccupazioni per le decisioni sbagliate che un computer potrebbe prendere nei confronti di un medico o di un giudice. Chi sarà responsabile degli errori dell'intelligenza artificiale: gli sviluppatori o gli utenti? Nick Bostrom, un famoso filosofo svedese, scrive nel suo Etica dell'intelligenza artificiale che una persona potrebbe dimenticare o smettere di capire perché l'IA consiglia di fare le cose in questo o quel modo. Ciononostante, la tecnologia non ha ancora smesso di evolversi, portando a un'interazione e a una cooperazione più significative tra esseri umani e macchine nella produzione e nella vita quotidiana. Inevitabilmente sorge la domanda, che è la prima e più pericolosa minaccia: come possiamo assicurarci che le macchine non facciano accidentalmente o intenzionalmente del male all'uomo?
Vere e proprie vittime dei robot
Anche durante la vita dello scrittore di fantascienza e futurologo Isaac Asimov, che formulò tre leggi di coesistenza pacifica tra un robot e un umano, fu trovata una macchina che le infrangeva.
Le leggi formulate da Asimov
- Un robot non può danneggiare un essere umano o permettere che un essere umano venga danneggiato dalla sua inazione.
- Un robot deve obbedire a tutti gli ordini impartiti da un essere umano, tranne quando questi ordini contraddicono la Prima Legge.
- Il robot deve prendersi cura della propria sicurezza nella misura in cui non contraddice la prima o la seconda legge.
Il 25 gennaio 1979, a Flat Rock, Michigan, USA, Robert Williams, un magazziniere di una fabbrica Ford di 25 anni, è stato incaricato di rimuovere le parti immagazzinate su un enorme scaffale, che allo stesso tempo veniva azionato da una macchina manipolatrice a cinque livelli. Eseguiva le operazioni di movimentazione dei fustellati in magazzino. Parte della macchina era costituita da veicoli da trasporto da una tonnellata: carrelli con ruote di gomma dotati di manipolatori meccanici per spostare i dissuasori. Williams è stato mandato a fare un lavoro che il robot non poteva gestire: alcune parti sono state lasciate fuori dalla macchina. L'operaio salì al terzo livello della scaffalatura e iniziò il compito. Nel frattempo qui è apparso uno dei carri che ha ucciso all'istante l'operaio che non si era accorto del suo avvicinamento con un colpo del manipolatore. Williams' il corpo è rimasto sullo scaffale per mezz'ora fino a quando gli operai non lo hanno scoperto. Il robot ha continuato a essere banale mentre spostava le billette. I parenti del lavoratore hanno intentato una causa per 10 milioni di dollari di danni e Williams, ignaro, è passato alla storia come la prima vittima del robot.
Tuttavia, secondo gli standard legali, chiamare Robert Williams' omicidio mortale permette una grande esagerazione perché la macchina di fabbrica non aveva il principale "attributo qualificante" di omicidio premeditato: movente. E anche nel luglio 2016, quando un robot della polizia con esplosivi è stato utilizzato per eliminare un criminale a Dallas, Texas, USA, le azioni della macchina erano ancora dirette da un essere umano.
I robot spesso danneggiano gli esseri umani?
Sebbene tutti i robot tranne i militari siano progettati in modo tale che nessuna delle regole di Asimov venga violata, è impossibile evitare del tutto le vittime. Ce ne sono molti? Le statistiche per incidenti drammatici che coinvolgono robot non sono ampie, sebbene si verifichino regolarmente feriti e persino omicidi che coinvolgono macchine. Secondo uno studio della US Occupational Safety and Health Administration (OSHA), i robot industriali hanno causato almeno 33 morti e feriti sul lavoro in questo paese in 30 anni. Tuttavia, ci sono anche dati più scuri. Nel 2013, le compagnie assicurative tedesche hanno stimato che circa 100 incidenti che coinvolgono robot industriali si verificano ogni anno nel paese. Un precedente studio del 1987 su aziende di Stati Uniti, Germania, Svezia e Giappone ha scoperto esattamente come i robot danneggiavano i lavoratori: nel 56% dei casi provocavano ferite penetranti e nel 44% colpivano. La maggior parte degli incidenti è stata causata da una cattiva organizzazione del posto di lavoro (20 dei 32 incidenti analizzati), mentre l'errore umano ha causato solo 13 situazioni spiacevoli.
Ci sono statistiche sull'uso non riuscito dei robot in aree di applicazione specifiche. Ad esempio, nel campo dei robot medici: nel 2013, un team di scienziati ha analizzato le statistiche della Food and Drug Administration (FDA) statunitense e ha scoperto che dal 2000 al 2013 si sono verificati 144 decessi, 1.391 feriti e 8.000 malfunzionamenti del dispositivo durante procedure chirurgiche assistite da robot. Tra questi, due morti e 52 feriti sono stati causati dallo spegnimento spontaneo del robot durante un intervento chirurgico o da un movimento improprio. Un decesso e 119 feriti sono stati causati dalla caduta di parti del robot o dei suoi accessori sul paziente.
Perché i robot sono diventati più pericolosi?
Il problema fondamentale e quasi filosofico è che i robot non sono consapevoli di se stessi come parte del mondo e possono essere pericolosi per gli altri. Tuttavia, se 20-40 anni fa un robot era una macchina elettromeccanica con una gamma minima di attività ripetitive e l'accesso ad esso poteva essere limitato in modo da non danneggiare accidentalmente nessuno, oggi la situazione sta cambiando. Due selezionatrici, una dinamica e una meccanica, possono lavorare contemporaneamente sullo stesso nastro trasportatore. Inoltre, i robot diventano multitasker, per i quali devono spostarsi sul territorio. Di conseguenza, si forma un unico spazio di lavoro di uomo e macchina, in cui tutto può succedere.
I robot industriali presentano diversi tipi di pericoli, a seconda della loro origine:
- Pericoli meccanici, derivanti da movimenti involontari e imprevisti o dalla perdita di strumenti da parte del robot;
- Pericoli elettrici, come il contatto con parti in tensione o collegamenti;
- pericoli termici, come quelli associati a superfici calde o all'esposizione a temperature estreme;
- Rumore che può essere dannoso per l'udito. Quindi, cosa innesca questi rischi? L'OSHA ha osservato che molti incidenti che coinvolgono i robot non si verificano in condizioni operative normali ma piuttosto in situazioni anomale, come durante la riprogrammazione, la manutenzione, la riparazione, il test, la regolazione o la regolazione. Poi ci sono fattori esterni al di fuori del controllo umano, naturali o tecnici, come l'interruzione di corrente.
Ci sono un totale di sette ragioni principali per cui i robot sfuggono al controllo:
- errori di controllo, ovvero errori nel sistema di controllo o nel software che portano a comportamenti instabili o ad un aumento del potenziale energetico pericoloso della macchina;
- accesso non autorizzato - una violazione da parte di un tecnico non addestrato della zona di sicurezza vicino alla macchina;
- malfunzionamenti meccanici - i malfunzionamenti più imprevedibili e pericolosi che possono portare a un funzionamento improprio o imprevisto del robot;
- fattori naturali: questo gruppo di cause include tutto ciò che può influenzare il comportamento del robot per motivi reali, in particolare interferenze elettromagnetiche o di radiofrequenza, nonché condizioni meteorologiche avverse;
- guasto del sistema di alimentazione: ad esempio, attuatori pneumatici, idraulici o elettrici possono interrompere i segnali elettrici nelle linee di controllo; il risultato è un rilascio di energia, scosse elettriche e un aumento del rischio di incendio, soprattutto quando qualcosa fa scintille nei robot che utilizzano olio idraulico combustibile;
- l'installazione impropria del robot o dei suoi componenti provoca molti incidenti, compresi i tentativi di correggere gli errori;
- il fattore umano: programmazione, interfaccia, errori di controllo, violazione delle norme di sicurezza.
Il più delle volte, si verificano situazioni anomale dovute all'intervento umano nel lavoro del robot o cambiamenti nell'ambiente a cui l'operatore meccanico non può reagire. Quali tecnologie impediscono che ciò accada?
Quali tecnologie rendono i robot sicuri?
Tre abilità essenziali rendono sicuro un robot lavoratore:
arresto controllato,
controllo della velocità e separazione delle zone,
limitazione di potenza e forza.
Stop monitorato di sicurezza (SMS)
Un arresto monitorato di sicurezza si verifica non appena una persona si trova in una determinata area vicino alla macchina, ad esempio per il cambio degli utensili, le regolazioni, le impostazioni o altri interventi diretti sul robot. L'alimentazione continua e il robot entra automaticamente in modalità di inattività. Non appena l'operatore lascia l'area di controllo, il robot riprende a funzionare senza ulteriori comandi. Per misurare la distanza tra il robot e una persona (o un altro disturbo) si utilizzano diversi tipi di sensori di distanza (ottici, acustici, ecc.) che determinano la lunghezza dell'oggetto inviando un segnale e ricevendo una risposta. Per garantire la massima sicurezza, i sensori dispongono di due sistemi paralleli per la trasmissione e l'elaborazione dei segnali relativi alla presenza di interferenze in una determinata area. I segnali arrivano a due moduli del controllore del robot e vengono elaborati separatamente e con algoritmi diversi. Quindi vengono sottoposti a controlli incrociati. Di conseguenza, se uno dei canali si guasta per qualche motivo, il robot si ferma comunque.
Monitoraggio della velocità e della separazione (SSM)
Questa tecnologia di sicurezza più complessa comporta la modifica del comportamento del robot quando un essere umano si trova in un'area specifica vicino alla macchina, ad esempio rallentando il robot. Tecnicamente funziona così: la macchina misura continuamente la posizione e la velocità di un oggetto nella linea di vista. SSM può essere implementato sia in condizioni statiche che dinamiche. La chiave qui è la tecnologia per riconoscere gli oggetti circostanti. Se il robot deve vedere cosa sta afferrando, perché non può imparare a riconoscere i coetanei, comprese le persone? La tecnologia di riconoscimento si basa sull'utilizzo di due fotocamere, una fotocamera RGB e una fotocamera 3D. Combinando le immagini che cattura, il robot può determinare la posizione di un oggetto nello spazio e la direzione del suo movimento.
Potenza e forza limitata (PFL)
È una delle tecnologie più utilizzate per evitare lesioni umane quando una persona e una macchina vengono a contatto. Implica l'uso di varie tecniche, inclusi i sensori a forza limitata. Convertono le componenti misurate dei vettori di forza e momento in segnali adatti per l'elaborazione da parte di un robot che "tocca"; oggetti specifici. Ad esempio, tali sensori sono installati sui bracci di robot che smistano diversi tipi di pacchi, compresi quelli fragili. Prima di raccogliere molto, il robot "sente" esso, e il sensore determina con quale oggetto ha a che fare la macchina in termini di forma, resilienza e dimensioni. Sulla base dei dati ottenuti, il robot seleziona la forza di serraggio e la velocità di movimentazione dell'oggetto.
Quali tecnologie renderanno il robot più sicuro in futuro?
I robot industriali del futuro interagiranno con l'ambiente in continua evoluzione e con l'uomo, a differenza dei loro predecessori, che erano in grado solo di ripetere ritmicamente una gamma limitata di compiti. Affinché un robot possa fare questo e svolgere compiti atipici, deve in qualche modo apprendere le abilità umane di base, in particolare la capacità di ascoltare. Toshiba ha presentato una tecnologia di riconoscimento vocale basata sull'intelligenza artificiale. Si tratta del primo sviluppo al mondo di questo tipo: qualsiasi robot o semplice dispositivo elettronico sarà in grado di elaborare comandi vocali senza connessione a Internet o dati cloud. In altre parole, il dispositivo di elaborazione è integrato nella macchina. In primo luogo, la rete neurale elabora il suono, separando i comandi vocali dai rumori estranei, quindi viene utilizzata la tecnica dell'espansione dei dati nella rete neurale. L'espansione dei dati è una tecnica per l'apprendimento di piccole quantità di informazioni, come gli enunciati verbali. Il successo dell'identificazione delle persone si ottiene addestrando l'intelligenza artificiale sulla base di campioni del loro parlato, consentendole di riconoscere oratori specifici anche quando è disponibile solo un numero ridotto di enunciati. Toshiba ha ridotto il numero di campioni vocali necessari al punto che la nuova tecnologia è in grado di riconoscere un utente sulla base di soli tre enunciati. Questa tecnologia è ottima per i robot e i cobot che non hanno bisogno di essere prolissi. Almeno per ora. L'intelligenza artificiale aiuterà i robot del futuro non solo a sentire meglio, ma anche a vedere, pensare e muoversi meglio, il che col tempo eliminerà le barriere tra i lavoratori umani e le loro controparti artificiali.
Regolazione e controllo
Pertanto, la robotizzazione e i miglioramenti dell'intelligenza artificiale sono una minaccia solo se non controllati. Questi processi devono essere controllati. Ad esempio, si suggerisce che, invece di introdurre macchine con gradi crescenti di autonomia dall'uomo, si creino dispositivi il cui controllo richieda una maggiore attenzione all'aspetto etico della questione. I giganti della tecnologia stanno già creando divisioni speciali che consiglieranno i dirigenti aziendali sulle questioni etiche dello sviluppo dell'IA. Amazon, Apple, Facebook, Google, IBM, Microsoft e altri stanno creando diverse associazioni e partnership sull'IA, che rappresentano un forum aperto per discutere di robotizzazione e intelligenza artificiale e del loro impatto sulle persone e sulla società. Nonostante tutti i rischi associati all'introduzione di robot con elementi di IA, i governi e le aziende non dovrebbero ritardare l'utilizzo dell'intelligenza artificiale. C'è il rischio di non essere preparati in tempo alle nuove sfide e opportunità globali. Ad esempio, i sistemi di istruzione dovrebbero iniziare a ristrutturarsi ora per formare il personale non per competere con le macchine, ma per monitorarle e controllarle. Questa distribuzione delle aree di responsabilità in futuro deve essere effettuata all'interno di ogni organizzazione, pubblica o privata. È necessario stabilire delle regole per limitare la portata dell'implementazione dell'intelligenza artificiale nei processi operativi. Dopo tutto, l'intelligenza artificiale non viene sviluppata per il bene dell'intelligenza artificiale, ma per nuove opportunità per gli esseri umani.