I robot e l'intelligenza artificiale (AI) stanno penetrando sempre più nella vita delle persone. Vengono utilizzati nell'industria, nella medicina e nei servizi. Con ogni passo avanti nella robotica e nello sviluppo dell'intelligenza artificiale, ci stiamo avvicinando al giorno in cui le macchine eguaglieranno le capacità umane in ogni aspetto: intelligenza, coscienza ed emozione. Forse, con il tempo, i robot non solo seguiranno i comandi umani, ma prenderanno anche decisioni autonome..
Quando si tratta di stabilire se ai robot debbano essere riconosciuti o meno dei diritti
La questione è ampia, complessa e sfaccettata. Deve essere considerata e risolta da diverse prospettive: etica, sociologia, legge, neurobiologia e teoria dell'IA.
La necessità di regolamentare la robotica
La regolamentazione giuridica della robotica, ovvero la scienza e la pratica dello sviluppo, della produzione e dell'utilizzo dei robot, è un'area che sta appena iniziando a emergere. Ciò è dovuto al fatto che l'umanità è piuttosto lunga e non è disposta a realizzare questo processo come necessario. La sfera della robotica si è sviluppata in modo dinamico negli ultimi decenni. Tuttavia, allo stesso tempo, si trova in una sorta di "zona d'ombra," che di fatto porta a ritardi nei processi di sviluppo del quadro giuridico per ordinare le relazioni che coinvolgono i robot.
La vaghezza del concetto di "robot" e la mancanza di una classificazione per la formazione del quadro giuridico sono anch'esse problematiche. In molti studi, la definizione più comune di "robot" è derivata dall'elenco delle funzioni da essi svolte: i robot sono oggetti o sistemi creati artificialmente che possono ricevere ed elaborare informazioni e agire in base al mondo esterno che li circonda.
Per la scienza giuridica, l'aspetto critico non è tanto lo specifico sistema ingegneristico e tecnico del robot, quanto piuttosto le capacità e le funzioni che può riprodurre.
L'obiettivo principale dell'invenzione dei primi robot era quello di sollevare l'uomo dalle attività più faticose ed estenuanti. Era lo scopo funzionale primario dei robot.
I primi robot corrispondevano pienamente a questi approcci, rappresentando un'attrezzatura speciale - un manipolatore controllato in base a un programma specifico, che eseguiva una serie di funzioni (azioni) prestabilite. Questi robot avevano un'autonomia strettamente limitata e controllata, e il loro utilizzo come attrezzature necessarie per migliorare i processi produttivi non era discusso in termini pratici.
Tuttavia, la tecnologia si stava evolvendo. Le reti neurali in grado di riconoscere le immagini e di comprendere il linguaggio umano, l'autoapprendimento iniziarono a copiare i principi del cervello umano. Con il miglioramento della tecnologia dell'intelligenza artificiale, il cui scopo primario è sviluppare algoritmi che forniscano soluzioni informatiche per compiti cognitivi propri del cervello umano, lo sviluppo dei robot acquisì una nuova direzione. Hanno iniziato a "socializzare," integrarsi in varie comunicazioni come partecipanti a pieno titolo (poliziotto robot, infermiera robot, impiegato di banca, ecc.) o assistenti.
È possibile distinguere diverse generazioni di robot:
Generazione I: robot programmabili che svolgono funzioni strettamente limitate, generalmente implementate per automatizzare i processi eseguiti dagli esseri umani,
II generazione: robot con controllo adattivo, basato sull'elaborazione delle informazioni da parte di sensori,
III generazione - autoapprendimento, altamente autonomo, "intelligente" robot.
Criteri che distinguono un "intelligente" sono stati sviluppati robot di altri sistemi nell'Unione Europea. Per qualificare una macchina come "intelligente" ad alta tecnologia dispositivo, deve:
- essere in grado di compiere azioni autonome attraverso l'uso di sensori e/o scambiando informazioni con il mondo esterno e analizzando tali dati,
- essere auto-educabili (questo criterio è facoltativo),
- essere fisicamente attrezzati,
- per adattare il proprio comportamento all'ambiente esterno.
Aspetti morali ed etici dell'utilizzo dei robot
Negli USA e nei paesi europei, il concetto di "ponderato" la regolamentazione della robotica è stata attivamente sviluppata di recente. Così, ad esempio, nel quadro della risoluzione del Parlamento europeo, sono stati fissati alcuni aspetti fondamentali, che definiscono le basi morali ed etiche delle relazioni robot-umano, che soddisfano i seguenti criteri:
- La non nocività degli esseri umani nel funzionamento del robot,
- obbedienza del robot alle istruzioni e ai comandi di un essere umano, tranne nei casi in cui tale comportamento della macchina possa causare danni a un essere umano,
- garantire la capacità del robot di mantenere la sua esistenza a condizione che non sia in contraddizione con i requisiti menzionati in precedenza,
- Infine, i robot non devono in alcun modo danneggiare l'umanità nel suo insieme.
Quando si sviluppa un regolamento normativo, entrambe le caratteristiche tecniche di "smart" i robot e i loro "umani" le caratteristiche devono essere considerate contemporaneamente. Supponiamo che le caratteristiche di progettazione di un "intelligente" i robot non vengono presi in considerazione. In tal caso, può portare a una regolamentazione a livello legislativo, non dei contenuti disponibili ma semplicemente della forma robotica. Eccessiva "umanizzazione" dei robot, che in una certa misura è una tendenza delle realtà moderne, può portare a conseguenze imprevedibili, ad esempio nel determinare chi è colpevole di causare danni.
Nonostante i vantaggi percepiti dall'utilizzo di tali robot, ci sono rischi evidenti. In primo luogo, più il robot è altamente autonomo, più è difficile determinare la responsabilità, poiché il controllo dell'operatore umano è ridotto al minimo. In secondo luogo, il robot è un sistema informativo soggetto ai rischi dell'hacking. A questo proposito, è accettabile esplorare la designazione di tali robot come oggetti vitali dell'infrastruttura dell'informazione e lo sviluppo di un sistema legale adeguato per specifici tipi di robot.
La questione della scelta morale, che un robot non è in grado di fare poiché le tecnologie di machine learning non hanno ancora raggiunto questo livello, non è di poco conto: come valutare il valore della vita di una persona? Chi dovrebbe essere assistito per primo: la persona che ha maggiori probabilità di sopravvivere o quella strategicamente più preziosa, che può essere cruciale, ad esempio, in una situazione di guerra?
Indubbiamente, la progettazione, lo sviluppo e l'implementazione delle tecnologie di intelligenza artificiale devono essere analizzati con attenzione e realizzati nell'ambito di un approccio basato sul rischio. Tutti i processi automatizzati devono essere progettati per poter essere esaminati e valutati da un esperto. La trasparenza degli algoritmi e degli aspetti tecnici del funzionamento dei robot deve essere garantita per creare un ambiente di fiducia e proteggere i diritti umani.
Definizione dei diritti e delle responsabilità dei robot
Nella formazione del quadro legislativo in materia di attribuzione di diritti a determinati tipi di robot cosiddetti "intelligenti", si propone di distinguere tra il sistema robotico in sé, creato senza l'utilizzo di tecnologie che presuppongono l'autonomia dell'oggetto (robot industriali, droni, sommergibili d'alto mare), e i robot agenti, cioè sistemi in grado di svolgere autonomamente determinati tipi di compiti. In questo caso, l'aggiunta del termine "agente" significa che tali sistemi realizzano gli interessi di una persona fisica o giuridica specifica.
Un punto importante per determinare i diritti e le responsabilità di qualsiasi persona è la presenza della sua volontà di compiere specifiche azioni di regolamentazione giuridica significativa. Alcuni studiosi, invece, sostengono che i robot dotati di intelligenza artificiale avanzata e di autonomia abbiano il diritto legale di scegliere.
Tuttavia, le conclusioni degli scienziati sono piuttosto difficili da utilizzare per costruire il concetto di robot come persona fisica. Dare ai robot una piena competenza legale influisce anche sulla loro capacità di assumersi o meno la responsabilità per i danni che infliggono.
Il più diffuso nella ricerca scientifica è il concetto di robot come persona giuridica. Questo concetto consente l'applicazione selettiva delle norme di diritto civile che regolano i rapporti giuridici con la partecipazione di persone giuridiche alla regolamentazione giuridica dei robot. La base di questa analogia è la natura "artificiale" delle persone giuridiche e dei robot.
Esiste un altro concetto chiamato "concetto di persona elettronica. La sua essenza è quella di dare ai robot uno status giuridico speciale in futuro, quando i più avanzati di essi potranno essere creati come persone elettroniche (persone) ed essere responsabili per i danni se prendono decisioni in modo autonomo o comunque interagiscono in modo indipendente con terzi. Tra le caratteristiche di un robot intelligente si menziona la capacità di:
- diventare autonomi;
- diventare autoapprendimento;
- adatta il comportamento.
Poiché il robot può svolgere varie funzioni necessarie per realizzare gli obiettivi degli sviluppatori di intelligenza artificiale, generalmente appare come un attore con un dovere, che può svolgere o meno. A questo proposito, la domanda rilevante è chi sarà responsabile per il mancato adempimento di tale dovere: l'agente robot stesso (in quanto persona giuridica o elettronica) o lo sviluppatore della tecnologia in base alla quale il robot esegue le sue azioni?
Attualmente, c'è una tendenza all'aumento dell'autonomia dell'intelligenza artificiale e un numero crescente di casi di danni all'uomo a seguito di decisioni prese utilizzando tali tecnologie. Al momento, l'idea più promettente sembra essere la gestione del rischio, ovvero portare alla responsabilità la persona che aveva l'obbligo di ridurre al minimo i rischi di danno, ovvero consentire al mancato rispetto dei propri doveri di eliminare tali conseguenze negative.
Ma cosa succede dopo...
Una volta che scopriamo che i robot hanno padroneggiato un certo livello di coscienza e capiamo come misurare la mente di una macchina e impariamo a valutarne i livelli di coscienza e di autoconsapevolezza, allora avremo per valutare davvero se il robot di fronte a noi ha diritto o meno a determinati diritti e protezione.
Molto probabilmente questo momento non arriverà mai abbastanza presto. Per cominciare, gli sviluppatori di IA devono creare un "cervello digitale primario. Una volta che ciò sarà avvenuto, questi esseri senzienti cesseranno di essere semplici oggetti di studio e saranno elevati a modelli con diritto di giudizio morale. Tuttavia, ciò non implica che a questi robot vengano automaticamente riconosciuti diritti simili a quelli umani. Al contrario, la legge dovrà tutelarli dall'uso improprio e dalla crudeltà (allo stesso modo in cui gli attivisti per i diritti umani proteggono gli animali dal trattamento crudele negli esperimenti di laboratorio). La scienza finirà per costruire duplicati elettronici del cervello umano, sia attraverso una vera e propria modellazione nei minimi dettagli, sia grazie al desiderio di capire come funziona il nostro cervello da una prospettiva computazionale e algoritmica. A quel punto, dovremmo già essere in grado di rilevare la presenza di coscienza nelle macchine. Come minimo, ci piacerebbe che ciò avvenisse sotto il controllo dell'umanità. Ma se le menti umane riuscissero a trovare un modo per risvegliare una scintilla di coscienza in una macchina, ma non capissero a loro volta cosa hanno fatto, sarebbe il caos più assoluto..
Una volta che i robot e l'IA avranno queste abilità di base, si suggerisce di mettere in atto procedure per testarne l'individualità. L'umanità non ha ancora derivato caratteristiche universali della coscienza. Tuttavia, esiste una serie standard di misurazioni che implicano la valutazione di un livello minimo di intelligenza, autocontrollo, senso del passato e del futuro, empatia, nonché la capacità di manifestare il libero arbitrio.
Solo raggiungendo questo livello di sofisticatezza della valutazione una macchina potrà essere candidata ai diritti umani. Tuttavia, è fondamentale comprendere e accettare che i robot e l'IA richiederanno almeno i diritti fondamentali di protezione se superano i test. Ad esempio, lo scienziato e futurista canadese George Dworsky ritiene che i robot e l'IA meriteranno i seguenti diritti se riescono a superare il test della personalità:
- Il diritto a non essere disconnessi contro la propria volontà,
- il diritto a un accesso illimitato e significativo al proprio codice digitale,
- il diritto di proteggere il proprio codice digitale da influenze esterne contro la propria volontà,
- il diritto di copiare (o non copiare) te stesso,
- il diritto alla privacy (vale a dire, il diritto di nascondere il proprio stato psicologico attuale).
In alcuni casi, può darsi che la macchina non sia in grado di far valere da sola i propri diritti, quindi è necessario prevedere la possibilità che gli esseri umani (così come altri cittadini, non umani) possano fungere da rappresentanti di tali candidati per gli individui. È fondamentale riconoscere che un robot o un'intelligenza artificiale (AI) non ha bisogno di essere intellettualmente o moralmente impeccabili per superare il test della personalità e rivendicare diritti simili a quelli umani. È fondamentale ricordare che le persone non sono impeccabili in queste aree; pertanto, è ragionevole applicare gli stessi criteri ai computer intelligenti. Il comportamento umano è spesso spontaneo, imprevedibile, caotico, incoerente e irrazionale. Il nostro cervello è tutt'altro che perfetto, quindi dobbiamo tenerne conto quando prendiamo decisioni sull'IA.
Allo stesso tempo, una macchina consapevole, come ogni cittadino responsabile e rispettoso della legge, deve rispettare le leggi, le norme e le regole prescritte dalla società, almeno se vuole diventare un individuo autonomo a tutti gli effetti e parte di quella società. A seconda delle loro capacità, devono essere responsabili di se stessi o avere un tutore che possa agire come protettore dei loro diritti e ritenerli responsabili delle loro azioni.
E se ignoriamo l'intelligenza artificiale
Una volta che le nostre macchine avranno raggiunto un certo livello di sofisticatezza, non saremo più in grado di ignorarle dal punto di vista della società, delle istituzioni governative e della legge. Non ci sarà alcuna giustificazione per negare loro i diritti umani. Se non lo facessimo, ne risulterebbe discriminazione e schiavitù.
Un chiaro confine tra esseri biologici e macchine sembrerebbe una chiara espressione della superiorità umana e dello sciovinismo ideologico: gli esseri umani naturali sono unici e solo l'intelligenza fisica conta.
Il potenziamento delle IA costituirebbe un importante precedente nella storia dell'umanità. Se riusciamo a considerare le IA come individui socialmente uguali, ciò rifletterà direttamente la nostra coesione sociale e la prova del nostro sostegno al senso di giustizia. La nostra incapacità di affrontare questo problema potrebbe trasformarsi in una protesta sociale generale e forse anche in uno scontro tra IA e umani. E dato il potenziale superiore dell'intelligenza artificiale, questo potrebbe essere un disastro per quest'ultima.
È anche importante rendersi conto che il futuro rispetto dei diritti dei robot può essere vantaggioso anche per altre persone:
- Cyborg
- Umani transgenici con DNA alieno
- Umani con cervelli copiati, digitalizzati e caricati da supercomputer
Siamo ben lontani dal creare una macchina che meriti i diritti umani. Tuttavia, data la complessità della questione e la posta in gioco, sia per l'intelligenza artificiale che per gli esseri umani, non si può certo dire che la pianificazione sarà superflua.