La inteligencia artificial está cambiando el mundo. Algunos se asustan ante esta perspectiva. Otros invierten en las nuevas tecnologías. Otros, temerosos de los robots, proponen una nueva ética: resolución de problemas, emoción y libre albedrío en un mundo de inteligencia virtual. ¿Cuál es la amenaza que suponen para la humanidad los robots con inteligencia artificial avanzada, y cómo prevenirla (y no intentar detener el progreso)?
Cómo pueden ser peligrosas las máquinas inteligentes: los problemas de la robotización y el desarrollo de la IA
La Inteligencia Artificial puede cambiar fundamentalmente la sociedad humana, y la escala de los cambios derivados de su introducción es comparable a las consecuencias de la Revolución Industrial. Según la consultora internacional Frost & Sullivan, el volumen global de inversión en el desarrollo de la IA, principalmente de los gigantes de la informática como Alibaba, Amazon, Baidu, Google, Facebook y otros, alcanzará aproximadamente 52.500 millones de dólares en 2022, casi cuatro veces más que en 2017. El 90% de los fondos se destinan a la I+D interna. Los actores industriales más significativos también financian la investigación, principalmente en el aprendizaje automático y la robótica: ABB, Bosch, GE, Siemens, así como los fabricantes de automóviles: BMW, Tesla, Toyota y otros. Muchos investigadores y futurólogos creen que la inteligencia artificial puede igualar a la humana en el siglo XXI. En los próximos 10-20 años se producirán importantes avances en el reconocimiento del habla y el control de los robots (incluidos los coches autónomos). La IA también aprenderá a simular perfectamente las emociones.
¿No será esto desastroso para la humanidad?
La tecnología tiene un enorme potencial malicioso. El mayor temor es la pérdida de control humano sobre la superinteligencia. También hay dificultades éticas. La lista de preocupaciones éticas sobre el uso de la inteligencia artificial, en particular, incluye la cuestión de cómo esta tecnología afectará al comportamiento y la interacción humanos. El McKinsey Global Institute, en su investigación, señala otro problema: los prejuicios humanos -racismo, sexismo, etc. - pueden introducirse en la inteligencia artificial. Todavía no está claro qué moral se inculcará a la IA, pero al interiorizar los prejuicios humanos, basará sus conclusiones sobre préstamos, contrataciones, etc. La inteligencia artificial no sólo reconoce el género y la raza aparentes, sino también la orientación sexual. ¿Cómo podemos evitar la imposición de bienes y servicios por parte de la inteligencia artificial? ¿Las aplicaciones impulsadas por la IA no manipularán a las personas para que gasten? ¿No intentará la inteligencia artificial limitar las opciones emocionales libres de las personas en general? También preocupan las decisiones erróneas que pueda tomar un ordenador ante un médico o un juez. ¿Quién será responsable de los errores de la IA: los desarrolladores o los usuarios? Nick Bostrom, un famoso filósofo sueco, escribe en su Ética de la Inteligencia Artificial que una persona puede olvidar o dejar de entender por qué la IA aconseja hacer las cosas de esta manera o de otra. Sin embargo, la tecnología aún no ha dejado de evolucionar, dando lugar a una interacción y cooperación más importantes entre humanos y máquinas en la producción y la vida cotidiana. Inevitablemente surge la pregunta, que es la primera y más peligrosa amenaza: ¿Cómo podemos asegurarnos de que las máquinas no dañen física y accidentalmente a los humanos?
Víctimas reales de los robots
Incluso en vida del escritor de ciencia ficción y futurólogo Isaac Asimov, que formuló tres leyes de convivencia pacífica entre un robot y un humano, se encontró una máquina que las rompía.
Las leyes formuladas por Asimov
- Un robot no puede dañar a un humano o permitir que un humano sea dañado por su inacción.
- Un robot debe obedecer todas las órdenes dadas por un ser humano, excepto cuando estas órdenes contradigan la Primera Ley.
- El robot debe velar por su propia seguridad en la medida en que no contradiga la Primera o la Segunda Ley.
El 25 de enero de 1979, en Flat Rock, Michigan (EE.UU.), Robert Williams, un trabajador de 25 años del almacén de la fábrica de Ford, recibió la tarea de retirar piezas almacenadas en una enorme estantería, que al mismo tiempo estaba siendo operada por una máquina manipuladora de cinco niveles. Ésta realizaba las operaciones de desplazamiento de las piezas en el almacén. Una parte de la máquina consistía en vehículos de transporte de una tonelada, carros con ruedas de goma equipados con manipuladores mecánicos para mover las balas. Williams fue enviado a hacer un trabajo que el robot no podía llevar a cabo: algunas piezas quedaban fuera de la máquina. El trabajador subió al tercer nivel de la estantería y comenzó la tarea. Mientras tanto, uno de los carros apareció aquí y mató al instante al trabajador, que no se había dado cuenta de que se acercaba, con un golpe del manipulador. El cuerpo de Williams' permaneció en la estantería durante media hora hasta que los trabajadores lo descubrieron. El robot continuó con su labor mundana mientras movía los tochos. Los familiares del trabajador presentaron una demanda por daños y perjuicios de 10 millones de dólares, y Williams, sin saberlo, pasó a la historia como la primera víctima del robot.
Sin embargo, según los estándares legales, llamar a la muerte de Robert Williams' asesinato es permitir una gran exageración porque la máquina de la fábrica no tenía el principal "atributo calificativo' del asesinato premeditado: el motivo. E incluso en julio de 2016, cuando se utilizó un robot policial con explosivos para eliminar a un delincuente en Dallas (Texas, EE.UU.), las acciones de la máquina seguían siendo dirigidas por un humano.
¿Los robots suelen hacer daño a los humanos?
Aunque todos los robots, excepto los militares, están diseñados para que no se infrinja ninguna de las reglas de Asimov' es imposible evitar por completo las bajas. ¿Son muchas? Las estadísticas de incidentes dramáticos relacionados con robots no son extensas, aunque las lesiones e incluso los asesinatos relacionados con las máquinas se producen con regularidad. Según un estudio de la Administración de Seguridad y Salud en el Trabajo (OSHA) de EE.UU., los robots industriales causaron al menos 33 muertes y lesiones en el lugar de trabajo en este país durante 30 años. Sin embargo, también hay datos más oscuros. En 2013, las compañías de seguros alemanas estimaron que se producen unos 100 incidentes con robots industriales al año en el país. Un estudio anterior, realizado en 1987 en empresas de Estados Unidos, Alemania, Suecia y Japón, constató exactamente cómo los robots perjudicaban a los trabajadores: en el 56% de los casos, causaban lesiones penetrantes y en el 44%, golpes. La mayoría de los accidentes fueron causados por una mala organización del lugar de trabajo (20 de 32 incidentes analizados), mientras que los errores humanos sólo causaron 13 situaciones desagradables.
Existen estadísticas sobre el uso infructuoso de los robots en áreas de aplicación específicas. Por ejemplo, en el campo de los сobots médicos: en 2013, un equipo de científicos analizó las estadísticas de la Administración de Alimentos y Medicamentos de Estados Unidos (FDA) y descubrió que, entre 2000 y 2013, se produjeron 144 muertes, 1.391 lesiones y 8.000 fallos en el funcionamiento de dispositivos durante procedimientos quirúrgicos asistidos por robots. Entre ellos, dos muertes y 52 lesiones se debieron a que el robot se apagó espontáneamente durante la cirugía o hizo un movimiento inadecuado. Una muerte y 119 lesiones se debieron a la caída de partes del robot o sus accesorios sobre el paciente.
¿Por qué los robots se han vuelto más peligrosos?
El problema fundamental y casi filosófico es que los robots no son conscientes de que forman parte del mundo y pueden ser peligrosos para los demás. Sin embargo, si hace 20-40 años un robot era una máquina electromecánica con un rango mínimo de tareas repetitivas, y el acceso a él podía restringirse para que no dañara accidentalmente a nadie, hoy la situación está cambiando. Dos clasificadores -uno vivo y otro mecánico- pueden trabajar simultáneamente en la misma cinta transportadora. Además, los robots se convierten en multitarea, para lo que necesitan moverse por el territorio. De este modo, se forma un espacio de trabajo único de hombre y máquina, en el que puede ocurrir cualquier cosa.
Los robots industriales presentan varios tipos de peligros, dependiendo de su origen:
- Riesgos mecánicos, que resultan de movimientos involuntarios e inesperados o pérdida de herramientas por parte del robot;
- Peligros eléctricos, como el contacto con piezas o conexiones activas;
- peligros térmicos, como los asociados con superficies calientes o exposición a temperaturas extremas;
- Ruido que puede ser perjudicial para la audición. Entonces, ¿qué desencadena estos peligros? OSHA ha observado que muchos incidentes que involucran robots no ocurren bajo condiciones normales de operación sino más bien en situaciones anormales, tales como durante la reprogramación, mantenimiento, reparación, prueba, ajuste o ajuste. Luego están los factores externos fuera del control humano, naturales o técnicos, como fallas en el suministro eléctrico.
Hay un total de siete razones principales por las que los robots pierden el control:
- errores de control, es decir, errores en el sistema de control o en el software que provocan un comportamiento inestable o un aumento del potencial energético peligroso de la máquina;
- acceso no autorizado: una violación por parte de un técnico no capacitado de la zona de seguridad cerca de la máquina;
- fallos mecánicos: los fallos de funcionamiento más impredecibles y peligrosos que pueden conducir a un funcionamiento incorrecto o inesperado del robot;
- factores naturales: este grupo de causas incluye todo lo que puede afectar el comportamiento del robot debido a razones genuinas, en particular, interferencias electromagnéticas o de radiofrecuencia, así como condiciones climáticas adversas;
- falla del sistema de energía: por ejemplo, los actuadores neumáticos, hidráulicos o eléctricos pueden interrumpir las señales eléctricas en las líneas de control; el resultado es una liberación de energía, una descarga eléctrica y un mayor riesgo de incendio, especialmente cuando algo genera chispas en los robots que utilizan aceite hidráulico combustible;
- la instalación incorrecta del robot o de sus componentes provoca muchos accidentes, incluidos intentos de corregir errores;
- el factor humano: programación, interfaz, errores de control, violación de las normas de seguridad.
La mayoría de las veces, las situaciones anormales ocurren debido a la intervención humana en el trabajo del robot o cambios en el entorno a los que el trabajador mecánico no puede reaccionar. ¿Qué tecnologías evitan que esto suceda?
¿Qué tecnologías hacen que los robots sean seguros?
Tres habilidades esenciales hacen que un robot trabajador sea seguro:
parada controlada,
control de velocidad y separación de zonas,
Limitación de poder y fuerza.
Parada supervisada (SMS) con clasificación de seguridad
Se produce una parada supervisada con clasificación de seguridad tan pronto como una persona se encuentra en un área particular cerca de la máquina, por ejemplo, para cambios de herramienta, ajustes, configuración u otro trabajo directo en el robot. La fuente de alimentación continúa y el robot entra automáticamente en el modo de inactividad. Tan pronto como el operador abandona el área de control, el robot reanuda las operaciones sin comandos adicionales. Se utilizan diferentes tipos de sensores de distancia (ópticos, acústicos, etc.) para medir la distancia del robot a una persona (u otra perturbación), que determinan la longitud del objeto enviando una señal y recibiendo una respuesta. Para garantizar la máxima seguridad, los sensores cuentan con dos sistemas paralelos de transmisión y procesamiento de señales sobre la ocurrencia de interferencias en un área determinada. Las señales van a dos módulos en el controlador del robot y son procesadas por separado y por diferentes algoritmos. Luego, se cotejan. En consecuencia, si uno de los canales falla por alguna razón, el robot aún se detendrá.
Monitoreo de velocidad y separación (SSM)
Esta tecnología de seguridad más compleja consiste en cambiar el comportamiento del robot cuando un ser humano se encuentra en una zona específica cerca de la máquina, por ejemplo, reduciendo la velocidad del robot. Técnicamente, funciona así: la máquina mide continuamente la posición y la velocidad de un objeto en la línea de visión. El SSM puede aplicarse tanto en condiciones estáticas como dinámicas. La clave está en la tecnología para reconocer los objetos circundantes. Si el robot tiene que ver lo que agarra, ¿por qué no puede aprender a reconocer a sus compañeros, incluidas las personas? La tecnología de reconocimiento se basa en el uso de dos cámaras, una RGB y otra 3D. Combinando las imágenes que captan, el robot puede determinar la posición de un objeto en el espacio y su dirección de movimiento.
Potencia y fuerza limitadas (PFL)
Es una de las tecnologías más utilizadas para evitar lesiones humanas cuando una persona y una máquina están en contacto. Implica el uso de varias técnicas, como los sensores de fuerza limitada. Convierten los componentes medidos de los vectores de fuerza y momento en señales aptas para ser procesadas por un robot que "toca" objetos específicos. Por ejemplo, estos sensores se instalan en los brazos de los robots que clasifican diferentes tipos de paquetes, incluidos los frágiles. Antes de recoger un lote, el robot lo "palpa", y el sensor determina con qué objeto está tratando la máquina en términos de forma, resistencia y tamaño. En función de los datos obtenidos, el robot selecciona la fuerza de sujeción y la velocidad de manipulación del objeto.
¿Qué tecnologías harán que el robot sea más seguro en el futuro?
Los robots industriales del futuro interactuarán con el entorno cambiante y con los humanos, a diferencia de sus predecesores, que sólo eran capaces de repetir rítmicamente una serie limitada de tareas. Para que un robot pueda hacer esto y realizar tareas atípicas, debe, en cierta medida, aprender las habilidades humanas básicas, sobre todo la capacidad de escuchar. Toshiba ha presentado una tecnología de reconocimiento del habla basada en la inteligencia artificial. Se trata del primer desarrollo mundial de este tipo: cualquier robot o dispositivo electrónico sencillo será capaz de procesar órdenes de voz sin necesidad de conectarse a Internet o a la nube de datos. En otras palabras, el dispositivo de procesamiento está integrado en la máquina. En primer lugar, la red neuronal procesa el sonido, separando los comandos de voz del ruido extraño, y luego se utiliza la técnica de expansión de datos en la red neuronal. La expansión de datos es una técnica de aprendizaje de pequeñas cantidades de información, como los enunciados verbales. El éxito en la identificación de personas se consigue entrenando a la IA a partir de muestras de su habla, lo que le permite reconocer a hablantes concretos incluso cuando sólo se dispone de un pequeño número de expresiones. Toshiba ha reducido el número de muestras de habla necesarias hasta el punto de que la nueva tecnología puede reconocer a un usuario basándose en sólo tres expresiones. Esta tecnología es estupenda para los robots y cobots que no necesitan ser verbales. Al menos por ahora. La inteligencia artificial ayudará a los robots del futuro no sólo a oír mejor, sino también a ver, pensar y moverse mejor, lo que con el tiempo eliminará las barreras entre los trabajadores humanos y sus homólogos artificiales.
Regulación y control
Por lo tanto, la robotización y las mejoras de la IA solo son una amenaza si no se controlan. Estos procesos deben ser controlados. Por ejemplo, se sugiere que en lugar de introducir máquinas con grados crecientes de autonomía de los humanos, crear dispositivos cuyo control requiera más atención al lado ético del problema. Los gigantes tecnológicos ya están creando divisiones especiales que asesorarán a los ejecutivos corporativos sobre cuestiones éticas del desarrollo de IA. Amazon, Apple, Facebook, Google, IBM, Microsoft y otros están creando varias asociaciones y asociaciones sobre IA, que son un foro abierto para discutir la robotización y la inteligencia artificial y su impacto en las personas y la sociedad. A pesar de todos los riesgos asociados con la introducción de robots con elementos de IA, los gobiernos y las empresas no deberían retrasar el uso de la inteligencia artificial. Existe el riesgo de no estar preparado a tiempo para los nuevos desafíos y oportunidades globales. Por ejemplo, los sistemas educativos deberían comenzar a reestructurarse ahora para capacitar al personal no para competir con las máquinas sino para monitorearlas y controlarlas. Esta distribución de áreas de responsabilidad en el futuro debe realizarse dentro de cada organización, pública o privada. Se deben establecer reglas para limitar el alcance de la implementación de la inteligencia artificial en los procesos operativos. Después de todo, la inteligencia artificial no se desarrolla por el bien de la inteligencia artificial, sino para generar nuevas oportunidades para los humanos.