¿Debemos conceder derechos humanos a los robots?

Los robots y la inteligencia artificial (IA) están penetrando cada vez más en la vida de las personas. Se utilizan en la industria, la medicina y los servicios. Con cada paso que se da en la robótica y el desarrollo de la inteligencia artificial, nos acercamos al día en que las máquinas igualarán las capacidades humanas en todos los aspectos: inteligencia, conciencia y emoción. Quizás, con el tiempo, los robots no sólo seguirán las órdenes humanas, sino que también tomarán sus propias decisiones.

Cuando se trata de si los robots deben tener derechos o no

Esta cuestión es amplia, compleja y polifacética. Hay que considerarla y resolverla desde varias perspectivas: ética, sociología, derecho, neurobiología y teoría de la IA.

La necesidad de regular la robótica

La regulación legal de la robótica, es decir, la ciencia y la práctica del desarrollo, la fabricación y el uso de robots, es un área que apenas está empezando a surgir. Esto se debe a que la humanidad tarda bastante y no está dispuesta a realizar este proceso como es necesario. El ámbito de la robótica se ha desarrollado de forma dinámica en las últimas décadas. Sin embargo, al mismo tiempo, se encuentra en una especie de "zona de sombra", lo que en realidad provoca retrasos en los procesos de desarrollo del marco legal para ordenar las relaciones que involucran a los robots.

La vaguedad del concepto de "robot" y la falta de clasificación para conformar el marco jurídico también es delicada. En muchos estudios, la definición más común de "robot" se deriva a través de la lista de funciones que realizan: los robots son objetos o sistemas creados artificialmente que pueden recibir y procesar información y actuar según el mundo externo que les rodea.

Para la ciencia jurídica, el aspecto crítico no es tanto el sistema técnico y de ingeniería específico del robot, sino las capacidades y funciones que puede reproducir.

El objetivo principal de la invención de los primeros robots era aliviar a los humanos de las actividades más arduas y agotadoras. Era el principal objetivo funcional de los robots.

Los primeros robots respondían plenamente a estos planteamientos, representando un equipo especial: un manipulador controlado según un programa específico, que realizaba un conjunto de funciones (acciones) establecidas. Estos robots tenían una autonomía estrictamente limitada y controlada, y su uso como equipo necesario para mejorar los procesos de producción no se discutía en términos prácticos.

Sin embargo, la tecnología fue evolucionando. Las redes neuronales capaces de reconocer imágenes y comprender el habla humana, el autoaprendizaje, comenzaron a copiar los principios del cerebro humano. Con la mejora de la tecnología de la inteligencia artificial, cuyo objetivo principal es desarrollar algoritmos que proporcionen soluciones informáticas para las tareas cognitivas propias del cerebro humano, el desarrollo de los robots adquirió una nueva dirección. Empezaron a "socializar" integrándose en diversas comunicaciones como participantes de pleno derecho (robot policía, robot enfermero, empleado de banca, etc.) o asistentes.

Es posible distinguir varias generaciones de robots:

Generación I: robots programables que realizan funciones estrictamente limitadas, normalmente implementadas para automatizar procesos realizados por humanos,

Generación II: robots con control adaptativo, basados ​​en el procesamiento de información por dispositivos sensores,

Generación III - autoaprendizaje, altamente autónomo, "inteligente" robots.

Criterios que distinguen a un "inteligente" Se desarrollaron robots de otros sistemas de la Unión Europea. Para calificar una máquina como "inteligente" de alta tecnología; dispositivo, debe:

  • ser capaz de realizar acciones autónomas mediante el uso de sensores y/o intercambiando información con el mundo exterior y analizando dichos datos,
  • ser autodidacta (este criterio es opcional),
  • estar equipado físicamente,
  • para adaptar su comportamiento a su entorno externo.

Aspectos morales y éticos del uso de robots

En los EE. UU. y los países europeos, el concepto de "ponderado" La regulación de la robótica se ha desarrollado activamente recientemente. Así, por ejemplo, en el marco de la resolución del Parlamento Europeo, se han fijado varios aspectos fundamentales, que definen la base moral y ética de las relaciones robot-humano, que cumplen los siguientes criterios:

  • La no nocividad de los seres humanos en el funcionamiento del robot,
  • obediencia del robot a las instrucciones y órdenes de un ser humano, excepto en los casos en que dicho comportamiento de la máquina pueda causar daño a un ser humano,
  • garantizar la capacidad del robot para mantener su existencia siempre que no contradiga los requisitos mencionados anteriormente,
  • finalmente, los robots no deben dañar a la humanidad en su conjunto.

Al desarrollar una regulación normativa, tanto las características técnicas de "smart" robots y sus "humanos" características deben ser consideradas simultáneamente. Supongamos que las características de diseño de un "inteligente" no se consideran robots. En ese caso, puede dar lugar a una regulación a nivel legislativo, no del contenido disponible sino simplemente de la forma robótica. Excesiva "humanización" de robots, que en cierta medida es una tendencia de las realidades modernas, puede tener consecuencias impredecibles, por ejemplo, para determinar quién es culpable de causar daño.

A pesar de los beneficios percibidos por el uso de estos robots, existen riesgos evidentes. En primer lugar, cuanto más autónomo sea el robot, más difícil será determinar la responsabilidad, ya que se minimiza el control del operador humano. En segundo lugar, el robot es un sistema de información sujeto a los riesgos de la piratería informática. En este sentido, es aceptable estudiar la posibilidad de designar a estos robots como objetos de infraestructura de información vital y desarrollar un sistema legal adecuado para tipos de robots específicos.

La cuestión de la elección moral, que un robot no puede hacer ya que las tecnologías de aprendizaje automático aún no han llegado a ese nivel, no carece de importancia: ¿cómo evaluar el valor de la vida de una persona? ¿A quién hay que asistir primero: a la persona que tiene más probabilidades de sobrevivir o a la que tiene más valor estratégico, lo que puede ser crucial, por ejemplo, en una situación de guerra?

Sin duda, el diseño, el desarrollo y la aplicación de las tecnologías de inteligencia artificial deben analizarse cuidadosamente y llevarse a cabo en el marco de un enfoque basado en el riesgo. Todos los procesos automatizados deben estar diseñados para poder ser examinados y evaluados por un experto. Debe garantizarse la transparencia de los algoritmos y los aspectos técnicos del funcionamiento de los robots para crear un entorno de confianza y proteger los derechos humanos.

Definición de los derechos y responsabilidades de los robots

En la formación del marco legislativo en el ámbito de la dotación de derechos a determinados tipos de los denominados "robots inteligentes", se propone distinguir entre el sistema robótico propiamente dicho, creado sin utilizar tecnología que asuma la autonomía del objeto (robots industriales, drones, sumergibles de alta mar), y los robots agentes, es decir, los sistemas capaces de realizar determinados tipos de tareas de forma independiente. Aquí, la adición de la palabra "agente" significa que tales sistemas implementan los intereses de una persona física o jurídica específica.

Un punto importante a la hora de determinar los derechos y las responsabilidades de cualquier persona es la presencia de su voluntad para realizar acciones específicas de regulación legal significativas. Por otro lado, algunos estudiosos afirman que los robots con inteligencia artificial avanzada y autonomía tienen el derecho legal de elegir.

Sin embargo, la conclusión de los científicos es bastante difícil de utilizar para construir el concepto de robot como persona física. Otorgar a los robots plena competencia legal también afecta a si son capaces o no de asumir la responsabilidad de los daños que infligen.

El más común en la investigación científica es el concepto de robot como persona jurídica. Permite la aplicación selectiva de las normas de derecho civil que regulan las relaciones jurídicas con la participación de las personas jurídicas a la regulación jurídica de los robots. La base de esta analogía es la naturaleza "artificial" de las personas jurídicas y los robots.

Existe otro concepto denominado "concepto de persona electrónica". Su esencia es dar a los robots un estatus legal especial en el futuro, cuando los más avanzados puedan ser creados como personas electrónicas (personas) y ser responsables de los daños si toman decisiones de forma autónoma o interactúan con terceros. Entre las características de un robot inteligente se menciona la capacidad de:

  1. volverse autónomo;
  2. convertirse en autodidacta;
  3. adaptar el comportamiento.

Dado que el robot puede realizar varias funciones necesarias para lograr los objetivos de los desarrolladores de inteligencia artificial, generalmente aparece como un actor con un deber, que puede o no realizar. En este sentido, la pregunta relevante es quién será responsable por el incumplimiento de tal deber: ¿el propio agente robot (como persona jurídica o electrónica) o el desarrollador de tecnología en base a la cual el robot realiza sus acciones?

En la actualidad, existe una tendencia al aumento de la autonomía de la inteligencia artificial y un número creciente de casos de daños a los seres humanos como resultado de las decisiones tomadas con dichas tecnologías. Por el momento, la idea más prometedora parece ser la gestión de riesgos, es decir, hacer responsable a la persona que tenía la obligación de minimizar los riesgos de daño, es decir, permitir el incumplimiento de sus deberes para eliminar dichas consecuencias negativas.

Pero lo que sigue...

Cuando descubramos que los robots dominan un determinado nivel de conciencia, y sepamos cómo medir la mente de una máquina y aprender a evaluar sus niveles de conciencia y autoconciencia, entonces tendremos que evaluar realmente si el robot que tenemos delante tiene o no ciertos derechos y protección.

Lo más probable es que este momento no llegue pronto. Para empezar, los desarrolladores de IA necesitan crear un "cerebro digital primario". Una vez que esto ocurra, estos seres sensibles dejarán de ser objetos de estudio ordinarios y serán elevados a modelos con derecho a juicio moral. Sin embargo, esto no implica que a estos robots se les concedan automáticamente derechos similares a los humanos. Por el contrario, la ley tendrá que erigirse para protegerlos del uso injusto y la crueldad (en la misma línea que los activistas de los derechos humanos protegen a los animales del trato cruel en los experimentos de laboratorio). La ciencia acabará construyendo duplicados electrónicos del cerebro humano, ya sea mediante el modelado real hasta el más mínimo detalle o por el deseo de comprender cómo funciona nuestro cerebro desde una perspectiva computacional y algorítmica. Para entonces, ya deberíamos ser capaces de detectar la presencia de conciencia en las máquinas. Como mínimo, nos gustaría que se produjera bajo el control de la humanidad. Pero si las mentes humanas pueden encontrar la manera de despertar una chispa de conciencia en una máquina pero no entienden ellas mismas lo que han hecho, será un caos absoluto.

Una vez que los robots y la IA dispongan de estas capacidades básicas, se sugiere que se pongan en marcha procedimientos para probar su individualidad. La humanidad aún no ha derivado las características universales de la conciencia. Sin embargo, existe un conjunto de medidas estándar que implican la evaluación de un nivel mínimo de inteligencia, autocontrol, sentido del pasado y del futuro, empatía, así como la capacidad de manifestar el libre albedrío.

Solo al alcanzar este nivel de sofisticación de evaluación, una máquina será elegible como candidata para los derechos humanos. Sin embargo, es crucial comprender y aceptar que los robots y la IA requerirán al menos derechos de protección fundamentales si pasan las pruebas. Por ejemplo, el científico y futurista canadiense George Dworsky cree que los robots y la IA merecerán el siguiente conjunto de derechos si pueden pasar la prueba de personalidad:

  • El derecho a no ser desconectado en contra de su voluntad,
  • el derecho a un acceso significativo y sin restricciones a su código digital,
  • el derecho a proteger su código digital de influencias externas en contra de su voluntad,
  • el derecho a copiar (o no copiar) usted mismo,
  • el derecho a la privacidad (es decir, el derecho a ocultar el estado psicológico actual).

En algunos casos, puede ser que la máquina no pueda hacer valer sus derechos por sí sola, por lo que es necesario prever la posibilidad de que los humanos (así como otros ciudadanos, no humanos) puedan actuar como representantes. de tales candidatos para individuos. Es fundamental reconocer que un robot o inteligencia artificial (IA) no necesita ser intelectual o moralmente impecable para pasar la prueba de personalidad y reclamar derechos humanos. Es crucial recordar que las personas no son perfectas en estas áreas; por lo tanto, es razonable aplicar el mismo criterio a las computadoras inteligentes. El comportamiento humano suele ser espontáneo, impredecible, caótico, inconsistente e irracional. Nuestros cerebros están lejos de ser perfectos, por lo que debemos tener esto en cuenta al tomar decisiones sobre la IA.

Al mismo tiempo, una máquina autoconsciente, como cualquier ciudadano responsable y respetuoso con la ley, debe respetar las leyes, normas y reglas prescritas por la sociedad, al menos si quiere convertirse en un individuo autónomo de pleno derecho y formar parte de esa sociedad. En función de sus capacidades, debe ser responsable de sí misma o tener un tutor que actúe como protector de sus derechos y la haga responsable de sus actos.

¿Y si ignoramos la inteligencia artificial?

Cuando nuestras máquinas alcancen cierto nivel de sofisticación, ya no podremos ignorarlas desde la perspectiva de la sociedad, las instituciones gubernamentales y la ley. No habrá justificación para que les neguemos los derechos humanos. La discriminación y la esclavitud serían el resultado si no lo hiciéramos.

Una frontera clara entre los seres biológicos y las máquinas parecería una clara expresión de la superioridad humana y del chovinismo ideológico: los humanos naturales son únicos y sólo importa la inteligencia física.

La potenciación de la IA sería un importante precedente en la historia de toda la humanidad. Si podemos considerar a las IA como individuos socialmente iguales, esto reflejará directamente nuestra cohesión social y la evidencia de nuestro apoyo al sentido de la justicia. Nuestra incapacidad para abordar esta cuestión podría convertirse en una protesta social generalizada y quizás incluso en un enfrentamiento entre la IA y los humanos. Y dado el potencial superior de la inteligencia de las máquinas, esto podría ser un desastre para estos últimos.

También es importante darse cuenta de que el futuro respeto por los derechos de los robots también puede beneficiar a otras personas:

  • Cyborgs
  • Humanos transgénicos con ADN extraterrestre
  • Humanos con cerebros copiados, digitalizados y supercomputadores


Estamos muy lejos de crear una máquina que merezca derechos humanos. Sin embargo, teniendo en cuenta lo complejo que es este tema y lo que exactamente estará en juego, tanto para la inteligencia artificial como para los humanos, difícilmente se puede decir que la planificación será superflua.