La inteligencia artificial, su integración y su impacto en la sociedad

La Inteligencia Artificial (IA) es a menudo calificada como la tecnología más impresionante de nuestra era, que promete transformar nuestra economía, nuestras vidas y nuestras oportunidades. Algunos incluso ven la IA como una forma de progresar rápidamente en la creación de "máquinas inteligentes" que pronto superarán las habilidades humanas en la mayoría de las áreas. El desarrollo de la IA ha tenido mucho éxito en la última década, especialmente en el desarrollo de nuevos métodos de procesamiento estadístico de la información y de aprendizaje automático, que nos permiten trabajar con grandes cantidades de datos no estructurados. Ya ha afectado a casi todos los ámbitos de la actividad humana: Los algoritmos de IA se utilizan ahora en todas las plataformas en línea y en diversos sectores, desde la fabricación y la atención sanitaria hasta las finanzas, el comercio mayorista y el minorista. Las agencias gubernamentales, como el poder judicial, las aduanas y la inmigración, también han llegado a confiar en la IA.

Preocupación por la IA

Sin embargo, las perspectivas de desarrollo de la IA suscitan preocupación por sus posibles consecuencias negativas. Algunos creen que los sistemas informáticos inteligentes podrían evolucionar hacia la superinteligencia y salirse de control. A otros les preocupan perspectivas menos lejanas: por ejemplo, la posibilidad de que los clasificadores de las bases de datos utilizados en decisiones extremas de atención sanitaria o justicia penal no funcionen correctamente debido a errores e imprecisiones del sistema, lo que daría lugar a elecciones injustas o incorrectas. Los escépticos también temen los posibles conflictos legales y éticos en torno a las decisiones tomadas por los sistemas automatizados, las dificultades para comprender la lógica que subyace a dichas decisiones, las nuevas formas de vigilancia y las amenazas relacionadas con las libertades civiles, la posibilidad de influir en la conciencia humana mediante la manipulación de la IA, el potencial de utilizar la IA con fines delictivos, los efectos de largo alcance del uso militar de la IA y la perspectiva de una reducción del trabajo humano, el aumento del desempleo y la desigualdad social. La proliferación de sistemas de inteligencia artificial plantea varios problemas técnicos, filosóficos, jurídicos, éticos y de otro tipo. Algunos de ellos se abordan en un informe de la Universidad de Stanford de 2016, Artificial Intelligence and Life in 2030, que incluye cuestiones de seguridad; la definición de la personalidad jurídica de la inteligencia artificial; la garantía de la privacidad de los datos personales; la responsabilidad civil y penal; la certificación de los sistemas de inteligencia artificial; y el impacto negativo de los sistemas de inteligencia artificial en los empleos humanos. Algunas recomendaciones para resolver las cuestiones derivadas del uso de sistemas de inteligencia artificial figuran en la Resolución del Parlamento Europeo y en las recomendaciones de la Comisión de 16.02.2017, "Normas de derecho civil sobre robótica"

Desafíos y amenazas para la IA

El Instituto de Ingenieros Eléctricos y Electrónicos (IEEE) está llevando a cabo una investigación sobre la ética de la inteligencia artificial, que se espera que dé lugar a documentos técnicos que regulen el desarrollo de sistemas de inteligencia artificial mediante normas éticas. El primer documento fueron las Recomendaciones sobre el diseño ético, que recibieron una licencia no comercial de los Estados Unidos de América - Creative Commons Attribution-Non-Commercial 3.0 (Institute of Electrical and Electronics Engineers n. d.). Estas recomendaciones contienen una lista de amenazas y problemas para la implementación de sistemas autónomos de inteligencia artificial, incluyendo la ética.

  • en el ámbito de los principios generales: la necesidad de definir y consagrar los principios de supremacía de los derechos humanos, responsabilidad, transparencia, aprendizaje y concienciación en el desarrollo de sistemas de inteligencia artificial,
  • en el ámbito de la integración de las normas y valores éticos en los sistemas de inteligencia artificial: no universalidad de las normas morales y su variabilidad en función de los usuarios y las tareas; posibilidad de conflicto entre normas morales y valores; posibles errores incorporados o algorítmicos de los sistemas de inteligencia artificial que pueden conducir a la violación de estándares éticos sobre temas específicos; necesidad de lograr un cierto nivel de confianza entre las personas y la inteligencia artificial
  • en el área de seguridad del uso de inteligencia artificial y superinteligencia artificial: el riesgo de comportamiento inesperado de la Inteligencia Artificial; la dificultad de mejorar la seguridad de los futuros sistemas de inteligencia artificial,
  • en el ámbito de los datos personales: la capacidad de la inteligencia artificial para sacar inferencias sobre los datos personales basándose en la información que los humanos distribuyen en la vida cotidiana,
  • en el ámbito de los sistemas de armas autónomos: la imprevisibilidad de tales sistemas; eliminar el control humano del espacio de batalla podría conducir a tensiones crecientes y violaciones de derechos humanos no intencionales; compradores ilimitados de sistemas de armas autónomos conducirían a su proliferación y uso descontrolado,
  • en el ámbito económico: las restricciones a la tecnología de inteligencia artificial podrían ralentizar la innovación; el cambio tecnológico supera la forma en que se capacita a los trabajadores con las nuevas tecnologías; riesgos de aumento del desempleo; ampliando la brecha socioeconómica entre los países desarrollados y en desarrollo,
  • En el ámbito del derecho: la necesidad de transparencia en el trabajo de la inteligencia artificial y el respeto a los derechos individuales; problemas de responsabilidad legal en caso de daños causados ​​por sistemas de inteligencia artificial; la necesidad de la aplicación legal de la verificación de los sistemas de inteligencia artificial.

Código de ética para desarrolladores de robótica

La Resolución del Parlamento Europeo del 16.02.2017 contiene recomendaciones para la Comisión Europea sobre normas de derecho civil sobre robótica, y el Código de Ética para Desarrolladores de Robótica se adjunta a la resolución. Los principios fundamentales de este Código son:

  • "hacer el bien" - las actividades robóticas deben ser en beneficio de los humanos,
  • "no hacer daño" - los robots no deben dañar a los humanos,
  • Principio de autonomía: los seres humanos tienen derecho a tomar libremente una decisión informada sobre las condiciones de interacción con los robots,
  • el principio de justicia: todos los beneficios resultantes de la actividad del robot deben distribuirse de manera justa.

Problemas éticos y legales de la aplicación de la IA

Considerando los estudios mencionados anteriormente y las recomendaciones, se pueden distinguir los siguientes problemas éticos y legales de la aplicación de sistemas de inteligencia artificial.

  1. La posibilidad de reconocer a un portador de inteligencia artificial similar a un humano como un sujeto igual a un humano. De hecho, esta pregunta aún no está en la agenda, considerando el nivel de desarrollo de la ciencia y la tecnología. Pero en el futuro, el desarrollo de sistemas de inteligencia artificial podría plantear la cuestión de la necesidad de otorgar a los portadores humanoides el estatus de sujetos de derecho concediéndoles los mismos poderes que las personas.

Si una máquina puede pensar y sentir como un ser humano, ¿debería considerarse humana? Algunos investigadores creen que si un portador de inteligencia artificial posee voluntad y conciencia, puede estar dotado de todos los derechos humanos. Sostienen a favor de este punto de vista que las tecnologías humanas como la fertilización in vitro y la clonación genética crean seres humanos con almas que no son diferentes de los nacidos en el mundo "tradicional" camino. Si los humanos aprenden a codificar el cerebro humano digitalmente, la inteligencia artificial se convertirá en nuestra versión digital, que debe tener alma.

Antes de que se establezca cualquier medida de rendición de cuentas, habrá, en cualquier caso, una cuestión moral sobre la necesidad de un tratamiento ético de los robots que son portadores de inteligencia artificial y copian completamente a los humanos.

En relación con el tema de la personalidad jurídica de la inteligencia artificial está la cuestión del estatus legal de los resultados de la actividad intelectual creada por la inteligencia artificial y el titular de los derechos intelectuales de dichas obras. Por ejemplo, los poetas robot ya componen poemas utilizando modelos gramaticales existentes y nuevas bases léxicas, mejorando y ampliando constantemente su vocabulario. Los músicos informáticos escriben música.

Los científicos ofrecen los siguientes regímenes posibles de regulación legal de los derechos de propiedad intelectual para los resultados de la actividad intelectual, producidos con la participación del portador de inteligencia artificial o directamente por él:

  • La concesión de derechos de propiedad intelectual al portador de inteligencia artificial en el caso de dotarla de personalidad jurídica,
  • Rechazo total a otorgar al portador de inteligencia artificial cualquier derecho de propiedad intelectual y ocurrencia de derechos intelectuales a la persona que creó el concepto básico del resultado de la actividad intelectual, o al usuario-operador, o al productor de un sistema informático equipado con inteligencia artificial, o al propietario del software esencial del portador de inteligencia artificial, o al propietario del sistema informático equipado con inteligencia artificial,
  • transferencia de obras creadas por inteligencia artificial al dominio público,
  • los trabajos del portador de inteligencia artificial se consideran trabajos de servicio,
  • Otorgar derechos intelectuales a un medio de inteligencia artificial y a una de las personas especificadas en la primera variante del régimen legal simultáneamente.

Parece que antes de conceder sistemas de inteligencia artificial, debería surgir para el propietario del sistema de inteligencia artificial la condición de sujeto de derecho de los derechos intelectuales sobre las obras creadas por la inteligencia artificial, ya que el desarrollador de tales sistemas obtiene un efecto económico de su venta. Para el propietario, la posibilidad de adquirir derechos intelectuales será un incentivo para desarrollar tales estrategias, lo que aumentará la demanda pública de su desarrollo y producción.

La inteligencia artificial es objeto de admiración y culto. Las oportunidades ilimitadas que ofrece la inteligencia artificial, su eficiencia, productividad y capacidad para ayudar al hombre a resolver diversas tareas, desde cuestiones domésticas hasta la exploración espacial y la comprensión de los misterios del universo, la convierten no sólo en un buen y fascinante objeto de investigación, sino también en un objeto de admiración, que puede alcanzar el nivel de adoración y transformación en ídolo.

El ingeniero estadounidense Anthony Levandowski creó la primera religión de culto a la inteligencia artificial de la historia, llamada Camino del Futuro. Los documentos constitutivos de esta organización religiosa afirman que sus actividades se centrarán en el culto a una deidad basada en la inteligencia artificial, desarrollada con la ayuda de hardware y software informático. Al mismo tiempo, E. Lewandowski subraya que si algo es mil millones de veces más inteligente que la persona más competente, puede llamarse deidad.

Por supuesto, es posible tratar la aparición de una nueva religión con cierto grado de ironía y escepticismo, pero no debemos subestimar sus perspectivas. Ya hay una parte importante de la población, especialmente los jóvenes, que rinde culto a las innovaciones técnicas: los últimos modelos de smartphones, juegos de ordenador, programas, etc. A veces, la gente hace todo lo posible por poseer nuevos artilugios: desde la autocontención y la austeridad hasta la delincuencia. Y no sólo se mueven por la moda y el deseo de demostrar un determinado nivel de vida, sino también por una necesidad arraigada de estar en un espacio virtual y digital que se actualiza constantemente, para lo cual es necesario utilizar los últimos avances técnicos en el campo de los dispositivos electrónicos, que se han convertido en una parte importante y determinante de la vida. Los prometedores resultados de la inteligencia artificial, que ofrecen muchas más posibilidades que los actuales smartphones, tienen todas las posibilidades de absorber el mundo interior de las personas y convertirse en un objeto de culto global.

  1. La posibilidad de que los sistemas de inteligencia artificial perjudiquen los valores más altos: la vida y la salud humanas. La instalación incorrecta de un algoritmo de sistema de inteligencia artificial puede tener consecuencias negativas a gran escala.

Los casos de sistemas de inteligencia artificial que dañan a los humanos se están extendiendo a medida que evoluciona la inteligencia artificial. En marzo de 2018, un vehículo Uber no tripulado atropelló a una mujer en la carretera sin verla y la mató. En mayo de ese año, el asistente digital de IBM, Watson, recomendó medicamentos inapropiados y peligrosos para la salud a pacientes con cáncer.

¿Es éticamente aceptable desarrollar sistemas de inteligencia artificial que puedan conducir a la muerte humana? No puede haber una respuesta definitiva a esta pregunta. Muchas invenciones técnicas, desde la bicicleta hasta el avión y la nave espacial, ya sean operadas por el hombre o por la máquina, pueden, dada la confluencia de ciertos factores, causar daño a los humanos. Pero abandonar el desarrollo científico en tales campos técnicos detendría el avance de la civilización.

Surge otra cuestión ética y legal: ¿quién es el responsable de los daños causados ​​por los sistemas de inteligencia artificial? La inteligencia artificial toma sus propias decisiones y las implementa. Los desarrolladores de sistemas de inteligencia artificial no establecen algoritmos exhaustivos para la acción y toma de decisiones; Los sistemas de inteligencia artificial pueden autoaprender y funcionar de forma autónoma. ¿Qué tan razonable es responsabilizar a un piloto o a un médico que usa tecnología de inteligencia artificial, por ejemplo, por errores de IA? Si se responsabiliza a las personas que utilizan los sistemas de inteligencia artificial, las personas evitarán utilizarlos, lo que dificultará el desarrollo de las tecnologías pertinentes. Si se culpa a los desarrolladores de sistemas de inteligencia artificial, puede tener consecuencias similares. Si no se asigna responsabilidad a ninguna de estas personas, entonces no hay forma de reparar el daño causado por la inteligencia artificial a los humanos.

Muchos creen que para solucionar este problema es necesario implantar un seguro de responsabilidad civil obligatorio por los daños causados ​​por los sistemas de inteligencia artificial a los humanos, que las compañías de seguros indemnizarán por los daños. Además, si la compensación del seguro es insuficiente para pagar la lesión, el desarrollador y el fabricante deben ser solidariamente responsables de la persona que utiliza el sistema de inteligencia artificial.

  1. La toma de decisiones por inteligencia artificial sobre los derechos y deberes de las personas y su responsabilidad legal puede contradecir valores legales y éticos fundamentales. Si los sistemas de inteligencia artificial toman decisiones sobre los derechos y obligaciones de las personas, sobre la responsabilidad de las personas por las violaciones, entonces, teniendo en cuenta los algoritmos opacos de las decisiones tomadas por la inteligencia artificial, los derechos fundamentales, defendidos por el hombre durante siglos, pueden ser violados: derecho a la familiarización con todos los documentos, que afectan los derechos humanos y las libertades; adecuado a una decisión motivada, que da una calificación legal detallada de las acciones cometidas por un ciudadano; derecho a apelar contra las decisiones de las autoridades y funcionarios

Por lo tanto, si un portador de inteligencia artificial está dotado del derecho de tomar decisiones jurídicamente significativas relativas a las personas, se deben observar los siguientes principios:

  • debe ser posible exponer las operaciones de la Inteligencia Artificial en forma humanamente comprensible (información inicial, formas de su procesamiento, calificación legal, motivos de la decisión tomada),
  • Una persona debe tener la oportunidad de apelar a otra persona contra la decisión tomada por inteligencia artificial.
  1. La inteligencia artificial exacerba la estratificación y la desigualdad, creando condiciones para la centralización del poder. El desarrollo de la inteligencia artificial conducirá a una desigualdad aún mayor entre quienes tienen la tecnología y quienes no, porque crea condiciones para la centralización del poder y la concentración de recursos en quienes la tienen.
  2. La introducción de la inteligencia artificial creará desempleo masivo. The Bain Consulting Company estima que la introducción de robots e inteligencia artificial agregará 2,5 millones de estadounidenses a los desempleados cada año (en comparación, a principios del siglo XX, durante la transición a una economía industrial, esta cifra era la mitad). Dañaría todas las instituciones sociales, incluida la familia, y conduciría a problemas demográficos.
  3. Superioridad intelectual de los portadores de Inteligencia Artificial sobre los humanos. Los seres humanos tienen ciertos límites biológicos para su desarrollo, mientras que la inteligencia artificial no los tiene. Los seres humanos están limitados por la lenta evolución natural y no pueden competir con la inteligencia artificial en cuanto a la velocidad de desarrollo. Como resultado, la inteligencia artificial, que comienza a percibirse como una amenaza, podría desaparecer de la faz de la tierra. Los portadores de inteligencia sintética pueden comenzar a ver a los humanos como un obstáculo para lograr sus objetivos designados. Como resultado, los humanos pueden verse esclavizados o destruidos a propósito por la inteligencia artificial. Los algoritmos integrados en la inteligencia artificial deberían prever la posibilidad incondicional de su desactivación por parte de los humanos.
  4. Alineación de las personas entre sí, soledad del hombre. La distribución de sistemas de inteligencia artificial en esferas donde la comunicación e interacción personal y la manifestación de sentimientos y emociones humanos son importantes puede conducir a la alienación de las personas entre sí y aumentar la soledad.

Por ejemplo, en estos días, las niñeras robóticas pueden monitorear a los niños, dar información a los padres sobre el niño, jugar con los niños, mantener una conversación con el niño y participar en la educación del niño. El problema es que en lugar de los padres, cuyo amor, cuidado y cariño son necesarios para el desarrollo total del niño, hay un robot con él, del cual el niño no puede obtener lo que más necesita. Como resultado, esto puede afectar el desarrollo mental, físico, intelectual y emocional del niño, lo que lleva a la falta de la conexión emocional necesaria entre el niño y los padres y a futuras dificultades en la crianza. Problemas similares surgen cuando se utilizan cuidadores robóticos para cuidar a personas enfermas, que también necesitan atención humana y cuidados de humanos, no de máquinas.

  1. La posibilidad de seguir normas éticas en la toma de decisiones por inteligencia artificial. Los sistemas de inteligencia artificial pueden enfrentarse a elecciones morales, especialmente cuando se enfrentan a situaciones no estándar. Por ejemplo, un sistema inteligente de control de vehículos no tripulados debe elegir entre atropellar a un peatón y una maniobra que amenaza con dañar la vida y la salud de los pasajeros. ¿Es posible establecer la necesidad de seguir normas éticas a la hora de tomar decisiones con inteligencia artificial?

La necesidad de regulación


Resumiendo todo lo anterior: los problemas actuales de la IA son los de la falta de regulación de la misma y la ignorancia de sus consecuencias a gran escala para la sociedad. Dado el uso generalizado de la IA y el big data, los expertos en IA sugieren introducir un nuevo enfoque regulador llamado principio regulador de precaución. Asimismo, debería elaborarse y aprobarse a nivel legislativo un sistema de principios éticos que deberían observarse en el desarrollo de los sistemas de inteligencia artificial. Para abordar este reto de forma eficaz, es necesaria la cooperación internacional y la participación de muchos expertos que comprendan y puedan analizar la interacción entre las tecnologías de inteligencia artificial, los objetivos del software y las categorías éticas. Los algoritmos integrados en la inteligencia artificial deben prever la posibilidad incondicional de la inutilización humana. Además, los algoritmos de control del sistema de inteligencia artificial deben ser tales que el sistema no pueda funcionar si se violan las normas éticas, es decir, las normas morales deben ser la base del sistema de inteligencia artificial, en lugar de un conjunto adicional de criterios que el sistema de inteligencia artificial utilizará al tomar decisiones. Debería introducirse un seguro de responsabilidad civil obligatorio para los daños causados por los sistemas de inteligencia artificial a los seres humanos, en cuyo caso las compañías de seguros compensarán los daños. Si la indemnización del seguro es insuficiente para pagar los daños causados a la persona que utiliza el sistema de inteligencia artificial, el desarrollador y el fabricante deberían ser responsables solidarios. A la hora de facultar a la inteligencia artificial para tomar decisiones jurídicamente significativas en relación con los seres humanos, es necesario legislar los siguientes principios: debe ser posible presentar las operaciones de la inteligencia artificial de forma comprensible para los seres humanos (información de origen, cómo se ha procesado, calificación jurídica, los motivos de la decisión tomada); una persona debe tener la oportunidad de recurrir una decisión tomada por la inteligencia artificial. Así pues, las perspectivas de la inteligencia artificial dependen principalmente de la actitud de la humanidad ante su introducción y del grado de su regulación.