La inteligencia artificial en el derecho

El impacto económico global de las tecnologías de IA podría suponer hasta un 35% del crecimiento económico de aquí a 2035 (Accenture, 2018). El campo de las tecnologías identificadas como "inteligencia artificial" es vasto y, dependiendo de las definiciones utilizadas, puede llevar a diferentes evaluaciones de su impacto positivo y negativo en la sociedad. Al mismo tiempo, la universalidad de la IA se considera no sólo desde la perspectiva de su compatibilidad tecnológica con cualquier proceso de producción, sino también desde la perspectiva de la sustitución de los seres humanos. Algunos científicos piensan que existe el peligro de convertir la IA en una "superinteligencia" cuyos objetivos podrían no ser los mismos que los de las personas. Según varias estimaciones de miembros de la Asociación para el Desarrollo de la Inteligencia Artificial y especialistas en IA, la creación de una inteligencia artificial comparable en capacidades cognitivas a la de los humanos es posible en 2075, mientras que cerca del 70% de los investigadores encuestados creen que el resultado de una "superinteligencia" es posible. Ante estas predicciones y preocupaciones, más de 1.000 investigadores de IA han firmado una carta conjunta en la que proponen la prohibición de utilizar sistemas totalmente autónomos como armas. En este sentido, es crucial la creación de un marco normativo internacional unificado para regular la IA a escala mundial.

Problemas de regulación de la IA

En primer lugar, la regulación en el campo de la IA debe ser exhaustiva y abarcar varias tecnologías relacionadas, incluyendo "big data" la computación en la nube, el aprendizaje automático y la robótica como base técnica y de software para la IA. Además, la investigación sobre IA es amplia e interdisciplinaria por naturaleza: La IA es objeto de estudio tanto en las ciencias técnicas como en las humanidades. En la actualidad, no existe una regulación holística de la IA a nivel nacional e internacional que considere todas las cuestiones relacionadas con el desarrollo, la producción y la aplicación de los sistemas de IA en diversos campos. Sólo algunos Estados, como EE.UU., Alemania, Corea del Sur, China y la Unión Europea, han adoptado un enfoque exhaustivo para resolver problemas individuales en el ámbito de la legislación; el mayor acento se pone en la regulación del uso de vehículos no tripulados. Pero, en general, la normativa actual carece de coherencia y de la comprensión de un enfoque unificado. La creación de normas óptimas puede conducir a un aumento del atractivo de las inversiones en la región. Un excelente ejemplo de la relación entre la legislación y el desarrollo tecnológico es la Ley de Bandera Roja de Inglaterra de 1865, que establecía un límite de velocidad para los coches (hasta 2 millas por hora) y exigía que un señalizador marchara delante de cada coche para indicar el movimiento del vehículo. En consecuencia, la industria del automóvil en Inglaterra estaba en declive, lo que hizo que cediera el liderazgo del sector a Francia y Alemania. Así pues, una regulación adecuada fomentará el desarrollo tecnológico. Al mismo tiempo, es una tarea ambiciosa y desafiante crear un conjunto de regulaciones que equilibre los intereses de todos los participantes en la relación con la IA. Los macrofactores como:

  • rigidez legislativa,
  • consecuencias sociales y económicas, teniendo en cuenta el nivel de desempleo y la estratificación social,
  • confidencialidad y protección de datos personales,
  • seguridad,
  • ética, incluidas las actitudes humano-robot, daño potencial a humanos, etc.

Problemas de desarrollo y regulación de IA en organizaciones internacionales

Hoy en día, el panorama global general, los enfoques básicos y los principios en el campo del decreto legislativo de IA están conformados por las organizaciones y plataformas internacionales más autorizadas.

DAPRA

El ámbito de interés de DARPA también incluye proyectos de IA, en los que se pueden distinguir tres áreas de IA:

  • "conocimiento manual" - es un conjunto de reglas creadas por ingenieros que representan el conocimiento en un dominio bien definido. En este caso, la estructura del conocimiento está determinada por humanos, y la máquina explora los detalles de este conocimiento,
  • "aprendizaje estadístico" - los ingenieros crean modelos estadísticos para dominios específicos y entrenan a la IA para trabajar con los datos. Esta dirección se distingue porque proporciona una buena clasificación y la capacidad de predecir eventos específicos. Una desventaja significativa de la IA es su capacidad mínima para razonar,
  • "adaptación conceptual" - esta dirección prevé el desarrollo de sistemas que generan modelos explicativos contextuales para clases y fenómenos del mundo real (por ejemplo, un modelo generativo diseñado para explicar cómo se podría haber creado un objeto dado. El concepto DARPA está profunda y lógicamente relacionado con el actual situación en el campo del desarrollo de IA, sin embargo, estas tecnologías no han sido estudiadas en términos de funcionalidad y definición de límites morales, legales y organizacionales.

Las Naciones Unidas

En 2018, las Naciones Unidas informaron que, entre otras cosas, examinaron el impacto de las tecnologías de IA en los derechos humanos en el entorno de la información. El documento señala que las empresas deben considerar cómo desarrollar estándares profesionales para los ingenieros de IA, traduciendo las responsabilidades de derechos humanos en una guía para las opciones técnicas al diseñar y operar sistemas de IA. También se recomienda que se establezcan sistemas de quejas y remedios para responder con prontitud a las quejas y apelaciones de los usuarios. Los datos deben publicarse periódicamente sobre la frecuencia de las quejas y solicitudes de reparación para situaciones en las que se han producido sistemas de IA, así como los tipos y la eficacia de los tratamientos disponibles. Los problemas de IA también han comenzado a abordarse dentro de las competencias básicas de la Comisión de Desarrollo Económico y Social (ECOSOC) y la Conferencia de las Naciones Unidas sobre Comercio y Desarrollo (UNCTAD). La UNCTAD ha tomado algunas iniciativas para ampliar el debate sobre la transferencia de datos y sus riesgos asociados para los países rezagados en la economía digital. En 2018, se publicó el Informe de economía digital, y uno de sus temas centrales fue la transferencia de datos y su impacto potencial en el desarrollo de blockchain, nube, IoT e IA.

Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO)

La UNESCO señala que la acumulación de datos sobre el comportamiento humano y el uso de las tecnologías informáticas para procesarlos plantea nuevas cuestiones relacionadas con los derechos humanos, la libertad de compartir información y la educación. El objetivo de la política de la UNESCO en materia de IA es aprovechar el poder de las nuevas tecnologías informáticas para construir una "sociedad del conocimiento" y alcanzar los Objetivos de Desarrollo Sostenible (ODS). La UNESCO recomienda abordar el desarrollo global de la IA desde la perspectiva de los principios ROAM (derechos humanos, apertura, accesibilidad y participación de todos los grupos de interés) articulados anteriormente en el contexto del "desarrollo universal de Internet". Además de los principios ROAM, el documento de posición de la UNESCO señala la necesidad de desarrollar principios éticos para la IA, así como la necesidad de respetar el género y las minorías sociales y de prestar especial atención a la superación de la brecha digital, especialmente en lo que respecta a los países africanos.

La experiencia de la Unión Europea en la regulación jurídica de la IA

El 10 de abril de 2018. Veinticinco países europeos firmaron una declaración sobre la cooperación en el ámbito de la IA. Los estados miembros acordaron trabajar juntos en las cuestiones más críticas de la era digital, desde garantizar la competitividad de Europa en la investigación de la IA hasta abordar los desafíos sociales de la adopción de la IA. Además, los estados definieron un "enfoque proactivo" para la regulación de la IA, lo que significa modernizar el sistema europeo de educación y formación, incluyendo la formación avanzada y el reciclaje de los ciudadanos europeos. La declaración fue seguida de un documento igualmente importante, las Recomendaciones de Política e Inversión para una IA robusta. Esta directriz destaca los siguientes elementos en el ámbito de la regulación jurídica de la IA:

  • Aumentar el conocimiento social práctico sobre la IA,
  • acelerando la adopción de tecnologías y servicios de IA en todos los sectores de la Unión Europea,
  • promover y escalar soluciones de IA innovando y facilitando la transformación del sector tecnológico,
  • desarrollar iniciativas de gestión e intercambio de datos legalmente compatibles y éticas dentro de la Unión Europea,
  • desarrollar y respaldar infraestructuras de ciberseguridad centradas en IA. La guía enfatiza la necesidad de desarrollar un régimen de ciberseguridad para la infraestructura de IA y los métodos de IA. Además, el documento destaca el punto de desarrollar políticas de ciberseguridad de IA centradas en el usuario para proteger los derechos de los usuarios en Internet. Cabe señalar que una desventaja de la Guía es su multitarea y su bajo nivel de regulación de IA. La regulación de la IA no termina aquí; el 19 de febrero de 2020. La Comisión Europea emitió un Libro Blanco que cambia el enfoque a la creación de un ecosistema de IA. El Libro Blanco destaca los siguientes elementos en el área de las actividades regulatorias de la IA:
  • Establecer centros clave de innovación e investigación de IA y desarrollar sus disposiciones políticas,
  • promover la adopción de IA en el sector público. La Comisión Europea está iniciando diálogos sectoriales abiertos y transparentes, dando prioridad a la sanidad, etc.,
  • crear principios éticos, así como desarrollar recomendaciones sobre IA. El Libro Blanco también proclama un "ecosistema de confianza" que actúa como un marco normativo para la IA. Las directrices se sustentan en principios de ciberseguridad, que deben basarse en la fiabilidad técnica, la privacidad, la transparencia, la diversidad, la no discriminación y la equidad. Este documento describe ampliamente la dirección en el marco regulatorio, lo que implica eliminar los posibles riesgos de la IA (es decir, la IA completamente autónoma). El desafío más crítico del marco legal de la UE es su aplicabilidad a la IA. El libro blanco enfatiza que se necesita una evaluación adecuada del marco legal y su relevancia. Se nota un cambio en el concepto de seguridad. El hecho es que el uso de IA en productos y servicios genera muchos riesgos, lo que crea la necesidad de una regulación legal en esta área (por ejemplo, la creación de estándares relacionados con nuevas aplicaciones de IA). Del análisis del Libro Blanco podemos concluir que los problemas de regulación legal de la IA deben resolverse no solo a nivel de reglas sino también considerando la esencia de la IA, sus perspectivas de uso en los mercados (por ejemplo, el problema de los sistemas autónomos de IA). También es fundamental ponerse de acuerdo sobre las cuestiones legales de la regulación de la IA (basada en la esencia de la IA), los límites de su desarrollo y la dinámica de su introducción en otras industrias. Después de la publicación del libro blanco, se llevó a cabo una consulta pública a nivel de la Unión Europea. Durante este ejercicio, todos los estados miembros de la UE y las partes interesadas relevantes (incluida la sociedad civil, la industria y el mundo académico) fueron invitados a participar en la consulta. El evento mencionado anteriormente brindó una experiencia relevante para seguir mejorando la legislación. La Unión Europea está investigando la IA como parte del proyecto Horizonte 2020. Este proyecto permite la investigación de IA dentro de los siguientes vectores de desarrollo:
  • Reforzar los centros de investigación de IA dentro de la Unión Europea,
  • apoyar el desarrollo de una "IA bajo demanda" plataforma que brindará acceso a recursos de IA relevantes en la UE,
  • apoyar el desarrollo de aplicaciones específicas de IA en sectores económicos clave. Además, el proyecto de plataforma AI-on-demand se está desarrollando activamente a nivel de la Unión Europea. Esta plataforma es un conjunto de novedades en el campo de los desarrollos de IA, que permite aportar un componente informativo específico para la formación de nuevas iniciativas en el campo de la IA. El 15 de septiembre, el Parlamento Europeo y el Consejo de la UE aprobaron el programa de desarrollo 2030 Path to a Digital Decade. El programa tiene como objetivo que para 2030 al menos el 75% de todas las empresas europeas implementen tecnologías de inteligencia artificial, big data y computación en la nube en su trabajo. Path to a Digital Decade es consistente, compatible y complementario con otros programas de desarrollo de la UE y documentos de políticas como Digital Compass Communication, Strategy for Shaping Europe's digital future, Industrial Strategy, Cybersecurity Strategy, Digital Europe Program y Horizon Europe. . Path to a Digital Decade se basa en actos legislativos existentes y planificados, como la Ley de Gobierno de Datos, la Ley de Servicios Digitales y la Ley de Mercados Digitales. En general, la Comisión Europea ha formulado siete condiciones principales para la formación de una base sólida de IA:
  • Gobernanza y supervisión. Se hace amplia referencia a una especie de "sociedad justa" que se logrará a través de la IA,
  • confiabilidad y seguridad. La seguridad de la IA debe garantizarse a través de su sistema de algoritmos (y en todas las etapas del ciclo de vida de la IA),
  • privacidad y gestión de datos. Los ciudadanos deben tener control total sobre sus datos, mientras que los datos que les conciernen no se utilizarán para dañarlos o discriminarlos,
  • transparencia. El comunicado de la CE indica que debería existir algún sistema de filtrado de la IA en cuanto a soluciones propuestas por la propia IA y coordinación con el sujeto de tratamiento de esta información. Sin embargo, la CE no da detalles sobre el tema del procesamiento,
  • La IA debe ser multifuncional y tener en cuenta toda la gama de capacidades humanas,
  • bienestar social y ambiental. En este bloque, la CE señala que la IA también debería utilizarse para mejorar la sostenibilidad social y los objetivos medioambientales (incluso menciona el concepto de "responsabilidad medioambiental, pero no parece claro cómo debería implementarse),
  • responsabilidad. La CE informa acertadamente a los estados miembros que es necesario crear mecanismos que aseguren la responsabilidad y rendición de cuentas de los organismos en el campo de operación del sistema de IA. Estos bloques no caracterizan la actitud general de la Unión Europea hacia el desarrollo de la IA, sino que apuntan a problemas específicos que pueden convertirse en una dificultad en el desarrollo del ecosistema de IA y el marco legal en esta área. Convencionalmente, podemos identificar los siguientes problemas en la aplicación de las condiciones formuladas por la CE:
  • Cuestiones de responsabilidad. Todavía no es transparente el esquema de responsabilidad de las autoridades por el trabajo de la IA y cómo se argumentará en términos probatorios,
  • la inconsistencia de las disposiciones entre sí. Además, vale la pena mencionar que existe una contradicción oculta entre el bloque mencionado anteriormente y el bloque sobre el desarrollo de la IA en general, donde este último pretende desarrollar la IA teniendo en cuenta toda la gama de habilidades humanas. Estamos hablando de crear un sistema bastante autónomo con habilidades humanas en la toma de decisiones, y el nexo causal no se revela debido a esto,
  • el sistema de transparencia es vago, es decir, no está del todo claro cómo se filtrarán las decisiones de IA. La CE ha realizado intentos legales críticos, pero no contiene acciones institucionales y legales específicas (por ejemplo, reglamentos técnicos, políticas complementarias, directivas). Tal experiencia con la regulación legal internacional de la IA se percibe de dos maneras. Por un lado, el uso de documentos legales adoptados ayuda a delinear toda la gama de problemas de IA (incluida la ciberseguridad). Por otra parte, la regulación jurídica internacional no se limita a estos actos. Se necesita una elaboración más detallada de los bloques identificados por las CE para eliminar sus contradicciones. Cabe señalar que, a pesar de las etapas iniciales de desarrollo de la mayoría de los bloques, la CE ha creado una unidad organizativa: el grupo en el campo de la IA (Grupo AI). Fue este grupo el que desarrolló las "Reglas de ética en IA", que contienen las siguientes recomendaciones:
  • Diseño y uso de sistemas de IA por principios éticos: respeto por los seres humanos, la autonomía de la IA (límites permisibles que se definirán y elaborarán gradualmente), prevención de irregularidades y explicabilidad de los procesos de IA. La dirección indica la eliminación de contradicciones entre los principios.
  • atención a colectivos vulnerables, como personas con discapacidad y niños, que son los más expuestos al factor de riesgo de las nuevas tecnologías (IA),
  • atención a los riesgos del sistema de IA, que son difíciles de predecir (en este sentido, se debe prestar atención a las medidas legales que se pueden tomar),
  • el diseño, la implementación y el uso de sistemas de IA deben cumplir los siguientes requisitos: control humano de funciones específicas de IA (supervisión); fiabilidad técnica y seguridad; confidencialidad; transparencia; diversidad, no discriminación y equidad; bienestar ambiental y social; responsabilidad
  • las recomendaciones del Grupo AI deben implementarse en la legislación nacional de otros estados. Cabe señalar que el modelo mencionado anteriormente de regulación legal elegido por la UE tiene varias ventajas:
  • Las estrategias y recomendaciones permiten una respuesta rápida a la dinámica de la IA y sus capacidades, según las cuales el asunto legal dentro de la UE y los estados miembros está constantemente sujeto a cambios,
  • La Declaración sobre la cooperación en el campo de la IA no implica definiciones ni redacción marco, lo que permite una mayor elaboración de cuestiones individuales en los documentos analizados anteriormente. Cabe destacar que, en general, los documentos de la UE aún carecen de sistematización.

Las formas de mejorar la situación


En la actualidad, el interés por la regulación de las relaciones sociales relacionadas con la IA en el mundo está creciendo de forma inusitada. Esta tendencia se debe a algunos factores, entre los que cabe destacar el espectacular aumento de la influencia de las tecnologías de la información en la vida de las personas y la dependencia humana de la tecnología, que se ha producido y hecho evidente desde el inicio de la pandemia del COVID-19. El segundo factor, por supuesto, es la emergencia objetiva de las tecnologías de la información, en particular las reunidas bajo el término IA, a un nuevo nivel cualitativo, así como el rápido crecimiento de su implantación masiva. Estos factores provocan ansiosas expectativas y llevan a muchos a creer que los conocidos escenarios de ciencia ficción pueden hacerse realidad a menos que se tomen medidas urgentes para establecer un control sobre la IA y sobre aquellos en cuyas manos se encuentra. Junto con esto, llega la constatación de que la tecnología de la información es intrínsecamente extraterritorial y transfronteriza, y que es poco probable que la regulación a nivel nacional sea eficaz por sí sola. Ninguna jurisdicción por sí sola es capaz de regular y controlar la IA. La regulación de la IA requiere enfoques flexibles y una combinación de diferentes herramientas, como la autorregulación, la normalización, la regulación moral y ética y los medios técnicos de regulación (etiquetado, uso de códigos, metadatos). Son estos factores los que parecen haber creado los requisitos previos para que el discurso pertinente alcance el nivel de interacción entre las principales organizaciones internacionales (UNESCO, OCDE, CdE) y una organización internacional universal (ONU), así como para el inicio de la elaboración de documentos internacionales jurídicamente vinculantes (el líder aquí es tradicionalmente el Consejo de Europa).