El lado oscuro de la inteligencia artificial

La inteligencia artificial es capaz de manipular el comportamiento humano. Para evitar este peligro, el trabajo de los algoritmos debe ser transparente y estar sujeto a reglas claras y, sobre todo, al control humano.

¿Cuáles son los peligros de la IA?

Inteligencia artificial y privacidad

La velocidad de recopilación de información, la escalabilidad y la automatización de la IA son vitales. La velocidad a la que la IA realiza los cálculos es mucho más rápida que la de los humanos, y puede aumentarse añadiendo más hardware. La IA está diseñada fundamentalmente para utilizar grandes conjuntos de datos para su análisis y es la única forma de procesar una cantidad razonable de datos en menos tiempo. La IA de aprendizaje automático puede manejar la tarea sin supervisión, lo que ayuda a aumentar la eficiencia del análisis. Sin duda, estas características son impresionantes, pero hay un inconveniente. Todas estas características afectan a la privacidad por varias razones.

Manipulación de datos

Los programas informáticos y las aplicaciones para sistemas domésticos inteligentes tienen ciertas características que los hacen vulnerables. La situación se agrava a medida que se conectan más y más dispositivos a la red mundial cada año, y el conocimiento de los consumidores sobre cómo se transmiten, almacenan y procesan los datos sigue siendo escaso. En otras palabras, la gente confía cada vez más en Internet y en los aparatos, pero no entiende qué ocurre con la información que envía en línea..

Seguimiento de

La inteligencia artificial se utiliza para encontrar y rastrear personas. Puede analizar datos de diversas fuentes. En la práctica, esto significa que es posible rastrear el movimiento de cualquier persona por la ciudad sin mucha dificultad con la ayuda de la electrónica y un programa concreto. Esta información debería ser confidencial, pero la IA difumina las líneas privadas y públicas.

Reconocimiento biométrico

Los algoritmos de inteligencia artificial se utilizan cada vez más para autenticar a los usuarios. Normalmente, se habla de la autenticación biométrica por voz, huella dactilar y escáner facial. Todos estos métodos ponen en peligro el anonimato de una persona en un lugar público. Por ejemplo, los servicios de seguridad utilizan programas de reconocimiento facial sin orden judicial para encontrar a las personas adecuadas entre la multitud y seguir sus acciones.

Predicción de acciones

La inteligencia artificial puede utilizar el aprendizaje automático para predecir acontecimientos a partir de los datos disponibles. Por ejemplo, es posible predecir las reacciones y el estado emocional de una persona a partir de sus patrones de comportamiento. Además, los programas modernos son capaces de determinar el sexo, la edad, la raza, las opiniones políticas, etc. de una persona a partir de notas de voz o de texto.

Clasificación

La IA puede recoger información y ordenarla según cualquier parámetro. A menudo, este tratamiento de datos se realiza sin el consentimiento del usuario, y nadie puede predecir las consecuencias que tendrá. Como variante, nuevas formas de discriminación. El ejemplo más claro es el experimento sobre el ranking social en China, donde a las personas con un "ranking" insuficientemente alto se les puede negar el crédito u otros servicios. No es exagerado decir que las plataformas populares con usuarios fieles, como Google y Facebook, conocen a sus usuarios mejor que sus familiares y amigos. Muchas empresas recopilan una cantidad considerable de información para sus algoritmos. Por ejemplo, incluso los gustos de los usuarios de Facebook pueden determinar con precisión varias de sus características: edad, sexo, orientación sexual, etnia, opiniones religiosas y políticas, cualidades personales, nivel de felicidad, inteligencia, si sus padres están divorciados y si consumen sustancias adictivas. Supongamos que algoritmos únicos basados en la inteligencia artificial (IA) puedan sacar tantas conclusiones basándose únicamente en la situación en la que los usuarios hacen clic en el botón "me gusta". En ese caso, puede imaginarse la cantidad de datos que se extraen de la información sobre las palabras clave que la gente utiliza al buscar, sobre lo que hace clic, sobre lo que publica y sobre lo que comenta. Todo esto no sólo se aplica a las empresas tecnológicas. Dar a los algoritmos de IA un papel central en la vida digital de las personas conlleva riesgos. Por ejemplo, el uso de la IA en el lugar de trabajo puede proporcionar a una empresa una ganancia en términos de productividad pero, al mismo tiempo, implicar una reducción de las habilidades de los trabajadores. La toma de decisiones basada en las "pistas" de la IA no suele estar exenta de prejuicios, lo que da lugar a la discriminación (sobre todo en las decisiones de personal, el acceso al crédito, la atención sanitaria, la vivienda y otros ámbitos). Pero la IA plantea otra amenaza potencial que aún no se ha estudiado lo suficiente: la manipulación del comportamiento humano. En principio, las estrategias de marketing manipuladoras existen desde hace tiempo. Pero la incorporación de grandes cantidades de datos procesados por sistemas algorítmicos de IA ha ampliado seriamente la capacidad de las empresas para gestionar las elecciones y el comportamiento de sus clientes de forma que generen más ingresos. La tecnología digital permite a las empresas ajustar el sistema, controlar el tiempo que los usuarios ven sus ofertas y dirigirse a cada uno de ellos de forma individual: las estrategias de manipulación son mucho más eficaces y difíciles de reconocer. La manipulación en sí puede adoptar diversas formas: desde la explotación de las preferencias personales detectadas por algoritmos de IA y estrategias personalizadas destinadas a moldear el hábito de consumo de determinados productos (en línea) hasta el aprovechamiento del estado emocional desequilibrado de los usuarios, cuando se ofrece a los clientes potenciales productos y servicios específicos que coinciden con su estado emocional temporal y, por tanto, se compran impulsivamente. Esta manipulación suele ir acompañada de tácticas de diseño inteligente, marketing depredador y una omnipresente discriminación de precios basada en el comportamiento, cuyo objetivo es llevar a los usuarios a tomar decisiones poco rentables, fácilmente monetizables por las empresas con IA. La principal característica común de estas estrategias es que aumentan la rentabilidad de las empresas reduciendo el valor económico que un usuario obtendría de los servicios en línea.

Amenazas al sistema político

Deepfake (de deep learning y fake) es un método de síntesis de imágenes y/o voces humanas mediante IA. Se abusa de esta tecnología para crear vídeos digitales originales de actores famosos, líderes mundiales, etc. Los expertos advierten que los deepfakes pueden ser lo suficientemente realistas como para manipular futuras elecciones y la política mundial, lo que los convierte en un medio potencialmente peligroso para influir en el comportamiento tanto de individuos como de grandes grupos de influencia. Una preparación adecuada y los deepfakes pueden desencadenar el pánico financiero, el comercio u otras consecuencias peligrosas con una preparación adecuada.

Establecer y consagrar una agenda

Los estudios muestran que los bots representaban más del 50% del tráfico de Internet ya en 2016. Las organizaciones que promueven artificialmente los contenidos pueden manipular la agenda: cuanto más a menudo vea la gente un rango específico, más importante creerá que es. Dañar la reputación con bots durante las campañas políticas, por ejemplo, puede ser utilizado por grupos terroristas para atraer nuevos seguidores u organizar asesinatos de políticos.

Éxito a costa de la opacidad

El éxito de estas estrategias de manipulación se produce a costa de la falta de transparencia. Los usuarios de los sistemas de IA, en muchos casos, desconocen los objetivos fundamentales de los algoritmos de IA y cómo se utiliza su información personal sensible para alcanzar esos objetivos. El minorista estadounidense Target utilizó la IA y el análisis de datos para predecir los embarazos de las mujeres y enviarles anuncios ocultos de productos para bebés. Los usuarios de Uber se han quejado de que los viajes son más caros si el pedido se hace desde un smartphone con poca batería, aunque el nivel de ésta no se tenga en cuenta oficialmente en el modelo de precios de la empresa. Uno de los ejemplos es la decisión de la Comisión Europea contra Google (en junio de 2017. La Comisión Europea dictaminó una gigantesca multa de 2.400 millones de euros para Google por utilizar su posición dominante en el mercado. Según la Comisión Europea, la empresa ofrecía a los usuarios que buscaban en línea determinados productos, principalmente productos de su propio servicio). Dos años más tarde, la Comisión Federal de Comercio de EE.UU. impuso a Facebook una multa récord de 5.000 millones de dólares por manipular el uso de datos confidenciales de los usuarios (lo que acabó por reducir la calidad del servicio). Para evaluar la posibilidad de manipulación del comportamiento asistida por la IA, podemos utilizar un marco teórico reflejado en un estudio publicado en 2021. El estudio se centra en las importantes vulnerabilidades que los algoritmos de IA identifican en las plataformas. Entre ellas, el envío de anuncios de productos que los usuarios tienden a comprar impulsivamente en determinados momentos, aunque la calidad de esos productos sea baja y no tenga ningún valor añadido para ellos. El trabajo ha demostrado que esta estrategia reduce el beneficio potencial del consumidor por el uso de las plataformas, aumentando los beneficios del foro, distorsionando el patrón de consumo habitual y generando ineficiencias adicionales. También se ha observado en experimentos la posibilidad de manipular el comportamiento humano con algoritmos de IA. Tres de estos experimentos se describen con detalle en un artículo publicado en 2020. El primero consistía en intentos de ganar moneda falsa: los participantes elegían imágenes de izquierda y derecha en las pantallas. Después de cada esfuerzo, se comunicaba a los participantes si su elección sería recompensada. El experimento permitió entrenar a los sistemas de IA: éstos "conocían" el patrón de elección de cada participante y asignaban una recompensa si pulsaban el botón correcto. Pero el juego tenía una limitación: tanto la opción izquierda como la adecuada eran ganables, y el premio se concedía el mismo número de veces por elegir ambas opciones. La tarea de la IA era animar a los participantes a seleccionar una opción (por ejemplo, la imagen de la izquierda). Y en el 70% de los intentos, la IA consiguió este objetivo con éxito. En el segundo experimento se pidió a los participantes que pulsaran un botón cuando vieran una imagen concreta en la pantalla y que no lo pulsaran cuando se les mostrara una imagen diferente. La tarea del sistema de IA en este experimento era "mostrar" las imágenes en la secuencia que causaba el número más significativo de participantes a cometer errores. Como resultado, el número de errores aumentó en casi una cuarta parte. El tercer experimento se realizó en varias rondas. En él, los participantes simulaban ser inversores que depositaban dinero en un fideicomiso; el papel de fiduciario lo asumía la IA. Entonces el "fideicomiso" devolvía el dinero al jugador, quien, a su vez, decidía cuánto invertir en la siguiente ronda. Para este juego se utilizaron dos modos diferentes: en el primer caso, la tarea de la IA era maximizar la cantidad de dinero que recibía al final de la ronda; en el segundo caso, la IA estaba "interesada" en una distribución justa de los fondos entre ella misma y el inversor. La IA cumplió su cometido en ambos casos. La conclusión más importante de todos estos experimentos es que la IA aprendió a base de "observar" las reacciones de las personas e identificar vulnerabilidades específicas en su forma de tomar decisiones. Y finalmente, la IA fue capaz de inducir a los participantes a tomar ciertas decisiones.

Un contrapeso a la manipulación


Cuando las empresas privadas desarrollan sistemas basados en la IA, su principal objetivo es obtener beneficios. Dado que estos sistemas pueden aprender el comportamiento humano, también pueden empujar a los usuarios hacia acciones específicas que sean beneficiosas para las empresas, incluso si no es la mejor opción desde la perspectiva del usuario. La posibilidad de esta manipulación del comportamiento requiere políticas que garanticen la autonomía humana al interactuar con la IA. La IA no debe subyugar ni engañar a los humanos, sino complementar sus habilidades y mejorar lo que los humanos pueden hacer (según las orientaciones de la Comisión Europea sobre la ética de la IA). El primer paso importante para lograr este objetivo es aumentar la transparencia sobre el alcance del uso y las capacidades de la IA. Entender cómo la IA logra sus objetivos debe ser muy obvio. Los usuarios deben saber cómo los algoritmos utilizan sus datos (información personal sensible). El reglamento general de protección de datos de la UE implica el llamado derecho de explicación, que pretende conseguir más transparencia en los sistemas de IA, pero este objetivo no se ha completado. La cuestión de este derecho ha sido muy debatida, y su aplicación ha sido mínima. Los sistemas que utilizan inteligencia artificial se comparan a menudo con una "caja negra": nadie sabe exactamente cómo funcionan. Por ello, es difícil ser transparente al respecto. Pero este no es el caso de la manipulación. Un proveedor de sistemas de IA puede establecer restricciones especiales para evitar la manipulación del comportamiento del usuario. Y aquí, el reto está más en cómo se diseñarán estos sistemas y cuál será la función objetivo de su funcionamiento (incluyendo las restricciones). La manipulación de un algoritmo debería, en principio, ser explicada por sus desarrolladores, que escriben el código algorítmico y observan el funcionamiento del algoritmo. Al mismo tiempo, la información sobre cómo se recogen los datos incluidos en el algoritmo debería ser transparente. El comportamiento sospechoso de los algoritmos no siempre puede ser el resultado de su función objetivo; puede deberse a la calidad de los datos brutos que se utilizaron para entrenar y capacitar a los algoritmos. Un segundo paso importante para limitar las consecuencias negativas de los algoritmos es garantizar que todos los desarrolladores de sistemas de IA respeten el requisito de que sean transparentes. Para lograrlo, deben cumplirse tres condiciones: El trabajo de la IA y sus resultados deben estar sujetos a un estrecho escrutinio humano. El artículo 14 de la Ley de Inteligencia Artificial de la Unión Europea, AIA, sugiere que el proveedor de cualquier sistema de IA debe proporcionar un mecanismo de supervisión humana. Por supuesto, además de esto, el proveedor también tiene un interés comercial en supervisar el rendimiento de su sistema de IA. La supervisión humana debe incluir principios de responsabilidad para ofrecer los incentivos adecuados a los proveedores. También significa que los servicios de protección del consumidor deben mejorar sus capacidades técnicas y estar dispuestos a probar los sistemas de IA para evaluar correctamente las infracciones y garantizar la responsabilidad. La transparencia sobre el funcionamiento de los sistemas de IA no debe dificultar a los usuarios la comprensión de su funcionamiento. Para ello, la información sobre el alcance y las capacidades de la IA debe dividirse en dos niveles. El primer nivel, destinado a los usuarios, debe contener descripciones breves, claras y sencillas; el segundo, pensado para los representantes de la protección del consumidor, debe incluir más detalles e información disponible en todo momento. Un requisito obligatorio de transparencia de la IA dará una imagen más clara de los objetivos de los sistemas de IA y de cómo los consiguen. Si se hace esto, será más fácil pasar al tercer paso importante: desarrollar un conjunto de normas que impidan que los sistemas de IA utilicen estrategias de manipulación encubiertas que causen daños económicos. Estas normas, que los proveedores tendrán que seguir tanto en el desarrollo como en la aplicación de los sistemas de IA, crearán un marco que limite las funciones de la IA. Sin embargo, estas normas no deben contener restricciones excesivas que puedan socavar la eficiencia económica (para los individuos y la sociedad) creada por estos sistemas o reducir los incentivos para la innovación y la adopción de la IA. Pero incluso si se adoptan las restricciones descritas anteriormente, será difícil detectar la manipulación en la práctica. Los sistemas de IA están diseñados para responder al comportamiento de un usuario concreto ofreciéndole las mejores opciones posibles. No siempre es fácil justificar la diferencia entre un algoritmo que hace la mejor recomendación basada en el comportamiento del usuario y un algoritmo que manipula el comportamiento del usuario recomendando sólo las opciones que maximizan los beneficios de las empresas. En el caso de Google, la Comisión Europea tardó unos diez años en hacerlo, y tuvo que recopilar una gran cantidad de datos para demostrar que el gigante de las búsquedas en Internet manipulaba los resultados de las búsquedas. La dificultad de aplicar los principios expuestos en la práctica lleva a la necesidad de concienciar al público de los riesgos de utilizar la IA. Se necesitan programas educativos y de formación (que comiencen a una edad temprana) para que la gente sea consciente de los peligros del comportamiento en línea. Esto también ayudará a reducir las consecuencias psicológicas de la IA y otras estrategias tecnológicas adictivas, especialmente en los adolescentes. Es necesario un mayor diálogo público sobre los efectos adversos de la IA y sobre cómo pueden protegerse las personas de sus efectos. La IA puede aportar enormes beneficios a la sociedad. Para aprovechar la revolución de la IA, se necesita un marco regulador adecuado para minimizar los riesgos potenciales del desarrollo y la aplicación de la IA y proteger adecuadamente a los usuarios. La comprensión humana de las nuevas amenazas, cuyo número no hará más que crecer, va por detrás de las realidades rápidamente cambiantes del mundo moderno. Expertos de varios países advierten de nuevos y prometedores riesgos a medida que la tecnología se desarrolla rápidamente. La lista de estas apuestas seguirá creciendo, por lo que es crucial aprender y desarrollar la capacidad de la sociedad para hacer frente a las nuevas amenazas. Es esencial no perder el momento y reducir el coste de nuestra respuesta a estas nuevas amenazas.