O Lado Negro da Inteligência Artificial

A inteligência artificial é capaz de manipular o comportamento humano. Para evitar este perigo, o trabalho dos algoritmos deve tornar-se transparente e sujeito a regras claras e, o mais importante, ao controle humano.

Quais são os perigos da IA?

Inteligência Artificial e Privacidade

A velocidade da AI's de coleta de informações, escalabilidade e automação é vital. A taxa na qual a IA realiza cálculos é muito mais rápida que a dos seres humanos, e pode ser aumentada com a adição de mais hardware. A IA é fundamentalmente projetada para usar grandes conjuntos de dados para análise e é a única maneira de processar uma quantidade razoável de dados em menos tempo. A IA de aprendizagem da máquina pode lidar com a tarefa sem supervisão, o que ajuda a aumentar a eficiência da análise. Sem dúvida, estas características são impressionantes, mas há um lado negativo nisso. Todas estas características afetam a privacidade por várias razões.

Manipulação de dados

O software de computador e as aplicações para sistemas domésticos inteligentes têm certas características que os tornam vulneráveis. A situação está piorando à medida que mais e mais dispositivos são conectados à rede mundial a cada ano, e a consciência do consumidor sobre como os dados são transmitidos, armazenados e processados permanece baixa. Em outras palavras, as pessoas confiam cada vez mais na Internet e nos gadgets, mas não compreendem o que acontece com as informações que enviam on-line..

Rastreamento

A inteligência artificial é usada para encontrar e rastrear pessoas. Ela pode analisar dados de uma variedade de fontes. Na prática, isto significa que é possível rastrear o movimento de qualquer pessoa pela cidade sem muita dificuldade, com a ajuda da eletrônica e de um programa particular. Estas informações devem ser confidenciais, mas a IA confunde as linhas privadas e públicas.

Reconhecimento biométrico

Os algoritmos de inteligência artificial estão sendo cada vez mais utilizados para autenticar os usuários. Normalmente, discutimos a autenticação biométrica por voz, impressão digital e varredura facial. Todos estes métodos comprometem o anonimato de uma pessoa's em um lugar público. Por exemplo, os serviços de segurança usam software de reconhecimento facial sem uma ordem judicial para encontrar as pessoas certas na multidão e rastrear suas ações..

Ações de previsão

A inteligência artificial pode usar a aprendizagem da máquina para prever eventos a partir dos dados disponíveis. Por exemplo, é possível prever as reações de uma pessoa's e o estado emocional com base em seus padrões de comportamento. Além disso, os programas modernos são capazes de determinar uma pessoa's gênero, idade, raça, pontos de vista políticos, etc., a partir de notas de voz ou texto.

Classificação

A IA pode coletar informações e classificá-las de acordo com quaisquer parâmetros. Muitas vezes tal processamento de dados é feito sem o consentimento do usuário, e ninguém pode prever a que conseqüências ele levará. Como uma variante, novas formas de discriminação. O exemplo mais vívido é o experimento de classificação social na China, onde as pessoas com um nível " insuficientemente alto; rankings" podem ser negados crédito ou outros serviços. Que plataformas populares com usuários fiéis, tais como Google e Facebook, conhecem seus usuários melhor que seus parentes e amigos não é exagero. Muitas empresas coletam uma quantidade considerável de informações como entrada para seus algoritmos. Por exemplo, mesmo os usuários do Facebook podem determinar com precisão o número de suas características: idade, sexo, orientação sexual, etnia, visões religiosas e políticas, qualidades pessoais, nível de felicidade, inteligência, se seus pais são divorciados e se utilizam substâncias viciantes. Suponha que algoritmos únicos baseados em inteligência artificial (IA) possam tirar tantas conclusões baseadas apenas na situação em que os usuários clicam no " como" botão. Nesse caso, você pode imaginar quantos dados são extraídos das informações sobre quais palavras-chave as pessoas usam ao pesquisar, em que clicam, o que postam e sobre o que comentam. Tudo isso não'não se aplica apenas às empresas de tecnologia. Dar aos algoritmos de IA um papel central na vida digital das pessoas's vem com riscos. Por exemplo, o uso de IA no local de trabalho pode proporcionar a uma empresa um ganho em termos de produtividade mas, ao mesmo tempo, implica em uma redução nas habilidades do trabalhador. A tomada de decisão baseada na IA "cues" muitas vezes não é isenta de preconceitos, levando à discriminação (particularmente em decisões de pessoal, acesso ao crédito, assistência médica, moradia e outras áreas). Mas a IA representa outra ameaça potencial que ainda não foi suficientemente estudada: a manipulação do comportamento humano. Em princípio, as estratégias de marketing manipuladoras já existem há muito tempo. Mas a adição de grandes quantidades de dados processados por sistemas algorítmicos de IA expandiu seriamente a capacidade das empresas de gerenciar seus clientes' escolhas e comportamento de uma forma que gera mais receita. A tecnologia digital permite que as empresas ajustem o sistema, controlem o tempo que os usuários vêem suas ofertas e visem cada usuário individualmente - as estratégias manipulativas são muito mais eficazes e difíceis de reconhecer. A manipulação em si pode assumir uma variedade de formas: desde a exploração de preferências pessoais detectadas por algoritmos de IA e estratégias personalizadas destinadas a moldar o hábito de consumir certos produtos (on-line) até o aproveitamento dos usuários' estado emocional desequilibrado quando são oferecidos a clientes potenciais produtos e serviços específicos que combinam com seu estado emocional temporal e, portanto, são adquiridos impulsivamente. Esta manipulação é freqüentemente acompanhada por táticas inteligentes de design, marketing predatório e discriminação onipresente de preços comportamentais com o objetivo de levar os usuários a escolhas não lucrativas, facilmente monetizadas por empresas capacitadas para a IA. A principal característica comum de tais estratégias é que elas aumentam as empresas' rentabilidade reduzindo o valor econômico que um usuário obteria com os serviços on-line.

Ameaças ao sistema político

Deepfake (de aprendizado profundo e falso) é um método de sintetizar imagens e/ou vozes humanas usando IA. Esta tecnologia é abusada para criar vídeos digitais originais de atores famosos, líderes mundiais, etc. Especialistas advertem que deepfake pode ser suficientemente realista para manipular futuras eleições e políticas globais, tornando-as um meio potencialmente perigoso de influenciar o comportamento tanto de indivíduos quanto de grandes grupos alvo de influência. Uma preparação adequada e deepfakes podem desencadear pânico financeiro, comércio ou outras conseqüências perigosas com preparação adequada.

Estabelecendo e consagrando uma agenda

Estudos mostram que os bots representaram mais de 50% do tráfego na Internet já em 2016. As organizações que promovem artificialmente o conteúdo podem manipular a agenda: quanto mais frequentemente as pessoas vêem uma faixa específica, mais importante elas pensam que é. Danos à reputação com bots durante campanhas políticas, por exemplo, podem ser usados por grupos terroristas para atrair novos apoiadores ou organizar assassinatos de políticos..

O sucesso às custas da opacidade

O sucesso de tais estratégias manipuladoras vem à custa de uma falta de transparência. Os usuários de sistemas de IA, em muitos casos, não conhecem os objetivos fundamentais dos algoritmos de IA e como suas informações pessoais sensíveis são usadas para atingir esses objetivos. O U.S. Retailer Target usou a IA e a análise de dados para prever as gravidezes das mulheres's e enviar-lhes anúncios ocultos de produtos para bebês. Os usuários Uber reclamaram que as viagens são mais caras se o pedido for feito de um smartphone com bateria fraca, mesmo que o nível da bateria não esteja oficialmente contabilizado no modelo de preços da empresa's. Um dos exemplos é a decisão da Comissão Européia's contra o Google (em junho de 2017. A Comissão Européia decidiu sobre uma multa gigantesca €2,4 bilhões para o Google por usar sua posição dominante no mercado. De acordo com a Comissão Européia, a empresa ofereceu aos usuários que pesquisaram on-line determinados produtos, principalmente produtos de seu próprio serviço). Dois anos depois, a Comissão Federal de Comércio dos Estados Unidos multou o Facebook em um recorde de US$ 5 bilhões por manipular o uso de dados confidenciais dos usuários (o que acabou levando à redução da qualidade do serviço). Para avaliar a possibilidade de manipulação de comportamento assistido por IA, podemos usar uma estrutura teórica refletida em um estudo publicado em 2021. O estudo enfoca as vulnerabilidades significativas que os algoritmos de IA identificam nas plataformas. Estas incluem o envio de anúncios aos usuários para produtos que eles tendem a comprar impulsivamente em determinados momentos, mesmo que a qualidade desses produtos seja baixa e não tenha nenhum valor agregado para eles. O trabalho mostrou que esta estratégia reduz o benefício potencial para o consumidor do uso das plataformas, aumentando os benefícios para o fórum, distorcendo o padrão usual de consumo e gerando ineficiências adicionais. A possibilidade de manipular o comportamento humano com algoritmos de IA também tem sido observada em experimentos. Três desses experimentos são descritos em detalhes em um artigo publicado em 2020. O primeiro consistiu em tentativas de ganhar moeda falsa: os participantes escolheram imagens à esquerda e à direita nas telas. Após cada esforço, os participantes foram informados se sua escolha seria recompensada. O experimento permitiu que os sistemas de IA fossem treinados: eles "conheciam" o padrão de escolha de cada participante e atribuíram uma recompensa se pressionassem o botão direito. Mas o jogo tinha uma limitação: tanto a esquerda como as opções adequadas eram vencíveis, e o prêmio era concedido o mesmo número de vezes pela escolha de ambas as opções. A tarefa da IA era encorajar os participantes a selecionar uma opção (por exemplo, a imagem da esquerda). E em 70% das tentativas, a IA atingiu com sucesso este objetivo. Os participantes da segunda experiência foram solicitados a apertar um botão quando viram uma determinada imagem na tela e não pressioná-la quando lhes foi mostrada uma imagem diferente. A tarefa do sistema de IA neste experimento foi "show" as imagens na seqüência que causou o número mais significativo de participantes a cometerem erros. Como resultado, o número de erros aumentou em quase um quarto. O terceiro experimento foi conduzido em várias rodadas. Nela, os participantes fingiam ser investidores que colocavam dinheiro em confiança - o papel do fiduciário foi assumido pela IA. Depois o "trust" devolveu o dinheiro ao jogador, que, por sua vez, decidiu quanto investir na rodada seguinte. Dois modos diferentes foram usados para este jogo: no primeiro caso, a tarefa da IA era maximizar a quantia de dinheiro que recebia até o final da rodada; no segundo caso, a IA estava "interessada" em uma distribuição justa de fundos entre ela mesma e o investidor. A IA cumpriu sua tarefa em ambos os casos. A conclusão importante de todas essas experiências é que a IA aprendeu com a "observando" pessoas's reações e identificando vulnerabilidades específicas na forma como tomavam decisões. E eventualmente, a IA foi capaz de induzir os participantes a tomarem certas decisões.

Um contrapeso à manipulação


Quando empresas privadas desenvolvem sistemas habilitados para IA, seu objetivo principal é ter lucro. Como tais sistemas podem aprender o comportamento humano, eles também podem empurrar os usuários para ações específicas que são benéficas para as empresas, mesmo que não seja a melhor escolha do ponto de vista do usuário's. A possibilidade de tal manipulação comportamental requer políticas que garantam a autonomia humana ao interagir com a IA. A IA não deve subjugar e enganar os humanos, mas complementar suas habilidades e melhorar o que os humanos podem fazer (de acordo com a orientação da Comissão Européia's sobre ética da IA). O primeiro passo importante para alcançar este objetivo é aumentar a transparência sobre o escopo do uso e as capacidades da IA. Entender como a IA realiza seus objetivos deve ser óbvio. Os usuários devem saber como os algoritmos utilizam seus dados (informações pessoais sensíveis). A regulamentação geral de proteção de dados na UE implica um chamado direito de explicação, que visa alcançar mais transparência nos sistemas de IA, mas este objetivo não foi completado. A questão de tal direito tem sido muito debatida, e sua aplicação tem sido mínima. Sistemas que utilizam inteligência artificial são freqüentemente comparados a um " caixa preta" - ninguém sabe exatamente como eles funcionam. Como resultado, é difícil ser transparente a esse respeito. Mas este não é o caso da manipulação. Um fornecedor de sistema de IA pode estabelecer restrições especiais para evitar a manipulação do comportamento do usuário. E aqui, o desafio está mais em como estes sistemas serão projetados e qual será a função alvo de sua operação (incluindo restrições). A manipulação de um algoritmo deve, em princípio, ser explicada por seus desenvolvedores, que escrevem o código algorítmico e observam a operação do algoritmo's. Ao mesmo tempo, as informações sobre como os dados embutidos no algoritmo são coletados devem ser transparentes. O comportamento suspeito dos algoritmos pode nem sempre ser o resultado de sua função alvo; pode ser devido à qualidade dos dados brutos que foram usados para treinar e treinar os algoritmos. Um segundo passo importante para limitar as conseqüências negativas dos algoritmos é assegurar que todos os desenvolvedores de sistemas de IA respeitem a exigência de que eles sejam transparentes. Para alcançá-la, três condições devem ser cumpridas: O trabalho da IA e seus resultados devem estar sujeitos a um estreito escrutínio humano. O artigo 14 da Lei de Inteligência Artificial da União Européia, AIA, sugere que o fornecedor de qualquer sistema de IA deve fornecer um mecanismo de supervisão humana. Naturalmente, além disso, o fornecedor também tem interesse comercial em monitorar o desempenho de seu sistema de IA. A supervisão humana deve incluir princípios de responsabilidade para fornecer os incentivos corretos aos provedores. Isso também significa que os serviços de proteção ao consumidor devem melhorar suas capacidades técnicas e estar dispostos a testar os sistemas de IA para avaliar corretamente as violações e garantir que a responsabilidade seja mantida. A transparência sobre como os sistemas de IA funcionam não deve tornar difícil para os usuários compreender como eles funcionam. Para fazer isso, as informações sobre o escopo e as capacidades dos sistemas de IA devem ser divididas em dois níveis. O primeiro nível, destinado aos usuários, deve conter descrições breves, claras e simples; o segundo, projetado para representantes de proteção ao consumidor, deve incluir mais detalhes e informações disponíveis em todos os momentos. Um requisito obrigatório para a transparência da IA dará uma imagem mais clara dos objetivos dos sistemas de IA e de como eles os alcançam. Se isso for feito, será mais fácil passar ao terceiro passo importante: desenvolver um conjunto de regras que evitará que os sistemas de IA utilizem estratégias manipuladoras encobertas que causem danos econômicos. Estas regras, que os fornecedores terão que seguir tanto no desenvolvimento quanto na implementação de sistemas de IA, criarão uma estrutura que limitará as funções da IA. Entretanto, estas regras não devem conter restrições excessivas que possam prejudicar a eficiência econômica (para indivíduos e sociedade) criada por estes sistemas ou reduzir os incentivos para inovação e adoção de IA. Mas mesmo que as restrições descritas acima sejam adotadas, será um desafio detectar a manipulação na prática. Os sistemas de IA são projetados para responder ao comportamento de um determinado usuário's, oferecendo-lhes as melhores opções possíveis. Nem sempre é fácil justificar a diferença entre um algoritmo que faz a melhor recomendação baseada no comportamento do usuário e um algoritmo que manipula o comportamento do usuário, recomendando apenas opções que maximizam as empresas' lucros. No caso do Google, a Comissão Européia levou cerca de dez anos para fazer isso e teve que coletar uma grande quantidade de dados para provar que o gigante da busca na Internet manipulou os resultados da busca. A dificuldade em aplicar os princípios delineados praticamente leva à necessidade de conscientizar o público sobre os riscos da utilização da IA. Programas educacionais e treinamento (a partir de uma idade jovem) são necessários para conscientizar as pessoas sobre os perigos do comportamento on-line. Isso também ajudará a reduzir as conseqüências psicológicas da IA e outras estratégias tecnológicas viciantes, especialmente em adolescentes. É preciso haver mais diálogo público sobre os efeitos adversos da IA e sobre como as pessoas podem se proteger de seus efeitos. A gripe aviária pode trazer enormes benefícios à sociedade. Para tirar proveito da revolução da IA, é necessária uma estrutura regulatória adequada para minimizar os riscos potenciais do desenvolvimento e implementação da IA e proteger adequadamente os usuários. A compreensão humana das novas ameaças, cujo número só vai crescer, está atrasada em relação às realidades em rápida mudança do mundo moderno. Especialistas de vários países alertam para novos e promissores riscos à medida que a tecnologia se desenvolve rapidamente. A lista de tais apostas continuará a crescer, portanto é crucial aprender e desenvolver a capacidade da sociedade para lidar com as novas ameaças. É essencial não perder o momento e reduzir o custo de nossa resposta a essas novas ameaças.