Inteligência artificial na lei

O impacto econômico geral das tecnologias de IA pode chegar a 35% do crescimento econômico entre agora e 2035 (Accenture, 2018). O campo das tecnologias identificadas como " inteligência artificial" é vasto e, dependendo das definições usadas, pode levar a diferentes avaliações de seu impacto positivo e negativo na sociedade. Ao mesmo tempo, a universalidade da IA é considerada não apenas sob a perspectiva de sua compatibilidade tecnológica com qualquer processo de produção, mas também sob a perspectiva de substituir os seres humanos. Alguns cientistas pensam que há um perigo em transformar a IA em um "superinteligente" cujos objetivos podem não ser os mesmos que os das pessoas. De acordo com várias estimativas de membros da Associação para o Desenvolvimento da Inteligência Artificial e especialistas em IA, a criação de uma inteligência artificial comparável em capacidades cognitivas à dos seres humanos é possível em 2075, enquanto cerca de 70% dos pesquisadores pesquisados acreditam que o resultado de uma "super-inteligente" é possível. Dadas estas previsões e preocupações, mais de 1.000 pesquisadores de IA assinaram uma carta conjunta propondo a proibição do uso de sistemas totalmente autônomos como armas. A este respeito, é crucial formar uma estrutura regulatória internacional unificada para regular a IA em escala global.

Problemas da regulamentação da IA

Primeiro de tudo, a regulamentação no campo da IA deve ser abrangente e cobrir várias tecnologias relacionadas, incluindo "grandes dados," computação em nuvem, aprendizagem de máquinas e robótica como base técnica e de software para a IA. Além disso, a pesquisa de IA é extensa e interdisciplinar por natureza: A IA é o objeto de estudo tanto nas ciências técnicas quanto nas ciências humanas. Atualmente, não há uma regulamentação holística da IA em nível nacional e internacional que considere todas as questões relacionadas ao desenvolvimento, produção e implementação de sistemas de IA em vários campos. Apenas alguns estados, como os Estados Unidos, Alemanha, Coréia do Sul, China e União Européia, adotaram uma abordagem completa para resolver problemas individuais no campo da legislação - o mais acentuado é a regulamentação do uso de veículos não tripulados. Mas, de modo geral, a atual regulamentação carece de coerência e compreensão de uma abordagem unificada. A criação de padrões ideais pode levar a um aumento do apelo ao investimento da região... Um excelente exemplo da relação entre legislação e desenvolvimento tecnológico é o Red Flag Act da Inglaterra em 1865, que estabeleceu um limite de velocidade para carros (até 2 milhas por hora) e exigiu que um sinaleiro marchasse na frente de cada carro para sinalizar o movimento do veículo. Consequentemente, a indústria automobilística na Inglaterra estava em declínio, o que levou à cessão da posição de liderança na indústria para a França e Alemanha. Assim, uma regulamentação adequada incentivará o desenvolvimento tecnológico. Ao mesmo tempo, há uma tarefa ambiciosa e desafiadora de criar um conjunto de regulamentações que equilibrem os interesses de todos os participantes na relação AI. Macro-fatores, tais como:

  • Rigidez legislativa,
  • consequências sociais e econômicas, levando em consideração o nível de desemprego e a estratificação social,
  • confidencialidade e proteção de dados pessoais,
  • segurança,
  • ética, incluindo atitudes humano-robô, possíveis danos humanos e assim por diante.

Questões de desenvolvimento e regulamentação de IA em organizações internacionais

Hoje, o cenário global geral, as abordagens básicas e os princípios no campo do decreto legislativo da IA ​​são moldados pelas organizações e plataformas internacionais mais autorizadas.

DAPRA

O escopo de interesse da DARPA também inclui projetos de IA, nos quais três áreas de IA podem ser distinguidas:

  • "conhecimento manual" - é um conjunto de regras criadas por engenheiros que representam o conhecimento em um domínio bem definido. Nesse caso, a estrutura do conhecimento é determinada pelos humanos, e a máquina explora as especificidades desse conhecimento,
  • "aprendizagem estatística" - engenheiros criam modelos estatísticos para domínios específicos e treinam IA para trabalhar com os dados. Essa direção se distingue porque fornece uma boa classificação e a capacidade de prever eventos específicos. Uma desvantagem significativa da IA ​​é sua capacidade mínima de raciocinar,
  • "adaptação conceitual" - esta direção prevê o desenvolvimento de sistemas que geram modelos explicativos contextuais para classes e fenômenos do mundo real (por exemplo, um modelo generativo projetado para explicar como um determinado objeto poderia ter sido criado. O conceito DARPA está profundamente e logicamente relacionado ao atual situação no campo do desenvolvimento de IA; no entanto, essas tecnologias não foram estudadas em termos de funcionalidade e definição de limites morais, legais e organizacionais.

As Nações Unidas

Em 2018, as Nações Unidas relataram que, entre outras coisas, examinaram o impacto das tecnologias de IA sobre os direitos humanos no ambiente de informação. O documento observa que as empresas devem considerar como desenvolver padrões profissionais para engenheiros de IA, traduzindo as responsabilidades de direitos humanos em orientação para escolhas técnicas ao projetar e operar sistemas de IA. Também é recomendado que sejam estabelecidos sistemas de reclamação e recurso para responder prontamente às reclamações e apelos dos usuários. Dados devem ser publicados regularmente sobre a freqüência de reclamações e pedidos de soluções para situações onde os sistemas de IA ocorreram, bem como os tipos e a eficácia dos tratamentos disponíveis. As questões de IA também começaram a ser tratadas dentro das competências centrais da Comissão de Desenvolvimento Econômico e Social (ECOSOC) e da Conferência das Nações Unidas sobre Comércio e Desenvolvimento (UNCTAD). A UNCTAD tomou algumas iniciativas para ampliar a discussão sobre a transferência de dados e seus riscos associados para os países com atraso na economia digital. Em 2018, o Relatório de Economia Digital foi lançado, e uma de suas questões centrais foi a transferência de dados e seu potencial impacto sobre uma cadeia de bloqueio, nuvens, IOT, e desenvolvimento de IA.

A Organização das Nações Unidas para a Educação, a Ciência e a Cultura (UNESCO)

A UNESCO observa que o acúmulo de dados sobre o comportamento humano e o uso de tecnologias de computação para processá-lo levanta novas questões relativas aos direitos humanos, à liberdade de compartilhamento de informações e à educação. O objetivo da política de IA da UNESCO's é aproveitar o poder das novas tecnologias de TI para construir uma "sociedade do conhecimento" e alcançar as Metas de Desenvolvimento Sustentável (SDGs). A UNESCO recomenda abordar o desenvolvimento global de IA a partir da perspectiva dos princípios ROAM (direitos humanos, abertura, acessibilidade e participação de todos os grupos interessados) articulados anteriormente no contexto da "desenvolvimento universal da Internet". Além dos princípios ROAM, o documento de posição da UNESCO observa a necessidade de desenvolver princípios éticos para a IA, bem como a necessidade de respeitar as minorias sociais e de gênero e de prestar atenção especial à superação da divisão digital, especialmente em relação aos países africanos.

A experiência da União Européia's com a regulamentação legal da IA

Em 10 de abril de 2018. Vinte e cinco países europeus assinaram uma declaração sobre cooperação no campo da IA. Os Estados membros concordaram em trabalhar juntos nas questões mais críticas da era digital, desde assegurar a competitividade da Europa's na pesquisa de IA até abordar os desafios sociais da adoção da IA. Além disso, os estados definiram uma abordagem "proativa" à regulamentação da IA, o que significa modernizar o sistema europeu de educação e treinamento, incluindo treinamento avançado e reciclagem de cidadãos europeus. A declaração foi seguida por um documento igualmente importante, a Política e as Recomendações de Investimento para uma Gripe Aviária Robusta. Esta diretriz destaca os seguintes elementos na área de regulamentação legal da Gripe Aviária:

  • Aumentar o conhecimento socialmente prático sobre IA,
  • acelerando a adoção de tecnologias e serviços de IA em todos os setores da União Europeia,
  • promover e dimensionar soluções de IA inovando e facilitando a transformação do setor de tecnologia,
  • desenvolver iniciativas de compartilhamento de dados e gerenciamento de dados legalmente compatíveis e éticos na União Europeia,
  • desenvolver e apoiar infraestruturas de cibersegurança centradas em IA. A orientação enfatiza a necessidade de desenvolver um regime de segurança cibernética para infraestrutura de IA e métodos de IA. Além disso, o documento destaca o ponto de desenvolvimento de políticas de segurança cibernética de IA centradas no usuário para proteger os direitos do usuário na Internet. Deve-se notar que uma desvantagem do Guia é sua multitarefa e baixo nível de regulação da IA. A regulamentação da IA ​​não termina aqui; em 19 de fevereiro de 2020. A Comissão Europeia publicou um White Paper que muda o foco para a criação de um ecossistema de IA. O White Paper destaca os seguintes itens na área de atividades regulatórias de IA:
  • Estabelecer os principais centros de pesquisa e inovação em IA e desenvolver suas disposições de política,
  • promover a adoção da IA ​​no setor público. A Comissão Europeia está iniciando diálogos setoriais abertos e transparentes, dando prioridade aos cuidados de saúde, etc.,
  • criar princípios éticos, bem como desenvolver recomendações sobre IA. O Livro Branco também proclama um "ecossistema de confiança" que atua como uma estrutura normativa para a IA. As diretrizes são sustentadas por princípios de segurança cibernética, que devem ser baseados em confiabilidade técnica, privacidade, transparência, diversidade, não discriminação e justiça. Este documento descreve amplamente a direção no quadro regulatório, o que implica eliminar possíveis riscos de IA (ou seja, IA totalmente autônoma). O desafio mais crítico do quadro jurídico da UE é a sua aplicabilidade à IA. O livro branco enfatiza que é necessária uma avaliação adequada do quadro jurídico e sua relevância. Nota-se uma mudança no conceito de segurança. O fato é que o uso de IA em produtos e serviços gera muitos riscos, o que gera a necessidade de regulamentação legal nessa área (por exemplo, a criação de normas relacionadas a novas aplicações de IA). Com base na análise do Livro Branco, podemos concluir que os problemas de regulação jurídica da IA ​​devem ser resolvidos não só ao nível das regras, mas também considerando a essência da IA, as suas perspectivas de utilização nos mercados (por exemplo, o problema dos sistemas autônomos de IA). Também é essencial concordar com as questões legais da regulamentação da IA ​​(com base na essência da IA), os limites de seu desenvolvimento e a dinâmica de sua introdução em outras indústrias. Após a publicação do livro branco, foi realizada uma consulta pública a nível da União Europeia. Durante este exercício, todos os estados membros da UE e partes interessadas relevantes (incluindo sociedade civil, indústria e academia) foram convidados a participar da consulta. O evento acima mencionado proporcionou uma experiência relevante para o aperfeiçoamento da legislação. A União Europeia está pesquisando IA como parte do projeto Horizon 2020. Este projeto permite a pesquisa de IA dentro dos seguintes vetores de desenvolvimento:
  • Fortalecimento dos centros de pesquisa de IA na União Europeia,
  • apoiando o desenvolvimento de uma ferramenta de "IA sob demanda" plataforma que fornecerá acesso a recursos relevantes de IA na UE,
  • apoiar o desenvolvimento de aplicativos específicos de IA nos principais setores econômicos. Além disso, o projeto de plataforma de IA sob demanda está sendo desenvolvido ativamente no nível da União Europeia. Esta plataforma é um conjunto de novidades na área dos desenvolvimentos da IA, que permite disponibilizar uma componente informativa específica para a formação de novas iniciativas na área da IA. Em 15 de setembro, o Parlamento Europeu e o Conselho da UE aprovaram o programa de desenvolvimento Path to a Digital Decade 2030. O programa visa que, até 2030, pelo menos 75% de todas as empresas europeias implementem tecnologias de IA, big data e computação em nuvem em seu trabalho. O Caminho para uma Década Digital é consistente, compatível e complementar com outros programas de desenvolvimento da UE e documentos políticos, como Digital Compass Communication, Strategy for Shaping Europe's digital future, Industrial Strategy, Cybersecurity Strategy, Digital Europe Program e Horizon Europe . O Caminho para uma Década Digital é baseado em atos legislativos existentes e planejados, como a Lei de Governança de Dados, a Lei de Serviços Digitais e a Lei de Mercados Digitais. Em geral, a Comissão Europeia formulou sete condições primárias para a formação de uma base forte de IA:
  • Governança e supervisão. Faz-se referência abrangente a uma espécie de "sociedade justa" a ser alcançado por meio da IA,
  • confiabilidade e segurança. A segurança da IA ​​deve ser garantida por meio de seu sistema de algoritmos (e em todas as etapas do ciclo de vida da IA),
  • privacidade e gerenciamento de dados. Os cidadãos devem ter controle total sobre seus dados, enquanto os dados que lhes dizem respeito não serão usados ​​para prejudicá-los ou discriminá-los,
  • transparência. A declaração da CE indica que deve haver algum sistema de filtragem de IA em termos de soluções propostas pela própria IA e coordenação com o sujeito de processamento dessas informações. No entanto, a CE não fornece detalhes sobre a questão do processamento,
  • A IA deve ser multifuncional e levar em conta toda a gama de habilidades humanas,
  • bem-estar social e ambiental. Neste bloco, a CE observa que a IA também deve ser usada para melhorar a sustentabilidade social e os objetivos ambientais (até menciona o conceito de "responsabilidade ambiental, mas parece claro como deve ser implementado),
  • responsabilidade. A CE informa com razão os Estados membros que é necessário criar mecanismos que assegurem a responsabilidade e prestação de contas dos órgãos no domínio do funcionamento do sistema de IA. Esses blocos caracterizam não a atitude geral da União Européia em relação ao desenvolvimento da IA, mas apontam para problemas específicos que podem se tornar uma dificuldade no desenvolvimento do ecossistema de IA e da estrutura legal nessa área. Convencionalmente, podemos identificar os seguintes problemas no cumprimento das condições formuladas pela CE:
  • Questões de responsabilidade. O esquema de responsabilidade das autoridades pelo trabalho da IA ​​e como isso será argumentado em termos de evidências ainda não é transparente,
  • a inconsistência das disposições entre si. Além disso, vale a pena mencionar que existe uma contradição oculta entre o bloco mencionado acima e o bloco sobre o desenvolvimento da IA ​​em geral, onde este último se destina a desenvolver a IA levando em consideração toda a gama de habilidades humanas. Estamos falando em criar um sistema bastante autônomo com habilidades humanas na tomada de decisões, e o nexo de causalidade não é revelado por causa disso,
  • o sistema de transparência é vago, ou seja, como as decisões de IA serão filtradas não é totalmente clara. A CE fez tentativas legais críticas, mas não contém ações institucionais e legais específicas (por exemplo, regulamentos técnicos, políticas complementares, diretrizes). Tal experiência com a regulamentação jurídica internacional da IA ​​é percebida de duas maneiras. Por um lado, o uso de documentos legais adotados ajuda a delinear toda a gama de questões de IA (incluindo segurança cibernética). Por outro lado, a regulação jurídica internacional não se limita a esses atos. É necessária uma elaboração mais detalhada dos blocos identificados pela CE para eliminar suas contradições. Refira-se que apesar das fases iniciais de desenvolvimento da maioria dos blocos, o CE criou uma unidade organizacional – o grupo na área da IA ​​(AI Group). Foi este grupo que desenvolveu as "Regras de Ética em IA", que contém as seguintes recomendações:
  • Projeto e uso de sistemas de IA por princípios éticos: respeito aos seres humanos, autonomia da IA ​​(limites permitidos a serem definidos e trabalhados gradualmente), prevenção de irregularidades e explicabilidade dos processos de IA. A direção indica a eliminação de contradições entre os princípios.
  • atenção a grupos vulneráveis, como pessoas com deficiência e crianças, que estão mais expostas ao fator de risco das novas tecnologias (IA),
  • atenção aos riscos do sistema de IA, que são difíceis de prever (neste sentido, deve-se atentar para as medidas legais que podem ser tomadas),
  • o projeto, implantação e uso de sistemas de IA devem atender aos seguintes requisitos: controle humano de funções específicas de IA (supervisão); confiabilidade técnica e segurança; confidencialidade; transparência; diversidade, não discriminação e justiça; bem-estar ambiental e social; responsabilidade
  • as recomendações do Grupo AI devem ser implementadas na legislação nacional de outros estados. Note-se que o modelo anteriormente referido de regulamentação legal escolhido pela UE apresenta várias vantagens:
  • Estratégias e recomendações permitem uma resposta rápida à dinâmica da IA ​​e suas capacidades, segundo as quais sujeitam constantemente a questão jurídica dentro da UE e dos estados membros a mudanças,
  • A Declaração sobre cooperação no domínio da IA ​​não implica definições e redacção de enquadramento, o que permite uma maior elaboração de questões individuais nos documentos analisados ​​acima. Ressalte-se que, em geral, os documentos da UE ainda carecem de sistematização.

As formas de melhorar a situação


Atualmente, há um crescimento sem precedentes de interesse em regular as relações sociais relacionadas à IA no mundo. Esta tendência se deve a alguns fatores, entre os quais cabe destacar o dramático aumento da influência da tecnologia da informação na vida das pessoas's e a dependência humana da tecnologia, que ocorreu e se tornou evidente desde o início da pandemia da COVID-19. O segundo fator, naturalmente, é o surgimento objetivo das tecnologias da informação, particularmente aquelas unidas sob o termo AI, a um novo nível qualitativo, bem como o rápido crescimento de sua implementação em massa. Estes fatores provocam expectativas ansiosas e levam muitos a acreditar que os conhecidos cenários de ficção científica podem se tornar realidade, a menos que medidas urgentes sejam tomadas para estabelecer o controle sobre a IA e aqueles em cujas mãos ela é mantida. Junto com isto vem a constatação de que a tecnologia da informação é inerentemente extraterritorial e transfronteiriça e que a regulamentação apenas em nível nacional é improvável que seja eficaz. Nenhuma jurisdição por si só é capaz de regular e controlar a IA. A regulamentação da IA requer abordagens flexíveis e uma combinação de diferentes ferramentas, incluindo auto-regulação, padronização, regulamentação moral e ética e meios técnicos de regulamentação (etiquetagem, uso de código, metadados). São estes fatores que parecem ter criado os pré-requisitos para que o discurso relevante alcance o nível de interação entre as principais organizações internacionais (UNESCO, OECD, CoE) e uma organização internacional universal (ONU), bem como para o início do desenvolvimento de documentos internacionais legalmente vinculantes (o líder aqui é tradicionalmente o Conselho da Europa).