O impacto econômico geral das tecnologias de IA pode chegar a 35% do crescimento econômico entre agora e 2035 (Accenture, 2018). O campo das tecnologias identificadas como " inteligência artificial" é vasto e, dependendo das definições usadas, pode levar a diferentes avaliações de seu impacto positivo e negativo na sociedade. Ao mesmo tempo, a universalidade da IA é considerada não apenas sob a perspectiva de sua compatibilidade tecnológica com qualquer processo de produção, mas também sob a perspectiva de substituir os seres humanos. Alguns cientistas pensam que há um perigo em transformar a IA em um "superinteligente" cujos objetivos podem não ser os mesmos que os das pessoas. De acordo com várias estimativas de membros da Associação para o Desenvolvimento da Inteligência Artificial e especialistas em IA, a criação de uma inteligência artificial comparável em capacidades cognitivas à dos seres humanos é possível em 2075, enquanto cerca de 70% dos pesquisadores pesquisados acreditam que o resultado de uma "super-inteligente" é possível. Dadas estas previsões e preocupações, mais de 1.000 pesquisadores de IA assinaram uma carta conjunta propondo a proibição do uso de sistemas totalmente autônomos como armas. A este respeito, é crucial formar uma estrutura regulatória internacional unificada para regular a IA em escala global.
Problemas da regulamentação da IA
Primeiro de tudo, a regulamentação no campo da IA deve ser abrangente e cobrir várias tecnologias relacionadas, incluindo "grandes dados," computação em nuvem, aprendizagem de máquinas e robótica como base técnica e de software para a IA. Além disso, a pesquisa de IA é extensa e interdisciplinar por natureza: A IA é o objeto de estudo tanto nas ciências técnicas quanto nas ciências humanas. Atualmente, não há uma regulamentação holística da IA em nível nacional e internacional que considere todas as questões relacionadas ao desenvolvimento, produção e implementação de sistemas de IA em vários campos. Apenas alguns estados, como os Estados Unidos, Alemanha, Coréia do Sul, China e União Européia, adotaram uma abordagem completa para resolver problemas individuais no campo da legislação - o mais acentuado é a regulamentação do uso de veículos não tripulados. Mas, de modo geral, a atual regulamentação carece de coerência e compreensão de uma abordagem unificada. A criação de padrões ideais pode levar a um aumento do apelo ao investimento da região... Um excelente exemplo da relação entre legislação e desenvolvimento tecnológico é o Red Flag Act da Inglaterra em 1865, que estabeleceu um limite de velocidade para carros (até 2 milhas por hora) e exigiu que um sinaleiro marchasse na frente de cada carro para sinalizar o movimento do veículo. Consequentemente, a indústria automobilística na Inglaterra estava em declínio, o que levou à cessão da posição de liderança na indústria para a França e Alemanha. Assim, uma regulamentação adequada incentivará o desenvolvimento tecnológico. Ao mesmo tempo, há uma tarefa ambiciosa e desafiadora de criar um conjunto de regulamentações que equilibrem os interesses de todos os participantes na relação AI. Macro-fatores, tais como:
- Rigidez legislativa,
- consequências sociais e econômicas, levando em consideração o nível de desemprego e a estratificação social,
- confidencialidade e proteção de dados pessoais,
- segurança,
- ética, incluindo atitudes humano-robô, possíveis danos humanos e assim por diante.
Questões de desenvolvimento e regulamentação de IA em organizações internacionais
Hoje, o cenário global geral, as abordagens básicas e os princípios no campo do decreto legislativo da IA são moldados pelas organizações e plataformas internacionais mais autorizadas.
DAPRA
O escopo de interesse da DARPA também inclui projetos de IA, nos quais três áreas de IA podem ser distinguidas:
- "conhecimento manual" - é um conjunto de regras criadas por engenheiros que representam o conhecimento em um domínio bem definido. Nesse caso, a estrutura do conhecimento é determinada pelos humanos, e a máquina explora as especificidades desse conhecimento,
- "aprendizagem estatística" - engenheiros criam modelos estatísticos para domínios específicos e treinam IA para trabalhar com os dados. Essa direção se distingue porque fornece uma boa classificação e a capacidade de prever eventos específicos. Uma desvantagem significativa da IA é sua capacidade mínima de raciocinar,
- "adaptação conceitual" - esta direção prevê o desenvolvimento de sistemas que geram modelos explicativos contextuais para classes e fenômenos do mundo real (por exemplo, um modelo generativo projetado para explicar como um determinado objeto poderia ter sido criado. O conceito DARPA está profundamente e logicamente relacionado ao atual situação no campo do desenvolvimento de IA; no entanto, essas tecnologias não foram estudadas em termos de funcionalidade e definição de limites morais, legais e organizacionais.
As Nações Unidas
Em 2018, as Nações Unidas relataram que, entre outras coisas, examinaram o impacto das tecnologias de IA sobre os direitos humanos no ambiente de informação. O documento observa que as empresas devem considerar como desenvolver padrões profissionais para engenheiros de IA, traduzindo as responsabilidades de direitos humanos em orientação para escolhas técnicas ao projetar e operar sistemas de IA. Também é recomendado que sejam estabelecidos sistemas de reclamação e recurso para responder prontamente às reclamações e apelos dos usuários. Dados devem ser publicados regularmente sobre a freqüência de reclamações e pedidos de soluções para situações onde os sistemas de IA ocorreram, bem como os tipos e a eficácia dos tratamentos disponíveis. As questões de IA também começaram a ser tratadas dentro das competências centrais da Comissão de Desenvolvimento Econômico e Social (ECOSOC) e da Conferência das Nações Unidas sobre Comércio e Desenvolvimento (UNCTAD). A UNCTAD tomou algumas iniciativas para ampliar a discussão sobre a transferência de dados e seus riscos associados para os países com atraso na economia digital. Em 2018, o Relatório de Economia Digital foi lançado, e uma de suas questões centrais foi a transferência de dados e seu potencial impacto sobre uma cadeia de bloqueio, nuvens, IOT, e desenvolvimento de IA.
A Organização das Nações Unidas para a Educação, a Ciência e a Cultura (UNESCO)
A UNESCO observa que o acúmulo de dados sobre o comportamento humano e o uso de tecnologias de computação para processá-lo levanta novas questões relativas aos direitos humanos, à liberdade de compartilhamento de informações e à educação. O objetivo da política de IA da UNESCO's é aproveitar o poder das novas tecnologias de TI para construir uma "sociedade do conhecimento" e alcançar as Metas de Desenvolvimento Sustentável (SDGs). A UNESCO recomenda abordar o desenvolvimento global de IA a partir da perspectiva dos princípios ROAM (direitos humanos, abertura, acessibilidade e participação de todos os grupos interessados) articulados anteriormente no contexto da "desenvolvimento universal da Internet". Além dos princípios ROAM, o documento de posição da UNESCO observa a necessidade de desenvolver princípios éticos para a IA, bem como a necessidade de respeitar as minorias sociais e de gênero e de prestar atenção especial à superação da divisão digital, especialmente em relação aos países africanos.
A experiência da União Européia's com a regulamentação legal da IA
Em 10 de abril de 2018. Vinte e cinco países europeus assinaram uma declaração sobre cooperação no campo da IA. Os Estados membros concordaram em trabalhar juntos nas questões mais críticas da era digital, desde assegurar a competitividade da Europa's na pesquisa de IA até abordar os desafios sociais da adoção da IA. Além disso, os estados definiram uma abordagem "proativa" à regulamentação da IA, o que significa modernizar o sistema europeu de educação e treinamento, incluindo treinamento avançado e reciclagem de cidadãos europeus. A declaração foi seguida por um documento igualmente importante, a Política e as Recomendações de Investimento para uma Gripe Aviária Robusta. Esta diretriz destaca os seguintes elementos na área de regulamentação legal da Gripe Aviária:
- Aumentar o conhecimento socialmente prático sobre IA,
- acelerando a adoção de tecnologias e serviços de IA em todos os setores da União Europeia,
- promover e dimensionar soluções de IA inovando e facilitando a transformação do setor de tecnologia,
- desenvolver iniciativas de compartilhamento de dados e gerenciamento de dados legalmente compatíveis e éticos na União Europeia,
- desenvolver e apoiar infraestruturas de cibersegurança centradas em IA. A orientação enfatiza a necessidade de desenvolver um regime de segurança cibernética para infraestrutura de IA e métodos de IA. Além disso, o documento destaca o ponto de desenvolvimento de políticas de segurança cibernética de IA centradas no usuário para proteger os direitos do usuário na Internet. Deve-se notar que uma desvantagem do Guia é sua multitarefa e baixo nível de regulação da IA. A regulamentação da IA não termina aqui; em 19 de fevereiro de 2020. A Comissão Europeia publicou um White Paper que muda o foco para a criação de um ecossistema de IA. O White Paper destaca os seguintes itens na área de atividades regulatórias de IA:
- Estabelecer os principais centros de pesquisa e inovação em IA e desenvolver suas disposições de política,
- promover a adoção da IA no setor público. A Comissão Europeia está iniciando diálogos setoriais abertos e transparentes, dando prioridade aos cuidados de saúde, etc.,
- criar princípios éticos, bem como desenvolver recomendações sobre IA. O Livro Branco também proclama um "ecossistema de confiança" que atua como uma estrutura normativa para a IA. As diretrizes são sustentadas por princípios de segurança cibernética, que devem ser baseados em confiabilidade técnica, privacidade, transparência, diversidade, não discriminação e justiça. Este documento descreve amplamente a direção no quadro regulatório, o que implica eliminar possíveis riscos de IA (ou seja, IA totalmente autônoma). O desafio mais crítico do quadro jurídico da UE é a sua aplicabilidade à IA. O livro branco enfatiza que é necessária uma avaliação adequada do quadro jurídico e sua relevância. Nota-se uma mudança no conceito de segurança. O fato é que o uso de IA em produtos e serviços gera muitos riscos, o que gera a necessidade de regulamentação legal nessa área (por exemplo, a criação de normas relacionadas a novas aplicações de IA). Com base na análise do Livro Branco, podemos concluir que os problemas de regulação jurídica da IA devem ser resolvidos não só ao nível das regras, mas também considerando a essência da IA, as suas perspectivas de utilização nos mercados (por exemplo, o problema dos sistemas autônomos de IA). Também é essencial concordar com as questões legais da regulamentação da IA (com base na essência da IA), os limites de seu desenvolvimento e a dinâmica de sua introdução em outras indústrias. Após a publicação do livro branco, foi realizada uma consulta pública a nível da União Europeia. Durante este exercício, todos os estados membros da UE e partes interessadas relevantes (incluindo sociedade civil, indústria e academia) foram convidados a participar da consulta. O evento acima mencionado proporcionou uma experiência relevante para o aperfeiçoamento da legislação. A União Europeia está pesquisando IA como parte do projeto Horizon 2020. Este projeto permite a pesquisa de IA dentro dos seguintes vetores de desenvolvimento:
- Fortalecimento dos centros de pesquisa de IA na União Europeia,
- apoiando o desenvolvimento de uma ferramenta de "IA sob demanda" plataforma que fornecerá acesso a recursos relevantes de IA na UE,
- apoiar o desenvolvimento de aplicativos específicos de IA nos principais setores econômicos. Além disso, o projeto de plataforma de IA sob demanda está sendo desenvolvido ativamente no nível da União Europeia. Esta plataforma é um conjunto de novidades na área dos desenvolvimentos da IA, que permite disponibilizar uma componente informativa específica para a formação de novas iniciativas na área da IA. Em 15 de setembro, o Parlamento Europeu e o Conselho da UE aprovaram o programa de desenvolvimento Path to a Digital Decade 2030. O programa visa que, até 2030, pelo menos 75% de todas as empresas europeias implementem tecnologias de IA, big data e computação em nuvem em seu trabalho. O Caminho para uma Década Digital é consistente, compatível e complementar com outros programas de desenvolvimento da UE e documentos políticos, como Digital Compass Communication, Strategy for Shaping Europe's digital future, Industrial Strategy, Cybersecurity Strategy, Digital Europe Program e Horizon Europe . O Caminho para uma Década Digital é baseado em atos legislativos existentes e planejados, como a Lei de Governança de Dados, a Lei de Serviços Digitais e a Lei de Mercados Digitais. Em geral, a Comissão Europeia formulou sete condições primárias para a formação de uma base forte de IA:
- Governança e supervisão. Faz-se referência abrangente a uma espécie de "sociedade justa" a ser alcançado por meio da IA,
- confiabilidade e segurança. A segurança da IA deve ser garantida por meio de seu sistema de algoritmos (e em todas as etapas do ciclo de vida da IA),
- privacidade e gerenciamento de dados. Os cidadãos devem ter controle total sobre seus dados, enquanto os dados que lhes dizem respeito não serão usados para prejudicá-los ou discriminá-los,
- transparência. A declaração da CE indica que deve haver algum sistema de filtragem de IA em termos de soluções propostas pela própria IA e coordenação com o sujeito de processamento dessas informações. No entanto, a CE não fornece detalhes sobre a questão do processamento,
- A IA deve ser multifuncional e levar em conta toda a gama de habilidades humanas,
- bem-estar social e ambiental. Neste bloco, a CE observa que a IA também deve ser usada para melhorar a sustentabilidade social e os objetivos ambientais (até menciona o conceito de "responsabilidade ambiental, mas parece claro como deve ser implementado),
- responsabilidade. A CE informa com razão os Estados membros que é necessário criar mecanismos que assegurem a responsabilidade e prestação de contas dos órgãos no domínio do funcionamento do sistema de IA. Esses blocos caracterizam não a atitude geral da União Européia em relação ao desenvolvimento da IA, mas apontam para problemas específicos que podem se tornar uma dificuldade no desenvolvimento do ecossistema de IA e da estrutura legal nessa área. Convencionalmente, podemos identificar os seguintes problemas no cumprimento das condições formuladas pela CE:
- Questões de responsabilidade. O esquema de responsabilidade das autoridades pelo trabalho da IA e como isso será argumentado em termos de evidências ainda não é transparente,
- a inconsistência das disposições entre si. Além disso, vale a pena mencionar que existe uma contradição oculta entre o bloco mencionado acima e o bloco sobre o desenvolvimento da IA em geral, onde este último se destina a desenvolver a IA levando em consideração toda a gama de habilidades humanas. Estamos falando em criar um sistema bastante autônomo com habilidades humanas na tomada de decisões, e o nexo de causalidade não é revelado por causa disso,
- o sistema de transparência é vago, ou seja, como as decisões de IA serão filtradas não é totalmente clara. A CE fez tentativas legais críticas, mas não contém ações institucionais e legais específicas (por exemplo, regulamentos técnicos, políticas complementares, diretrizes). Tal experiência com a regulamentação jurídica internacional da IA é percebida de duas maneiras. Por um lado, o uso de documentos legais adotados ajuda a delinear toda a gama de questões de IA (incluindo segurança cibernética). Por outro lado, a regulação jurídica internacional não se limita a esses atos. É necessária uma elaboração mais detalhada dos blocos identificados pela CE para eliminar suas contradições. Refira-se que apesar das fases iniciais de desenvolvimento da maioria dos blocos, o CE criou uma unidade organizacional – o grupo na área da IA (AI Group). Foi este grupo que desenvolveu as "Regras de Ética em IA", que contém as seguintes recomendações:
- Projeto e uso de sistemas de IA por princípios éticos: respeito aos seres humanos, autonomia da IA (limites permitidos a serem definidos e trabalhados gradualmente), prevenção de irregularidades e explicabilidade dos processos de IA. A direção indica a eliminação de contradições entre os princípios.
- atenção a grupos vulneráveis, como pessoas com deficiência e crianças, que estão mais expostas ao fator de risco das novas tecnologias (IA),
- atenção aos riscos do sistema de IA, que são difíceis de prever (neste sentido, deve-se atentar para as medidas legais que podem ser tomadas),
- o projeto, implantação e uso de sistemas de IA devem atender aos seguintes requisitos: controle humano de funções específicas de IA (supervisão); confiabilidade técnica e segurança; confidencialidade; transparência; diversidade, não discriminação e justiça; bem-estar ambiental e social; responsabilidade
- as recomendações do Grupo AI devem ser implementadas na legislação nacional de outros estados. Note-se que o modelo anteriormente referido de regulamentação legal escolhido pela UE apresenta várias vantagens:
- Estratégias e recomendações permitem uma resposta rápida à dinâmica da IA e suas capacidades, segundo as quais sujeitam constantemente a questão jurídica dentro da UE e dos estados membros a mudanças,
- A Declaração sobre cooperação no domínio da IA não implica definições e redacção de enquadramento, o que permite uma maior elaboração de questões individuais nos documentos analisados acima. Ressalte-se que, em geral, os documentos da UE ainda carecem de sistematização.
As formas de melhorar a situação
Atualmente, há um crescimento sem precedentes de interesse em regular as relações sociais relacionadas à IA no mundo. Esta tendência se deve a alguns fatores, entre os quais cabe destacar o dramático aumento da influência da tecnologia da informação na vida das pessoas's e a dependência humana da tecnologia, que ocorreu e se tornou evidente desde o início da pandemia da COVID-19. O segundo fator, naturalmente, é o surgimento objetivo das tecnologias da informação, particularmente aquelas unidas sob o termo AI, a um novo nível qualitativo, bem como o rápido crescimento de sua implementação em massa. Estes fatores provocam expectativas ansiosas e levam muitos a acreditar que os conhecidos cenários de ficção científica podem se tornar realidade, a menos que medidas urgentes sejam tomadas para estabelecer o controle sobre a IA e aqueles em cujas mãos ela é mantida. Junto com isto vem a constatação de que a tecnologia da informação é inerentemente extraterritorial e transfronteiriça e que a regulamentação apenas em nível nacional é improvável que seja eficaz. Nenhuma jurisdição por si só é capaz de regular e controlar a IA. A regulamentação da IA requer abordagens flexíveis e uma combinação de diferentes ferramentas, incluindo auto-regulação, padronização, regulamentação moral e ética e meios técnicos de regulamentação (etiquetagem, uso de código, metadados). São estes fatores que parecem ter criado os pré-requisitos para que o discurso relevante alcance o nível de interação entre as principais organizações internacionais (UNESCO, OECD, CoE) e uma organização internacional universal (ONU), bem como para o início do desenvolvimento de documentos internacionais legalmente vinculantes (o líder aqui é tradicionalmente o Conselho da Europa).