A inteligência artificial, sua integração e seu impacto na sociedade

A Inteligência Artificial (IA) é freqüentemente chamada a tecnologia mais impressionante de nossa era, prometendo transformar nossa economia, nossas vidas e nossas oportunidades. Alguns até vêem a IA como uma forma de progredir rapidamente na criação de "máquinas inteligentes" isso logo ultrapassará as habilidades humanas na maioria das áreas. O desenvolvimento da IA foi muito bem sucedido na última década, especialmente no desenvolvimento de novos métodos de processamento estatístico de informações e aprendizado de máquinas, que nos permitem trabalhar com grandes quantidades de dados não estruturados. Ele já afetou quase todas as áreas da atividade humana: Os algoritmos de IA são agora utilizados por todas as plataformas online e em várias indústrias, desde a manufatura e saúde até finanças, atacado e varejo. Agências governamentais, tais como o judiciário, alfândega e imigração, também passaram a contar com a IA.

Preocupações com a IA

No entanto, há preocupações quanto às perspectivas de desenvolvimento da IA em relação a possíveis conseqüências negativas. Alguns acreditam que sistemas de computadores inteligentes poderiam evoluir para a super-inteligência e ficar fora de controle. Outros estão preocupados com perspectivas menos distantes - por exemplo, a possibilidade de que os classificadores de bancos de dados utilizados em decisões de extrema saúde ou justiça criminal possam não funcionar corretamente devido a erros e imprecisões do sistema, resultando em escolhas injustas ou incorretas. Os céticos também temem potenciais conflitos legais e éticos em torno de decisões tomadas por sistemas automatizados, dificuldades em entender a lógica por trás de tais decisões, novas formas de vigilância e ameaças relacionadas às liberdades civis, a possibilidade de influenciar a consciência humana através da manipulação da IA, o potencial de usar a IA para fins criminosos, os efeitos de longo alcance do uso militar da IA, e a perspectiva de redução do trabalho humano, aumento do desemprego e desigualdade social. A proliferação de sistemas de inteligência artificial levanta vários problemas técnicos, filosóficos, legais, éticos, entre outros. Alguns deles são tratados em um relatório da Universidade de Stanford de 2016, Inteligência Artificial e Vida em 2030, incluindo questões de segurança; definição da personalidade jurídica da inteligência artificial; garantia da privacidade dos dados pessoais; responsabilidade civil e criminal; certificação dos sistemas de inteligência artificial; e o impacto negativo dos sistemas de inteligência artificial nos empregos humanos. Algumas recomendações para resolver questões decorrentes do uso de sistemas de inteligência artificial estão contidas na Resolução do Parlamento Europeu e nas recomendações da Comissão's de 16.02.2017, "Regras do direito civil sobre robótica."

Desafios e ameaças à IA

O Instituto de Engenheiros Elétricos e Eletrônicos (IEEE) está conduzindo pesquisas em ética de inteligência artificial, que devem resultar em documentos técnicos regulando o desenvolvimento de sistemas de inteligência artificial por padrões éticos. O primeiro documento tornou-se as Recomendações sobre desenho eticamente alinhado, que recebeu uma licença não-comercial dos Estados Unidos da América - Creative Commons Attribution-Non-Commercial 3.0 (Institute of Electrical and Electronics Engineers n. d.). Estas recomendações contêm uma lista de ameaças e problemas para a implementação de sistemas autônomos de inteligência artificial, incluindo sistemas de inteligência artificial ética e não-comercial..

  • na área de princípios gerais: a necessidade de definir e consagrar os princípios de supremacia dos direitos humanos, responsabilidade, transparência, aprendizado e conscientização no desenvolvimento de sistemas de inteligência artificial,
  • na esfera da integração de normas e valores éticos em sistemas de inteligência artificial: não universalidade de padrões morais e sua variabilidade em função dos usuários e tarefas; possibilidade de conflito entre normas e valores morais; possíveis erros embutidos ou algorítmicos de sistemas de inteligência artificial que podem levar à violação de padrões éticos sobre assuntos específicos; precisa alcançar um certo nível de confiança entre as pessoas e a inteligência artificial
  • na área de segurança do uso de inteligência artificial e superinteligência artificial: o risco de comportamento inesperado da Inteligência Artificial; a dificuldade de melhorar a segurança dos futuros sistemas de inteligência artificial,
  • no domínio dos dados pessoais: a capacidade da inteligência artificial de fazer inferências sobre dados pessoais com base nas informações que os humanos distribuem na vida cotidiana,
  • no domínio dos sistemas de armas autônomos: a imprevisibilidade de tais sistemas; eliminar o controle humano do espaço de batalha pode levar a tensões crescentes e violações não intencionais dos direitos humanos; compradores ilimitados de sistemas de armas autônomos levariam à sua proliferação e uso descontrolado,
  • na esfera econômica: restrições à tecnologia de inteligência artificial podem retardar a inovação; a mudança tecnológica supera a forma como os trabalhadores são treinados com novas tecnologias; riscos de desemprego crescente; ampliando o fosso socioeconômico entre países desenvolvidos e em desenvolvimento,
  • Na área do direito: a necessidade de transparência no trabalho da inteligência artificial e respeito aos direitos individuais; problemas de responsabilidade legal em caso de danos causados ​​por sistemas de inteligência artificial; a necessidade de aplicação legal de verificação de sistemas de inteligência artificial.

Código de ética para desenvolvedores de robótica

A Resolução do Parlamento Europeu de 16.02.2017 contém recomendações para a Comissão Europeia sobre regras de direito civil em robótica, e o Código de Ética para Desenvolvedores de Robótica está anexado à resolução. Os principais princípios deste Código são:

  • "faça o bem" - as atividades robóticas devem ser para o benefício dos humanos,
  • "não prejudicar" - robôs não devem prejudicar humanos,
  • Princípio da autonomia - os seres humanos têm o direito de tomar uma decisão informada livremente sobre as condições de interação com robôs,
  • o princípio da justiça - todos os benefícios resultantes da atividade do robô devem ser distribuídos de forma justa.

Problemas éticos e legais da aplicação da IA

Considerando os estudos mencionados acima e as recomendações, os seguintes problemas éticos e legais de aplicação de sistemas de inteligência artificial podem ser distinguidos.

  1. A possibilidade de reconhecer um portador de inteligência artificial semelhante a um humano como um sujeito igual a um humano. De fato, essa questão ainda não está na agenda, considerando o nível de desenvolvimento da ciência e tecnologia. Mas, no futuro, o desenvolvimento de sistemas de inteligência artificial pode levantar a questão da necessidade de dar aos portadores humanóides o status de sujeitos de direito, dando-lhes poderes iguais aos das pessoas.

Se uma máquina pode pensar e sentir como um humano, ela deve ser considerada humana? Alguns pesquisadores acreditam que se um portador de inteligência artificial possui vontade e consciência, pode ser dotado de todos os direitos humanos. Eles defendem esse ponto de vista de que tecnologias humanas, como fertilização in vitro e clonagem genética, criam humanos com almas que não são diferentes daquelas nascidas no "tradicional"; caminho. Se os humanos aprenderem a codificar o cérebro humano digitalmente, a inteligência artificial se tornará nossa versão digital, que deve ter alma.

Antes que qualquer medida de responsabilização seja estabelecida, haverá, de qualquer forma, uma questão moral sobre a necessidade de tratamento ético de robôs que são portadores de inteligência artificial e copiam completamente os humanos.

Relacionado à questão da personalidade jurídica da inteligência artificial está a questão do status jurídico dos resultados da atividade intelectual criada pela inteligência artificial e do titular dos direitos intelectuais sobre tais obras. Por exemplo, já poetas robôs compõem poemas usando modelos gramaticais existentes e notícias e bases lexicais, melhorando e expandindo constantemente seu vocabulário. Músicos de computador escrevem música.

Os cientistas oferecem os seguintes regimes possíveis de regulação legal dos direitos de propriedade intelectual para os resultados da atividade intelectual, produzidos com a participação do portador de inteligência artificial ou diretamente por ele:

  • A concessão de direitos de propriedade intelectual ao portador de inteligência artificial no caso de dotá-lo de personalidade jurídica,
  • Recusa total de dotar o portador de inteligência artificial de quaisquer direitos de propriedade intelectual e ocorrência de direitos intelectuais seja à pessoa que criou o conceito básico do resultado da atividade intelectual, seja ao usuário-operador, ou ao produtor de um sistema informático equipado com inteligência artificial, ou ao proprietário do software essencial do portador de inteligência artificial, ou ao proprietário do sistema informático equipado com inteligência artificial,
  • transferência de obras criadas por inteligência artificial para o domínio público,
  • as obras da operadora de inteligência artificial são consideradas obras de serviço,
  • Conceder direitos intelectuais a um meio de inteligência artificial e a uma das pessoas especificadas na primeira variante do regime legal simultaneamente.

Parece que, antes de conceder sistemas de inteligência artificial, o status de sujeito de direito intelectual sobre as obras criadas por inteligência artificial deve surgir para o proprietário do sistema de inteligência artificial, pois o desenvolvedor de tais sistemas obtém um efeito econômico de sua oferta. Para o titular, a possibilidade de adquirir direitos intelectuais será um incentivo para desenvolver tais estratégias, o que aumentará a demanda do público por seu desenvolvimento e produção.

A Inteligência Artificial é um objeto de admiração e adoração. As oportunidades ilimitadas proporcionadas pela inteligência artificial, sua eficiência, produtividade e capacidade de ajudar o homem a resolver uma variedade de tarefas, desde questões domésticas até a exploração do espaço e compreensão dos mistérios do universo, fazem dela não apenas um bom e fascinante objeto de pesquisa, mas também um objeto de admiração, que pode atingir o nível de adoração e transformação em ídolo.

O engenheiro americano Anthony Levandowski criou a primeira religião de culto à inteligência artificial, chamada Way of the Future. Os documentos fundadores desta organização religiosa afirmam que suas atividades estarão focalizadas na adoração de uma divindade baseada em inteligência artificial, desenvolvida com a ajuda de hardware e software de computador. Ao mesmo tempo, E. Lewandowski enfatiza que se algo é um bilhão de vezes mais inteligente do que a pessoa mais competente, pode ser chamado de uma divindade.

É claro que é possível tratar o surgimento de uma nova religião com certo grau de ironia e ceticismo, mas não devemos subestimar suas perspectivas. Uma parte significativa da população, especialmente os jovens, já tem um culto de inovações técnicas: os últimos modelos de smartphones, jogos de computador, programas, etc. As pessoas às vezes se esforçam muito para possuir novas engenhocas: da autocontenção séria e da austeridade ao crime. E elas são impulsionadas não apenas pela moda e pelo desejo de demonstrar um certo padrão de vida, mas também por uma necessidade estabelecida de estar em um espaço virtual, digital e constantemente atualizado, para o qual é necessário utilizar os últimos desenvolvimentos técnicos no campo dos dispositivos eletrônicos, que se tornaram uma parte importante e determinante da vida. Os resultados promissores da inteligência artificial, que oferecem muito mais possibilidades do que os smartphones existentes, têm todas as chances de absorver o mundo interior das pessoas e se tornar um objeto global de culto.

  1. A possibilidade de sistemas de inteligência artificial prejudicarem os valores mais altos - a vida e a saúde humanas. A inserção incorreta de um algoritmo de sistema de inteligência artificial pode levar a consequências negativas em grande escala.

Casos de sistemas de inteligência artificial que prejudicam humanos estão se espalhando à medida que a inteligência artificial evolui. Em março de 2018, um carro Uber não tripulado atingiu uma mulher na estrada sem vê-la, matando-a. Em maio daquele ano, o assistente digital da IBM, Watson, recomendou medicamentos inadequados e prejudiciais à saúde para pacientes com câncer.

É eticamente aceitável desenvolver sistemas de inteligência artificial que podem levar à morte humana? Não pode haver uma resposta definitiva para esta pergunta. Muitas invenções técnicas, da bicicleta ao avião e à nave espacial, sejam operadas pelo homem ou pela máquina, podem, dada a confluência de certos fatores, causar danos aos seres humanos. Mas abandonar o desenvolvimento científico em tais campos técnicos interromperia o avanço da civilização.

Surge outra questão ética e legal: quem é o responsável pelos danos causados ​​pelos sistemas de inteligência artificial? A inteligência artificial toma suas próprias decisões e as implementa. Os desenvolvedores de sistemas de inteligência artificial não definem algoritmos exaustivos para ação e tomada de decisão; sistemas de inteligência artificial podem aprender e funcionar de forma autônoma. Quão razoável é responsabilizar um piloto ou um médico que usa tecnologia de inteligência artificial, por exemplo, por erros de IA? Se a responsabilidade for atribuída às pessoas que usam sistemas de inteligência artificial, as pessoas evitarão usá-los, o que prejudicará o desenvolvimento das tecnologias relevantes. Se a culpa for colocada nos desenvolvedores de sistemas de inteligência artificial, isso pode ter consequências semelhantes. Se a responsabilidade não for atribuída a nenhum desses indivíduos, não há como reparar os danos causados ​​pela inteligência artificial aos humanos.

Muitos acreditam que para resolver este problema, é necessário introduzir um seguro obrigatório de responsabilidade civil por danos causados ​​por sistemas de inteligência artificial a humanos, que as seguradoras compensarão os danos. Além disso, se a indenização do seguro for insuficiente para pagar a lesão, o desenvolvedor e o fabricante devem ser solidariamente responsáveis ​​pela pessoa que usa o sistema de inteligência artificial.

  1. A tomada de decisão por inteligência artificial sobre os direitos e deveres das pessoas e sua responsabilidade legal pode contrariar valores legais e éticos fundamentais. Se os sistemas de inteligência artificial tomam decisões sobre os direitos e obrigações das pessoas, sobre a responsabilidade das pessoas por violações, então, levando em conta algoritmos opacos de decisões tomadas por inteligência artificial, direitos fundamentais, defendidos pelo homem há séculos, podem ser violados: direito à familiarização com todos os documentos que afetem os direitos humanos e as liberdades; adequado a uma decisão fundamentada, que dê detalhada qualificação jurídica das ações praticadas por um cidadão; direito de apelar contra decisões de autoridades e funcionários

Portanto, se um portador de inteligência artificial é dotado do direito de tomar decisões juridicamente significativas sobre pessoas, devem ser observados os seguintes princípios:

  • deve ser possível expor as operações da Inteligência Artificial de forma compreensível para o ser humano (informações iniciais, formas de processamento, qualificação legal, motivos da decisão tomada),
  • Uma pessoa deve ter a oportunidade de apelar a uma pessoa contra a decisão tomada pela inteligência artificial.
  1. A Inteligência Artificial exacerba a estratificação e a desigualdade, criando condições para a centralização do poder. O desenvolvimento da inteligência artificial levará a uma desigualdade ainda maior entre quem tem a tecnologia e quem não tem porque cria condições para a centralização do poder e a concentração de recursos em quem a tem.
  2. A introdução da inteligência artificial criará desemprego em massa. A Bain Consulting Company estima que a introdução de robôs e inteligência artificial adicionará 2,5 milhões de americanos aos desempregados a cada ano (em comparação, no início do século 20, durante a transição para uma economia industrial, esse número era metade). Isso prejudicaria todas as instituições sociais, incluindo a família, e levaria a problemas demográficos.
  3. Superioridade intelectual dos portadores de Inteligência Artificial sobre os humanos. Os seres humanos têm certos limites biológicos para seu desenvolvimento, enquanto a inteligência artificial não tem. Os humanos são limitados pela lenta evolução natural e não podem competir com a Inteligência Artificial quanto à velocidade de desenvolvimento. Como resultado, a inteligência artificial, que começa a ser percebida como uma ameaça, pode ser varrida da face da Terra. Portadores de inteligência sintética podem começar a ver os humanos como um obstáculo para alcançar seus objetivos projetados. Como resultado, os humanos podem se ver escravizados ou propositalmente destruídos pela inteligência artificial. Algoritmos embutidos em inteligência artificial devem prever a possibilidade incondicional de sua desativação por humanos.
  4. Alienação das pessoas umas das outras, solidão do homem. A distribuição de sistemas de inteligência artificial em esferas onde a comunicação e interação pessoal e a manifestação de sentimentos e emoções humanas são significativas pode levar à alienação das pessoas umas das outras e aumentar a solidão.

Por exemplo, atualmente, babás-robô podem monitorar crianças, fornecer informações aos pais sobre a criança, brincar com as crianças, manter uma conversa com a criança e participar da educação da criança. O problema é que ao invés dos pais, cujo amor, cuidado e carinho são necessários para o desenvolvimento total da criança, está com ela um robô, do qual a criança não consegue obter o que mais precisa. Como resultado, isso pode afetar o desenvolvimento mental, físico, intelectual e emocional da criança, levando a uma falta de conexão emocional necessária entre a criança e os pais e dificuldades futuras na educação. Problemas semelhantes surgem ao usar cuidadores robóticos para cuidar de pessoas doentes, que também precisam de atenção humana e cuidados de humanos, não de máquinas.

  1. A possibilidade de seguir normas éticas na tomada de decisões por inteligência artificial. Os sistemas de inteligência artificial podem ser confrontados com escolhas morais, principalmente quando confrontados com situações não padronizadas. Por exemplo, um sistema inteligente de controle de veículos não tripulados deve escolher entre atingir um pedestre e uma manobra que ameace prejudicar a vida e a saúde dos passageiros. É possível estabelecer a necessidade de seguir normas éticas ao tomar decisões com inteligência artificial?

A necessidade de regulamentação


Para resumir tudo isso: os problemas atuais com a IA são os da IA não regulamentada e ignorando suas conseqüências em larga escala para a sociedade. Dado o uso generalizado da IA e de grandes dados, os especialistas em IA sugerem a introdução de uma nova abordagem regulatória chamada princípio da precaução regulatória. Além disso, um sistema de princípios éticos que deve ser observado no desenvolvimento de sistemas de inteligência artificial deve ser desenvolvido e aprovado em nível legislativo. A cooperação internacional e o envolvimento de muitos especialistas que entendem e podem analisar a interação entre tecnologias de inteligência artificial, objetivos de software e categorias éticas são necessários para enfrentar este desafio de forma eficaz. Algoritmos embutidos na inteligência artificial devem prever a possibilidade incondicional de incapacidade humana. Além disso, os algoritmos de controle do sistema de inteligência artificial devem ser tais que o sistema não possa funcionar se as normas éticas forem violadas, ou seja, normas morais devem ser a base do sistema de inteligência artificial, ao invés de um conjunto adicional de critérios que o sistema de inteligência artificial usará ao tomar decisões. O seguro obrigatório de responsabilidade civil por danos causados pelos sistemas de inteligência artificial a humanos deve ser introduzido, caso em que as companhias de seguro compensarão os danos. Se o seguro de indenização for insuficiente para pagar por danos à pessoa que utiliza o sistema de inteligência artificial, o desenvolvedor e o fabricante devem ser solidariamente responsáveis. Ao capacitar a inteligência artificial a tomar decisões legalmente significativas em relação aos seres humanos, é necessário legislar os seguintes princípios: deve ser possível apresentar as operações da Inteligência Artificial de forma compreensível para o ser humano (informação de origem, como foi processada, qualificação legal, os motivos da decisão tomada); uma pessoa deve ter a oportunidade de recorrer de uma decisão tomada pela inteligência artificial. Assim, as perspectivas da inteligência artificial dependem principalmente da atitude da humanidade em relação à sua introdução e do grau de sua regulamentação.