Os robôs estão gradualmente entrando em todas as áreas da vida humana. Utilizamos vários dispositivos robóticos, tais como aspiradores de robôs, mesmo na vida cotidiana. É claro que a introdução de robôs na esfera militar não passou despercebida. Entretanto, os humanos ainda combatem conflitos militares, que às vezes resultam na perda de dezenas de milhares de vidas. Daí surge a pergunta: os robôs podem substituir completamente os humanos no futuro? A guerra entre robôs é possível, enquanto os humanos apenas a observam? Ao mesmo tempo, não enfrentaremos conseqüências terríveis na forma de cidades destruídas, mortes de civis, alistamento forçado e envio para a frente de batalha..
Além disso, os robôs não têm nenhum elemento humano. Isso significa que eles observarão todas as leis da guerra. Em tempos de perigo, os robôs venceram' não dispersarão ou deixarão o exército, nem começarão a pilhar, aterrorizando a população local, e cometendo outros crimes.
E as capacidades dos robôs de combate serão bem conhecidas da liderança militar. Isso significa que há menos possibilidade de superestimar suas próprias forças e falhas em operações militares particulares, como no caso da força vital. A lista de outras vantagens dos robôs de combate é longa. Mas quão realista é seu uso em vez de humanos, ou eles representam um perigo para a humanidade em e de si mesmos?
História dos robôs de combate
A idéia de usar máquinas em vez de humanos na guerra surgiu há muito tempo. O primeiro UAV foi criado em 1935 na Grã-Bretanha. O dispositivo tinha um controle remoto e podia voar a uma distância de até 5 quilômetros com uma velocidade máxima de 170 km/h. Entretanto, não era bem um veículo de combate, pois o drone era aplicado apenas como um alvo de treinamento.
Os primeiros zangões que puderam realizar missões de reconhecimento de combate apareceram nos EUA em 1948. Os AQM-34s tiveram bom desempenho em testes e foram colocados em produção em massa três anos mais tarde.
Robôs de combate modernos
Atualmente, muitas empresas em todo o mundo estão se concentrando no desenvolvimento de robôs andantes. Um robô de combate de quatro patas foi projetado em 2005. Ele poderia transportar cargas de até 110 kg e viajar a 6,5 km/h. O robô poderia até mesmo superar uma inclinação de 35 graus. Entretanto, era muito barulhento, o que é inaceitável para o exército.
Outros fabricantes mais tarde se concentraram em outra direção. Eles criaram uma espingarda particular para robôs de quatro patas. Ela foi equipada com uma câmera térmica com ampliação de 30x, o que permitiu ao operador detectar qualquer alvo vivo. A arma podia ser carregada com 6,5 milímetros ou 7,62 milímetros de munição. Mas estes robôs não podiam ser totalmente descritos como militares.
Um dos primeiros robôs genuinamente militares foi criado para reconhecimento e vigilância. O robô é equipado com metralhadoras, quatro granadas e armas laser. Ele possui um alto-falante, um sistema de detecção de incêndio e uma sirene. O veículo de combate tem autonomia de 12 horas. O robô pode operar em modo autônomo, mas o operador toma as decisões.
Vários complexos robóticos em plataformas sobre esteiras também foram criados para operações ofensivas e defensivas, mineração e desminagem de territórios, vigilância e engajamento de alvo, e patrulhamento da área e entrega de cargas.
Por que os robôs de combate não substituirão os humanos em breve?
Como podemos ver, os robôs de combate estão sendo cada vez mais introduzidos nas forças armadas, e a lista de tarefas que eles executam está em constante expansão. Como dito anteriormente, novos robôs permitem a conclusão mais eficiente de algumas tarefas de combate. Entretanto, estamos interessados não apenas em sua aplicação, mas na substituição total dos humanos por robôs.
Mas a introdução em massa de robôs é dificultada por vários problemas. Os robôs industriais, que são implementados ativamente nas instalações de produção, destinam-se a substituir o trabalho manual pesado e monótono. Assim, eles permitem aumentar a eficiência da produção e reduzir os custos de produção.
No caso de robôs de combate, a situação é a oposta - eles devem substituir especialistas altamente qualificados. Além disso, o risco de perder um robô-soldado de combate é injustificado. Equipamentos de alta tecnologia podem acabar nas mãos do inimigo, o que é altamente indesejável. Mas não se trata apenas do perigo de a tecnologia cair nas mãos do inimigo. O principal problema com a introdução em massa de robôs militares é seu alto custo.
Aumento das máquinas e outras desvantagens dos modernos robôs de combate
Os robôs modernos podem ser divididos em três tipos principais: totalmente controlados remotamente, semi-autônomos, que podem agir independentemente, mas o operador, e totalmente autônomo, toma todas as decisões. Dado o ritmo atual da guerra, os futuros robôs, para que possam substituir totalmente os humanos, devem agir de forma totalmente automática. Eles devem ser capazes de examinar os erros, ganhar experiência e auto-aprendizagem para que possam fazê-lo.
Recentemente, o impulso para o surgimento de máquinas totalmente autônomas tem sido o desenvolvimento de redes neuronais de auto-aprendizagem. No entanto, elas ainda não são perfeitas o suficiente para funcionar de forma completamente automática. Conseqüentemente, elas são adequadas apenas para ajudar as pessoas, não para lutar por si mesmas.
Mas mesmo que a IA torne possível a criação de máquinas totalmente autônomas, há sérios perigos associados ao seu uso. Durante a crise líbia em 2020, um quadcopter turco não tripulado, o Kargu-2, operando em modo autônomo, avistou e atacou o inimigo. Já existe um precedente para a destruição de pessoas pela IA.
Tem causado uma reação adversa por parte dos ativistas. No caso de um erro de software, pessoas inocentes podem morrer. Muitas empresas que desenvolvem robôs e organizações de direitos humanos escreveram uma carta aberta à Convenção da ONU, na qual exigiam a proibição do desenvolvimento e do uso de robôs autônomos.
Portanto, de acordo com muitos especialistas, os robôs paramilitares devem operar exclusivamente sob o controle dos militares. Sua operação independente deve ser descartada.
Os robôs totalmente controlados e semi-autônomos também têm uma desvantagem significativa - a necessidade de comunicação via rádio com o operador. Isso significa que eles são vulneráveis à guerra eletrônica. Praticamente todos os exércitos do mundo têm guerra eletrônica. Eles podem simplesmente cortar a comunicação entre o robô e o operador. Além disso, o sinal de rádio pode ser perdido devido a algum terreno.
Quem é mais rápido
Enquanto isso, os especialistas prevêem que os robôs e a inteligência artificial nos conflitos militares do século XXI irão aumentar exponencialmente. Uma nova corrida armamentista e até mesmo uma mudança de paisagem geopolítica estão associadas à total robotização da tecnosfera militar. Robotização não significa apenas saturação dos exércitos com todos os tipos de drones - voando, cavalgando ou flutuando. Elementos de autonomia e inteligência artificial permearão todas as áreas de confronto militar. Estão surgindo tecnologias que podem acrescentar as capacidades dos robôs de combate aos sistemas de armas tradicionais - complexos nucleares, sistemas de satélites, sistemas de defesa antimísseis, etc. Em breve, devemos esperar o aparecimento de novos tipos de armas e unidades: comandos cibernéticos, instalações de reconhecimento baseado em IA, veículos autônomos e unidades robóticas.
Quanto à nova corrida armamentista, ela já está em andamento. Nos 20 anos desde meados dos anos 80, os Estados Unidos, Grã-Bretanha, Alemanha, França, China e Israel aumentaram o financiamento para programas de criação de robôs de combate.
Os militares americanos acreditam que até 2030 a participação de sistemas não tripulados atingirá 30% da frota total de veículos de combate, resultando em um aumento de 2 a 2,5 vezes na capacidade de combate das unidades. Cerca de 200 protótipos de tais veículos surgiram nos EUA nos últimos 20 anos.
Hoje, mais de três dúzias de países estão desenvolvendo UAVs de vários tipos, e os exércitos de mais de cinqüenta países os têm em serviço. Nas últimas décadas, dezenas de milhares de sistemas de UAV têm estado envolvidos em conflitos militares. E a experiência de conflitos recentes no Oriente Médio mostrou que há drones disponíveis não apenas para exércitos regulares, mas também para unidades de guerrilha: é possível literalmente montar um drone kamikaze funcional a partir de fitas e bastões.
Robôs aprendem a pensar: bom ou mau
Os especialistas relacionam as perspectivas do complexo robótico (RTK) de combate ao desenvolvimento com a transição de sistemas controlados remotamente para sistemas autônomos capazes de resolver tarefas com o mínimo ou nenhum envolvimento humano. Eles próprios encontram o alvo, o identificam e o destroem. Ao mesmo tempo, existe um conjunto de riscos associados à exclusão dos seres humanos da cadeia de tomada de decisão. É chamado de "problema de controle humano significativo em fóruns internacionais. É possível delegar o direito de matar a uma máquina? Como os robôs inteligentes irão interagir com humanos, e um robô pode dar uma ordem a um humano?
E o próprio conflito militar passa de um confronto entre pessoas armadas (pelo menos parcialmente) para uma luta entre um humano e uma máquina pensante ou robôs entre si.
As armas totalmente autônomas podem estar fora da estrutura do direito humanitário internacional. Há também o problema da responsabilidade legal pelas ações cometidas: se um zangão mal identifica os alvos e usa armas sobre eles, quem será o responsável pelo erro?
Veículos parcialmente autônomos já existem e são utilizados ativamente - os seres humanos os controlam, mas programas específicos podem ser praticados de forma independente. Ainda não existem sistemas de combate totalmente autônomos baseados em inteligência artificial. Pelo menos não oficialmente. Mas alguns especialistas acreditam que elementos da IA são usados nos UAVs de ataque dos EUA. Comentários não oficiais até sugerem que os ataques com drones a objetos civis poderiam ter sido realizados precisamente por causa de um erro de IA.
Se a inteligência artificial pode competir no campo de batalha com o cérebro humano ainda é uma questão de debate. Os especialistas em inteligência artificial dizem: sim, absolutamente. Os militares duvidam disso. Redes neurais com aprendizado profundo requerem muito poder de computação e trabalho em conjuntos de dados verificados relevantes. Não se sabe como eles trabalharão com dados incorretos.
Elementos para robôs
Outro problema é como os RTKs autônomos serão capazes de executar tarefas em diferentes ambientes (ar, terra, água) e onde serão mais eficazes. Muitos especialistas acreditam que o cenário ideal para armas inteligentes é o mar.
O rápido desenvolvimento da vigilância e dos drones de ataque será uma tendência promissora para os próximos 30-40 anos. Flotilhas de veículos submarinos não tripulados serão capazes de garantir a segurança das formações de navios através da detecção de submarinos, minas e outros problemas. Alguns sensores já estão sendo instalados em submersíveis pilotados remotamente. medida que os sistemas de IA se desenvolvem e as tarefas de protocolo são prescritas, os submersíveis controlados serão substituídos por submersíveis autônomos.
Para o ambiente marinho, é relativamente fácil prescrever os algoritmos necessários. O ambiente aéreo é muito mais complicado; por exemplo, um drone de ataque terá que selecionar independentemente alvos em uma superfície complexa (relevo, edifícios residenciais) com vários objetos. Alguns deles têm que ser atingidos, enquanto outros não podem ser batidos em nenhum caso.
Se uma máquina é programada para um conjunto específico de tarefas, ela a cumprirá com mais eficiência do que um humano. Mas, em batalhas complexas combinadas com muitas informações e objetos diversos, ela pode se comportar como bem entender. Tecnicamente, este problema é resolúvel, inclusive com o uso de IA para processamento de dados. Gradualmente, as máquinas aprenderão a reconhecer imagens e serão capazes de identificar alvos não piores e possivelmente melhores do que os humanos. Entretanto, esta é uma tarefa difícil e, portanto, os veículos de ataque pilotados remotamente provavelmente estarão por perto por muito tempo.
Problemas e perspectivas de desenvolvimento futuro
As perspectivas de combate em terra RTKs continuam obscuras. Atualmente, os robôs terrestres são plataformas com rodas ou rastreadas que vão desde um carro controlado por rádio para crianças's até um pequeno tanque. Suas armas variam de pistolas a módulos com canhões automáticos, lança-granadas e mísseis anti-tanque guiados. Muitas empresas no mundo inteiro - de monstros de defesa a pequenas empresas privadas - estão tentando fazer algo semelhante hoje em dia. Em sua maioria são sistemas experimentais, e o alcance de suas tarefas não é muito claro.
Mas todos estes desenvolvimentos têm dois grandes problemas: o controle e a possibilidade de passagem. Manter um canal de comunicação no solo é muito mais complexo do que no ar - o terreno e os edifícios ficam no caminho. É por isso que a gama de RTKs com rodas e rastreados é muitas vezes ou mesmo ordens de magnitude menor do que a dos UAVs. Quanto à capacidade de atravessar o país, os robôs com rodas e sobre esteiras não se movem bem em terrenos acidentados, dificilmente (ou não se movem de forma alguma) superam áreas de ruínas sólidas e escadas. Eles não podem acompanhar soldados em combate de rua, em terreno rochoso, etc.
Portanto, a gama de tarefas atribuídas aos robôs de combate terrestre é limitada. É totalmente irrealista substituir soldados por eles ainda. Mas eles podem ajudar muito em combate e apoio logístico: reconhecimento, incluindo vigilância de combate, proteção e entrega de consumíveis. A função dos sistemas terrestres é também a remoção de minas e, a longo prazo - descontaminação de territórios, trabalho com radiação, proteção química e biológica.
No entanto, a busca por um sistema de propulsão para RTKs terrestres continua. A maioria dos especialistas russos e estrangeiros vêem o futuro nos sistemas de caminhada. Um humano só determina as condições sob as quais uma máquina identifica um alvo como hostil e abre fogo sem ordem ou, pelo menos, sem permissão do operador.
Desafios para a humanidade
Ela levanta muitos novos desafios para a humanidade, desde aplicações técnicas até questões políticas, legais e éticas. Se no uso tradicional de armas - incluindo zangões pilotados à distância - há sempre aquelas pessoas específicas que deram a ordem e puxaram o "trigger," então quem exatamente e como ser considerado culpado de assassinato, cuja decisão foi tomada por um robô autônomo de acordo com os algoritmos? Quem será responsável se o programa falhar e as máquinas começarem a matar civis, médicos, mantenedores da paz, ou seus próprios militares? Quem poderá dizer com certeza se foi um mau funcionamento, um hack, ou uma imitação maliciosa de um erro? Quem será considerado responsável se a máquina de guerra ficar totalmente fora de controle e começar a matar todos os que puder?
Questões legais e éticas
Na ONU, o tema dos veículos de combate autônomos e sua conformidade com o direito humanitário internacional, o direito dos direitos humanos e a convenção sobre "desumane" as armas estão em ativa discussão desde 2013. Propostas para impor uma moratória geral ao desenvolvimento e operação de sistemas autônomos de combate têm sido feitas repetidamente, mas nenhuma decisão e ação drásticas foram tomadas até agora.
Nas consultas patrocinadas pela ONU em Genebra em 2018, apenas 26 dos 88 países que participaram apoiaram a proibição dos sistemas de combate autônomos - e as principais potências militares não estavam entre eles. As delegações puderam chegar a um acordo sobre uma dúzia " princípios potenciais" da natureza mais geral: que os desenvolvimentos obedeçam " princípios humanistas" e que a responsabilidade por seu uso deve ser assumida por pelo menos um ser humano de qualquer forma.
A resolução do Parlamento Europeu de 2018 e a campanha de 2019 para proibir robôs de combate autônomos liderada pelo Prêmio Nobel da Paz Jody Williams - embora 130 organizações da sociedade civil de 60 países e o Secretário-Geral da ONU António Guterres aderiram. Até hoje, os sistemas autônomos de combate estão em uma zona cinza "zona cinza" do direito internacional humanitário e militar.
Human Rights Watch's Stop Killer Robots campaign in August 2020 found the support of already 165 organizations from 65 countries - but only 30 of almost 200 countries have spoken out in favour of banning combat robots.
Fóruns internacionais e reuniões de representação variada sobre a proibição de veículos de combate autônomos são realizados regularmente em diferentes partes do mundo - mas não há perspectivas sérias de proibição de robôs de combate porque a demanda por tais sistemas nos dias de hoje's militares é muito grande e continuará a crescer no futuro.
O humanismo e a aversão à violência estão crescendo de forma constante na maioria das sociedades do planeta. De acordo com pesquisas, o número de pessoas dispostas a ir pessoalmente à batalha com uma arma nas mãos em vez de sentar-se atrás de um console de drone em um bunker seguro está caindo em um número crescente de países. O mesmo vale para a disposição de prejudicar os outros, mesmo que sejam inimigos militares.
Além disso, uma máquina autônoma pode ter incomparavelmente melhor velocidade de reação e precisão do que qualquer operador humano. O dispositivo não questiona a ética e a legitimidade da participação em alguma operação em particular, especialmente uma operação não muito oficial. A responsabilidade acaba se tornando indistinta, o que às vezes é muito conveniente quando ninguém quer ser responsável pelas conseqüências.
Um grande problema à parte será inevitavelmente a combinação de sistemas de combate autônomos com redes neurais. As redes neurais podem aumentar significativamente a flexibilidade, adaptabilidade e eficiência geral dos veículos de combate, tornando-os auto-aprendizados e letais - isto torna seu comportamento muito menos previsível mesmo para os desenvolvedores.
Tudo isso abre uma série de questões complexas que, de uma forma ou de outra, terão de ser resolvidas nas próximas décadas. A intensidade da discussão internacional sobre sistemas de combate autônomos aumentará em paralelo com o poder de sua aplicação em combate. Muito dependerá da prática de seu uso: de sua real eficácia e utilidade no campo de batalha para os militares e do número de tragédias de alta visibilidade associadas ao seu serviço. Talvez as futuras guerras se transformem em confrontos entre exércitos de robôs quase sem a participação humana. Possivelmente, a pressão pública será tão intensa e os benefícios do uso tão questionáveis que as próprias potências militares líderes acabarão por achar conveniente manter a proibição e monitorar sua implementação. Entretanto, mesmo neste caso, o curso do progresso levará ao fato de que muito em breve, um veículo de combate autônomo, incluindo um com uma rede neural, poderá ser montado "na garagem. Isso resultará em outra montanha de complicados problemas militares, sociais e políticos.
Uma coisa é clara: nenhuma batalha de máquinas, não de pessoas, está fora de questão em breve. Entretanto, o uso em massa de robôs para fins militares é apenas uma questão de tempo.