Desenvolvimento de soldados-robôs é ameaça à humanidade
Soldados-robôs tornarão as guerras mais devastadoras: máquinas não comandadas por humanos estão sendo desenvolvidas em potências bélicas para atuar no lugar de combatentes; organizações humanitárias preocupam-se com possível cenário
Mariana Gonçalves, Outras Palavras
Os sistemas de armas autônomas são tecnologias desenvolvidas para buscar, identificar e atacar alvos num conflito armado sem nenhuma intervenção de um operador humano. Sem alguém que a comande para agir, o sistema pode aprender a adaptar seu funcionamento de acordo com as circunstâncias em que é posto, a partir de algoritmos e programas que lhe são registrados.
Essa tecnologia ainda está em fase de desenvolvimento, e armas desse tipo ainda não foram levadas aos campos de batalha. Os principais países que têm estudado e buscado aprimorar esses robôs são Estados Unidos, China, Rússia, Reino Unido e Israel, querendo reforçar seu potencial militar. Apesar de as armas mais avançadas ainda não existirem, sistemas autônomos mais básicos, como drones capazes de selecionar e mirar alvos, já foram levados a batalhas no Iêmen, por exemplo. O tema está no centro de debates e pesquisas da área, e é possível que se torne uma característica da guerra no futuro.
Defensores desses sistemas argumentam que, além de poupar vidas de combatentes, os sensores sofisticados e a inteligência artificial empregada pelas máquinas as torna melhores que os humanos na hora de identificar objetivos militares para atacar, evitando danos não intencionais (à população civil, por exemplo) num conflito. Outra vantagem é que as armas não seriam influenciadas por emoções negativas como medo, raiva ou desejo de vingança.
Ainda não há consenso, no entanto, sobre a capacidade dessas armas de fazer avaliações complexas e dependentes de contexto durante as ações. Algumas questões que levantam dúvidas dizem respeito à sua competência para diferenciar objetivos militares de bens de caráter civil e para alterar, cancelar ou suspender ataques quando é evidente que seus danos serão desastrosos. Uma máquina também não teria emoções positivas, como a compaixão.
Por que essas armas podem ser um problema
Para o assessor jurídico do Comitê Internacional da Cruz Vermelha (CICV), Gabriel Valladares, um dos aspectos mais problemáticos das armas autônomas é que, por não terem características humanas, elas talvez não possam cumprir com as normas do Direito Internacional Humanitário (DIH) em situações de conflitos armados. “Nossa expectativa é que os Estados não adotem essas armas a menos que isso verdadeiramente se comprove”, diz.
O Direito Internacional Humanitário é um conjunto de normas que busca equilibrar as necessidades militares e as considerações da humanidade em situações de conflitos armados, limitando o direito das partes de escolher livremente os métodos e meios utilizados para a guerra. Seu principal objetivo é proteger bens e populações civis de eventuais hostilidades. Nesse contexto, se as armas que atuam nas guerras não têm capacidade de agir de acordo com essas diretrizes — como é possível no caso das máquinas autônomas —, a quantidade crimes de guerra em conflitos futuros pode aumentar exponencialmente, causando ainda mais danos às populações em áreas de risco.
Segundo Valladares, o CICV tem se reunido com os Estados e representantes da comunidade acadêmica para discutir as limitações e potencialidades das máquinas autônomas. “Estamos levando nossas preocupações, tanto no plano normativo [relativo à lei] como na reflexão ética sobre a utilização dessas armas”, afirma. Isso porque a introdução de sistemas autônomos seria uma mudança de paradigma na condução das hostilidades em guerras — na medida em que, agora, as máquinas tomariam decisões sobre a vida e a morte de seres humanos. “Uma pergunta que temos que fazer é se estamos dispostos, como sociedade humana, a deixar que isso aconteça”, completa.
Alguns princípios do DIH
Para que os Estados as adotem e elas possam participar das guerras, diz Valladares, é preciso que seja comprovado que as armas autônomas podem cumprir com os princípios do Direito Internacional Humanitário. O documento “Derecho internacional humanitario — Respuestas a sus preguntas”, feito pelo CICV, apresenta quais são eles:
Distinção: As partes num conflito armado devem distinguir civis e bens de caráter civil, de um lado, e combatentes e objetivos militares, do outro. Apenas estes últimos podem receber ataques.
Proporcionalidade: É permitido lançar um ataque contra combatentes e objetivos militares num conflito armado desde que a parte avalie com antecedência se o número de mortos e feridos não será excessivo em relação à sua vantagem militar.
Precaução: As partes num conflito armado devem ter cuidado constante com a população e os bens civis, tomando todas as precauções possíveis para garantir que os objetivos que pretendem atacar seja, de fato, objetivos militares.
Evitar danos desnecessários: É proibido empregar armas, projéteis, materiais e métodos de guerra que causem danos supérfluos ou sofrimentos desnecessários. Segundo a Corte Internacional de Justiça, se enquadra nesse tipo de sofrimento todo “dano maior do que o inevitável para se atingir objetivos militares legítimos”.
Quem é responsável pelas mortes?
O Direito Internacional Humanitário ainda não estabeleceu uma regra específica sobre as armas autônomas. Valladares aponta que, em casos de violações de direitos humanitários cometidas em conflitos armados por esses sistemas, devem valer, no entanto, as normas de longa data: distinção, proporcionalidade e precaução no ataque são princípios que se aplicam a todas as novas armas e avanços tecnológicos das guerras.
Atualmente, o desafio dos Estados é assegurar que as armas autônomas sejam capazes de cumprir com todas as normas do DIH. Mas ainda não está claro como esses sistemas reagem a filtros éticos e podem atuar nos conflitos.
Além disso, por se tratar de uma máquina, uma arma autônoma não poderia ser responsabilizada por uma violação do Direito Internacional Humanitário. Nesse contexto, a comunidade jurídica se pergunta que agentes deveriam ser legalmente responsáveis por seus crimes — os programadores, os fabricantes ou os comandantes que as empregaram — e se, na impossibilidade de julgá-los, é realmente legal ou ético adotar esse tipo de sistema.