Leis sobre as LEIS: A Regulação dos Sistemas de Armas Autônomos Letais

Resumo:

- O artigo aborda o debate em torno do desenvolvimento e regulamentação dos Sistemas de Armas Autônomas Letais (LEIS), destacando perspectivas otimistas, pessimistas e realistas.
- As definições técnicas e jurídicas das LEIS são exploradas, incluindo a classificação em armas totalmente autônomas, autônomas e semiautônomas, além de exemplos de sistemas de armas com diferentes níveis de autonomia.
- São propostas opções para orientar ações futuras na regulamentação das LEIS, como desenvolver um entendimento comum, adotar uma abordagem de baixo para cima e fortalecer a norma contra essas armas autônomas.

Resumo criado por JUSTICIA, o assistente de inteligência artificial do Jus.

Por Sitara Noor, Laws on LAWS: Regulating the Lethal Autonomous Weapon Systems, tradução de Icaro Aron Paulino Soares de Oliveira.

ABSTRACT

O desenvolvimento de sistemas de armas autônomos letais (em inglês: lethal autonomous weapons systems - LAWS, ou LEIS) provocou um amplo debate sobre a sua utilização e regulamentação. Este artigo investiga as perspectivas contrastantes de otimismo, pessimismo e realismo em torno das LEIS. Os optimistas veem as LEIS como uma revolução nos assuntos militares, enquanto os pessimistas levantam preocupações sobre os seus efeitos desestabilizadores e implicações éticas. Os realistas defendem o desenvolvimento regulamentado e uma melhor compreensão. Este artigo examina o debate em curso, a necessidade de um entendimento comum das LEIS e propõe opções de regulamentação. Explora as definições técnicas e jurídicas das LEIS, analisa os argumentos a favor e contra a regulamentação e discute caminhos potenciais para enfrentar os desafios colocados pelas LEIS. O artigo enfatiza a importância da cooperação internacional e destaca os riscos da adoção não regulamentada de LEIS. Ao encontrar um terreno comum e reforçar as normas contra o uso desenfreado, pretende contribuir para o desenvolvimento de leis e regulamentos que promovam a paz e a segurança globais.

Não há nada mais difícil de controlar, mais perigoso de conduzir ou mais incerto no seu sucesso, do que assumir a liderança na condução de uma nova ordem de coisas.

— Nicolau Maquiavel, O Príncipe.

Durante mais de uma década, tem havido uma preocupação crescente com o desenvolvimento dos Sistemas de Armas Autônomas Letais (LEIS), armas capazes de selecionar e atacar alvos sem intervenção humana, também conhecidas como robôs assassinos. A invenção das LEIS é vista como a “terceira revolução na guerra”, sendo o seu desenvolvimento considerado tão significativo em termos de impacto como a pólvora e as armas nucleares.1 Vários Estados, organizações não governamentais internacionais (ONGs), sociedade civil, incluindo a inteligência artificial (IA), trabalharam de forma independente e conjunta em diferentes níveis para impedir e regular o uso destas máquinas letais.

No entanto, o debate em torno deste novo desenvolvimento é fragmentado e marcado por pontos de vista divergentes, resultando na falta de progressos regulamentares significativos. O fracasso na obtenção de um consenso pode ser atribuído, em parte, à natureza inerentemente secreta e opaca do sistema de armas, que dificulta a transparência entre os Estados envolvidos no seu desenvolvimento.

Este artigo tem como objetivo analisar o debate em curso sobre as LEIS e a necessidade premente de regulamentar estes sistemas de armas em rápido avanço. Para atingir este objetivo, o artigo abordará primeiro a questão da definição das LEIS e examinará os principais argumentos a favor e contra o controle e regulação destes sistemas. Finalmente, será feita uma tentativa de identificar um caminho viável a seguir e explorar caminhos potenciais que os Estados em desenvolvimento e possuidores possam seguir.

1 O QUE SÃO OS SITEMAS DE ARMAS AUTÔNOMAS LETAIS?

Vários sistemas de armas, como minas terrestres e navais, incorporaram um certo grau de autonomia na sua operação, um conceito que não é inteiramente novo. As minas navais, por exemplo, têm sido utilizadas na guerra desde o século XVI, com o primeiro uso conhecido de torpedos explosivos flutuantes datando de 1777, durante a Guerra Revolucionária Americana.2 Atualmente, vários países empregam sistemas de armas com vários níveis de autonomia, incluindo o Sistema Phalanx Close-In Weapon (CIWS) dos EUA, a munição vagante HARPY israelense e o Domo de Ferro, a Arena Russa e o Sistema de Defesa Ativo AMAP alemão (ADS).3

Embora a autonomia em sistemas de armas seja um conceito predominante, persiste confusão em relação à definição técnica e jurídica dos Sistemas de Armas Autônomas Letais (LEIS). Isto deve-se principalmente à ausência de uma definição universalmente aceita, com apenas algumas explicações fornecidas por diferentes organizações para elucidar a sua posição sobre as LEIS. O Comitê Internacional da Cruz Vermelha (CICV) define as LEIS como “qualquer sistema de armas com autonomia em suas funções críticas – isto é, um sistema de armas que pode selecionar (isto é, procurar ou detectar, identificar, rastrear, selecionar) e atacar (isto é, usar a força contra, neutralizar, danificar ou destruir) alvos sem intervenção humana.”4 A política de defesa dos EUA de 2022 sobre as LEIS define-as como “uma classe especial de sistemas de armas que utilizam conjuntos de sensores e algoritmos de computador para identificar independentemente um alvo e empregar um sistema de armas para atacar e destruir o alvo sem controle humano manual do sistema.”5 Uma definição anterior delineada na Diretiva 3000.09 do Departamento de Defesa (DODD) dos EUA descreve as armas autônomas como “sistemas de armas que, uma vez ativados, podem selecionar e atacar alvos sem intervenção adicional de um operador humano.”6 A DODD 3000.09 classifica ainda as LEIS em armas totalmente autônomas, autônomas e semiautônomas. As armas totalmente autônomas operam sem envolvimento humano, as armas autônomas requerem supervisão humana, permitindo ao operador monitorar e parar o sistema, enquanto as armas semiautônomas envolvem controle humano, mas possuem capacidade de “disparar e esquecer”, permitindo-lhes selecionar alvos e exigir comando humano para o ataque.7

Estas definições fornecem informações sobre as manifestações modernas das LEIS, que transitaram do domínio da ficção científica para a realidade tangível de hoje. O Sistema de Combate Aegis, a primeira instância de um sistema de armas semiautônomo, abateu de forma infame o voo 655 da Iran Air em março de 1988, confundindo-o com um avião de combate F-15 iraniano. Embora inicialmente atribuído ao erro humano na interpretação errada dos sinais da máquina, este incidente continua relevante hoje, sublinhando as potenciais consequências dos processos de tomada de decisão conduzidos pela máquina, em vez do envolvimento humano.

Da mesma forma, os drones militares têm sido utilizados há muito tempo para vigilância remota e operações de ataque. Os drones contemporâneos, armados com explosivos e equipados com tecnologia de identificação de alvos, possuem a capacidade de detectar e atacar alvos sem depender de controladores humanos. Relatórios recentes indicam que a primeira utilização documentada de drones autônomos ocorreu na Líbia em Março de 2020. De acordo com um relatório da ONU que documenta o incidente, o drone Kargu-2 de fabricação turca caçou autonomamente membros do Exército Nacional Líbio.8 Estas armas foram programadas com uma capacidade de “disparar, esquecer e encontrar”, funcionando de forma independente, sem exigir conectividade contínua de dados entre o operador e a munição. Embora as especificidades da utilização totalmente autônoma dos drones turcos nesta operação permaneçam obscuras, permanece o fato de que o drone Kargu-2 demonstra o potencial para uma operação completamente autônoma através da aprendizagem automática. Eles provaram ser um multiplicador de força e um divisor de águas, posicionando-se como potenciais armas de escolha em operações futuras.

Durante a invasão russa da Ucrânia em 2022, um notável incidente das LEIS veio à tona. Analistas de código aberto relataram a presença do sistema russo de munição ociosa KUB-BLA, uma produção colaborativa do grupo Kalashnikov e ZALA Aero, no bairro de Podil, em Kiev, em março de 2022.9 Embora ainda não haja evidências confirmadas de que o drone esteja sendo implantado em seu modo totalmente autônomo, capaz de selecionar e matar alvos, é evidente que esta tecnologia chegou ao campo de batalha e veio para ficar.

2 TRÊS ABORDAGENS SOBRE OS SISTEMAS DE ARMAS AUTÔNOMAS LETAIS

O debate em torno da usabilidade e legalidade destas armas atraiu uma atenção significativa do público, da indústria, da comunidade da defesa e dos governos. Vários fóruns formais são dedicados ao estudo aprofundado deste assunto. O Comitê Internacional da Cruz Vermelha (CICV) organizou duas reuniões de especialistas, enquanto as Nações Unidas, no âmbito da Convenção sobre Certas Armas Convencionais (CCW), organizaram três reuniões informais de especialistas para avaliar e analisar os aspectos tecnológicos, militares, éticos e aspectos legais das LEIS. Estas reuniões informais resultaram na criação de um formal Grupo de Peritos Governamentais (GGE) em 2017. O objetivo principal do GGE é explorar formas e meios de regular as LEIS em resposta às preocupações crescentes em torno da sua proliferação. Desde a sua criação, o GGE convocou inúmeras reuniões para abordar as questões e aumentar a clareza sobre o tema.

O principal desafio na discussão da regulamentação das LEIS reside na ausência de uma compreensão partilhada de conceitos e definições. Existe uma disparidade notável na compreensão das suas aplicações militares, funcionalidades técnicas e subsequentes implicações legais. Como resultado, as posições atuais sobre as LEIS podem ser categorizadas em três abordagens: os pontos de vista pessimista, o optimista e o realista.

2.1 Os Pessimistas

Os pessimistas classificam as LEIS como armas de destruição em massa (ADM) e consideram o seu desenvolvimento e potencial utilização na guerra como altamente desestabilizadores, contradizendo valores legais, éticos e morais. Em 2019, o Secretário-Geral da ONU transmitiu uma mensagem ao GGE em Genebra, afirmando que “máquinas com poder e discrição para tirar vidas sem envolvimento humano são politicamente inaceitáveis, moralmente repugnantes e deveriam ser proibidas pelo direito internacional”. O Relator Especial sobre Execuções Extrajudiciais, Sumárias ou Arbitrárias recomendou em um relatório de 2013 que afirma “estabelecer moratórias nacionais sobre aspectos da Robótica Autônoma Letal (LARs) e apela ao estabelecimento de um painel de alto nível sobre a LARs para articular uma política para a comunidade internacional sobre o assunto.”11

Além disso, aproximadamente 30 países, incluindo Paquistão, Argentina, Áustria, Brasil, Marrocos, Nova Zelândia e cerca de 165 organizações globais, estão a liderar o debate e a exigir uma proibição preventiva das LEIS devido a riscos operacionais, incumprimento legal e questões de responsabilização.12 Os opositores, incluindo um número significativo de cientistas da IA, afirmam que a implantação das LEIS diminuirá gravemente a segurança internacional, nacional e pessoal. Eles traçam paralelos com o impulso da sociedade civil que levou ao estabelecimento de uma norma global através da Convenção sobre Armas Biológicas, prevendo um impacto semelhante nas LEIS.13

Os pessimistas argumentam que se um Estado apenas necessitasse de arriscar máquinas sem envolvimento humano, isso reduziria significativamente o limiar para o envolvimento na guerra, violando assim o princípio do Jus ad Bellum. Destacam preocupações jurídicas, enfatizando a inadequação das leis existentes no que diz respeito à responsabilização na utilização de armas totalmente autônomas. Afirmam que existem lacunas jurídicas, uma vez que os atuais sistemas de responsabilização não abordam adequadamente a utilização das LEIS. Armas totalmente autônomas seriam incapazes de aderir a normas cruciais como a distinção, a proporcionalidade e a necessidade militar, que protegem os civis durante conflitos armados. Um robô assassino não se enquadra no papel de uma “pessoa singular” ao abrigo do direito internacional, e um sistema de armas completamente autônomo não pode ser responsabilizado legalmente por quaisquer crimes cometidos devido à ausência de intenção. O argumento de responsabilizar o comandante responsável pelas LEIS por potenciais erros de cálculo é considerado insuficiente pelos pessimistas, uma vez que só levaria à responsabilidade civil sob responsabilidade indireta, em vez da responsabilidade criminal direta.14

Fique sempre informado com o Jus! Receba gratuitamente as atualizações jurídicas em sua caixa de entrada. Inscreva-se agora e não perca as novidades diárias essenciais!
Os boletins são gratuitos. Não enviamos spam. Privacidade Publique seus artigos

Com base nestas preocupações, a abordagem pessimista vê a necessidade e a viabilidade de um tratado que proíba as LEIS, seguindo os exemplos de sucesso estabelecidos pela proibição das minas terrestres antipessoais em 1997 e das munições cluster (bombas de fragmentação) em 2008.15

2.2 Os Otimistas

Os otimistas apoiam o desenvolvimento de sistemas de armas autônomos, encarando-o como uma revolução nos assuntos militares. Este debate desenrola-se principalmente nos Estados Unidos, que se tornaram o primeiro país a emitir uma política oficial sobre as LEIS.16 Vários outros países, incluindo Austrália, França, Alemanha, Índia, Israel, Rússia, Coreia do Sul, Espanha, Turquia, Estados Unidos e o Reino Unido, também se opõem a uma proibição preventiva das LEIS.17

De acordo com os otimistas, os robôs podem revelar-se mais eficazes do que os soldados humanos em determinadas situações.18 Argumentam que os sistemas autônomos podem até apresentar um comportamento mais humano no campo de batalha, uma vez que são suscetíveis a agir de forma conservadora e sem as pressões psicológicas que podem levar a decisões orientadas por problemas emocionais. Consequentemente, acreditam que as armas autônomas têm o potencial de reduzir o número de vítimas não-combatentes e minimizar os danos colaterais durante a guerra.19

Em resposta às críticas apresentadas pelos pessimistas, os estudiosos que defendem o desenvolvimento das LEIS afirmam que, como qualquer outro sistema de armas, as suas implicações éticas dependem de como e em quais circunstâncias são usadas.20 Argumentam que os sistemas de armas autônomos podem ser regulados por um código ético embutido, enquadrando-se assim no âmbito da Lei de Conflitos Armados (LOAC) existente. Na verdade, sugerem que os sistemas autônomos podem até recusar ou denunciar ordens antiéticas emitidas por militares. Os defensores sustentam que os sistemas autônomos possuem um ponto de vista mais objetivo e podem potencialmente prevenir erros humanos no julgamento.21 Em relação à capacidade de discriminar entre pessoal e alvos civis e militares, os proponentes afirmam que as LEIS podem empregar mecanismos como sofisticação, restrição, atualizações e envolvimento humano para fazer tais distinções, garantindo assim o cumprimento do Direito Internacional Humanitário (DIH).22

No que diz respeito à responsabilização e atribuição, especialmente no que concerne ao Artigo 7 da Responsabilidade dos Estados por Atos Internacionalmente Ilícitos (2001), que aborda o “Excesso de autoridade ou violação de instruções”, os proponentes argumentam que mesmo que um sistema autônomo se comporte de forma inesperada e fora do âmbito da sua implantação inicial, as ações ainda serão atribuídas ao Estado.23

2.3 Os Realistas

Os realistas posicionam-se entre os otimistas e os pessimistas, considerando argumentos de ambos os lados. Eles reconhecem que já é tarde demais em relação às LEIS, pois vários Estados já investiram em pesquisa e desenvolvimento. Uma reversão completa da política e a proibição das LEIS são consideradas improváveis. Em vez disso, os realistas defendem uma melhor compreensão da evolução da situação e a implementação de verificações do processo.

Esta abordagem encontra apoio na posição da China, que defende a proibição do uso, mas não o desenvolvimento das LEIS. A China caracteriza estes sistemas como indiscriminados, letais e irresponsáveis, e argumenta que eles violariam inerentemente o Direito Internacional Humanitário (DIH).24 Falando no GGE das Nações Unidas, a China expressou o seu “desejo de negociar e concluir” um novo protocolo para a Convenção sobre Certas Armas Convencionais “para proibir a utilização de sistemas de armas letais totalmente autônomos.”25 No entanto, a posição da China tem enfrentado críticas pela sua ambiguidade percebida, à medida que continua a avançar o seu trabalho em inteligência artificial em domínios militares e mantém a sua soberania cibernética.

A França e a Alemanha, que se alinham principalmente com a categoria otimista, também apoiam uma abordagem prática. Propuseram “emitir uma declaração política não vinculativa que declarasse que as LEIS estão sujeitas ao direito internacional humanitário e que os Estados Partes “partilham a convicção de que os seres humanos devem continuar a ser capazes de tomar as decisões finais relativamente ao uso da força letal e devem continuam a exercer controle suficiente sobre os sistemas de armas letais que utilizam.”26 Isto reflete uma perspectiva realista. O Grupo de Peritos Governamentais da Convenção CCW adotou 11 princípios orientadores que enfatizam a necessidade do controle humano e a aplicabilidade do direito humanitário internacional a “todos os sistemas de armas, incluindo o potencial desenvolvimento e utilização de sistemas de armas letais autônomos.”27

Os realistas adotam uma visão matizada, reconhecendo que determinados indivíduos podem ainda desenvolver armas autônomas, apesar das tentativas para os impedir, traçando paralelos com as armas químicas.28 No entanto, enfatizam a necessidade de controlar e regular a investigação e o desenvolvimento desta nova categoria de armas. Partilham as preocupações dos pessimistas, reconhecendo a vulnerabilidade desta tecnologia e a possibilidade de cair nas mãos de intervenientes não estatais. Assim, apelam a uma melhor regulamentação para governar o desenvolvimento e a proliferação das LEIS. A sua solução válida reside no argumento de que os requisitos legais para o uso da força devem ser considerados desde o início do desenvolvimento de sistemas de armas autônomos, e não como uma reflexão tardia.

3 A QUADRATURA DO CÍRCULO: O CAMINHO A SEGUIR

A rápida progressão das armas autônomas da ficção científica para a realidade levanta preocupações abrangentes. Da mesma forma, espera-se que as tendências atuais de alegada utilização das LEIS transitem para uma utilização anunciada e mais organizada em conflitos futuros. No entanto, o maior desafio reside no processo de regulamentação, uma vez que o desenvolvimento e a utilização das LEIS estão a ultrapassar as discussões sobre uma proibição total ou a implementação de regulamentações eficazes, apesar dos esforços contínuos há mais de uma década.29

Durante a Sexta Conferência de Revisão da CCAC, o Grupo de Peritos Governamentais discutiu várias propostas, incluindo a introdução de instrumentos juridicamente vinculativos, instrumentos não juridicamente vinculativos, clarificando o compromisso dos Estados na implementação das obrigações existentes ao abrigo do direito internacional, especialmente o DIH, desenvolvendo regulamentos baseados no DIH, ou considerando a opção de não adotar mais medidas legais.30

O leque de opções em cima da mesa reflete a complexidade da questão e o desafio de alcançar o consenso. Embora existam opiniões divergentes sobre se as LEIS são regulamentadas pelos tratados do DIH, existe um entendimento comum de que a sua utilização deve estar em conformidade com o DIH. No entanto, subsistem dúvidas, uma vez que os otimistas, incluindo os Estados possuidores e em desenvolvimento, insistem que as suas LEIS funcionarão dentro dos parâmetros do DIH, levantando preocupações sobre o potencial para uma realidade diferente e mais problemática.

Outro desafio surge da natureza divisiva da política global, que impede resultados positivos na abordagem deste desafio em evolução. As grandes potências estão envolvidas numa competição de acumulação de armas, particularmente nas competições estratégicas entre os EUA-China e os EUA-Rússia. O regime de não-proliferação também está em desordem, com o colapso de vários tratados previamente acordados. Criar um ambiente propício ao diálogo construtivo entre os Estados para discutir a proibição, o controle ou a regulamentação do desenvolvimento das LEIS é, portanto, um desafio.

Apesar destes desafios, é crucial manter o envolvimento e a dinâmica rumo a objetivos finais claros para defender a perspectiva maioritária dos pessimistas que conduzem o debate sobre a proibição das LEIS. Deve-se notar que alguns Estados que atualmente favorecem a exigência dos pessimistas podem estar a avaliar outras opções enquanto observam a evolução da situação. Na ausência de uma norma global contra as LEIS, é provável que surja um dilema de segurança. Consequentemente, os Estados indecisos podem sentir-se obrigados a desenvolver LEIS para garantir a sua segurança. Por exemplo, países como o Paquistão, que atualmente defendem a proibição das LEIS, podem reconsiderar a sua posição e embarcar em programas de LEIS se o seu rival, a Índia, continuar a desenvolver LEIS sem consequências.

A seguir está uma lista de opções propostas que podem orientar ações futuras na regulamentação das LEIS:

Desenvolver um Entendimento Comum. A falta de um entendimento comum sobre a definição das LEIS e os riscos específicos associados à sua utilização na guerra representa um obstáculo significativo. Os Estados otimistas devem proporcionar maior transparência nos seus programas de desenvolvimento e estratégias operacionais das LEIS para promover um entendimento partilhado. Deverão abordar questões técnicas específicas, como a interface homem-máquina e garantir um forte controle humano, especialmente em ambientes nucleares.

Adotar uma Abordagem de Baixo para Cima. Na ausência de progressos significativos nos fóruns multilaterais, o ativismo social sustentado ao nível popular pode ser utilizado como uma abordagem ascendente para angariar apoio e exercer pressão a nível político. Vários estudos apoiam a noção de que os movimentos transnacionais de defesa influenciaram eficazmente os cidadãos a pressionarem os seus governos por causas. As discussões em curso entre o Grupo de Peritos Governamentais da CCW destacam o imenso desafio de desenvolver consenso entre os Estados Partes. Os Estados que adotam a abordagem optimista estão a resistir aos apelos para uma proibição total das LEIS, indicando que é pouco provável que o atual formato de negociação resulte em regulamentações substantivas, muito menos numa proibição total.

Numerosas ONGs, incluindo o Observatório dos Direitos Humanos, lideram ativamente campanhas contra robôs assassinos, embora com âmbito limitado. Inspirando-se na Campanha Internacional para a Abolição das Armas Nucleares (ICAN) e no subsequente Tratado sobre a Proibição de Armas Nucleares (TPNW), os ativistas contra os robôs assassinos também devem participar em debates de base entre a população em geral. Esta abordagem ajudará a gerar uma pressão de baixo para cima, semelhante à campanha da ICAN, conduzindo a um movimento mais abrangente contra os robôs assassinos.

Fortalecer a norma contra as LEIS. Apesar das críticas ao movimento de proibição nuclear pelos seus resultados limitados no desarmamento nuclear, o valor normativo de tais movimentos não pode ser desconsiderado. Emulando esta abordagem, as campanhas contra as LEIS podem reforçar os esforços existentes das ONGs e da sociedade civil, tornando politicamente difícil para os líderes empregarem as LEIS sem um controle humano eficaz.

Encontrar um terreno comum. Os pessimistas das LEIS, especialmente os ativistas da sociedade civil, apelam a proibições preventivas de armas autônomas através da “regulação a montante”. Os otimistas defendem regulamentações “a jusante”, antecipando que a moralidade evoluirá juntamente com a tecnologia.31 Ambos os lados devem ir além da forte oposição e procurar um terreno comum para construir confiança mútua. Os Estados otimistas não podem abandonar completamente os seus programas das LEIS, especialmente sem um mecanismo de verificação para garantir que os seus adversários não estão a desenvolver LEIS secretamente. No entanto, os otimistas devem reconhecer as preocupações levantadas pelos pessimistas, uma vez que estas armas, para além de um certo nível, podem involuntariamente agravar os conflitos e representar uma ameaça à paz.

CONCLUSÃO

À medida que as novas tecnologias se tornam mais amplamente disponíveis e acessíveis, a capacidade de estabelecer regras e controlar a sua adoção diminui. Relativamente às LEIS, o Secretário-Geral da ONU, António Guterres, reconhece o rápido desenvolvimento desta tecnologia, afirmando que está a progredir a “velocidade extrema”.

No meio da ambiguidade de definição e das avaliações subjetivas de pessimistas e optimistas sobre o papel das LEIS nas guerras futuras, os realistas estão a ganhar terreno e a fazer avançar o debate. A pressão para regular estas tecnologias emergentes para a paz e segurança globais está a aumentar constantemente. No entanto, o progresso até agora tem sido insatisfatório, sem um caminho claro ou unanimidade entre os principais Estados possuidores sobre o caminho a seguir. Os aspectos operacionais e a compatibilidade do DIH com as LEIS levantam inúmeras questões sem resposta. Embora os otimistas das LEIS afirmem que o emprego futuro respeitará os limites do DIH, não há clareza sobre a atribuição e responsabilidade em caso de violações. Além disso, a potencial imprevisibilidade decorrente da utilização das LEIS em situações de guerra e a forma como tais situações seriam tratadas dentro dos parâmetros do DIH permanecem sem solução.

O emprego das LEIS e outros sistemas de IA/aprendizado de máquina transformará a natureza da guerra. A maior dependência da aprendizagem automática e de sistemas baseados em IA pode levar ao “excesso de confiança na IA” por parte dos decisores políticos se estes assumirem que estes sistemas geram dados precisos e análises superiores em comparação com fontes humanas.33 Em tais cenários, mesmo quando empregam sistemas de armas semiautônomos com o envolvimento humano na tomada de decisões, a capacidade ou vontade de contestar as informações fornecidas pelos sistemas baseados em IA ou de verificá-las através de outros meios pode ser significativamente diminuída. Isto pode resultar em situações perigosas e num maior risco de escalada não intencional, especialmente num ambiente nuclear.

Além disso, a falta de controle internacional significativo sobre a aquisição e adoção destas tecnologias incentiva os intervenientes não estatais a utilizarem as LEIS para fins terroristas. Organizações não estatais como o Hezbollah e o ISIS já demonstraram a sua capacidade de operar drones em vários ataques.34 Sem regulamentos em vigor para a tecnologia de dupla utilização necessária para as LEIS, mais intervenientes não estatais aventurar-se-ão neste campo.

Dada a gravidade da situação, são necessárias medidas urgentes antes que estas tecnologias se tornem onipresentes. Embora os sistemas de controle de exportação existentes não sejam à prova de falhas, a adição de controles de exportação específicos das LEIS complementaria o sistema atual e introduziria obstáculos para impedir o fácil acesso a tecnologias que possam causar danos aos seres humanos.

SOBRE A AUTORA

Sitara Noor

Noor é pesquisadora do Projeto sobre Gerenciamento do Átomo no Centro Belfer de Ciência e Assuntos Internacionais da Universidade de Harvard. Anteriormente, ela ocupou o cargo de pesquisadora sênior no Centro de Estudos Aeroespaciais e de Segurança (CASS) em Islamabad, Paquistão, de 2019 a 2022. Antes disso, atuou como pesquisadora no Centro de Viena para Desarmamento e Não Proliferação ( VCDNP) em Viena, Áustria, de 2016 a 2017. De 2008 a 2015, trabalhou como analista de relações internacionais na Autoridade Reguladora Nuclear do Paquistão.

Além de suas funções de pesquisa, a Sra. Noor atuou como membra adjunta do corpo docente em diversas instituições de prestígio, incluindo a Universidade Nacional de Línguas Modernas, a Universidade Nacional de Ciência e Tecnologia (NUST), a Universidade Quaid-i-Azam, a Academia Exterior de Serviços do Paquistão e a Academia de Serviços de Informação do Paquistão.

Noor também teve várias bolsas de visita, incluindo a bolsa de visita do South Asian Voices no Centro Stimson em Washington, DC, de 2019 a 2020, e bolsas de visita no Laboratório Nacional Sandia em 2019 e 2013, bem como no Centro James Martin de Não-Proliferação em Monterey, Califórnia, em 2013. Desde 2012, ela atua como coordenadora nacional do projeto “Variedade de Democracia” da Universidade de Gotemburgo. O seu trabalho escrito sobre questões nucleares e de segurança foi apresentado em plataformas nacionais e internacionais proeminentes, como Al Jazeera, The News, The National Interest, The Diplomat e South Asian Voices, entre outras.

DISCLAIMER

Os pontos de vista e opiniões expressos ou implícitos no Journal of Indo-Pacific Affairs são de responsabilidade dos autores e não devem ser interpretados como portadores da sanção oficial do Departamento de Defesa, do Departamento da Força Aérea, do Comando de Educação e Treinamento Aéreo, da Air University ou outras agências ou departamentos do governo dos EUA ou seus equivalentes internacionais.

REFERÊNCIAS

Billy Perrigo, “A Global Arms Race for Killer Robots Is Transforming the Battlefield,” Time, 9 April 2018, https://time.com/.

2 Trevor English, “How Do Naval Mines Work?,” Interesting Engineering, 5 October 2019, https://interestingengineering.com/.

3 Gulshan Bibi, “Implications of Lethal Autonomous Weapon Systems (LAWS): Options for Pakistan,” Journal of Current Affairs 2, no. 2 (2018): 18–41, https://www.ipripak.org/.

4 International Humanitarian Law and the Challenges of Contemporary Armed Conflicts (Geneva: International Committee of the Red Cross, 31 October 2015), https://www.icrc.org/.

5 “Defense Primer: U.S. Policy on Lethal Autonomous Weapon Systems,” In Focus (Washington, DC: Congressional Research Service, 15 May 2023), https://crsreports.congress.gov/.

6 US Department of Defense Directive Number 3000.09: Autonomy in Weapon Systems (Washington, DC: DOD, 25 January 2023), https://www.esd.whs.mil/.

7 “Defense Primer: U.S. Policy on Lethal Autonomous Weapon Systems.” For more definitions of various types of LAWS, also see Bonnie Docherty, Human Rights Watch, Losing Humanity: The Case against Killer Robots (Cambridge, MA: Human Rights Watch, November 2012), https://www.hrw.org/.

8 Steven Spittaels et al., Final Report of the Panel of Experts on Libya Established Pursuant to Security Council Resolution 1973 (New York: UNSC, 2011), https://reliefweb.int/.

9 Stijn Mitzer and Jakub Janovsky, “Attack on Europe: Documenting Russian Equipment Losses during the 2022 Russian Invasion of Ukraine,” Oryx, 24 February 2022, https://www.oryxspioenkop.com/.

10 “Machines Capable of Taking Lives without Human Involvement Are Unacceptable, Secretary-General Tells Experts on Autonomous Weapons Systems” (press release, United Nations, 25 March 2019, https://press.un.org/.

11 Report of the Special Rapporteur on extrajudicial, summary or arbitrary executions, Christof Heyns (New York: Human Rights Council, 9 April 2013), https://www.ohchr.org/.

12 Brian Stauffer, “Stopping Killer Robots: Country Positions on Banning Fully Autonomous Weapons and Retaining Human Control,” Human Rights Watch, 10 August 2020, https://www.hrw.org/.

13 Ian Sample, “Ban on Killer Robots Urgently Needed, Say Scientists,” The Guardian, 12 November 2017, https://www.theguardian.com/.

14 Bonnie Docherty, Mind the Gap: The Lack of Accountability for Killer Robots (Cambridge, MA: Human Rights Watch, 9 April 2015), https://www.hrw.org/.

15 Stauffer, “Stopping Killer Robots.”

16 “Defense Primer: U.S. Policy on Lethal Autonomous Weapon Systems.”

17 Stauffer, “Stopping Killer Robots.”

18 Paul Scharre, Autonomous Weapons and Operational Risk (Washington, DC: Ethical Autonomy Project, Center for a New American Security, 2016), https://s3.us-east-1.amazonaws.com/.

19 Ronald C. Arkin, Governing Lethal Behavior in Autonomous Robots (New York: Routledge, 2009).

20 Christopher Ford, “Autonomous Weapons and International Law,” South Carolina Law Review 69, no. 2 (2017): 413–79, https://web.archive.org/.

21 Amitai Etzioni and Oren Etzioni, “Pros and Cons of Autonomous Weapons Systems,” Military Review (May–June 2017): 72–81, https://www.armyupress.army.mil/.

22 Christopher Ford, “Autonomous Weapons and International Law.”

23 “Responsibility of States for Internationally Wrongful Acts,” UN Doc. A/56/83, at pt. 1, ch. II, art. 4 (2001), https://documents-dds-ny.un.org/; and Ford, “Autonomous Weapons and International Law.”

24 Liu Zhen, “Time to Set Global Rules for AI Warfare, China Tells UN Weapons Review,” South China Morning Post, 14 December 2021, https://www.scmp.com/.

25 Hayley Evans, “Lethal Autonomous Weapons Systems at the First and Second U.N. GGE Meetings,” Lawfare Blog, 9 April 2018, https://www.lawfareblog.com/.

26 Stauffer, “Stopping Killer Robots.”

27 “Meeting of the High Contracting Parties to the Convention on Prohibitions or Restrictions on the Use of Certain Conventional Weapons Which May Be Deemed to Be Excessively Injurious or to Have Indiscriminate Effects, Annex III: Guiding Principles affirmed by the Group of Governmental Experts on Emerging Technologies in the Area of Lethal Autonomous Weapons System,” United Nations, https://documents-dds-ny.un.org/ .

28 Ian Sample, “Thousands of Leading AI Researchers Sign Pledge against Killer Robots,” The Guardian, 18 July 2018. https://www.theguardian.com/.

29 Neil Davison, “A Legal Perspective: Autonomous Weapon Systems under International Humanitarian Law” (paper, Convention on Certain Conventional Weapons Meeting of Experts on Lethal Autonomous Weapons Systems, 11 April 2016), https://doi.org/.

30 “Report of the 2022 session of the Group of Governmental Experts on Emerging Technologies in the Area of Lethal Autonomous Weapons Systems,” United Nations Office on Disarmament (UNODA) 29 July 2022, https://documents.unoda.org/.

31 Kenneth Anderson and Matthew C. Waxman, Law and Ethics for Autonomous Weapon Systems: Why a Ban Won’t Work and How the Laws of War Can, Jean Perkins Task Force on National Security and Law Essay Series (Stanford, CA: Hoover Institution Press, 9 April 2013), https://scholarship.law.columbia.edu/.

32 “‘Warp Speed’ Technology Must Be ‘Force for Good’ UN Chief Tells Web Leaders,” UN News, 5 November 2018, https://news.un.org/ .

33 David Minchin Allison, “The Risk of Destabilizing Technologies: Artificial Intelligence and the Threat to Nuclear Deterrence” (working paper, Yale University, Department of Political Science, 25 September 2020).

34 Jürgen Altmann and Frank Sauer, “Autonomous Weapon Systems and Strategic Stability,” Survival 59, no. 5 (2017), 127, https://doi.org/.

FONTE

https://www.airuniversity.af.edu/JIPA/Display/Article/3533453/laws-on-laws-regulating-the-lethal-autonomous-weapon-systems/

Sobre o autor
Icaro Aron Paulino Soares de Oliveira

Bacharel em Direito pela Universidade Federal do Ceará - UFC. Acadêmico de Administração na Universidade Federal do Ceará - UFC. Pix: [email protected] WhatsApp: (85) 99266-1355. Instagram: @icaroaronsoares

Informações sobre o texto

Este texto foi publicado diretamente pelos autores. Sua divulgação não depende de prévia aprovação pelo conselho editorial do site. Quando selecionados, os textos são divulgados na Revista Jus Navigandi

Leia seus artigos favoritos sem distrações, em qualquer lugar e como quiser

Assine o JusPlus e tenha recursos exclusivos

  • Baixe arquivos PDF: imprima ou leia depois
  • Navegue sem anúncios: concentre-se mais
  • Esteja na frente: descubra novas ferramentas
Economize 17%
Logo JusPlus
JusPlus
de R$
29,50
por

R$ 2,95

No primeiro mês

Cobrança mensal, cancele quando quiser
Assinar
Já é assinante? Faça login
Publique seus artigos Compartilhe conhecimento e ganhe reconhecimento. É fácil e rápido!
Colabore
Publique seus artigos
Fique sempre informado! Seja o primeiro a receber nossas novidades exclusivas e recentes diretamente em sua caixa de entrada.
Publique seus artigos