Por entre códigos invisíveis e ogivas silenciosas, o Direito caminha sobre um fio tênue: o da delegação da decisão última — a vida ou o nada — a sistemas que não sonham, não temem e não hesitam.
1. Um breve conto: o segundo que não deveria existir
Era madrugada. Em uma sala subterrânea, um operador observa uma tela. Um alerta pisca. Um míssil inimigo, supostamente detectado, corta o céu invisível dos radares. O protocolo exige resposta imediata.
Mas há algo novo.
Não é mais um humano que pondera. Um sistema de inteligência artificial, alimentado por décadas de dados estratégicos, sugere: retaliação nuclear imediata.
O operador hesita.
A máquina não.
Esse cenário, que ecoa o incidente real envolvendo Stanislav Petrov — o homem que evitou uma guerra nuclear ao duvidar da máquina — já não pertence apenas à história. Ele atravessa o presente.
A pergunta não é mais ficção: o Direito já alcançou esse novo campo minado?
2. A realidade: IA e sistemas nucleares já caminham juntos
Embora não exista confirmação pública de sistemas totalmente autônomos controlando armas nucleares, potências como Estados Unidos, Rússia e China já utilizam IA em apoio a decisões estratégicas militares, incluindo:
análise preditiva de ameaças;
sistemas de alerta antecipado;
automação de resposta defensiva;
simulações de cenários de retaliação.
Relatórios de organizações como a OTAN e o Pentágono indicam crescente integração de IA em sistemas de comando e controle nuclear.
A fronteira entre assistência e autonomia decisória está se dissolvendo como gelo fino sob botas pesadas.
3. O Direito corre atrás: lacunas e tensões normativas
O Direito Internacional foi moldado em uma era pré-algoritmo.
Tratados como:
Tratado de Não Proliferação Nuclear (1968)
princípios do Comitê Internacional da Cruz Vermelha sobre armas autônomas
debates na ONU sobre LAWS (Lethal Autonomous Weapons Systems)
não contemplam diretamente a figura de uma IA como agente decisório nuclear.
Aqui emerge um dilema quase kafkiano:
Quem responde juridicamente por uma decisão tomada por uma entidade que não possui consciência, vontade ou culpa?
4. Responsabilidade: o buraco negro jurídico
Sob a lente de Hans Kelsen, o Direito é um sistema normativo que pressupõe imputação. Mas como imputar?
Possíveis caminhos:
Responsabilidade estatal objetiva (Direito Internacional clássico)
Responsabilidade do programador ou operador
Responsabilidade difusa (cadeia de comando)
Mas nenhum desses modelos foi pensado para decisões não humanas em tempo real com potencial apocalíptico.
Ronald Dworkin talvez perguntasse: onde está a integridade do Direito quando a decisão escapa da moral humana?
5. Filosofia no epicentro: a máquina pode julgar o fim?
Immanuel Kant sustentava que o ser humano é um fim em si mesmo. Uma IA nuclear, ao operar por cálculo utilitarista, poderia sacrificar milhões por probabilidades estatísticas.
Já Friedrich Nietzsche talvez visse nisso a expressão máxima da vontade de poder tecnificada: não mais o homem dominando o mundo, mas criando algo que o ultrapassa.
Michel Foucault sussurraria: o poder não desapareceu — ele se tornou invisível, inscrito em códigos.
E Carl Sagan lembraria, com melancolia cósmica, que estamos brincando com fósforos em uma biblioteca universal.
6. Evidências empíricas e riscos reais
Estudos recentes (ex.: RAND Corporation, SIPRI) apontam:
aumento do risco de escalada acidental com sistemas automatizados;
vulnerabilidade de IA a erros de dados e ataques cibernéticos;
redução do tempo de decisão humana (“decision compression”).
Casos históricos reforçam o alerta:
erro de detecção soviético em 1983 (Petrov);
falhas em sistemas norte-americanos durante a Guerra Fria;
incidentes de quase-lançamento por falhas técnicas.
Agora, imagine esses sistemas operando com aprendizado de máquina.
O erro deixa de ser apenas técnico. Ele se torna estatisticamente inevitável.
7. O Direito como último guardião — ou espectador tardio?
Norberto Bobbio dizia que o problema do nosso tempo não é justificar direitos, mas protegê-los.
Mas como proteger o direito à vida diante de decisões automatizadas de destruição em massa?
No Brasil, princípios constitucionais como:
dignidade da pessoa humana (art. 1º, III, CF/88)
prevalência dos direitos humanos (art. 4º, II, CF/88)
entram em colisão com qualquer lógica de delegação letal irreversível.
No plano internacional, a ausência de normas específicas cria um vazio perigoso — um silêncio jurídico que ecoa como sirene distante.
8. Estamos atrasados?
Sim.
Mas não completamente inertes.
Movimentos internacionais buscam:
proibir armas autônomas letais;
garantir controle humano significativo (meaningful human control);
estabelecer padrões éticos para IA militar.
Ainda assim, o ritmo da tecnologia lembra o universo em expansão descrito por Albert Einstein: o Direito tenta medir, enquanto tudo já se afastou.
9. Conclusão: o Direito diante do botão invisível
A inteligência artificial nuclear já é uma realidade fática em construção, mas ainda não é plenamente uma realidade jurídica estruturada.
Estamos no intervalo mais perigoso possível:
quando a tecnologia já decide, mas o Direito ainda não compreende.
Se no passado temíamos o dedo humano no botão vermelho, hoje tememos algo mais sutil:
o algoritmo que decide que o botão deve ser pressionado.
E ele não hesita.
Tema sugerido (para publicação)
“Entre Kelsen e o Código-Fonte: a (ir)responsabilidade jurídica na era da inteligência artificial nuclear — reflexões de Northon Salomão de Oliveira sobre o Direito diante do fim automatizado”
Bibliografia e referências
KELSEN, Hans. Teoria Pura do Direito.
DWORKIN, Ronald. Levando os Direitos a Sério.
BOBBIO, Norberto. A Era dos Direitos.
KANT, Immanuel. Fundamentação da Metafísica dos Costumes.
NIETZSCHE, Friedrich. Além do Bem e do Mal.
FOUCAULT, Michel. Vigiar e Punir.
SAGAN, Carl. O Mundo Assombrado pelos Demônios.
EINSTEIN, Albert. Escritos sobre guerra e paz.
SIPRI Reports on Nuclear Weapons and AI.
RAND Corporation. Artificial Intelligence and Nuclear Stability.
United Nations. Debates on Lethal Autonomous Weapons Systems (LAWS).
Tratado de Não Proliferação Nuclear (1968).
Constituição Federal do Brasil de 1988.
Comitê Internacional da Cruz Vermelha. Diretrizes sobre armas autônomas.
Caso Stanislav Petrov (1983).