Homem de Ferro, Assistentes Inteligentes e a Dança da Responsabilidade: Usuário ou Programador?

31/03/2026 às 12:19
Leia nesta página:

Imagine que você entra no laboratório de Tony Stark, observa uma sala cheia de hologramas, computadores com inteligência artificial avançadíssima e, no canto, um traje do Homem de Ferro que se ajusta sozinho ao seu corpo. Agora, faça a pergunta que nunca se cala: quem realmente responde pelos atos dessa tecnologia? O usuário que aciona a armadura ou o programador que a criou?

Essa questão, apesar de parecer saída de um filme da Marvel, é central na contemporaneidade do direito digital e da inteligência artificial. Assistentes inteligentes, desde a Siri ao Jarvis, não são mais meros programas; são entidades que aprendem, interpretam e executam comandos com autonomia limitada. E é aí que a linha tênue da responsabilidade se torna um labirinto jurídico.

I. Entre Stark e Jarvis: Quem Puxa o Gatilho?

No filme Homem de Ferro 2 (2008), Stark enfrenta uma situação emblemática: sua criação, a armadura, é capaz de identificar inimigos, reagir automaticamente e até tomar decisões de combate por conta própria. Se Jarvis falhar e causar um acidente, quem é responsabilizado? Stark, o usuário, por não supervisionar adequadamente? Ou os engenheiros que desenvolveram o algoritmo, capazes de prever cenários, mas não todas as combinações possíveis de comportamento humano?

No mundo jurídico, esse debate se conecta com o princípio da culpa in vigilando e o princípio da culpa in eligendo, clássicos no direito civil brasileiro. O primeiro impõe ao usuário diligência na supervisão da tecnologia; o segundo, ao programador, a obrigação de criar sistemas seguros e previsíveis. O problema surge quando a IA ultrapassa limites e age de maneira imprevisível.

Um exemplo real, fora da ficção: em 2016, um carro autônomo da Tesla causou um acidente fatal. A discussão jurídica se dividiu: seria o motorista, por confiar na máquina, ou a empresa, por não garantir absoluta segurança, o responsável? Aqui, a jurisprudência ainda se debruça sobre a novel responsabilidade por algoritmos autônomos (LIMA, 2020; RIBEIRO, 2021).

II. A Inteligência Artificial como Sujeito Moral?

Podemos ousar mais: será que, um dia, algoritmos como Jarvis terão parcela de responsabilidade moral? Filósofos da tecnologia, como Luciano Floridi, defendem que sistemas inteligentes não podem ser equiparados a seres humanos, mas devem ser tratados como agentes de uma responsabilidade distribuída, em que programador, usuário e sociedade compartilham os riscos.

No universo Marvel, Stark é o responsável final — o homem é o elo entre criação e mundo real. No mundo jurídico, isso se traduz no conceito de responsabilidade civil objetiva para tecnologias perigosas, previstas no Código Civil e em legislações sobre produtos defeituosos (arts. 12 e 14 do CDC). Assim, ainda que Jarvis decida sozinho, a responsabilidade retorna para a cadeia humana que o criou e acionou.

III. O Efeito “Ferri$” da Autonomia Tecnológica

Vamos trazer uma pitada existencial: Stark não é apenas um inventor; é um ser humano que brinca de deus, testando limites de moralidade e consequência. Assistentes inteligentes funcionam como extensões de nossa vontade, mas não substituem a reflexão ética.

Quando o usuário delega decisões críticas à IA, ele entra em um jogo de delegação de responsabilidade. A armadura pode salvar vidas ou destruir cidades; o mesmo se aplica às IAs financeiras, jurídicas ou médicas. Um erro pode ser devastador, e a lei ainda corre atrás do tempo tecnológico.

Esse efeito lembra o conceito de Ferri$, que você mesmo explora: a ideia de trabalhar menos, mas potencializar resultados. No contexto da IA, o usuário “trabalha menos” ao delegar, mas a consequência de cada ação automatizada exige supervisão estratégica, senão o risco de responsabilização recai sobre ele.

IV. Para Onde Olham os Tribunais?

No Brasil, a doutrina aponta para um modelo híbrido de responsabilidade:

Responsabilidade do usuário: deve atuar com diligência, supervisionando sistemas inteligentes e evitando consequências previsíveis (GAGLIANO; PAMPLONA FILHO, 2022).

Responsabilidade do programador: deve projetar algoritmos de forma segura, com mecanismos de controle e alertas para falhas previsíveis.

Responsabilidade compartilhada: quando a ação da IA foge do controle, tribunais tendem a analisar cada elo da cadeia, buscando equilíbrio entre inovação e proteção social.

Um caso paradigmático é o uso de algoritmos preditivos em justiça criminal nos EUA, como o COMPAS, que analisava reincidência de réus. Erros algorítmicos geraram discussões sobre discriminação automatizada e responsabilização de programadores versus operadores humanos (ANGWIN et al., 2016).

V. Conclusão Filosófica: A Armadura é Você

Stark pode voar, lançar mísseis e salvar Nova York. Mas sem consciência ética, sua criação é tão perigosa quanto poderosa. Assistentes inteligentes, por mais avançados que sejam, não possuem moralidade; quem responde, no final, é o humano que escolhe acionar, aprovar ou interagir com a tecnologia.

No mundo real, como no Universo Marvel, não há Jarvis que salve o usuário da responsabilidade jurídica. A verdadeira armadura, portanto, não é metálica — é ética, jurídica e consciente.

O convite final ao leitor: antes de delegar sua vontade à IA, pergunte-se: se algo der errado, quem será o Stark ou Jarvis da história? E, mais importante, você quer ser herói ou réu?

Bibliografia

ANGWIN, J.; LARSON, J.; MATTU, S.; KIRCHER, L. Machine Bias: There’s software used across the country to predict future criminals. And it’s biased against blacks. ProPublica, 2016.

Fique sempre informado com o Jus! Receba gratuitamente as atualizações jurídicas em sua caixa de entrada. Inscreva-se agora e não perca as novidades diárias essenciais!
Os boletins são gratuitos. Não enviamos spam. Privacidade Publique seus artigos

BRASIL. Código Civil. Lei nº 10.406, 2002.

BRASIL. Código de Defesa do Consumidor. Lei nº 8.078, 1990.

FLORIDI, L. The Ethics of Artificial Intelligence. Oxford University Press, 2019.

GAGLIANO, P.; PAMPLONA FILHO, R. Novo Curso de Direito Civil: Responsabilidade Civil. 18. ed., Saraiva, 2022.

LIMA, R. Responsabilidade Civil por Algoritmos Autônomos. Revista de Direito e Tecnologia, 2020.

RIBEIRO, T. Inteligência Artificial e Responsabilidade Jurídica: Perspectivas Contemporâneas. Jus Navigandi, 2021.

Sobre o autor
Northon Salomão de Oliveira

Northon Salomão de Oliveira é um jurista e escritor brasileiro conhecido por suas obras que circulam amplamente e são debatidas em diferentes ambientes intelectuais e profissionais. Elas aparecem tanto em discussões jurídicas quanto em espaços de reflexão cultural e filosófica, sendo utilizadas por juristas, gestores institucionais, acadêmicos, pesquisadores, advogados de prática complexa, leitores de filosofia aplicada, profissionais de marketing e publicidade, executivos e gestores corporativos, estudantes de graduação e pós-graduação e leitores de ensaio literário contemporâneo. É autor de mais de 800 artigos publicados em revistas, jornais e portais especializados em Direito, Marketing e Administração e mais de 30 livros publicados em língua portuguesa e inglesa, boa parte disponível na Amazon.

Informações sobre o texto

Este texto foi publicado diretamente pelos autores. Sua divulgação não depende de prévia aprovação pelo conselho editorial do site. Quando selecionados, os textos são divulgados na Revista Jus Navigandi

Leia seus artigos favoritos sem distrações, em qualquer lugar e como quiser

Assine o JusPlus e tenha recursos exclusivos

  • Baixe arquivos PDF: imprima ou leia depois
  • Navegue sem anúncios: concentre-se mais
  • Esteja na frente: descubra novas ferramentas
Economize 17%
Logo JusPlus
JusPlus
de R$
29,50
por

R$ 2,95

No primeiro mês

Cobrança mensal, cancele quando quiser
Assinar
Já é assinante? Faça login
Publique seus artigos Compartilhe conhecimento e ganhe reconhecimento. É fácil e rápido!
Colabore
Publique seus artigos
Fique sempre informado! Seja o primeiro a receber nossas novidades exclusivas e recentes diretamente em sua caixa de entrada.
Publique seus artigos