Introdução: o dia em que o Direito pediu para conversar
Em Talk, há um pedido simples, quase infantil, mas carregado de vertigem:
“I’m so scared about the future… and I wanna talk to you.”
Se o Direito tivesse uma trilha sonora neste século, talvez fosse essa.
Porque o Direito sempre acreditou em duas coisas: previsibilidade e linguagem. Ele organiza o caos humano por meio de normas e acredita que, no fim, sempre haverá espaço para argumentar, justificar, convencer.
Mas a inteligência artificial introduz um ruído novo — não um grito, mas um silêncio eficiente.
Ela responde sem dialogar.
E então a pergunta deixa de ser técnica:
como o Direito reage quando o futuro já não quer conversar?
1. Filosofia: o fim da centralidade humana na decisão
Friedrich Nietzsche já desconfiava que o humano não era tão central quanto imaginava.
Arthur Schopenhauer foi além: a razão é apenas um instrumento, não o soberano.
A inteligência artificial radicaliza essa suspeita:
a razão continua existindo — mas já não precisa de nós.
Michel Foucault provavelmente veria nisso uma mutação do poder: saímos do saber discursivo para o saber algorítmico.
O Direito, construído sobre linguagem e interpretação, enfrenta agora um tipo de racionalidade que não interpreta — apenas calcula.
E “Talk” ecoa como um pedido deslocado no tempo: queremos diálogo em um mundo que começa a operar sem ele.
2. Psicologia e Psiquiatria: o medo como sintoma e estrutura
“I’m so scared about the future…”
Essa frase poderia estar em um consultório.
Sigmund Freud chamaria isso de angústia diante do desconhecido.
Mas há um detalhe perturbador: o desconhecido agora é produzido por nós mesmos.
Aaron Beck descreveu a ansiedade antecipatória como projeção de cenários futuros negativos. A IA amplia esse mecanismo ao oferecer previsões que aumentam a sensação de perda de controle.
Viktor Frankl talvez fosse mais incisivo: o problema não é apenas temer o futuro, mas não saber se ainda haverá sentido em existir dentro dele.
A psiquiatria contemporânea já identifica fenômenos como ansiedade tecnológica e deslocamento cognitivo.
O medo não é irracional.
Ele é um diagnóstico de época.
3. O Direito positivo: tentando regular o que não compreende totalmente
O Direito brasileiro responde com ferramentas tradicionais.
A Lei nº 13.709/2018 (LGPD), em seu art. 20, assegura o direito à revisão de decisões automatizadas. Em teoria, isso protege o indivíduo.
Na prática, surge um paradoxo:
como revisar uma decisão cuja lógica é opaca?
A Constituição Federal, no art. 5º, LIV e LV, garante devido processo legal e contraditório. Mas como exercer contraditório contra um sistema que não explica, apenas entrega resultados?
A jurisprudência começa a se mover:
STJ, REsp 1.660.168/RS: exige transparência em decisões automatizadas.
CNJ, Resolução nº 332/2020: estabelece diretrizes éticas para IA no Judiciário.
No plano internacional, o caso State v. Loomis escancarou o problema: um algoritmo influenciou a sentença penal sem revelar seu funcionamento.
A decisão foi mantida.
O recado implícito foi inquietante:
aceitamos decisões que não entendemos — desde que funcionem.
4. Dados empíricos: o futuro não chega — ele substitui
McKinsey (2023): 23% das atividades jurídicas são automatizáveis.
Stanford HAI (2024): maioria dos profissionais jurídicos prevê superioridade da IA em tarefas analíticas.
Harvard Law School (2024): IA supera advogados em revisão contratual.
CNJ (2024): tribunais brasileiros já operam com IA em larga escala.
O futuro não bate à porta.
Ele entra pelos sistemas.
5. O medo do futuro como lacuna jurídica
O Direito reconhece dano, risco, responsabilidade.
Mas não reconhece o medo do futuro.
Ulrich Beck descreveu a modernidade como uma sociedade de risco. A IA transforma isso em algo mais sofisticado: uma sociedade de previsão.
E, ainda assim, o Direito pergunta:
“qual é o dano concreto?”
A resposta que “Talk” sugere é desconcertante:
o dano é viver sob um futuro que não conseguimos compreender — e que talvez não precise de nós.
6. “I wanna talk to you”: o colapso do diálogo jurídico
Jürgen Habermas construiu a ideia de que o Direito depende do diálogo racional.
Mas o verso “I wanna talk to you” revela uma ruptura:
queremos diálogo com algo que não precisa dialogar.
A inteligência artificial não argumenta. Ela performa.
Byung-Chul Han diria que entramos em uma era de eficiência silenciosa, onde o poder não precisa se justificar.
Slavoj Žižek talvez provocasse: o problema não é a IA decidir — é nós aceitarmos isso com alívio.
O Direito começa a perder seu elemento mais humano: a necessidade de explicar.
7. Análise crítica: entre a eficiência e a justiça
Há um paradoxo elegante e perigoso:
quanto mais eficiente a IA, menos compreensível ela se torna;
quanto mais confiamos nela, menos sabemos por quê.
O Direito, que sempre exigiu fundamentação, começa a tolerar decisões opacas.
É como trocar argumentos por resultados.
E talvez isso funcione.
Mas a pergunta permanece:
funcionar é o mesmo que ser justo?
Conclusão: o Direito ainda quer conversar
“I’m so scared about the future… and I wanna talk to you.”
Esse verso não é apenas um lamento.
É um último gesto de humanidade.
O Direito, diante da inteligência artificial, ainda insiste em falar: em normas, princípios, garantias.
Mas o futuro pode não responder no mesmo idioma.
E então resta a pergunta final — simples, incômoda e inevitável:
se o futuro não precisa conversar… o Direito ainda pode insistir em ser diálogo?
Ou estaremos caminhando, silenciosamente, para uma justiça que funciona — mas já não fala?
Bibliografia e Referências
Legislação e Jurisprudência
Constituição Federal de 1988, art. 5º, LIV e LV
Lei nº 13.709/2018 (LGPD), art. 20
Código Civil, arts. 186 e 927
STJ, REsp 1.660.168/RS
CNJ, Resolução nº 332/2020
State v. Loomis (EUA)
Dados Empíricos
McKinsey Global Institute (2023)
Stanford HAI (2024)
OECD AI Policy Observatory (2024)
Harvard Law School (2024)
CNJ, Justiça em Números (2024)
Filosofia
Nietzsche, Schopenhauer, Foucault, Habermas, Byung-Chul Han, Žižek, Ulrich Beck
Psicologia e Psiquiatria
Freud, Beck, Frankl, Damasio