Resumo: O artigo explora as ideias de agência e autonomia de sistemas de inteligência artificial, especialmente no contexto jurídico. Argumenta-se que, embora os algoritmos possam ter agência—a capacidade de executar tarefas e selecionar entre opções pré-definidas—eles não possuem autonomia no sentido humano, que envolve a capacidade de eleger os próprios fins e meios. Ao contrário, sistemas psíquicos têm o agir autônomo balizado por princípios como o do livre convencimento motivado e da independência do juiz. O texto detalha como a modelagem por meio de aprendizado de máquina (machine learning) permite que algoritmos executem tarefas complexas, mas ressalta que essa capacidade é sempre dependente da programação (originalmente), do treinamento, da supervisão e da definição de metas/resultados por humanos. A resolução CNJ 615 restringiu o papel da IA às atividades de suporte (agência sem autonomia). O artigo conclui que, apesar de sua sofisticação, a IA é uma ferramenta descobridora de padrões, que replica na fase de inferência (operação), deterministicamente. É, então, sempre dependente do humano, mediatamente, para a definição de significado, contexto e ética, afastando a noção de uma "inteligência artificial geral" ou "forte", autorizada a auto normatizar-se (autonomia).
Palavras-chave: Algoritmos, Autonomia, Agência, Inteligência Artificial Generativa, Processo Judicial.
Sumário: Introdução/contextualização. 1. Agência e autonomia harmonizadas para o jurídico. 2. Os riscos da caixa-preta: o que os juristas precisam saber. 3. O dilema de Turing: imitação não é pensamento. Considerações finais.
Introdução/contextualização
“Para cada juiz, um aprendiz. [...] O princípio do máximo apoio ao juiz, de 2008, finalmente pode ser impulsionado. Um aprendiz, ao lado de cada juiz, como observador de segunda ordem, permitirá a absorção da forma de observar a ser adotada quando postado na posição de primeira ordem.” (Tavares-Pereira, 2018)1
O uso crescente de sistemas de inteligência artificial (IA) em diversos campos, incluindo o jurídico, têm levantado debates fundamentais sobre a natureza e as capacidades desses sistemas. Para os juristas, no momento em que a IA, na versão generativa (IAgen), esboça pretensão de participar da decisão judicial, é importante estabelecer uma distinção conceitual entre agência e autonomia para se referir à IA dos algoritmos aprendizes. A agência pode ser entendida como a capacidade de um sistema de agir e executar tarefas de acordo com instruções pré-programadas ou padrões aprendidos. Já a autonomia, no sentido atribuído a sistemas psíquicos e sociais, implica a capacidade de eleger fins e meios, de lidar com o inesperado e de agir de forma criativa e contextual, harmônica. Dworkin falaria em integridade sistêmica. Há um sentido primacial da palavra, que interessa particularmente ao Direito, em relação a sistemas psíquicos, de agir sem preestabelecimento de estruturas operativas. É quase um vire-se! O juiz, por exemplo, não pode se eximir de decidir por falta de regra a respeito (estrutura normativa). E, havendo a regra, dentro de limites hermenêuticos defensáveis, goza de ampla autorização para adotar seu livre convencimento, um valor dentro dos sistemas democráticos.
O presente artigo tem como objetivo principal analisar essa diferença, sustentando que os sistemas de IA, por mais sofisticados que sejam, operam com base na agência, mas não na autonomia. Essa tese é fundamentada na análise de como os modelos de aprendizado de máquina são criados e operam, destacando que toda a sua capacidade está vinculada, de alguma forma e em algum grau, à intervenção humana, pela via do treinamento, que sempre é prévio. Em fase de inferência (operação), o determinismo típico das ferramentas impera. O esquema de generalização aprendido e codificado pelo algoritmo, para mapear entradas para saídas (funções2 algorítmicas), opera rigidamente, sem autonomia: frente aos dados de entrada, aplica o esquema de generalização e entrega o resultado. As normas lhe são dadas desde fora, portanto. Se agir, age observando-as.
Um máquina não submetida a essa regra básica (seguir o programado e fazer o previsto), interessaria aos humanos? O pai da Cibernética, Norbert Wiener, há 70 anos, respondeu a essa pergunta desta maneira:
Qualquer máquina construída com a finalidade de tomar decisões, se não estiver dotada da capacidade de aprender, terá mentalidade totalmente literal. Ai de nós se deixarmos que decida a nossa conduta, antes que tenhamos prèviamente examinado as leis de seu funcionamento e saibamos com certeza que sua conduta obedecerá a princípios que nos sejam aceitáveis!
Por outro lado, a máquina semelhante ao djim [gênio da lâmpada], capaz de aprender e tomar decisões fundadas em seu aprendizado, de modo algum estará obrigada a tomar as decisões que teríamos tomado ou que seriam aceitáveis para nós. Pois o homem que, não ciente disso, atribua à máquina o problema de sua responsabilidade, quer ela seja ou não capaz de aprendizagem, estará atirando sua responsabilidade aos ventos, apenas para vê-la de volta sentada num furacão.3 [grifei, anotei]
A partir dessa compreensão, o texto aponta uma série de aspectos técnicos e filosóficos que os juristas devem considerar ao lidar com essas tecnologias, como a ausência de criatividade, a incapacidade de lidar com o inesperado e a falta de uma noção ética ou moral intrínseca aos algoritmos. Por fim, o artigo discute o conceito de "inteligência artificial" à luz da tese de Alan Turing, argumentando que o avanço da IA reside na imitação de padrões humanos e na capacidade de replicação/emulação, não numa noção de inteligência massivamente adotada pelos humanos e muito menos em pensamento (provocação de Turing). Como realça Mariah Brochado, “ [...] a inteligência humana pode ser reproduzida (em) e emulada (por) máquinas.”4 Isso supõe uma redução da noção de inteligência a fragmentos cognitivos bem delimitados e reprodutíveis maquinalmente (algoritmicamente). John Searle, com seu argumento do quarto chinês5, refuta a ilação, feita por muitos, da existência de pensamento/mente/inteligência num processador (uma máquina virtual) pelo fato de ser muito eficiente em manipulação simbólica, como faz a atual IAgen.
1. Agência e autonomia harmonizadas para o jurídico6
O suporte ao decisor pela via tecnológica deve embutir a ideia de agente assistente apto a alavancar o trabalho do juiz [CNJ, Res. 615. – somente para suporte]. Há, portanto, restrição explícita de comportamento autônomo: com agência, sim, mas sem autonomia.
O fato da existência da habilidade seletiva entre as alternativas postas, pré-programadas ou pré-aprendidas, não significam autonomia no sentido aqui utilizado. Enquanto a autonomia, no sentido luhmanniano (Legitimação pelo procedimento e El Derecho de la sociedad)7 e no dos juristas em geral, supõe um espaço de eleição dos meios para a consecução dos fins pelo agente, a habilidade seletiva dos agentes virtuais é o oposto: o aprisionamento operativo a estruturas dadas, herdadas, inescapáveis, às vezes programadas e noutras captadas de registros de ações anteriores, os famosos padrões (patterns).
A modelagem de soluções (a conjugação de algoritmos aprendizes com bases de dados e suporte humano ao aprendizado ou à atribuição de significação às apurações algorítmicas) permite avançar para a alocação de agentes computacionais (esses modelos) em tarefas cuja execução não pode ser alcançada pela programação tradicional. O exemplo clássico é o da direção de um veículo. Essa tarefa não pode ser reduzida a um algoritmo do tipo ‘receita de bolo” - se isso, então faça aquilo! – e que é o produto típico do trabalho de um programador. Isso não implica, só por si, autonomia do algoritmo num sentido aplicável a sistemas psíquicos.
A modelagem com IA do machine learning traz a ideia básica de absorção de inteligência e habilidades humanas nos estritos termos necessários à execução da tarefa, captados a partir dos dados disponíveis (padrões ou patterns), com o auxílio humano de supervisão maior ou menor no aprendizado, podendo esta supervisão ser durante ou após o mergulho nos dados.
Em todos os casos, sem exceção, é o humano que define a meta e dá significado e método ao aprendizado. O algoritmo aluno recebe os dados, devidamente tratados e, segundo a técnica adotada para o aprendizado, cria suas estruturas internas (aprendidas) de operação. O modelador (o humano que treina) define todos os elementos para a geração do modelo, do algoritmo básico aos métodos de aprendizado (aprendizado supervisionado, não supervisionado ou por reforço, por exemplo, e suas respectivas técnicas), além das metas e da respectiva validação dos resultados.
2. Os riscos da caixa-preta: o que os juristas precisam saber8
Como se vê, por mais sofisticada que seja a tarefa a executar e, consequentemente, o modelo a ser gerado, é preciso que os juristas considerem, neste ponto:
-
que a imaginação e a criatividade ficam por conta do humano criador do modelo (essas não são propriedades transmissíveis aos modelos, ao menos até hoje);
-
que o humano planeja a criação do modelo. O algoritmo aprendiz não planeja nada. Não há, em princípio, como pedir a um algoritmo aprendiz que desenvolva uma solução para o problema [X].9 Muitos algoritmos poderão ser utilizados na busca dessa solução, mas certamente atuarão dentro de um esquema modelar planejado por um humano;
-
que um modelo jamais tomará uma decisão, no sentido estrito da palavra. Poderá, sim, aplicar uma decisão já tomada anteriormente por um humano para uma situação idêntica, se estiver postado na cadeia procedimental para fazer isso;
-
que um modelo jamais estará preparado para lidar com o inesperado. Um modelo é uma criação empírica no mais estrito sentido. Por mais que ele tenha visto, não terá visto tudo. O inesperado é algo que não existe em termos de solução. No máximo, ele viverá o dilema do estranhamento: não sei o que é isto!10 Um humano provavelmente proveria uma solução “tirada da cartola” – permita-se dizer assim - para a nova situação fática. O famoso AlphaGo, que aprendeu a jogar sozinho o complexíssimo jogo GO, teria de voltar aos bancos escolares se apenas uma pequena regra do jogo fosse alterada. Ora, sabemos todos que a realidade é tão complexa quanto um GO e está continuamente submetida a alterações de regras enunciadas com todas as limitações da linguagem e sujeitas aos milhões de intérpretes. O inesperado é um “presente” contínuo e inafastável;
-
que os tecnólogos falam muito em capacidade de generalização dos modelos, mas ela não se equipara à capacidade de generalização do cérebro humano. Se as características indicarem a presença de A, um algoritmo não poderá distinguir este A de algo diferente dele, mas que tenha, também, aquelas características. Klaus Günther11 chama essas características diferenciadoras de perístases, o algo mais que faz a diferença (Gregory Bateson12: a diferença que faz a diferença - a difference that makes a difference), que torna a entidade uma coisa diferente. Como diz Luhmann, “[...] a informação [no caso, específica] é uma diferença que leva a mudar o próprio estado do sistema; tão somente pelo fato de ocorrer, transforma [...]”13, põe o curso do sistema noutra direção. Este aspecto é crucial para os juristas, para o processo e para o Direito. Contextualizar é condição indispensável para a aplicação justa da lei, o que significa, filosoficamente, ser capaz de perceber (percepção – característica exclusiva humana) a presença de traços diferenciadores da situação a ser submetida à subsunção;
-
que o modelo, como regra, terá imensa dificuldade para lidar com a ambiguidade, com as patemias (“marcas enunciativas da tensão sofrida pelo enunciador [...] a partir de influências de um ethos institucional [...]”14, que ocupam o discurso de todos os atores no processo) e demais problemas da linguagem e do discurso;
-
que um modelo é estruturalmente fechado, o que significa que suas estruturas estão postas, invariavelmente, antes da operação, e que sua operação é absolutamente causal: para as entradas dadas, produzirá sempre a mesma saída. Isso é uma condição de sua utilidade. Qualquer alteração estrutural demandará uma remodelagem, o que significa voltar à fase de aprendizado para absorção de um modus operandi, definido por humanos, para enfrentar operativamente a nova situação.15
Há quem fale em algoritmos dinâmicos para aludir a um tipo de modelo realimentado para a incorporação de novas estruturas operativas. Mas tais novas estruturas não surgirão do esforço algorítmico apenas, sendo necessária a alimentação, o que significa a chegada ao algoritmo de soluções inovadoras, pensadas e elaboradas por humanos.
Em geral, a volta aos “bancos escolares” para um reaprendizado é a via única de liberdade dos algoritmos aprendizes que estão no bojo dos modelos. O caso clássico a respeito [...] é o do algoritmo da Google que classificava humanos em fotos como gorilas. A solução foi retreinar o algoritmo, gerando-se um modelo cuja base de dados de aprendizado não incluía gorilas [aqui cabe uma nota atualizadora relevante: os prompts foram criativamente utilizados para quebrar a rigidez maquínica dos algoritmos. O algoritmo continua a ser a ferramenta virtual que é, mas aceita a inclusão de instruções de última hora pelo usuário. A mecanicidade não é quebrada, mas as estruturas operativas são enriquecidas para a produção do resultado. Usuários ganharam, assim, poderes que, até então, eram dos programadores e do próprio algoritmo pelo fato de aprender de dados] e
-
que modelos (melhor seria aqui usar algoritmos) não têm noção de ética/moral. Se as estruturas definirem que algo deve ser feito, será feito. Visões consequencialistas, por exemplo, só atuarão como freio operativo se os padrões captados dos dados, ou os mecanismos de enviesamento dos ferramentais algorítmicos (parâmetros), estiverem adequadamente conformados ou acionados. Algoritmos são amorais. São ferramentas. Ajustá-los para operação em sintonia com determinados padrões éticos significa, apenas, conjugar as duas ordens normativas – a jurídica e a moral - na definição de suas estruturas operacionais. Isso parece bom, à primeira vista (desenviesar o mundo), mas as centrais de moralidade e ética que se podem valer desses ferramentais para impor visões totalizantes recomendam grande reserva a respeito.
3. O dilema de Turing: imitação não é pensamento17
Todos esses aspectos diferenciadores demonstram como é enganoso o uso do termo inteligência na denominação de inteligência artificial. Quando Turing falou do seu jogo da imitação, no paper de 1950, e perguntou, no primeiro parágrafo, “podem as máquinas pensar?”, jogou grande dúvida também sobre o que costumamos denominar de inteligência. Seria um modo especial, otimizado, de pensar?
As discussões não terminam quando se chega a este ponto. Mas Turing foi certeiro ao falar de imitação (imitation). Até agora, passados 70 anos, os modelos computacionais de software têm de fato avançado muito na possibilidade de imitação dos humanos. Estamos, no entanto, longe de algo qualificável como inteligência, num sentido de inteligência artificial geral. Ganhamos, sim, muita capacidade de captar padrões, por exemplo, a partir de textos, e de replicá-los, uma qualidade inestimável para assistentes dependendo do que se espera deles.
O valor desse avanço fica bem caracterizado quando se considera o imenso esforço feito no âmbito da engenharia do conhecimento (zelosa e mãe da inteligência artificial clássica, programada), inclusive com o desenvolvimento de lógicas especiais não ortodoxas (fuzzy, paraconsistente...) e os poucos avanços obtidos. Como exaustivamente marcado [na obra de que esses itens fazem parte], a reclamação generalizada entre os cientistas da área do conhecimento era a falta de acesso ao conhecimento, dominado por especialistas que “nunca tinham tempo” para sistematizá-lo e disponibilizá-lo aos tecnólogos.
Portanto, não se trata de fazer um acordo conceitual, nem de definir níveis de inteligência, nem de falar em inteligência artificial geral ou forte – um sonho para o próximo século, talvez! – ou em inteligência artificial fraca. Trata-se de estabelecer que a IA é humano-dependente, mais um replicador de comportamentos ou um descobridor de padrões do que uma ferramenta apta a tomar decisões. Ainda que descubra padrões (caso típico do aprendizado não supervisionado), a utilidade das descobertas dependerá, em geral, de um humano.
O fato de que alguns humanos desempenhem atividades semelhantes (apenas repliquem padrões ou descubram padrões desconhecidos em certos dados, por exemplo), demonstra que os ferramentais capazes de replicar esses comportamentos podem ser úteis. E há situações em que se exige ou se quer, mesmo, apenas esta habilidade.
Considerações finais
A discussão sobre a agência e a autonomia de algoritmos não é meramente semântica. Ela é indispensável para o desenvolvimento e a aplicação responsável da inteligência artificial, especialmente no campo jurídico decisional. Conforme analisado, os sistemas de IA operam com um alto grau de agência—a capacidade de agir e executar tarefas de forma eficiente com base em dados e programações—, mas lhes falta a autonomia, que é uma característica humana. Essa autonomia inclui a capacidade de pensar criativamente, de lidar com o inesperado, de contextualizar informações e de guiar as ações por princípios éticos e morais. A competência jurídica, definida como o poder de decidir, obrigatoriamente, demanda do agente um tipo de autonomia que máquinas não podem ter. Essa autonomia de legitimar, pelo poder recebido, a jurisdição entregue (a decisão), deve ser exclusividade de humanos. A execução de cada ação algorítmica deve estar previamente autorizada por humanos. É o que está previsto na Resolução CNJ/615.
As limitações dos algoritmos são um lembrete importante de que eles são, em sua essência, ferramentas. Sua utilidade e confiabilidade dependem inteiramente da qualidade da programação e do aprendizado supervisionado por humanos. A ausência de uma verdadeira compreensão ou de uma consciência nos algoritmos significa que a responsabilidade final por suas ações e resultados sempre recairá sobre os humanos que os criaram, treinaram e empregaram.
O uso da IA no Direito, portanto, deve ser visto como um suporte para o trabalho humano, e não como uma substituição. A capacidade dos juristas, de perceber as "perístases"—os traços diferenciadores que contextualizam cada caso—, é insubstituível. A IA pode otimizar processos, identificar padrões, auxiliar na pesquisa e propor decisão, mas a tomada de decisão final, a avaliação ética e a aplicação da justiça contextualizada permanecem como prerrogativas exclusivamente humanas.