Capa da publicação Antropomorfização da IA: semelhanças e limitações
Capa: Sora
Artigo Destaque dos editores

Advogado, cuidado com a antropomorfização das máquinas.

Existe inteligência artificial?

Exibindo página 1 de 3
12/08/2025 às 14:55

Resumo:


  • A antropomorfização da Inteligência Artificial destaca a diferença entre aprendizado humano e de máquina, apontando desafios

Resumo criado por JUSTICIA, o assistente de inteligência artificial do Jus.

A inteligência artificial não pensa nem sente como um ser humano. Como diferenciar inteligência artificial da humana sem cair em falsas analogias?

Resumo: Este artigo explora a antropomorfização da Inteligência Artificial (IA), destacando como analogias entre máquinas e humanos, embora úteis, podem ser enganosas. Termos como “aprendizagem” e “memória” aplicados à IA obscurecem as diferenças fundamentais entre o aprendizado humano e o de máquina. A IA, apesar de seus avanços, ainda enfrenta desafios em replicar a complexidade da cognição humana, especialmente em áreas como tomada de decisões e compreensão de nuances. A dependência da IA em grandes volumes de dados e poder computacional contrasta com a capacidade humana de aprender com poucas ocorrências. Além disso, a ausência de emoções nas máquinas levanta questões sobre sua capacidade de alcançar a verdadeira inteligência. A superconfiança nos sistemas automatizados também é problemática, situação evidenciada por estudos que mostram como a presença de robôs, compartilhando tarefas, pode levar a erros humanos. Embora a IA seja uma ferramenta poderosa, é crucial reconhecer suas limitações e evitar atribuir-lhe características humanas de forma indiscriminada. A compreensão das distinções entre humanos e máquinas é essencial para o desenvolvimento e uso ético da IA. Este é um estudo bibliográfico construído a partir do arcabouço teórico proposto por Luhmann e suas teorias: dos sistemas e dos sistemas sociais (1990, 1998, 2011), bem como utiliza outros estudos a respeito do tema.

Palavras chave: Inteligência artificial; modelos generativos; antropomorfização; inteligência; máquinas.


1. Introdução

No dia 22 de junho de 2023, um juiz federal de Manhattan, em Nova Iorque, multou dois advogados por citarem pesquisas jurídicas falsas geradas pelo ChatGPT em um caso de lesão corporal. O juiz considerou o caso inédito e sancionou o escritório de advocacia Levidow, Levidow & Oberman e dois de seus advogados com uma multa de US$ 5.000 por usar material falso criado por inteligência artificial generativa em um processo judicial. O uso de pesquisas falsas foi feito para apoiar um cliente que alegava ter se machucado em um voo comercial. Os advogados punidos, Steven A. Schwartz e Peter LoDuca, usaram o ChatGPT para embasar a argumentação de que o processo movido por seu cliente era válido. Schwartz alegou desconhecer a capacidade da ferramenta de “inventar casos”, e LoDuca disse ter confiado na pesquisa do colega. O juiz, no entanto, apontou que os advogados inicialmente insistiram na veracidade das pesquisas, mesmo após questionamentos. A firma Levidow, Levidow & Oberman informou que irá acatar a decisão, mas negou má-fé (MULVANEY, 2023).

Historicamente, os dispositivos tecnológicos foram criados como escopo de superação das limitações físicas dos seres humanos, sem, contudo, replicar suas capacidades mentais. Porém, iniciou-se um processo de muita investigação e desenvolvimento centrado na criação de sistemas computacionais que imitam a estrutura e função do cérebro. Assim, a tecnologia, de acordo com Sadin, passou a adotar uma forte abordagem antropomórfica (2020, pp. 17-20).

E é sobre esta abordagem que decorre o sentido morfológico do termo antropomorfizar, ou seja, atribuir a algo não humano, forma ou característica humanas, conforme definido por Houaiss e Villar (2001, p. 240). Já no que diz respeito ao termo máquina, é utilizado, para fins de desenvolvimento deste trabalho, de acordo com a cibernética e refere-se às fórmulas matemáticas, cálculos e regras de transformação, e não necessariamente limita-se a interpretar apenas dispositivos eletrônicos ou mecânicos (LUHMANN, 2011, pp. 108-109).

Neste campo conceitual um algoritmo é uma máquina e executar um programa é proporcionar um acoplamento estrutural entre dois sistemas, hardware e software, cujos elementos são maquínicos. Tavares-Pereira afirma que um algoritmo é uma máquina virtual que depende de uma máquina física para se manifestar (2021, p. 70).

Na metade do século passado, os pioneiros da inteligência artificial definiram uma missão com um objetivo ambicioso e claro, isto é, replicar a inteligência humana em uma máquina. Essa combinação de clareza de propósito e complexidade da tarefa atraiu algumas das mentes mais brilhantes da, então, incipiente área da ciência da computação. Desde o seu surgimento, a IA experimentou diversos ciclos de crescimento e declínio. Fases de grande otimismo foram sucedidas por fases de estagnação apontadas por Lee como “invernos da IA” (LEE, K., 2019, pp. 19).

Reforça-se o objetivo da IA, com a afirmação de Pedro Domingos (2017), de que o objetivo é ensinar os computadores a fazer o que os seres humanos fazem bem, isto é, principalmente aprender. Se não aprender, um computador não pode se equiparar a um ser humano no que se refere ao ato de antropomorfização. O machine learning [aprendizado de máquina] é um subcampo da IA em acelerado crescimento e evolução que tem ofuscado a própria IA e seu grande objetivo (pp. 30-31).

1.1. Analogias úteis, mas também enganadoras

O processo de antropomorfização das máquinas conduz a analogias que tanto podem ser úteis como também se apresentarem como funcionalmente enganosas. Isto ocorre quando se indaga o que significa realmente imitar o ser humano em suas habilidades, comportamentos e características? Em uma acelerada dimensão de tempo não linear, termos como redes neurais, memória, pensamentos, alucinações e inclusive inteligência que são expressões atribuídas aos seres humanos não podem migrar para a área de tecnologia da informação, como se houvesse uma correspondência operacional simétrica entre a forma como as máquinas aprendem e a forma como os sistemas psíquicos aprendem.

Conforme Maturana e Varela (2001), as palavras, designadoras de objetos ou situações no mundo, não refletem o funcionamento do sistema nervoso, pois este não funciona como representação do mundo (p. 230).

Keneth Burke (citado em Luhmann, 2011), afirma que na busca por uma linguagem que espelhe fielmente a realidade, a humanidade se vê diante de um desafio: a necessidade de selecionar e, consequentemente, distorcer essa mesma realidade. O vocabulário, como ferramenta de representação, deve encontrar um equilíbrio entre refletir o mundo e, ao mesmo tempo, reduzi-lo a termos compreensíveis. Essa seleção, inevitavelmente, implica em uma deformação, que se torna problemática quando a linguagem ou os cálculos empregados não se adequam ao objeto de estudo (179-180).

Deve-se ter o devido cuidado com termos ou palavras, utilizadas largamente em determinado domínio, com significados definidos e estabelecidos, que são transpostas, principalmente por analogia, para outras áreas de conhecimento. A distinção entre os dois tipos de aprendizado, aprendizado de máquina e aprendizado humano, como afirma Tavares-Pereira (2021), é evidente e implícita no próprio termo “aprendizado de máquina” porque ao se destacar apenas o “aprender” se obscurece a qualificação “de máquina”, que é claramente limitadora. Isso resulta em uma “falsa equivalência”, mas, é frequentemente ignorado. (2021, pp.110-112).


2. Máquinas substituindo seres humanos, porém com métodos e técnicas diferenciadas

Embora as técnicas e alguns métodos utilizados para o desenvolvimento da inteligência artificial sejam nominados com termos ligados aos sistemas psíquicos, principalmente humanos e permitam que computadores os substituam em diversas atividades – inclusive em atividades cérebro-dependentes –, não se pode afirmar que suas operações internas se igualem à forma como os sistemas psíquicos operam, que é pensando, tampouco se igualam aos sistemas sociais que operam pela comunicação e aos organismos que operam pela vida.

Cérebro, em uma concepção antropocêntrica da palavra é utilizado correntemente em dois sentidos, quais seja, como a parte biológica, representado pela forma de um quilo e trezentos gramas de massa cinzenta e como mente. E muitas vezes indistintamente, como uma unidade, onde mente e parte física se confundem.

Marvin Minsky, se pergunta, ¿por que uma mente parece tão diferente de qualquer outro tipo de coisa? E afirma que as mentes não são coisas - pelo menos não compartilham de nenhuma das propriedades habituais das coisas, como cores, tamanhos, formatos ou pesos. As mentes encontram-se além do alcance dos sentidos da audição, visão, olfato e paladar. Por outro lado, embora as mentes não sejam coisas de modo algum, possuem, certamente, ligações vitais com as coisas que denominamos de cérebros (MINSKY, 1989, p. 288).

Embora o sistema da ciência tem evoluído muito sobre o funcionamento do cérebro humano e até não humano (de alguns animais), ainda não foi possível uma compreensão de seu funcionamento como um todo. Michio Kaku corrobora tal constatação ao afirmar que quando nós olhamos outros órgãos do corpo, como nossos músculos, ossos e pulmões, parece haver uma relação e razões óbvias que podemos ver imediatamente, mas que a estrutura do cérebro parece um pouco caótica, como se as partes estivessem se estapeando e que um mapa do funcionamento do cérebro tem sido muitas vezes chamado de cartografia para tolos (KAKU, 2014, p. 18).

Damásio define a mente como um fluxo contínuo de padrões mentais, e muitos deles aparecem como logicamente inter-relacionados. O fluxo avança no tempo, depressa ou devagar, ordenadamente ou aos saltos e, ocasionalmente, move-se ao longo não de uma, mas de várias sequências. Às vezes as sequências são concorrentes, outras vezes convergentes e divergentes, ou mesmo sobrepostas (2015, p. 272).

Recentemente, em seu boletim informativo, a OpenAI, criadora do software ChatGPT, anunciou que seu modelo ‘o1’ é capaz de raciocinar. A empresa apresenta esse modelo como uma mudança radical no avanço do desenvolvimento da inteligência artificial generativa. De acordo com a empresa, esse novo modelo foi projetado para raciocinar por meio de decisões, como fazem os seres humanos (STOKEL-WALKER, 2024). Ainda assim, entende-se que as máquinas não pensam (enquanto função), pois suas operações maquínicas não são de pensamentos. Há diferenças muito relevantes e perceptíveis no atual estágio de desenvolvimento da tecnologia, entre o aprendizado humano e o aprendizado de máquina, que ainda impedem a substituição dos agentes humanos por agentes automatizados para uma gama bastante elevada de tarefas. Tavares-Pereira (2021), em sua obra, apresenta com bastante propriedade as dificuldades quase intransponíveis, no atual estágio da tecnologia, de utilização de agentes automatizados atuando como juízes, por exemplo.

Não se está afirmando que as máquinas não possam se utilizar de métodos e técnicas diferenciadas que permitam superar os humanos nas soluções de problemas complexos. Kai-Fu Lee afirma que se subestima o poder da IA de produzir inteligência sobre-humana em áreas muito especializadas (2019, p. 20). Tampouco se está afirmando que não se deva procurar uma aproximação com os métodos e técnicas dos sistemas psíquicos. No entanto, a questão fundamental concentra-se em dotar os computadores de inteligência pode não equivaler ao caminho tortuoso adotado pela natureza durante o processo evolutivo que originou os cérebros, os sistemas psíquicos e a revolução cognitiva da qual fala Yuval Noah Harari (2017, pp. 32-33).

Assine a nossa newsletter! Seja o primeiro a receber nossas novidades exclusivas e recentes diretamente em sua caixa de entrada.
Publique seus artigos

2.1. Sistemas especialistas versos redes neurais

Na metade do século passado, começo do processo técnico para dotar os computadores de Inteligência, alguns cientistas da computação adotaram uma abordagem baseada em regras, criando “sistemas simbólicos” ou “sistemas de especialistas”, ensinando o computador a pensar por meio da codificação de uma série de regras lógicas. A partir de entrevistas com especialistas em determinados assuntos, codificavam nos computadores suas sabedorias na tomada de decisões. Essa abordagem até funcionava para execução de tarefas simples e bem definidas, como por exemplo jogos simples, porém se esboroava quando o universo de escolhas era demasiadamente complexo.

Outros cientistas da computação, B. Widrow, G. Carpenter, S. Grossberg, P.J. Werbos, D. Parker, D. Rumelhart, entre outros, adotaram uma outra abordagem, baseada em “redes neurais”. O campo das redes neurais seguiu um caminho distinto. Em vez de ensinar ao computador as regras que o cérebro humano já domina, esses pesquisadores buscaram replicar o próprio cérebro humano. Observando que as complexas redes de neurônios nos cérebros dos animais eram as únicas capazes de gerar inteligência como a conhecemos, decidiram ir direto à fonte. Essa abordagem imita a estrutura do cérebro, criando camadas de neurônios artificiais que podem receber e transmitir informações de maneira semelhante às redes neurais biológicas. Diferentemente da abordagem baseada em regras, os desenvolvedores de redes neurais geralmente não fornecem regras específicas para a tomada de decisões. Em vez disso, alimentam as redes com inúmeros exemplos de dados de um fenômeno específico e determinado – como imagens, partidas de xadrez ou sons – permitindo que as próprias redes identifiquem padrões nos dados. Quanto menos intervenção humana, melhor (Lee, 2019, pp. 20-21).


3. Existe inteligência artificial?

Inteligência é um termo abrangente e de difícil definição. Kevin Kelly afirma que nossa própria inteligência tem um entendimento muito pobre do que é inteligência (2020). Há muito se estuda e se tenta definir o que realmente é inteligência ou ser inteligente.

O termo inteligência auxilia a entender o atual estágio de desenvolvimento da inteligência artificial com ênfase no aprendizado de máquina, como se observará da seguinte abordagem reflexiva.

3.1. O termo inteligência

Embora exista uma impossibilidade básica de se analisar certos fenômenos sistêmicos, seus detalhes, suas características e o modo como fazem suas seleções internas para obtenção de um resultado, um observador externo se utiliza de termos para designar esses fenômenos. Mesmo não compreendendo exatamente como um sistema psíquico autorreferencial escolhe a solução específica para um problema, denomina-se esse fenômeno sistêmico como inteligência. A impossibilidade de se observar como as informações desencadeiam mudanças estruturais em um sistema sem interromper sua autoidentificação é referida como aprendizagem (LUHMANN, 1998, pp. 119-120).

Luhmann afirma que essas atribuições de termos são artifícios de observadores, por meio dos quais, interpreta-se o não observável. Acostuma-se com esse processo e acredita-se que uma pessoa tem inteligência e é capaz de aprender. E isso, dificilmente pode ser contraditado, pois ninguém pode observar esses os fenômenos nominados com mais exatidão do que a permitida pelos termos que lhes são atribuídos. Existem muitos exemplos, que demonstram a inutilidade da busca por um substrato psíquico ou mesmo orgânico de algo como inteligência e aprendizagem. Ao final, conclui-se que esses termos são ferramentas interpretativas usadas por observadores para dar sentido a processos que não podem ser diretamente observados (LUHMANN, 1998, pp. 119-120).

As qualidades abstratas desses termos, permitem a um observador aplicar essas mesmas ferramentas à sua própria auto-observação, acreditando que ele as tem e passa também a atribuí-las, por exemplo, às máquinas. É muito difícil, e se deve ter bons argumentos para refutar essas atribuições, pois a observação está limitada pelos próprios termos que definem esses conceitos.

Jean Piaget (2014) afirma que a inteligência é um termo genérico que designa formas superiores de organização ou de equilíbrio das estruturações cognitivas. A inteligência não consiste em uma categoria isolável e descontínua de processos cognitivos, como se fosse uma estruturação entre outras, mas uma forma de equilíbrio para a qual tendem todas as estruturas (pp. 33-34). Kelly (2020) argumenta que temos a tendência de pensar na inteligência como uma dimensão única; como se pudesse ser avaliada com uma só nota que fica cada vez maior, quanto mais inteligente é o avaliado. A medição de QI é um exemplo, ou seja, se pode ter uma escala crescente iniciando com um camundongo, passando por um orangotango, em seguida por um indivíduo aparentemente estúpido e culminando com os gênios com notas muito altas. A inteligência humana, no entanto, é como uma sinfonia com notas diferentes.

3.2. Inteligência artificial

A área de conhecimento da IA tem uma longa história que se inicia nos primórdios dos computadores. O termo inteligência artificial foi registrado pela primeira vez em 1956, na Conferência do Dartmouth College, em New Hampshire (USA) e referia-se a um novo campo do conhecimento, embora as ideias referentes a essa área sejam anteriores a 1956, remontando à Segunda Guerra Mundial. Em 1943, Warren McCulloch e Walter Pitts escreveram um artigo sobre estruturas de raciocínio artificiais em forma de modelo matemático que imitam o sistema nervoso humano (De Castro Barbosa & Bezerra, 2020, p. 93).

Obviamente, naquela época, também se trabalhava sobre dados ainda muito incipientes. Atualmente, em qualquer cafeteria do Vale do Silício, pessoas debatem se esses algoritmos são apenas códigos como outros quaisquer, com as pessoas no comando, ou se quem pensa assim não está entendendo a profundidade dessa nova tecnologia. Os argumentos não são inteiramente racionais. Muitos indivíduos estão impressionados com os modelos generativos e se põem em vigília esperando uma inteligência maior. A posição mais pragmática seria pensar em IA como uma ferramenta e não se deve mitologizar a tecnologia, mas sim assumir que não existe inteligência artificial, fugindo um pouco da abordagem antropomórfica, para que se possa trabalhar melhor e se consiga utilizá-la bem como meio para diversos fins. Gerenciar a nova tecnologia de forma inteligente, exige pensar dessa forma, defende Lanier (2023).

3.3. Inteligência artificial versus inteligência humana

Já na década de setenta do século passado (DAVIS; CHRISTODOULOU; SEIDER; GARDNER) apresentaram a Teoria das Inteligências Múltiplas (IM) de Howard Gardner, que desafia a concepção tradicional de inteligência como uma entidade única e geral, mensurável por um tipo específico de teste, ao se classificar a inteligência em sete categorias: linguística, lógico-matemática, espacial, musical, corporal-cinestésica, interpessoal e intrapessoal (2011, pp. 485-503). Obviamente tal classificação é elucidativa, porém não explica claramente as nuances estruturais das capacidades humanas de resolver problemas. Há indivíduos que são diferenciados da maioria em diversas dessas categorias apontadas por Gardner, sendo muito bons em várias ou excepcionalmente bom em uma e muito abaixo do esperado em outras.

Por sua vez, os animais, não humanos, poderiam ter tipos de inteligência diferenciados? E as máquinas com modelos generativos teriam um tipo especial de inteligência, uma lógico-matemática, já que se baseiam em solucionar problemas matemáticos, realizando operações matemáticas, identificando padrões e permitindo diálogos com humanos que na grande maioria das vezes apresentam argumentos coerentes?

Em breve, algoritmos baseados em técnicas de IA dirigirão carros melhor que os humanos, pois não se distraem; se estão dirigindo concentram-se apenas nessa atividade e processam informações muito mais rapidamente, além de analisar contextos muito mais amplos para a tomada de decisão. Também, conforme Kai-Fu Lee, há poucas dúvidas de que os algoritmos de IA acabarão por superar os médicos humanos em sua capacidade de diagnosticar doenças e recomendar tratamentos (2019, p. 249). Isso significa que esses algoritmos sejam mais inteligentes que os humanos? Em alguns aspectos, porém, estamos longe de termos computadores com habilidades de crianças de 3 anos de idade, como demonstra muito bem Fei-Fei Li. Uma criança de três anos tem muito o que aprender sobre o mundo, mas já é uma especialista em dar sentido ao que observa (2017), enquanto computadores mais avançados ainda não realizam essa tarefa. Um ser humano aprende com poucos dados, enquanto um computador precisa de muitos dados e ocorrências para, estatisticamente, apresentar casos similares. Aaamodt e Wang afirmam que um bebê, depois de ver uma série de fotos de gatos, fica com um olhar mais demorado e presta mais atenção a uma única foto de cachorro que lhe for apresentada. Isso significa que os bebês conseguem distinguir gatos de cachorros com apenas uma ocorrência diferenciada (2013, p. 33).

O cérebro humano desempenha, portanto, a complexa função de processar um fluxo constante de informações sensoriais. Em meio a um grande volume de dados irrelevantes, ele precisa identificar e extrair informações relevantes, agir sobre elas e possivelmente armazená-las na memória de longo prazo. A compreensão da memória humana apresenta um desafio significativo: como novas memórias podem ser formadas sem que as memórias existentes sejam corrompidas ou perdidas? Esse desafio é conhecido como o dilema da estabilidade-plasticidade (LOESCH & SARI, 2011, pp. 111-112).

Stephen Grossberg, um pesquisador na área de inteligência artificial e neurociência computacional, conhecido por suas contribuições significativas ao desenvolvimento de modelos teóricos que explicam como o cérebro processa informações (apud LOESCH; SARI, 2011), descreve o problema da estabilidade-plasticidade afirmando que o desafio central reside em como um sistema de aprendizagem pode ser projetado para se adaptar a informações relevantes, permanecendo estável diante de informações irrelevantes. Entre as questões apresentadas para enfrentar este desafio se encontram: como esse sistema pode alternar entre os modos de estabilidade e plasticidade, garantindo flexibilidade sem comprometer a estabilidade e evitando o caos durante a adaptação? Mais precisamente, como o sistema pode reter o conhecimento previamente adquirido enquanto continua a aprender novas informações? Como evitar que a aquisição de novas informações interfira nas memórias já consolidadas? (p. 112). Pensando assim, Grossberg desenvolveu a teoria da Adaptive Resonance Theory (ART), para utilização em redes neurais artificiais, ainda em 1976.

A ART busca demonstrar como integrar um modelo de aprendizado competitivo em uma estrutura de controle auto-organizada, de forma que o reconhecimento de padrões e o aprendizado autônomo permaneçam estáveis mesmo quando expostos a uma sequência aleatória de padrões de entrada. A autonomia, nesse contexto, implica na ausência de controle externo ou supervisão. Sistemas de aprendizado autônomo devem aprender com seus próprios erros, observações e interações com o ambiente. Eles precisam ser capazes de generalizar, criando categorias abrangentes a partir de dados específicos. Para isso, esses sistemas necessitam organizar o conhecimento adquirido, identificar informações relevantes e se reorganizar quando necessário. Detalhes inicialmente irrelevantes podem se tornar importantes posteriormente, exigindo que o sistema se ajuste automaticamente (LOESCH; SARI, 2011, p. 112).

Embora se possa analisar as regularidades das relações externas de um sistema psíquico, não é possível conhecer em detalhes a parte interna desse sistema, por sua complexidade (LUHMANN, 2011, p. 65). Assim, à medida que se dá autonomia para uma rede neural artificial para organizar o conhecimento adquirido a partir dos dados e se reorganizar quando necessário, estabelecendo seus próprios parâmetros, está-se diante da impossibilidade de observar exatamente a parte interna desse sistema por sua complexidade, seus milhões de parâmetros internos e assim não se pode afirmar que a forma de auto-organização de uma rede neural artificial seja igual a de um sistema psíquico, embora tenhamos acesso às regularidades de suas manifestações.

3.4. A inteligência humana, as máquinas e as emoções

De acordo com Capra, há “[…] fortes evidências de que a inteligência humana, a memória humana e as decisões humanas, nunca são completamente racionais, mas sempre se manifestam coloridas por emoções […]. Nosso pensamento é sempre acompanhado por sensações e por processos somáticos.” (2010, p. 68). De acordo com a teoria luhmanniana dos sistemas, o sistema psíquico não está isolado do corpo. O corpo, com seus diversos sistemas, compõe o ambiente do sistema psíquico (LUHMANN, 1990, pp. 103-14). O ambiente é constitutivo do sistema, pois não há sistema sem ambiente e vice-versa.

Conforme Maturana, nossa cultura desvaloriza as emoções, pois estamos permanentemente fazendo uma petição de comportamento racional, porém não se pode desconhecer as emoções; Maturana exemplifica com o fato de que quando aprendeu a ler em uma semana, foi movido pela inveja (2001, pp. 108-109).

Damásio concluiu, com estudos em seu laboratório, “que a emoção integra os processos de raciocínio e decisão, seja isso bom ou mau.” As descobertas levaram em conta indivíduos “que eram inteiramente racionais na forma como conduziam suas vidas até o momento em que, em consequência de uma lesão neurofisiológica em locais específicos do cérebro, perderam determinada classe de emoções” e, com isso, também “perderam a capacidade para tomar decisões racionais” (2015, pp. 43-44).

Questiona-se, se as máquinas podem ser verdadeiramente inteligentes sem emoções. O termo “mecanizado” significa, por um lado, ausência de sentimentos, emoções ou interesses; por outro, contrariamente, representa um comprometimento obsessivo com uma única causa. Ambos os extremos sugerem falta de humanidade e até mesmo estupidez, seja pela incapacidade de realizar múltiplas tarefas ou pela falta de propósito. A inteligência artificial precisa de algum nível de emoção ou experiência para alcançar seu potencial máximo e evitar cair em extremos prejudiciais (MINSKY, 1989, p. 163). O robô Giskard, de Isaac Asimov, afirmou que “Como as emoções são poucas e as razões várias [...], podemos prever com mais facilidade o comportamento de uma multidão do que o de uma pessoa” (ISAAC ASIMOV, apud MINSKY, 1989, p. 172).

A tecnologia atual não está dotando os computadores de emoções para suas decisões e isso pode desqualificá-los para tarefas que exijam essa qualidade humana. Mas não se pode afirmar que no futuro os algoritmos não possam ser configurados com hiperparâmetros que os forcem a simular o processo emocional, para terem mais ou menos “emoções” ao criarem seus parâmetros internos frutos de suas escolhas, ou que se trabalhe com métodos e técnicas que independam de emoções e que as máquinas possam fazer escolhas iguais ou melhores que as seleções realizadas pelos seres humanos para a solução dos problemas.

Enfatiza-se sempre o aspecto positivo das emoções, principalmente o comportamento amoroso dos seres humanos e esquece-se das barbáries cometidas por esses mesmos seres humanos emocionados, individual ou coletivamente. Os seres humanos, paradoxalmente, cometem desumanidades. Talvez as máquinas inteligentes possam ser superiores aos humanos ao tomar determinadas decisões racionais não influenciadas por emoções ou ser um complemento fundamental para os seres humanos diante de decisões complexas, apresentando novos cenários e contextos que os auxilie em suas decisões involucradas por emoções. As máquinas podem, talvez, ser uma possibilidade de salvação para a manutenção e incremento da humanidade e não o contrário como advogam alguns.

Assuntos relacionados
Sobre o autor
Carlos José Pereira

Empresário do setor de tecnologia, bacharel em Ciências Contábeis pela Fundação Universidade da Região de Blumenau (FURB) e doutorando em Ciências Empresariais e Sociais pela Universidad de Ciencias Empresariales y Sociales (UCES), Buenos Aires.

Como citar este texto (NBR 6023:2018 ABNT)

PEREIRA, Carlos José. Advogado, cuidado com a antropomorfização das máquinas.: Existe inteligência artificial?. Revista Jus Navigandi, ISSN 1518-4862, Teresina, ano 30, n. 8077, 12 ago. 2025. Disponível em: https://jus.com.br/artigos/113867. Acesso em: 5 dez. 2025.

Leia seus artigos favoritos sem distrações, em qualquer lugar e como quiser

Assine o JusPlus e tenha recursos exclusivos

  • Baixe arquivos PDF: imprima ou leia depois
  • Navegue sem anúncios: concentre-se mais
  • Esteja na frente: descubra novas ferramentas
Economize 17%
Logo JusPlus
JusPlus
de R$
29,50
por

R$ 2,95

No primeiro mês

Cobrança mensal, cancele quando quiser
Assinar
Já é assinante? Faça login
Publique seus artigos Compartilhe conhecimento e ganhe reconhecimento. É fácil e rápido!
Colabore
Publique seus artigos
Fique sempre informado! Seja o primeiro a receber nossas novidades exclusivas e recentes diretamente em sua caixa de entrada.
Publique seus artigos