IA: arma de dois gumes na saúde humana?

04/10/2025 às 20:10

Resumo:


  • A interseção entre Inteligência Artificial e vulnerabilidade humana pode resultar em consequências devastadoras, como o caso de um homem hospitalizado após seguir orientações de um chatbot para substituir sal comum por brometo de sódio.

  • A população idosa, devido à confiança em fontes de autoridade percebida e ao baixo letramento digital, é particularmente suscetível à desinformação no ambiente digital, o que pode gerar impactos negativos à saúde e ao bem-estar.

  • O arcabouço legal brasileiro, incluindo o Estatuto da Pessoa Idosa, a LGPD, o CDC e o Marco Civil da Internet, busca proteger os idosos no ambiente digital, mas ainda carece de regulamentação específica para lidar com a responsabilidade civil da Inteligência Artificial.

Resumo criado por JUSTICIA, o assistente de inteligência artificial do Jus.

Como proteger idosos dos riscos da IA na saúde? O caso do bromismo expõe falhas éticas, legais e cognitivas da tecnologia e a urgência de sua regulamentação.

1. A Perigosa Confluência da IA e da Vulnerabilidade Humana

A era digital, marcada por avanços tecnológicos vertiginosos, prometeu acesso inédito à informação e à conectividade global. Contudo, essa mesma interligação, quando desprovida de discernimento crítico, transformou-se em terreno fértil para a desinformação, com consequências potencialmente devastadoras.

Um caso recente e alarmante, publicado no prestigiado periódico Annals of Internal Medicine Clinical Cases, ilustra de forma contundente esses riscos. Um homem de 60 anos, residente nos Estados Unidos, foi hospitalizado com alucinações e graves distúrbios físicos após substituir o sal comum por brometo de sódio em sua alimentação — alteração realizada sob orientação do ChatGPT, ferramenta de Inteligência Artificial (IA).1

O episódio não constitui um infortúnio isolado, mas evidencia a interseção crítica entre a expansão da IA e a vulnerabilidade humana, especialmente a da população idosa. Embora a IA apresente potencial transformador em áreas como a saúde, sua capacidade de gerar respostas rápidas e convincentes sem discernimento humano ou contextualização médica adequada pode levar a desfechos adversos — inclusive fatais.1

A ausência de mecanismos internos de validação de segurança ou de questionamento da intenção do usuário revela uma lacuna estrutural no desenho atual dessas tecnologias, particularmente quando aplicadas em contextos de alto risco.

Diante desse cenário, o presente estudo propõe-se a examinar a vulnerabilidade da pessoa idosa no ambiente digital, analisar o arcabouço jurídico brasileiro voltado à sua proteção e discutir caminhos para mitigar os riscos da desinformação gerada por sistemas de Inteligência Artificial, em busca de um futuro digital mais seguro e inclusivo.


2. O Caso de Bromismo Induzido por IA: Uma Análise Clínica e Comportamental

O paciente, homem de 60 anos sem histórico médico ou psiquiátrico, buscou no ChatGPT uma alternativa ao cloreto de sódio, motivado por preocupações com a saúde. O chatbot sugeriu o brometo de sódio como substituto — substância que o paciente adquiriu pela internet e utilizou na alimentação por cerca de três meses.1

Após esse período, apresentou-se ao pronto-socorro com queixas de paranoia. Em 24 horas, seu quadro evoluiu para alucinações visuais e auditivas, exigindo contenção psiquiátrica involuntária.1 Exames laboratoriais revelaram alterações eletrolíticas, posteriormente atribuídas à interferência do brometo nas medições de cloreto. Com a estabilização clínica, o paciente relatou sintomas compatíveis com toxicidade por brometo: fadiga, insônia, acne facial, descoordenação motora e sede excessiva.1

O diagnóstico foi bromismo, condição rara na atualidade, mas comum nos séculos XIX e início do XX, quando sais de brometo eram amplamente prescritos. A U.S. Food and Drug Administration (FDA) retirou o brometo de produtos ingeríveis entre 1975 e 1989, tornando casos modernos praticamente inexistentes.1 O composto se acumula no organismo, provocando sintomas neurológicos, psiquiátricos e dermatológicos. Neste caso, os níveis séricos atingiram 1700 mg/L — mais de duzentas vezes o limite superior da faixa de referência.1

Pesquisadores que replicaram a consulta ao ChatGPT 3.5 observaram resultado semelhante: o sistema também indicou o brometo como substituto do cloreto. Embora a resposta contivesse ressalvas genéricas sobre “contexto”, não havia advertência clara de toxicidade nem questionamento sobre o motivo da busca — etapa que qualquer profissional de saúde consideraria essencial.1 Essa falha evidencia a limitação fundamental da IA: ela processa padrões e gera texto coerente, mas não compreende a intenção do usuário nem o contexto real da aplicação. Carece de senso comum e de juízo clínico.

Após tratamento intensivo com fluidos intravenosos e correção eletrolítica, o estado mental e os exames laboratoriais do paciente normalizaram-se gradualmente. Ele recebeu alta após três semanas, em boas condições gerais.1 O caso constitui um verdadeiro alerta na era do autocuidado assistido por Inteligência Artificial, demonstrando que nem toda resposta automatizada é segura.

Em resposta a incidentes como esse, a OpenAI — desenvolvedora do ChatGPT — anunciou medidas para restringir respostas sobre saúde mental e implementar salvaguardas mais rigorosas, evitando o uso do chatbot como substituto de apoio terapêutico ou médico.1


3. A Vulnerabilidade Psicológica do Idoso na Era Digital

A população idosa, embora cada vez mais conectada, apresenta características psicológicas que aumentam sua suscetibilidade à desinformação no ambiente digital. Um dos fatores determinantes é a confiança em fontes de autoridade percebida. Formados em um contexto histórico de referências institucionais mais estáveis e confiáveis, muitos idosos tendem a transferir essa confiança para ambientes digitais que aparentam autoridade, como a Inteligência Artificial. A percepção de que a IA é “inteligente” ou “sabe tudo” pode levar à aceitação acrítica de suas recomendações.

Outro elemento relevante é o baixo letramento digital. Apesar do avanço expressivo no acesso à internet, muitos idosos ainda enfrentam dificuldades em reconhecer fontes seguras ou interpretar adequadamente as informações que recebem, sobretudo diante da velocidade com que o ambiente digital se transforma. A inclusão digital, embora promova sociabilidade e envelhecimento ativo, quando não acompanhada de educação crítica, expõe essa população a um espaço repleto de riscos informacionais.2

A propagação acelerada de conteúdos falsos, inexatos ou enganosos — fenômeno denominado infodemia — tornou-se particularmente evidente durante a pandemia de COVID-19, com sérios impactos à saúde individual e coletiva.2 A exposição contínua a informações falsas e alarmistas pode provocar ansiedade, depressão e, em casos extremos, ideação suicida.3 A situação se agrava pela capacidade dos algoritmos de IA de personalizar conteúdos conforme o perfil emocional e cognitivo dos usuários, criando bolhas informativas e reforçando padrões de manipulação psicológica.3

Além desses fatores, persiste uma cultura etarista que estigmatiza os idosos como principais disseminadores de desinformação, perpetuando estereótipos como o dos “tiozões do zap”. Essa visão reducionista ignora a responsabilidade coletiva da sociedade e contribui para marginalizar ainda mais um grupo que já enfrenta múltiplas formas de vulnerabilidade. Combater esse preconceito é passo essencial para construir um ambiente digital mais ético, empático e inclusivo.


4. O Arcabouço Legal Brasileiro e a Proteção do Idoso no Ambiente Digital

O Estatuto da Pessoa Idosa, instituído pela Lei nº 10.741/2003 e atualizado pela Lei nº 14.423/2022, constitui o principal marco normativo para a proteção dessa população no Brasil.4 O diploma assegura direitos fundamentais e a proteção integral das pessoas com 60 anos ou mais, garantindo condições de liberdade e dignidade, bem como o desenvolvimento físico, mental, moral e social. O artigo 21, § 1º, já prevê expressamente a inclusão digital do idoso, reconhecendo a importância de capacitá-lo para identificar fake news e exercer uma participação ativa e segura na vida digital.

A Lei Geral de Proteção de Dados (LGPD – Lei nº 13.709/2018) representa outro instrumento essencial, pois resguarda informações pessoais e sensíveis, sobretudo em serviços de saúde baseados em Inteligência Artificial. Ao exigir consentimento e transparência no tratamento de dados, reforça a privacidade e a autonomia do indivíduo.5

O Código de Defesa do Consumidor (CDC – Lei nº 8.078/1990) também se aplica às plataformas de IA, ao prever responsabilidade civil objetiva para fornecedores de bens e serviços por defeitos e vícios que causem danos. Assim, sistemas de IA que forneçam informações incorretas ou perigosas podem ser enquadrados nessa responsabilidade, garantindo proteção ao usuário.5

Por sua vez, o Marco Civil da Internet (Lei nº 12.965/2014) estabelece princípios e direitos fundamentais para o uso da rede. Seu artigo 19 determina que provedores de aplicações só respondem civilmente por conteúdo de terceiros se, após ordem judicial específica, não o removerem.6 Essa regra busca proteger a liberdade de expressão e evitar censura prévia, mas também evidencia um vácuo jurídico diante da propagação autônoma de desinformação por sistemas de IA, que não se enquadram facilmente na categoria de “terceiros”.

4.1. A Complexa Questão da Responsabilidade na Era da IA

A regulamentação da Inteligência Artificial no Brasil vem sendo debatida desde 2019, com destaque para o Projeto de Lei nº 2.338/2023 (Marco Legal da IA) e o Projeto de Lei nº 266/2024, ambos em tramitação no Congresso Nacional.5 O PL 266/2024 propõe que a IA seja utilizada apenas como instrumento auxiliar nas atividades de médicos e advogados, mantendo a autonomia profissional e exigindo supervisão humana. O uso de sistemas de IA sem essa supervisão seria considerado exercício ilegal da Medicina.3

O desafio regulatório consiste em equilibrar a proteção dos direitos fundamentais e a segurança dos pacientes sem inibir o avanço tecnológico.5 Nesse sentido, a regulamentação europeia (The AI Act), que classifica os sistemas de IA conforme níveis de risco — inaceitável, elevado, limitado e mínimo — e proíbe aqueles de risco inaceitável, a partir de 2025, é referência importante para o Brasil.5

Apesar da existência de leis setoriais, ainda não há uma norma específica sobre responsabilidade civil por desinformação em saúde gerada por IA.3 Persiste também a incerteza quanto à responsabilidade médica quando o erro decorre de um equipamento ou sistema inteligente que atua com autonomia. A jurisprudência atual exige ordem judicial específica para responsabilizar provedores de internet por conteúdo de terceiros, o que é moroso e incompatível com situações médicas urgentes.6

O caso do bromismo ilustra o dilema: a IA forneceu a sugestão perigosa, o paciente seguiu a recomendação e adquiriu a substância online.1 Surge, então, a dúvida sobre quem seria o responsável primário — o desenvolvedor, a plataforma, o vendedor ou o próprio usuário. A dificuldade de acesso aos logs de conversação agrava a prova de causalidade.1

Uma futura legislação sobre Inteligência Artificial deve definir uma hierarquia clara de responsabilidade ou um modelo de responsabilidade compartilhada, abrangendo toda a cadeia de valor — do design e treinamento do algoritmo à distribuição e uso da tecnologia. Devem ser previstos mecanismos de transparência, auditoria e reparação, assegurando que vítimas de danos causados por IA não fiquem desamparadas.


5. Caminhos para a Proteção e Empoderamento: Recomendações e Ações

A educação digital e midiática constitui instrumento essencial de empoderamento dos idosos no ambiente virtual. No Brasil, o Governo Federal mantém o Repositório de Materiais de Educação Digital e Midiática para Pessoas Idosas, que disponibiliza conteúdos sobre golpes online, desinformação e Inteligência Artificial.2 Esses programas devem ser ampliados e aprimorados, incorporando módulos específicos sobre limites e capacidades da IA, verificação de fontes e distinção entre conselhos automatizados e orientação profissional de saúde.

Assine a nossa newsletter! Seja o primeiro a receber nossas novidades exclusivas e recentes diretamente em sua caixa de entrada.
Publique seus artigos

A regulamentação da Inteligência Artificial é passo indispensável para reduzir riscos nas aplicações em saúde. Plataformas que ofereçam respostas ou conselhos médicos devem ser legalmente obrigadas a incluir avisos explícitos sobre suas limitações e a necessidade de consulta a profissionais habilitados. Conforme propõe o PL nº 266/2024, a supervisão humana deve ser requisito inegociável em usos de alto risco, evitando que a IA substitua o julgamento clínico humano.3

É igualmente fundamental que os desenvolvedores e fornecedores de sistemas de IA respondam civilmente por danos resultantes de informações falsas ou perigosas. Isso exige maior transparência algorítmica, mecanismos de auditoria independente e protocolos de correção de vieses e falhas, de modo a assegurar a confiança pública e a proteção dos usuários.6

Os profissionais de saúde, por sua vez, devem adotar postura proativa na orientação de seus pacientes — especialmente os idosos — sobre os riscos de buscar conselhos de saúde em plataformas não regulamentadas. Devem reforçar a importância de recorrer a fontes baseadas em evidências científicas e estimular o uso responsável das tecnologias digitais. O Conselho Federal de Medicina (CFM) e demais órgãos de classe têm papel decisivo na formulação de diretrizes éticas para o uso da IA, assegurando que a tecnologia funcione como ferramenta de apoio, e não substituição, do discernimento clínico humano.

Por fim, campanhas públicas de conscientização são fundamentais para combater a desinformação em saúde. Essas ações devem ser multicanais — envolvendo televisão, rádio, redes sociais e centros de convivência — e apresentar informações acessíveis e exemplos concretos, como o caso do bromismo. O enfrentamento do problema requer parcerias interinstitucionais entre o Ministério dos Direitos Humanos e da Cidadania (MDHC), a Secretaria de Comunicação Social (Secom), a Fiocruz, universidades e organizações da sociedade civil, garantindo ações educativas contínuas e de amplo alcance.

A proteção do idoso diante dos riscos digitais depende, portanto, de integração entre educação, regulação e comunicação pública, de modo a promover uma cultura de segurança, autonomia e responsabilidade compartilhada na era da Inteligência Artificial.


6. Conclusão: Construindo um Futuro Digital Seguro e Inclusivo

O caso de bromismo induzido por Inteligência Artificial evidencia, de forma incontestável, os perigos da desinformação em saúde gerada por tecnologias avançadas, sobretudo para a população idosa. A análise demonstrou que fatores como vulnerabilidade psicológica, baixa literacia digital e percepção de autoridade da IA tornam os idosos particularmente suscetíveis a orientações potencialmente letais.

Paralelamente, o arcabouço jurídico brasileiro, embora em constante evolução, ainda se mostra insuficiente para lidar com a complexidade da responsabilidade civil e ética da Inteligência Artificial. Essa lacuna normativa exige uma regulamentação específica, voltada à prevenção de danos, à proteção da dignidade humana e à reparação efetiva das vítimas.

A proteção da pessoa idosa no ambiente digital demanda uma abordagem integrada e multissetorial. Governo, setor privado — especialmente desenvolvedores de IA —, profissionais de saúde, academia e sociedade civil devem atuar de forma coordenada. A Inteligência Artificial possui enorme potencial para melhorar a qualidade de vida dos idosos, seja no monitoramento da saúde, no combate à solidão ou no estímulo cognitivo. No entanto, seu uso precisa ser orientado por ética, transparência e supervisão humana constante.

O objetivo não é restringir o avanço tecnológico, mas garantir que a IA funcione como ferramenta de apoio à decisão humana, e não como substituto do discernimento profissional. A tecnologia deve servir à pessoa, e não o contrário.

Construir um futuro digital seguro e inclusivo requer investimento contínuo em educação digital crítica, regulamentação robusta e campanhas de conscientização permanentes, de modo a empoderar a população idosa a navegar com confiança, discernimento e autonomia no universo cada vez mais complexo da Inteligência Artificial.


​Referências Bibliográficas

1 ​Annals of Internal Medicine Clinical Cases. (2024, August 5). A Case of Bromism Influenced by Use of Artificial Intelligence. Disponível em: https://www.acpjournals.org/doi/10.7326/aimcc.2024.1260

2 ​UN Brasil. (2021, October 1). Desinformação sobre COVID-19: idosos são foco de atenção. Disponível em: https://brasil.un.org/pt-br/103135-desinforma%C3%A7%C3%A3o-sobre-covid-19-idosos-s%C3%A3o-foco-de-aten%C3%A7%C3%A3o

3 ​Simpósio de Pesquisa. Responsabilidade civil na disseminação de fake news pela ia: impactos na depressão e autoextermínio. Disponível em: https://simposiodepesquisa.animaeducacao.com.br/doc_pro/projeto_6747b2096f506.pdf

4 ​Brasil. Lei nº 10.741, de 1º de outubro de 2003. Dispõe sobre o Estatuto da Pessoa Idosa e dá outras providências. Disponível em: https://www.planalto.gov.br/ccivil_03/_Ato2003-2006/2003/Lei/L10.741.htm

5 Revista Saúde Business. Regulamentação da IA na saúde: tão aguardada pelo setor deve ser equilibrada para não comprometer a implementação de novas tecnologias que aprimoram diagnósticos e tratamentos. Disponível em: https://cbdl.org.br/regulamentacao-da-ia-na-saude-tao-aguardada-pelo-sefor-deve-ser-equilibrada-para-nao-comprometer-a-implementacao-de-novas-tecnologias-que-aprimoram-diagnosticos-e-tratamentos/

6 ​IRIS. IA em plataformas digitais e saúde: viés discriminatório, confiabilidade e responsabilidade legal. Disponível em: https://irisbh.com.br/ia-em-plataformas-digitais-e-saude-vies-discriminatorio-confiabilidade-e-responsabilidade-legal/

Assuntos relacionados
Sobre a autora
Daniela Pinheiros

Com formação em Direito pela Universidade Paulista (UNIP) e em Psicanálise, ofereço uma abordagem integrada que visa promover tanto a justiça quanto a saúde mental. Meu trabalho consiste em orientar para a proteção e defesa de direitos, contribuindo para uma sociedade mais justa, além de auxiliar no processo de autoconhecimento e na construção de relações mais saudáveis. A união dessas duas áreas me permite analisar cada caso a partir sob uma perspectiva completa, que considera tanto os aspectos legais quanto as dimensões subjetivas de cada cliente.

Informações sobre o texto

Este texto foi publicado diretamente pelos autores. Sua divulgação não depende de prévia aprovação pelo conselho editorial do site. Quando selecionados, os textos são divulgados na Revista Jus Navigandi

Leia seus artigos favoritos sem distrações, em qualquer lugar e como quiser

Assine o JusPlus e tenha recursos exclusivos

  • Baixe arquivos PDF: imprima ou leia depois
  • Navegue sem anúncios: concentre-se mais
  • Esteja na frente: descubra novas ferramentas
Economize 17%
Logo JusPlus
JusPlus
de R$
29,50
por

R$ 2,95

No primeiro mês

Cobrança mensal, cancele quando quiser
Assinar
Já é assinante? Faça login
Publique seus artigos Compartilhe conhecimento e ganhe reconhecimento. É fácil e rápido!
Colabore
Publique seus artigos
Fique sempre informado! Seja o primeiro a receber nossas novidades exclusivas e recentes diretamente em sua caixa de entrada.
Publique seus artigos