Capa da publicação Inteligência Artificial de propósito geral: dificuldades na regulação
Capa: OpenAI
Artigo Destaque dos editores

Inteligência artificial de propósito geral e modelos fundacionais: as dificuldades para regulação dessas novas tecnologias

18/06/2024 às 16:44

Resumo:


  • Os avanços recentes em tecnologias baseadas em IA focaram em Inteligência Artificial Generativa e Inteligência Artificial de Propósito Geral.

  • Essas tecnologias têm impactos significativos sobre direitos e segurança das pessoas, aumentando riscos como desinformação e violação de dados pessoais.

  • Grandes empresas de tecnologia, como OpenAI, Google e Meta, estão liderando o desenvolvimento de modelos de IA de propósito geral, criando preocupações sobre a dependência de pequenas e médias empresas.

Resumo criado por JUSTICIA, o assistente de inteligência artificial do Jus.

O ChatGPT popularizou as tecnologias de inteligência artificial generativa e de propósito geral, que agora dominam os debates sobre segurança e direitos. Os riscos de desinformação e violação de privacidade demandam regulamentações urgentes.

Os recentes avanços nas tecnologias baseadas em IA têm se dado no campo da Inteligência Artificial Generativa e da Inteligência Artificial de Propósito Geral, mas só ficaram conhecidos do grande público com o lançamento do dispositivo conversacional (chatbot) da OpenAI, em novembro de 2022. Foi por essa época que a empresa de tecnologia estadunidense lançou a versão beta do ChatGPT para uso público, descortinando uma nova realidade e revelando um novo tipo de tecnologia não divisada pelos legisladores. O lançamento do ChatGPT foi um divisor de águas, em razão de sua capacidade descomunal de produzir textos, responder a perguntas sobre praticamente todos os assuntos e estabelecer conversações com raciocínio lógico1.

Esse tipo de tecnologia colocou a inteligência artificial generativa (generative artificial intelligence) e a inteligência artificial de propósito geral (que vem do termo em inglês general-purpose artificial intelligence ou simplesmente GPAI) no centro dos debates, em razão dos seus impactos sobre os direitos e segurança das pessoas. Os modelos de linguagem com capacidade generativa aumentam os riscos de propagação da desinformação, podem violar ou utilizar de forma indevida dados pessoais e também, pela forma como processam os dados, têm potencial para desrespeitar direitos autorais2.

Por outro lado, a IA de propósito geral necessita de regulação urgente, em razão da complexidade da “cadeia de valor” e distribuição dos modelos algorítmicos. A IA de propósito geral refere-se a sistemas aptos a realizar uma variada gama de tarefas. Os modelos de inteligência artificial de propósito geral servem como a arquitetura básica para a construção de sistema desenhados para atividades específicas, como tradutores, assistentes pessoais, chatbots para atendimento a clientes de empresas, aplicações para uso na área acadêmica e outros.

O modelo GPT da empresa estadunidense OpenAI, a par de ter capacidades generativas, é um exemplo de IA de propósito geral. Aliás, os grandes modelos de linguagem (Large Language Models – LLMs) enquadram-se nessa acepção da tecnologia GPAI. São modelos treinados em grandes quantidades de dados para realizar diversas tarefas, incluindo algumas para as quais não foram especificamente desenvolvidos e treinados. Devido a essa característica dos grandes modelos de linguagem, de se prestarem a realizar variadas funções, podem ser utilizados como aplicação de modelo base para outros sistemas de IA. As tecnologias de IA com capacidades generativas podem ser empregadas como estruturas de base para outros sistemas, com o mínimo de ajuste fino. Esses modelos subjacentes são disponibilizados para outros desenvolvedores por meio de APIs ou acesso de código aberto, para fornecer serviços aos usuários finais3. Essa é a característica marcante dos sistemas de inteligência artificial de propósito geral: a possibilidade de serem aproveitados em sistemas de IA mais especializados. Os modelos baseados em inteligência artificial generativa permitem larga variedade de uso. Podem ser utilizados para diferentes tarefas, em diversos campos, geralmente sem necessidade de modificações substanciais na sua programação. Por isso esses sistemas são às vezes chamados de “modelos de fundação” (foundation models), devido ao seu uso como modelos pré-treinados para outros sistemas de IA mais especializados.

Somente grandes empresas de tecnologia, com muitos recursos computacionais e grandes somas de capital para investimento, têm condições de desenvolver e lançar no mercado modelos de GPAI. Desenvolver e treinar um modelo de GPAI requer quantidade substancial de dados, poder computacional, equipe de técnicos e engenheiros de alto nível e, evidentemente, recursos financeiros. A OpenAI, em parceria com a Microsoft, a Google através de sua subsidiária Deep Mind, a Meta e a Anthropic possuem significante poder e recursos para exercer influência nesse ecossistema. Um pequeno número de startups europeias, a exemplo da Mistral AI e da Aleph Alpha, está desenvolvendo modelos para competir com as big techs norte-americanas.

O domínio desse novo mercado é preocupante, porque torna as pequenas e médias empresas dependentes de um pequeno leque de modelos fundacionais desenvolvidos por essas big techs. Os desenvolvedores de aplicações de IA em downstream - que se refere às etapas seguintes de ajuste do modelo base para tarefas especializadas – se valem dos modelos fundacionais (foundational models ou simplesmente FMs) para construir sistemas de IA especializados. Treinados em massivos conjuntos de dados, os modelos de base (FMs) são grandes redes neurais de aprendizado profundo que mudaram a forma como os cientistas de dados abordam o machine learning (ML). O tamanho e a natureza de uso geral dos FMs os diferenciam dos modelos tradicionais de ML, que normalmente realizam tarefas específicas. Os FMs atuais, como os grandes modelos de linguagem GPT e Gemini, podem realizar uma variada gama de tarefas, como escrever textos, gerar imagens, resolver problemas matemáticos, criar códigos de programação, dialogar e responder perguntas.

Desenvolver um modelo de base custa milhões de dólares, por isso é mais rápido e barato construir novas aplicações utilizando a estrutura modelar de um FM. Os desenvolvedores downstream criam novas aplicações por meio do ajuste fino dos modelos de base existentes. Ao invés de desenvolver um sistema de IA partindo do zero, usam um modelo de base como ponto de partida para criar modelos mais especializados. É um método que potencializa a criação de novas aplicações de forma mais rápida e econômica.

O aparecimento desses modelos fundacionais tornou ainda mais urgente a necessidade de regulação das aplicações que se utilizam de inteligência artificial. A regulação é necessária porque esse tipo de IA, por conta da complexidade da cadeia de valor e distribuição dos modelos, potencializa os riscos à segurança e aos direitos fundamentais das pessoas. Se um modelo de LLM, por suas funcionalidades generativas, tem aptidão para propagar desinformação, violar a privacidade dos usuários e de terceiros e desconsiderar direitos autorais, os riscos ficam aumentados quando a cadeia de desenvolvimento e distribuição do aplicativo envolve diversos outros atores (desenvolvedores downstream) além do desenvolvedor principal.

Sabendo-se que os modelos de IA de propósito geral permitem a utilização em aplicações mais especializadas, com participação de um desenvolvedor principal (desenvolvedor upstream) e desenvolvedores posteriores (desenvolvedores downstream), que constroem suas aplicações específicas sobre a arquitetura base do modelo central, é preciso distribuição da responsabilidade por todos os integrantes da cadeia de valor. A característica da intensa interdependência entre o desenvolvedor principal e os desenvolvedores posteriores, na construção de um modelo de IA derivado de um GPAI, que elaboram diferentes componentes do mesmo produto final, os torna responsáveis solidariamente perante o consumidor final e terceiros afetados. Portanto, a abordagem regulatória para os modelos de IA de propósito geral deve centrar-se na partilha de responsabilidades ao longo da cadeia de valor da IA, incluindo o criador do modelo base e os desenvolvedores a jusante, que produzem suas aplicações sobre o arcabouço codificado do modelo originário.

Mesmo que o provedor upstream escolha diferente estratégia para distribuição de seu modelo de GPAI, como liberá-lo como um programa open source (de código aberto)4, ainda assim não fica liberado de responsabilidades. Ao invés de fornecer uma API para que desenvolvedores parceiros construam modelos mais especializados, e optar por permitir acesso ao modelo base como um software de código aberto, o desenvolvedor do modelo GPAI continua com certo grau de controle sobre ele. Quando decide distribuí-lo como open-source, o provedor libera a arquitetura para acesso livre ao público, para qualquer um modificar, estudar e usar. A estratégia de distribuir modelos sob a forma de open-source, em lugar de restringir o acesso a parceiros escolhidos (por meio de API), retira do provedor o controle sobre quem faz uso do modelo, mas retém certo domínio sobre a arquitetura dele. O provedor pode, por exemplo, liberar novas versões do modelo periodicamente, de modo a garantir que as atualizações fiquem sob seu controle. Também pode criar uma estratégia de licenciar o modelo para modificações, mas não para comercialização, ou mesmo estabelecer uma “governança comunitária” (community governance), para supervisionar as modificações e contribuições feitas por terceiros para o modelo. Especialmente em se tratando de modelos de IA de grande capacidade (highly capable AI models), a exemplo dos LLMs, o provedor em regra continua com a hospedagem e alimentação do modelo. O provedor, geralmente uma grande empresa de tecnologia, é quem tem recursos para hospedagem em nuvem, centralização dos dados e poder computacional para funcionamento do modelo, atribuições difíceis de serem terceirizadas.

Toda essa complexa interdependência entre a empresa que desenvolve o modelo (provedor upstream) e os desenvolvedores posteriores (desenvolvedores downstream), bem como a multifuncionalidade que caracteriza os modelos de GPAI e as estratégias utilizadas para sua colocação no mercado, constituem desafios para a regulamentação das tecnologias de IA de propósito geral e generativa. É preciso atribuir obrigações de governança aos atores mais capacitados e dividir a responsabilidade por danos que os sistemas de IA possam causar a usuários e terceiros. Para tanto, é indispensável uma compreensão da “cadeia de valor” do processo de desenvolvimento dos modelos de GPAI.

A corrida entre as big techs pelo domínio do mercado emergente das tecnologias de GPAI permanece em velocidade crescente, sendo previsível que adotem novas formas de monetização e comercialização dos modelos. Independentemente de como os modelos de GPAI serão lançados e colocados no mercado no futuro, o importante é que os legisladores estabeleçam medidas de governança e obrigações para os desenvolvedores, que atuem em toda a cadeia de valor do sistema. É preciso estabelecer princípios e obrigações para os desenvolvedores independentemente dos canais utilizados para distribuição dos modelos. Para atenuar os riscos e danos potenciais, devem ser previstas, por exemplo, medidas de governança de dados, incluindo filtragem das fontes de dados e avaliação de enviesamentos. Com a finalidade de gerar mais segurança, devem ser criados requisitos de concepção técnica, com obrigação de avaliação, análises documentadas e testes exaustivos, durante a concepção e desenvolvimento do modelo. Para os modelos de base com funcionalidades generativas também devem ser previstas obrigações de transparência, de modo a deixar claro para os usuários que o conteúdo é gerado por um sistema de IA, e não por seres humanos. Quando os dados de treinamento envolver material protegido pelo direito autoral, os desenvolvedores devem documentar e disponibilizar ao público um resumo dos dados utilizados. Para os desenvolvedores upstream deve haver obrigação de colaborar com os fornecedores downstream – fornecedores finais da cadeia de distribuição (distribuidor, importador ou responsável pela implantação). Eles também devem ser obrigados a manter documentação técnica e instruções de utilização, a fim de permitir que os fornecedores em cadeia também possam prestar as informações sobre uso dos sistemas derivados aos usuários finais. Os fornecedores de “modelos de fundação” ainda devem ter a obrigação de estabelecer um sistema de gestão de qualidade, para garantir e documentar o cumprimento de suas obrigações.

Fique sempre informado com o Jus! Receba gratuitamente as atualizações jurídicas em sua caixa de entrada. Inscreva-se agora e não perca as novidades diárias essenciais!
Os boletins são gratuitos. Não enviamos spam. Privacidade Publique seus artigos

Esses são apenas alguns exemplos de deveres e obrigações que devem ser impostos aos desenvolvedores de modelos de IA de propósito geral e generativa. O importante é criar um regime jurídico específico para a regulação desses sistemas de IA. O Artificial Intelligente Act (ou simplesmente AI Act), a proposta europeia para regulamentação das tecnologias de inteligência artificial 5, disciplina especificamente essas novas tecnologias de IA6. No Brasil, a versão original do PL 2.333/2023 (e os outros nove projetos que tramitam em apenso) não cuidou de regular especificamente a inteligência artificial generativa e os sistemas de inteligência artificial de propósito geral, mas o Substitutivo do Senador Eduardo Gomes (relator no Senado para os projetos de lei que regulamentam a IA no Brasil) dedica toda uma seção de um capítulo (Seção V do Capítulo IV) às medidas de governança para sistemas de inteligência artificial de propósito geral e generativa, estabelecendo obrigações de transparência, de testagem, de documentação e outras providências para garantir a segurança dos sistemas, a mitigação dos riscos e atendimento de pessoas afetadas.

O texto do Substitutivo está previsto para ser votado no Senado na próxima terça-feira (dia 18.06.24)7. Em futuro artigo, abordaremos em detalhes o tratamento dado pelo texto que vier a ser aprovado em definitivo no Senado, às tecnologias de IA de propósito geral e generativa.


Notas

1 O ChatGPT é uma ferramenta algorítimica que imita a linguagem natural, um tipo de inteligência artificial conversacional, ou seja, um chatbot que conversa e estabelece diálogos com o usuário. Para saber mais sobre as características técnicas do ChatGPT, recomendamos a leitura do nosso artigo “O fenômeno do ChatGPT desperta a necessidade de regulamentação da IA”, publicado no site Consultor Jurídico, em 19.03.23, acessível em: https://www.conjur.com.br/2023-mar-19/democrito-filho-necessidade-regulamentacao-ia/

2 Sobre os riscos que os modelos de linguagem generativa podem causar aos direitos e segurança das pessoas, sugerimos a leitura do artigo mencionado no item anterior.

3 No início de março de 2023, a OpenAI lançou sua API para desenvolvedores poderem adicionar a tecnologia do ChatGPT em seus próprios serviços.

4 A Meta, empresa que controla o Facebook, recentemente resolveu liberar seu modelo LLaMa, como software de código aberto (open source). Ao contrário de outras big-techs, não optou por vender seu LLM por meio de acesso via API para desenvolvedores parceiros – ver notícia publicada no site R7, em 01.06.23, acessível em: https://noticias.r7.com/tecnologia-e-ciencia/na-batalha-pela-inteligencia-artificial-a-meta-decide-liberar-sua-tecnologia-01062023/

5 Para saber mais sobre a concepção geral do IA Act, sugerimos a leitura de nosso artigo intitulado “A Proposta Regulatória da União Europeia para a Inteligência Artificial (1ª. parte) – A Hierarquização dos riscos”, publicado no site Jus Navigandi, em 27.05.21, acessível em: https://jus.com.br/artigos/90816/a-proposta-regulatoria-da-uniao-europeia-para-a-inteligencia-artificial-1-parte-a-hierarquizacao-dos-riscos

6 Para saber mais sobre a disciplina do IA Act em relação aos modelos fundacionais, sugerimos a leitura de nosso artigo intitulado O ChatGPT não é um sistema de IA de “Alto Risco”, mas necessita de regulamentação específica, publicado no site Informatica Jurídica, em 15.09.23, acessível em: https://www.informatica-juridica.com/trabajos/o-chatgpt-nao-e-um-sistema-de-ia-de-alto-risco-mas-necessita-de-regulamentacao-especifica/

7 Ver notícia publicada no site R7, em 12.06.24, acessível em: https://noticias.r7.com/brasilia/senado-adia-votacao-da-regulamentacao-da-inteligencia-artificial-12062024/

Assuntos relacionados
Sobre o autor
Demócrito Reinaldo Filho

Juiz de Direito. Doutor em Direito. Ex-Presidente do IBDI - Instituto Brasileiro de Direito da Informática.

Como citar este texto (NBR 6023:2018 ABNT)

REINALDO FILHO, Demócrito. Inteligência artificial de propósito geral e modelos fundacionais: as dificuldades para regulação dessas novas tecnologias. Revista Jus Navigandi, ISSN 1518-4862, Teresina, ano 29, n. 7657, 18 jun. 2024. Disponível em: https://jus.com.br/artigos/109912. Acesso em: 18 dez. 2024.

Leia seus artigos favoritos sem distrações, em qualquer lugar e como quiser

Assine o JusPlus e tenha recursos exclusivos

  • Baixe arquivos PDF: imprima ou leia depois
  • Navegue sem anúncios: concentre-se mais
  • Esteja na frente: descubra novas ferramentas
Economize 17%
Logo JusPlus
JusPlus
de R$
29,50
por

R$ 2,95

No primeiro mês

Cobrança mensal, cancele quando quiser
Assinar
Já é assinante? Faça login
Publique seus artigos Compartilhe conhecimento e ganhe reconhecimento. É fácil e rápido!
Colabore
Publique seus artigos
Fique sempre informado! Seja o primeiro a receber nossas novidades exclusivas e recentes diretamente em sua caixa de entrada.
Publique seus artigos