X

Olá! Você atingiu o número máximo de leituras de nossas matérias especiais.

Para ganhar 90 dias de acesso gratuito para ler nosso conteúdo premium, basta preencher os campos abaixo.

Já possui conta?

Login

Esqueci minha senha

Não tem conta? Acesse e saiba como!

Atualize seus dados

Pernambuco
arrow-icon
  • gps-icon Pernambuco
  • gps-icon Espírito Santo
Pernambuco
arrow-icon
  • gps-icon Pernambuco
  • gps-icon Espírito Santo
Espírito Santo
arrow-icon
  • gps-icon Pernambuco
  • gps-icon Espírito Santo
Assine A Tribuna
Espírito Santo
arrow-icon
  • gps-icon Pernambuco
  • gps-icon Espírito Santo

Ciência e Tecnologia

Inteligência Artificial: “Alucinação” da tecnologia pode ser crime, diz jurista

Modelos de IA são treinados para reconhecer padrões, sem compreensão do mundo real


Imagem ilustrativa da imagem Inteligência Artificial: “Alucinação” da tecnologia pode ser crime, diz jurista
Imagem criada por Inteligência Artificial mostra robô “alucinado” |  Foto: Chaton/ChatGPT

Uma das limitações de sistemas de Inteligência Artificial hoje é a tendência que eles têm de produzir “alucinações”, construindo respostas sem sentido, equivocadas ou até inventadas, e as repassando como verdadeiras. Essas situações podem ser crime, segundo especialistas.

A advogada especialista em direito do consumidor Luiza Simões citou o exemplo da deputada estadual Renata Souza, do Rio de Janeiro, que, após pedir para o “robô desenhista” criar um personagem de mulher negra na favela, ao estilo Pixar, obteve, como resultado, a imagem de uma pessoa segurando uma arma na mão.

Nesse caso, a advogada entende que pode ser entendido como crime. A própria deputada, na época, em outubro de 2023, citou o caso como “racismo algorítmico”.

“Entendo que o caso da deputada é diferente, pois ofende diretamente a honra dela. Ao contrário de uma simples pesquisa, onde se busca um auxílio para obtenção de conhecimento, o caso da deputada é diferente e merece sim um tratamento também diferenciado”.

“Primeiro porque a plataforma que gera imagem é paga. Portanto, vemos aí uma contraprestação pelo serviço. Segundo, porque a resposta foi preconceituosa e ofende diretamente, não só a deputada, mas a todas as mulheres que são por ela representadas”, completou.

As chamadas “alucinações” de IA, quando a tecnologia apresenta respostas sem sentido ou informações falsas, podem sim criar responsabilidade para a empresa desenvolvedora ou que disponibiliza o sistema, reforçou o presidente da Comissão de Proteção de Dados, Privacidade e Inteligência Artificial da OAB-ES, Jorge Alexandre Fagundes.

“Se o consumidor for prejudicado por essas falhas, ele pode processar a empresa responsável, invocando a mesma lógica de responsabilização objetiva prevista no CDC. A empresa é vista como responsável pelo controle e supervisão do sistema de IA e, portanto, deve garantir que ele opere de maneira segura e confiável”, disse.

Essas “alucinações” ocorrem porque os modelos de IA são treinados para reconhecer padrões e criar respostas com base em probabilidades, sem uma compreensão real do mundo ou do contexto, destacou Frederico Comério, CTO da Intelliway. “Eles combinam palavras e informações de maneira coerente, mas sem garantir que o conteúdo criado seja sempre preciso ou verdadeiro”.

Método para detectar a situação

Um grupo de cientistas da Universidade de Oxford relatou estar no caminho para resolver o problema de “alucinações”, submetendo a reposta à avaliação por mais dois sistemas de IA.

O problema das respostas falsas dadas a perguntas objetivas é preocupante em projetos da classe dos LLMs (grandes modelos de linguagem), como o ChatGPT, sujeitos a alucinações que cientistas chamam de confabulações.

Elas ocorrem quando o sistema busca resposta convincente sem ter tido o material necessário para construí-las incluído em seus dados de treinamento, o volume enorme de informações que tipicamente abastece as LLMs.

Liderados pelo cientista da computação Sebastian Farquhar, os cientistas explicam como o fizeram em um artigo na revista Nature. “'Alucinações' são um problema crítico para sistemas de geração de linguagem natural, como o ChatGPT e o Gemini, porque os usuários não podem confiar que uma dada resposta está correta”, afirmam os pesquisadores.

“Respostas suspeitas ou sem a necessária informação impedem a adoção de LLMs em diversas áreas. Entre os problemas, estão a invenção de antecedentes legais e de fatos inverídicos em notícias em algumas áreas da medicina, como a radiologia, que podem até apresentar risco de morte.”

Para a análise, os cientistas emprestaram um conceito da física: a entropia, usada para medir o caos e aleatoriedade de um sistema.

O teste foi feito com o Llama 2 (do Facebook), Mistral Instructor (da francesa Mistral) e Falcon (do Instituto de Inovação Tecnológica de Dubai), que providenciaram código aberto para a pesquisa.

As “alucinações” são comuns em modelos de linguagem, como o ChatGPT, segundo Frederico Comério, CTO da Intelliway.

“Para mitigar essas 'alucinações', é necessário combinar IA com fontes de conhecimento confiáveis, implementar mecanismos de verificação de fatos e promover a supervisão humana”.


Saiba mais

“Alucinações” da IA

O termo “alucinações” em Inteligência Artificial refere-se a situações em que um modelo de IA gera saídas (ou respostas) que são factualmente incorretas ou sem fundamento na realidade.

Tipicamente, cientistas e programadores afirmam que um sistema de IA está “alucinando” quando este recebe uma pergunta ou comando (prompt) e produz respostas sem sentido, equivocadas ou até mesmo inventadas.

Isso é comum em modelos de linguagem, como o ChatGPT, onde o sistema pode criar respostas plausíveis em termos de forma, mas que não têm base em fatos verídicos.

Essas “alucinações” ocorrem porque os modelos de IA são treinados para reconhecer padrões e criar respostas com base em probabilidades, sem uma compreensão real do mundo ou do contexto.

Eles combinam palavras e informações de maneira coerente, mas sem garantir que o conteúdo criado seja sempre preciso ou verdadeiro.

Erros podem ser crimes e empresas condenadas

Os erros das IAs podem ser crimes, e as empresas podem ser condenadas, a depender de cada caso.

Um dos exemplos que pode ser considerado crime é o da deputada estadual Renata Souza, do Rio de Janeiro, que foi surpreendida pelo “racismo algorítmico”.

Ao pedir para uma plataforma de IA para criar um personagem de mulher negra na favela, ao estilo Pixar, obteve, como resultado, a imagem de uma pessoa segurando uma arma na mão.

Outras situações

Especialistas citam também casos em que o ChatGPT já “matou” várias pessoas, dizendo que já tinham morrido, inclusive descrevendo detalhadamente a morte. Nesses casos, se a mesma se sentir ofendida pode processar a empresa responsável.

Na área da saúde, a alucinação de IA pode resultar em diagnósticos ou recomendações de tratamento imprecisos, colocando os pacientes em risco.

No setor de transporte, carros autônomos, que dependem desta inovação, também estão sujeitos a alucinações, o que pode resultar em acidentes e lesões.

O ponto central é que não se tem regulamentação a respeito, e surgirão casos que balizarão o poder legislativo na hora de elaborar as novas leis.

Fonte: Frederico Comério e advogados Luíza Simões e Jorge Alexandre Fagundes.

MATÉRIAS RELACIONADAS:

Comentários

Os comentários são de responsabilidade exclusiva de seus autores e não representam a opinião deste site. Leia os termos de uso

SUGERIMOS PARA VOCÊ: