Inteligência Artificial: Empresas têm de indenizar clientes por máquina errar
As falhas cometidas pela tecnologia são de responsabilidade da companhia que a usa, dizem decisões que vêm sendo tomadas pela Justiça
Escute essa reportagem
A Justiça tem condenado empresas a indenizar consumidores por ações indevidas realizadas pela Inteligência Artificial (IA). Há decisões de primeira e segunda instâncias, com caso até no Espírito Santo.
Sem legislação específica, o Judiciário tem julgado os primeiros casos com base em outras leis. As decisões citam, por exemplo, o Marco Civil da Internet, o Código de Defesa do Consumidor (CDC) e a própria Constituição Federal.
A advogada especialista em Direito do Consumidor Luíza Simões explicou que, para o CDC, não importa se quem cometeu o erro foi a Inteligência Artificial usada pela empresa para atender o cliente, afinal de contas, esta IA faz parte da cadeia de consumo.
“Em caso de o consumidor receber ligações em excesso por parte de robôs, ou receber informações incorretas que culminaram num prejuízo moral ou financeiro, é possibilitado a busca dos seus direitos, seja no Procon ou no judiciário. O caminho para isso é sempre a comprovação”, disse.
Ela afirmou que, caso o consumidor não consiga ter seu problema sanado, é possível sim buscar solução na Justiça, bem como reparação moral e/ou material.
O presidente da Comissão de Proteção de Dados, Privacidade e Inteligência Artificial da Ordem dos Advogados do Brasil Seccional Espírito Santo (OAB-ES), Jorge Alexandre Fagundes, citou um exemplo de assistentes virtuais que fazem chamadas excessivas.
“Nesses casos, o consumidor pode requerer a cessação das ligações, exigir reparação por danos morais e, se for o caso, reportar a empresa aos órgãos de proteção ao consumidor, como o Procon”.
No Brasil, existem pelo menos cinco projetos de lei sobre o tema. “A regulamentação específica para o uso de IA no Brasil é urgente e essencial para garantir a segurança das pessoas e para estabelecer parâmetros claros de responsabilidade. Atualmente, a falta de uma legislação específica pode gerar incertezas tanto para no cenário nacional”, explicou Fagundes.
Os erros cometidos por sistemas de Inteligência Artificial, como falhas no reconhecimento facial ou informações equivocadas fornecidas por chatbots, são reflexo das limitações e desafios que a implementação de IA nos processos de negócio ainda enfrenta, destacou o CTO da Intelliway, Frederico Comério.
“Esses erros revelam a importância de as empresas serem transparentes sobre as capacidades e limitações de suas soluções de IA”.
Ligações feitas por robô
A Vivo foi condenada a indenizar um consumidor por danos morais em R$ 2 mil em Campinas (SP). Ele alegou ter recebido mais de 20 ligações por dia realizadas por um robô que se intitula “assistente virtual”, informando sobre novas promoções e disparando propagandas automáticas. Não cabe mais recurso. A Vivo informou que o processo em questão foi encerrado e que “o cliente está no centro de suas decisões, por isso, desenvolve iniciativas para melhorar continuamente a forma como se relaciona com os consumidores”.
Sem consentimento
A Bytedance Brasil Tecnologia, responsável pelo TikTok no Brasil, foi condenada a pagar R$ 23 milhões por dano moral coletivo, além de R$ 500 por dano moral individual para cada usuário cadastrado até junho de 2021.
A empresa teria criado uma ferramenta de IA que automaticamente digitaliza o rosto dos usuários, sem consentimento. Cabe recurso. A empresa informou que “não comenta casos judiciais”.
Caso no Estado
A empresa 99 utilizou ferramentas de IA para bloquear a inscrição de um motorista em uma verificação de segurança. No entanto, em sua defesa e recurso, a empresa não conseguiu especificar qual foi a falha cometida pelo motorista que justificasse o bloqueio. Essa conduta foi considerada abusiva e em violação à boa-fé contratual, evidenciando um erro no uso de IA. A assessoria da 99 informou que não comenta casos que estão na justiça.
Entenda
Responsabilização das empresas
As empresas podem ser responsabilizadas com base no Código de Defesa do Consumidor (CDC), que estabelece a responsabilidade objetiva, ou seja, independentemente de culpa, quando o defeito de um produto ou serviço causa danos ao consumidor.
Isso inclui erros cometidos por sistemas de Inteligência Artificial (IA). Quando um aplicativo apresenta um erro ou um eletrodoméstico conectado a IA falha, causando prejuízo ao consumidor, a empresa fornecedora do produto ou serviço pode ser responsabilizada por esses danos.
A responsabilidade é atribuída à empresa, pois ela é considerada a fornecedora do produto ou serviço, mesmo que o erro tenha sido causado por um sistema automatizado.
Quais os direitos do consumidor?
Em caso de o consumidor receber ligações em excesso, por parte de robôs, ou receber informações incorretas que culminaram num prejuízo moral ou financeiro, é possibilitado a busca dos seus direitos, seja no Procon ou no judiciário.
O caminho para isso é sempre a comprovação. Se recebeu 20 ligações num dia, é importante que tenha os registros delas. Se recebeu informação incorreta do robô, e que te causou prejuízo, é importante ter o registro de que esta informação falsa lhe foi dada.
Em todos os casos, é importante buscar a solução amigável. Assim, a empresa tem a chance de se redimir e buscar reparar o erro sem a judicialização da questão.
Caso o consumidor não consiga ter seu problema sanado, é possível sim buscar solução na Justiça, bem como reparação moral e/ou material.
Dificuldade de identificar uso da IA
Em pesquisa realizada pelo Procon-SP, em outubro do ano passado, com 1.043 consumidores, 28% deles disseram que nunca ou raramente conseguem identificar que se está interagindo com inteligência artificial.
Um total de 57% deles entrou em contato para registrar reclamação do serviço ou produto e 65% afirmam que seu problema não foi resolvido – a inteligência artificial não entendeu o pedido ou as respostas foram incompletas ou insatisfatórias.
Regulamentação do uso da IA no Brasil
No Brasil, existem pelo menos cinco projetos de lei sobre o tema. Um deles, que está mais avançado, de nº 2.338, de 2023, segue a mesma linha da nova norma europeia, o AI Act, aprovado em março, com gradação de sanções com base nos riscos dos sistemas desenvolvidos.
Havia a expectativa de aprovação de um primeiro relatório no primeiro semestre, o que não ocorreu.
A proposta, que está na Comissão Temporária sobre Inteligência Artificial (CTIA), estabelece princípios, direitos e regras para uso de Inteligência Artificial, é alvo de divergências entre setores e categorias que buscam proteger as suas atividades.
Fonte: Advogados Jorge Alexandre Fagundes e Luíza Simões, e Agência Senado.
Comentários