X

Olá! Você atingiu o número máximo de leituras de nossas matérias especiais.

Para ganhar 90 dias de acesso gratuito para ler nosso conteúdo premium, basta preencher os campos abaixo.

Já possui conta?

Login

Esqueci minha senha

Não tem conta? Acesse e saiba como!

Atualize seus dados

Pernambuco
arrow-icon
  • gps-icon Pernambuco
  • gps-icon Espírito Santo
Pernambuco
arrow-icon
  • gps-icon Pernambuco
  • gps-icon Espírito Santo
Espírito Santo
arrow-icon
  • gps-icon Pernambuco
  • gps-icon Espírito Santo
Assine A Tribuna
Espírito Santo
arrow-icon
  • gps-icon Pernambuco
  • gps-icon Espírito Santo

Economia

Especialista afirma: “Inteligência artificial amplia racismo ao decidir emprego”

Bancos de dados e “treinamento” dado à ferramenta pode tirar chances de pessoas que não têm pele clara


Imagem ilustrativa da imagem Especialista afirma: “Inteligência artificial amplia racismo ao decidir emprego”
Howard Roatti disse que o racismo estrutural se reflete nos bancos de dados usados pela inteligência artificial |  Foto: Heytor Gonçalves — 19/04/2023

A inteligência artificial já aumenta a possibilidade de racismo nas decisões sobre quem é ou não contratado para emprego nas empresas. É o que diz o especialista em inteligência artificial Howard Roatti.

Ele frisou que o uso da tecnologia é considerado estratégico em processos seletivos, aumentando o potencial de análise das empresas, mas que, apesar de a ferramenta em si não ser dotada de preconceito, seu treinamento envolve humanos e tem por base bancos de dados tendenciosos em termos de quantidade e conteúdo de informações, levando a IA a reproduzir e ampliar o racismo.

Se no banco de dados utilizado para treinar um modelo de inteligência artificial menos de 50% das pessoas tiverem a cor da pele escura e tiverem sido rejeitadas em uma entrevista, é esse padrão que a máquina vai seguir, segundo ele.

“O modelo de IA simplesmente olha para os dados, entende-os da forma que foram passados e começa a dar resultados. Dessa forma, resultados tendenciados pela maioria das informações que lhe foram passadas”, disse o professor.

O racismo estrutural se reflete nos bancos de dados. “A quantidade de fotos disponíveis de pessoas de pele clara, por exemplo, é maior do que pessoas de pele escura, visto que as pessoas de pele clara, historicamente, teriam mais condições de ter máquinas fotográficas, logo elas teriam mais registros”.

Uma estratégia, diz ele, poderia ser um conjunto de dados mais diverso e inclusivo, mas mesmo assim não há sistema 100%, o que exigiria fiscalização dos resultados.

Para o consultor empresarial Sidcley Gabriel, é importante humanizar a triagem feita pela inteligência artificial: “A gente precisa validar essa triagem. Verificar se não está sendo um padrão e se esse padrão está correto ou não.”

As discussões sobre o assunto foram reacendidas após a deputada estadual pelo Rio Renata Souza (Psol) ter denunciado que sofreu “racismo algorítmico”.

Ao pedir para a IA criar a imagem de uma mulher negra na favela, o resultado foi uma mulher negra com uma arma de fogo nas mãos.

“A minha reação foi uma mistura de surpresa, espanto e indignação. Me senti ofendida, desprestigiada, criminalizada. Eu só queria uma imagem minha dentro da favela, que é a história da minha vida. Fiquei pensando, e se uma criança faz uma imagem dessas?”, desabafou a parlamentar.

Ela destacou que, quando se fala em inteligência artificial, se supõe certa imparcialidade: “Mas ela é programada por um ser humano, reproduz a lógica do machismo, racismo, capacitismo, misoginia.”

Cor da pele influencia em ser chamado para entrevista

A cor da pele e o país de origem dos candidatos a uma vaga de emprego na Europa interferem na possibilidade de o profissional ser ou não chamado para a entrevista, de acordo com estudo realizado pela revista Socio Economic View.

O levantamento mostrou que um total de 41% dos brancos têm chance de serem chamados para entrevista após enviar currículo, enquanto caucasianos têm 37% de chance, e pretos e asiáticos 34%.

A situação também foi avaliada em relação a quem não tem ascendência europeia. Pretos vindos da Europa e dos Estados Unidos têm 13% de chance, já os vindos da América Latina: 19%, Oriente Médio e África: 16%.

Para o levantamento, os pesquisadores enviaram 13 mil currículos falsos, na Espanha, Holanda e Alemanha, de 2016 a 2018. As competências eram as mesmas e as imagens foram criadas por inteligência artificial.

Na Espanha, brancos têm 22% de chance de resposta positiva, enquanto pretos têm 18%, na Holanda o número é 54% ante 45%, o que se repete na Alemanha.

O autor principal da pesquisa e professor de sociologia da Universidade Carlos 3 de Madri, Javier Polavieja, disse à Folha de São Paulo que na Espanha, em geral, há menos discriminação direta pela aparência. “Uma mesma aparência tem efeito diferente, a depender do nome ao qual está associada”, afirmou.

SAIBA MAIS

> Dados

- Em uma sociedade em que o racismo é estrutural, os bancos de dados e imagens foram sendo construídos.

- A quantidade de fotos disponíveis de pessoas de pele clara, por exemplo, é maior do que pessoas de pele escura. Por, historicamente, ter mais condições de ter máquinas fotográficas, as pessoas de pele clara teriam mais registros.

- Uma breve pesquisa na internet possibilita ao usuário avaliar os bancos de dados. Buscando no navegador da internet palavras como “homem” “foto” ou “mulher” “foto” dá para avaliar quantas pessoas brancas e pretas aparecem.

- Quando se fala em mercado de trabalho e pessoas em cargos de liderança, as imagens também são, em sua maioria, de pessoas brancas.

- Aparecem também diversos outros tipos de discriminação. Examinando bancos de dados utilizados com frequência para treinar máquinas, cientistas já observaram, por exemplo, que os robôs aprendiam que, se há uma pessoa trabalhando na cozinha, trata-se de uma mulher.

> Inteligência artificial

- A tecnologia em si não é o problema. O problema acontece quando a Inteligência Artificial é treinada com base em bancos de dados tendenciosos, seja pela quantidade de informações ou pela qualidade.

> Solução

- Uma boa estratégia poderia ser um conjunto de dados mais diverso e inclusivo.

- O balanceamento das informações, segundo o especialista em inteligência artificial Howard Roatti, auxilia os modelos de IA a compreenderem o mundo de uma forma mais justa, permitindo que eles não sejam preconceituosos.

- Mas, mesmo assim, é possível que em um momento ou outro ele erre. “Não existe sistema computacional 100%, logo, além de uma curadoria dos dados, seria necessário a fiscalização dos resultados de modo que seja possível intervir nas decisões”, destacou.

> Driblagem

- Especialistas alertam que os vieses da inteligência artificial treinada com dados discriminatórios podem levar os candidatos a omitir informações no currículo para driblar a tecnologia. Esse tipo de omissão pode prejudicar ambas as partes, tanto o candidato quanto a empresa que está em busca de um profissional.

- A empresa pode, por exemplo, deixar de chamar um candidato compatível com a vaga por ele não ter preenchido determinada informação.

Fonte: Associação Brasileira de Recursos Humanos (ABRH) e especialistas citados na reportagem.

MATÉRIAS RELACIONADAS:

Comentários

Os comentários são de responsabilidade exclusiva de seus autores e não representam a opinião deste site. Leia os termos de uso

SUGERIMOS PARA VOCÊ: