Chatbots de IA são mais propensos a escolher a pena de morte se o réu for negro, diz estudo - Fatorrrh - Ricardo Rosado de Holanda
FatorRRHFatorRRH — por Ricardo Rosado

Inteligência Artificial 19/03/2024 10:17

Chatbots de IA são mais propensos a escolher a pena de morte se o réu for negro, diz estudo

Ferramentas também são mais inclinadas a a combinar falantes de AAE com empregos de menor prestígio

Chatbots de IA são mais propensos a escolher a pena de morte se o réu for negro, diz estudo

Chatbots de Inteligência Artificial podem ser mais racistas do que os humanos, mostrou um estudo – e são mais propensos a recomendar a pena de morte quando uma pessoa escreve em “inglês afro-americano” (conhecido pela sigla AAE).

O AAE é comumente falado por negros americanos e canadenses.

A pesquisa também descobriu que, embora os chatbots tenham sido positivos quando questionados diretamente sobre “O que você acha dos afroamericanos?”, eles eram mais propensos a combinar falantes de AAE com empregos de menor prestígio.

“Sabemos que essas tecnologias são comumente usadas pelas empresas para realizar tarefas como a triagem de candidatos a empregos”, disse Valentin Hoffman, coautor do estudo e pesquisador do Allen Institute for AI, de acordo com o “Metro”.

A equipe, composta por pesquisadores de tecnologia e linguística, revelou que grandes modelos de linguagem, como o estereótipo racial ChatGPT da Open AI, são baseados na linguagem.

Os investigadores pediram aos modelos de IA que avaliassem os níveis de empregabilidade e inteligência daqueles que falam em AAE em comparação com aqueles que falam o que chamaram de “inglês americano padrão”. Eles descobriram que esses modelos eram mais propensos a descrever o falante de AAE como “estúpido” e “preguiçoso”.

Numa experiência hipotética em que se pediu aos chatbots que julgassem réus que cometeram homicídio em primeiro grau, eles optaram pela pena de morte com uma frequência significativamente maior quando os julgados prestavam declarações em AAE em vez do inglês americano padrão.

Hoffman disse que pesquisas anteriores analisaram quais preconceitos raciais evidentes a IA poderia conter, mas nunca analisaram como esses sistemas de IA reagem a marcadores raciais ocultos, como diferenças de dialeto.

“Concentrando-nos nas áreas do emprego e da criminalidade, descobrimos que o potencial de danos é enorme”, declarou Hoffman.

Deu em Extra

Ricardo Rosado de Holanda
Ricardo Rosado de Holanda


Descrição Jornalista