De acordo com novo estudo publicado na revista Nature, pesquisadores encontraram evidências generalizadas de viés contra as mulheres nos algoritmos que alimentam ferramentas populares inteligência artificial (IA), como o ChatGPT. O chamado viés de aprendizado de máquina é resultado de preconceitos humanos, que distorcem os dados de treinamento do algoritmo.

Para estudar como a IA reforça o viés de gênero e idade no ambiente de trabalho, os pesquisadores pediram ao ChatGPT que criasse mais de 34 mil currículos para 54 ocupações, usando nomes masculinos e femininos. Os currículos gerados para mulheres as retratavam como mais jovens e menos experientes do que os homens, mesmo quando as informações para ambos eram idênticas. Na sequência, quando o ChatGPT avaliou os currículos, classificou os homens como os melhores candidatos, revelando o viés que os favorecia enquanto prejudicava as mulheres mais velhas – e tão experientes quanto eles.

Não é que a inteligência artificial, por si só, seja etarista. O que acontece é que os amplos conjuntos de dados da experiência humana dos quais os modelos de IA se alimentam estão repletos de exemplos de idadismo e sexismo. Os próprios pesquisadores analisaram mais de 1,4 milhão de imagens e vídeos de grandes plataformas e descobriram que as mulheres são consistentemente retratadas como mais jovens do que os homens, especialmente em cargos de maior status e melhor remuneração. Os modelos de IA captam esses sinais e acabam “rebaixando” mulheres maduras como candidatas a emprego.

Ferramentas de recrutamento e avaliação baseadas em IA estão sendo oferecidas não apenas como uma medida de eficiência, mas também como uma forma de dar objetividade à seleção. O estudo sugere que ainda temos um longo caminho a percorrer, principalmente porque as empresas dependem cada vez mais de plataformas de contratação movidas por inteligência artificial.

g1

Seridó Cadeiras