Nordeste vítima de vieses da IA

Esses vieses decorrem do treinamento dos sistemas com bases de dados dominadas por conteúdos produzidos em regiões mais ricas, ocidentais e hegemônicas, o que acaba espelhando desigualdades e discriminações históricas no resultado gerado.

Por Caio Ribeiro

Estudo realizado pela Universidade de Oxford mostra que ferramentas de inteligência artificial podem reproduzir e reforçar preconceitos regionais, com respostas enviesadas que associam estados do Nordeste, como Maranhão e Piauí, a conceitos negativos, enquanto Sudeste e Sul recebem avaliações mais favoráveis. A pesquisa analisou consultas e identificou que termos depreciativos e estereótipos culturais são repassados como se fossem “verdades” pela IA.

 

Segundo os pesquisadores, esses vieses decorrem do treinamento dos sistemas com bases de dados dominadas por conteúdos produzidos em regiões mais ricas, ocidentais e hegemônicas, o que acaba espelhando desigualdades e discriminações históricas no resultado gerado.

 

O problema não se limita a simples erros de software: ele recria e legitima narrativas discriminatórias que já circulam no imaginário social e nas mídias, fortalecendo estigmas contra nordestinos e outras populações historicamente marginalizadas no Brasil.

 

Enquanto aumenta o uso dessas ferramentas na educação, no trabalho e em processos decisórios, especialistas alertam para a necessidade de controle, transparência e regulação, sob pena de transformar vieses digitais em novas formas de exclusão social e regional