A tecnologia de inteligência artificial (IA) tem demonstrado padrões de preconceito racial, refletindo os vieses humanos. Isso levanta preocupações, principalmente porque muitos acreditam que a IA deveria ser um instrumento de progresso na sociedade.
Um caso controverso veio à tona quando um artigo do BuzzFeed usou a ferramenta IA Midjourney para produzir Barbies de diferentes países. O resultado mostrou a Barbie alemã com uniforme nazista, a Barbie do Sudão do Sul empunhando uma arma, e a Barbie libanesa diante de um edifício destruído.
A Nikon, em outra ocasião, teve seu software de reconhecimento facial questionando se usuários asiáticos estavam de olhos fechados. Outra ferramenta nos EUA, ao avaliar potenciais reincidências de crimes, apresentou uma taxa de falsos positivos significativamente maior para réus negros do que para brancos. Já o Vision Cloud do Google, ao analisar pessoas de pele preta com termômetros, rotulou-os erroneamente como portando “armas”.
A propensão da IA a manifestar vieses raciais alarmou o Information Commissioner’s Office (ICO) do Reino Unido, levando a uma investigação sobre as possíveis implicações negativas. O representante do ICO enfatizou a urgência de abordar a discriminação na IA, acentuando a importância da cautela na aplicação dessa tecnologia, dadas as consequências potenciais para a sociedade.