Tecnologia

Robôs se tornam sexistas e racistas por causa de falha na IA



  • Estudo mostra que modelo de inteligência artificial opera com preconceitos;

  • Autor do estudo afirma que robôs aprendem estereótipos tóxicos por meio de modelos de rede neural falhos;

  • Teste demonstrou que os robôs selecionaram cada gênero e grupo étnico repetindo estereótipos.

Um estudo internacional colaborativo realizado por cientistas da Universidade John Hopkins, em Maryland, do Instituto de Tecnologia da Geórgia, da Universidade de Washington e da Universidade Técnica de Munique, na Alemanha, mostra que robôs repetem preconceitos quando são providos de sistemas de inteligência artificial baseados em modelos neurais com estereótipos raciais e de gênero.

O autor do estudo e pós-doutorando na Georgia Tech, Andrew Hundt, que trabalhou na pesquisa enquanto atuava no Laboratório de Interação Computacional e Robótica da John Hopkins, afirmou que o “robô aprendeu estereótipos tóxicos por meio desses modelos de rede neural falhos”.

“Corremos o risco de criar uma geração de robôs racistas e sexistas, mas pessoas e organizações decidiram que não há problema em criar esses produtos sem abordar os problemas”, continuou ele.

Hundt disse que os responsáveis por criar esses modelos de inteligência artificial de reconhecimento de humanos e objetos “normalmente recorrem" aos vastos conjuntos de dados disponíveis de forma gratuita pela internet.

O estudo demonstrou que há diferenças de raça e gênero em produtos de reconhecimento facial em uma rede neural chamada CLIP, que compara imagens com legendas.

Para testar a questão do preconceito, o grupo de Hundt usou um modelo de inteligência artificial de download público para robôs que foi desenvolvido com o CLIP.


Mais sobre Tecnologia