Embora interaja com você sem precisar de qualquer intervenção manual, inteligências artificiais (IAs) são obras humanas. A tecnologia, popularizada atualmente nos modelos generativos, são resultados de treinamentos em uma base gigante de dados, tudo para tentar prever a melhor solução para uma determinada situação.

Para reconhecer textos, imagens, paisagens e outros elementos, IAs precisam ser alimentadas com uma infinidade de dados das mais diversas origens, a maioria delas humana. Uma IA só entende o que é uma bola de futebol ao receber infinitas imagens de bolas de futebol, nos mais variados ângulos.

Inevitavelmente, essas informações geram certa influência na eficiência no modelo, por vezes criando vieses racistas — algo que ficou conhecido como racismo algorítmico.

Racismo algorítmico é quando um software ou serviço reproduz discriminações comuns da sociedade, mas por conta própria. (Imagem: GettyImages)
Racismo algorítmico é quando um software ou serviço reproduz discriminações comuns da sociedade, mas por conta própria. (Imagem: GettyImages)

O que é racismo algorítmico?

O racismo algorítmico acontece quando um software de qualquer tipo reproduz algum tipo de discriminação sobre os usuários, algo que pode acontecer em diferentes formas.

Um exemplo popular é a fotografia: softwares de tratamento de imagem passam por constante evolução para lidar melhor com variações de tons de pele. A melhor representação da pele negra, por exemplo, tende a ser uma característica incomum em celulares topo de linha — e foi uma das evoluções destacadas em celulares da linha Pixel, por exemplo.

O Google, o buscador mais usado do mundo, reproduziu racismo algorítmico em diferentes contextos ao longo dos anos. (Imagem: GettyImages)
O Google, o buscador mais usado do mundo, reproduziu racismo algorítmico em diferentes contextos ao longo dos anos. (Imagem: GettyImages)

Há casos mais graves, porém: em 2015, durante a apresentação do Google Fotos, o mecanismo de busca da plataforma apresentou fotos de pessoas negras como resposta à busca “Gorilas”.

Em outra polêmica do mecanismo de busca, há a pesquisa “tranças bonitas” e “tranças feias”. Quando o assunto virou notícia em 2019, a primeira pesquisa apresentava resultados de imagens de mulheres brancas, enquanto a segunda era majoritariamente composta por mulheres negras.

A reprodução de estereótipos raciais e de gênero também ocorre de forma mais sutil em IAs generativas: se você pedir por imagens de um executivo, geralmente o resultado será uma foto de uma pessoa branca. Para ter ilustrações de pessoas negras, por vezes é preciso especificar essa característica no prompt.

Por que IAs podem apresentar racismo algorítmico?

As inteligências artificiais são o resultado de uma base de dados praticamente massiva, mas não universal — sites, livros, redes sociais, troca de mensagens, áudios, fotos e muito mais. Essas estruturas iniciais usadas para treinamento, limitadas por natureza, podem conter vieses racistas ou de gênero presentes nas sociedades do mundo todo.

Assim como um chatbot pode ser capaz de sugerir o uso de cola para dar mais aderência ao queijo na pizza, ela também pode reproduzir padrões racistas por influência da própria base de dados.

Casos escandalosos como a bot Tay da Microsoft, que em menos de 24 horas começou a regurgitar expressões fascistas, tendem a não acontecer com tanta frequência. Porém, os modelos atuais não estão livres de preconceitos e principalmente estereótipos.

Alimentados por bases de dados enormes, e também por redes sociais, chatbots podem reproduzir vieses racistas em algumas conversas. (Imagem: GettyImages)
Alimentados por bases de dados enormes, e também por redes sociais, chatbots podem reproduzir vieses racistas em algumas conversas. (Imagem: GettyImages)

Agora, quando polêmicas demais, as reproduções de padrões ofensivos tendem a ser capados por travas artificiais. Se alguma solicitação for descaradamente motivada por racismo, é possível que a IA se negue a atender ao prompt.

O uso exagerado, ou até incorreto, de outras etnias também acontece. Uma demonstração dessa falha foi quando o o Gemini gerou imagens de negros ao receber um prompt pedindo por imagens de soldados nazistas.

Atualmente, a reprodução de preconceitos em IAs é objeto de estudo, principalmente dada a relevância dos modelos generativos. No Brasil, o tema é destrinchado em livros, tais como o Racismo algorítmico, de Tarcízio Silva, que é mestre em Comunicação e Cultura Contemporâneas pela UFBA e realiza doutorado em Ciências Humanas e Sociais na UFABC.

Investir em ações Crédito pessoal Empréstimos bancários Cartão de crédito Consultoria financeira Taxas de juros Investimentos de alto retorno Rendimentos de investimentos Planejamento financeiro Impostos e impostos sobre renda Seguros de vida Criptomoedas Blockchain Investir em imóveis Fundos de investimentos Consultoria de investimentos Aposentadoria privada Empréstimo para empresas
Previous post Control 2 terá mais elementos de RPG de ação, diz Remedy
Next post Dia da Consciência Negra: 10 filmes e séries sobre questões raciais para ver no streaming