“Cabelo mau”, “cabelo bom”, “pele feia” e “pele bonita”. Já alguma vez prestou atenção às imagens que aparecem online quando pesquisa estes termos? É comum encontrar pessoas de raça negra.

O racismo algorítmico é uma manifestação contemporânea do racismo estrutural, perpetuado e reforçado pelas tecnologias digitais. Estas tecnologias, muitas vezes designadas por inteligência artificial – um termo que Silva pessoalmente desaprova – podem tomar decisões discriminatórias, geralmente com o objetivo de aumentar os lucros e a atividade comercial das empresas. Este comportamento é em grande parte incontrolado e, em alguns casos, pode até ser intencional, motivado pela supremacia branca e pelo racismo”, sublinha Silva.

No Brasil, um exemplo marcante dos efeitos do racismo e do sexismo nos mecanismos de busca ocorreu em 2019. A empresária e relações públicas baiana Cáren Cruz fez uma busca na internet por “mulher negra dando aula” e se deparou com imagens que associavam mulheres negras a conteúdos pornográficos. Estava a preparar uma apresentação empresarial e iniciei a pesquisa devido à falta de imagens que retratassem mulheres negras em cargos de ensino. As imagens explícitas foram entretanto retiradas do motor de busca pela plataforma.

O incidente provocou a indignação da opinião pública. Na época, o Google disse ao site Bahia Notícias que também ficou surpreso e reconheceu que as imagens não deveriam ser explícitas. “Quando as pessoas utilizam a pesquisa, o nosso objetivo é fornecer resultados relevantes para os termos de pesquisa utilizados e não pretendemos mostrar resultados explícitos aos utilizadores, a menos que estes os procurem. Claramente, o conjunto de resultados para o termo acima não está de acordo com este princípio e pedimos desculpas àqueles que se sentiram impactados ou ofendidos”, escreveu a empresa em nota enviada ao site.

Apesar de os motores de busca afirmarem que os seus resultados são orientados pela relevância ou pela densidade de palavras-chave, Safiya Noble, professora e investigadora americana e uma das principais figuras do conceito de “racismo algorítmico”, contesta a suposta “neutralidade” dos motores de busca na categorização dos resultados de pesquisa.

No seu livro de 2021, “Algorithms of Oppression: How Search Engines Reinforce Racism” (Algoritmos da Opressão: Como os motores de busca reforçam o racismo), Noble ilustra a reprodução das desigualdades estruturais no domínio digital. “As desigualdades estruturais da sociedade estão a ser reproduzidas na Internet e a luta por um ciberespaço sem raça, género e classe só pode ‘perpetuar e reforçar os actuais sistemas de dominação'”, afirma o especialista, que também passou mais de uma década na área do marketing.

Os repórteres contactaram a equipa da Google Brasil para saber mais sobre o funcionamento do algoritmo de pesquisa da plataforma e sobre os esforços/estudos da empresa para prevenir e corrigir a perpetuação de resultados prejudiciais para grupos historicamente marginalizados. Em resposta, a Google salientou que, uma vez que os seus sistemas são organizados com base na “Internet aberta”, a plataforma pode refletir preconceitos que já se encontram rotulados na Internet.

A Google também referiu que, em maio do ano passado, anunciou o lançamento da “Monk Skin Tone Scale (MST)”, concebida para incluir mais tons de pele na pesquisa de imagens da plataforma. A ferramenta baseou-se na investigação do professor de Harvard e sociólogo Dr. Ellis Monk, que estudou a forma como o tom de pele e o colorismo afectam a vida das pessoas durante mais de 10 anos.

As mulheres negras têm 84% mais probabilidades de serem mencionadas em tweets negativos do que as mulheres brancas.

O software de reconhecimento de imagem da Google rotula os negros como gorilas.

As mulheres negras têm maior probabilidade de aparecer em contextos sexualmente explícitos na pornografia em linha.

A tecnologia de reconhecimento facial é menos precisa na identificação de pessoas com tons de pele mais escuros.

Mulheres negras são mais assediadas em ambiente virtual

Embora não existam dados específicos sobre o racismo algorítmico no Brasil, a pesquisa indica um ambiente virtual cada vez mais hostil para as mulheres negras. Uma tese de doutorado do sociólogo Luiz Valério Trindade revela um dado chocante: as mulheres negras representam 81% das vítimas de discursos discriminatórios nas redes sociais. De forma alarmante, a maioria (65%) dos utilizadores em linha que propagam a intolerância racial são homens na faixa etária dos 20-25 anos.

Tendo como pano de fundo as últimas eleições municipais de 2020, o Instituto Marielle Franco realizou um estudo inédito sobre violência política. Os resultados foram desanimadores: as candidatas negras foram as mais afectadas pela violência virtual, com 78% dos inquiridos a relatarem tais experiências. Seguiram-se outras formas de violência, com 62% de relatos de violência moral e psicológica, 55% de violência institucional e 44% de violência racial.

Segundo o pesquisador Tarcízio Silva, a falta de transparência das plataformas digitais é um grande obstáculo para a formulação de estratégias e mapeamento do racismo algorítmico no Brasil.

“Quando falamos da Internet, as plataformas digitais não fornecem transparência sobre este tipo de informação, ou sobre quase todo o tipo de informação relevante para a sociedade e os potenciais danos, quer se trate de discriminação, moderação inadequada de conteúdos, desinformação, etc. O que está em jogo agora na regulamentação das plataformas, por exemplo, é obrigar as plataformas a fornecerem dados relacionados a isso. No Brasil, eu diria que não há dados quantitativos sobre o racismo algorítmico”, enfatiza Silva.

Como os algoritmos perpetuam os padrões de beleza raciais

Os algoritmos, tal como as estruturas sociais em que se baseiam, não são imunes aos preconceitos enraizados que permeiam o nosso mundo. A sua aparente neutralidade esconde uma realidade desconcertante: os algoritmos podem perpetuar e amplificar os padrões de beleza racistas existentes.

Os algoritmos, pela sua própria natureza, são treinados com base em grandes quantidades de dados, dados esses que reflectem as sociedades humanas que os criam. Como tal, estes algoritmos estão programados para favorecer determinados padrões de beleza que prevalecem na sociedade. No mundo ocidental, estes padrões inclinam-se frequentemente para uma preferência por características e estética brancas, marginalizando assim as mulheres negras e outras pessoas de cor.

“Os algoritmos não nascem no vácuo. São criados por seres humanos que transportam consigo os seus preconceitos conscientes e inconscientes. E quando esses preconceitos são introduzidos no algoritmo, este aprende a imitá-los, muitas vezes de formas que exacerbam as desigualdades existentes”, afirma o Dr. Ruha Benjamin, socióloga e autora de renome no domínio do racismo algorítmico.

Na Internet, este preconceito manifesta-se de várias formas:

Exemplos de preconceitos algorítmicos em plataformas populares de redes sociais

Na vasta e complexa rede global da Internet, várias plataformas populares de redes sociais funcionam como importantes centros de interação humana. Estas plataformas são accionadas por algoritmos complexos que revelaram provas de preconceito racial, especialmente contra as mulheres negras. Considerados como preconceitos invisíveis incorporados nas paisagens digitais, estes preconceitos não só reflectem preconceitos sociais, como também os propagam, intensificando assim a situação difícil das mulheres negras em linha.

Instagram e Facebook

O Instagram e o Facebook, ambos propriedade da Meta Platforms Inc, têm estado envolvidos numa polémica sobre os efeitos discriminatórios dos seus algoritmos. Os investigadores da AlgorithmWatch, uma organização alemã sem fins lucrativos, encontraram provas de que o algoritmo do Instagram promove imagens de mulheres negras com menos frequência do que as suas homólogas brancas, contribuindo para estereótipos nocivos e práticas discriminatórias.

“O algoritmo é tendencioso para certos tipos de conteúdo e contra outros, e essa tendência não é neutra. Tem impacto na vida real das pessoas”, afirmou.

Matthias Spielkamp, Diretor Executivo da AlgorithmWatch.

As possíveis consequências de ignorar o racismo algorítmico

A persistente ignorância do racismo algorítmico na nossa era digital tem implicações significativas, especialmente para as mulheres negras, cuja imagem e voz são frequentemente distorcidas ou silenciadas por algoritmos discriminatórios. As potenciais consequências de ignorar um problema tão premente são de grande alcance, pondo em risco não só os indivíduos, mas também os esforços da sociedade para promover a inclusão digital e combater o racismo sistémico.

Desempoderamento sistémico: Ao perpetuar preconceitos raciais, o racismo algorítmico marginaliza efetivamente as vozes e imagens das mulheres negras, minando a sua representação e participação no espaço digital. Este desempoderamento sistémico espalha danos nocivos…

“Não se trata apenas de uma questão de representação tendenciosa ou de invisibilidade”, afirma o Dr. Safiya Noble, autora de “Algorithms of Oppression” (Algoritmos da Opressão), “trata da forma como estes preconceitos incorporados nos algoritmos podem ter impacto na vida real, moldar as percepções e reforçar as desigualdades raciais”.

Perpetuação de estereótipos raciais: Quando os algoritmos continuam a projetar imagens distorcidas das mulheres negras, perpetuam estereótipos raciais prejudiciais. Estes algoritmos, codificados com uma perspetiva predominantemente branca e eurocêntrica, muitas vezes não identificam, categorizam ou valorizam corretamente a beleza e a diversidade das mulheres negras. O resultado é um espaço digital que reflecte e amplifica preconceitos raciais de longa data, aprofundando ainda mais a desigualdade. Este racismo algorítmico pode levar à marginalização das mulheres negras, afectando negativamente o seu bem-estar social, económico e psicológico.