É urgente falar sobre como os algoritmos reforçam racismo e desigualdade de gênero
Publicado: 22 ago, 2025

Em tempos de inteligência artificial generativa e automação de decisões, é urgente falar sobre como os algoritmos reforçam desigualdades sociais. Neste artigo, refletimos sobre os impactos da IA no reforço do racismo e do sexismo, especialmente em espaços digitais que deveriam promover diversidade e acesso. A partir de pesquisas confiáveis e de uma linguagem acessível, este conteúdo busca ampliar o debate sobre tecnologia, ética e direitos humanos a partir da comunicação popular.

Algoritmos não são neutros

Quando pensamos em algoritmos, geralmente lembramos de soluções que facilitam a vida: sugestões de filmes, rotas mais rápidas, curadorias musicais. Mas, por trás dessa eficiência aparente, existe um problema pouco discutido: a reprodução de preconceitos estruturais, como o racismo e o machismo.

No vídeo “Como os algoritmos espalham racismo e desigualdade de gênero”, do canal UOL Prime, especialistas explicam de forma didática que algoritmos são treinados com dados sociais que carregam vieses históricos. Se esses dados forem machistas ou racistas, como frequentemente são, os sistemas apenas reproduzem o que há de pior na sociedade.

A tecnologia não é imparcial

O projeto Gender Shades, conduzido pelo MIT Media Lab, revelou que sistemas de reconhecimento facial comerciais apresentavam menos de 1% de erro para identificar homens brancos, mas falhavam em até 35% dos casos ao identificar mulheres negras. Essa diferença é alarmante, sobretudo quando usada por governos e empresas em processos seletivos ou policiamento.

Um exemplo real é o caso de Robert Williams, cidadão negro dos EUA, preso injustamente após ser confundido por um software de reconhecimento facial. O relato foi publicado no artigo “Wrongfully Accused by an Algorithm” do The New York Times. O sistema falhou, mas o prejuízo foi humano: Williams ficou três dias preso por um crime que não cometeu.

Racismo algorítmico na saúde

A desigualdade também se revela em áreas como a saúde. Um estudo publicado na revista Science em 2019 mostrou que um algoritmo usado por hospitais norte-americanos priorizava pacientes brancos para tratamentos caros, mesmo quando pessoas negras apresentavam quadros mais graves.

A IA, nesse caso, não cometeu um erro técnico: reproduziu padrões de exclusão presentes no sistema de saúde e nos dados históricos com os quais foi alimentada.

Estética digital e branquitude

O problema dos algoritmos também se manifesta nas redes sociais. Filtros de “embelezamento” populares em plataformas como Instagram e TikTok reproduzem e reforçam padrões eurocêntricos ao clarear a pele, afinar narizes, suavizar traços considerados “não brancos”. No Google, por muitos anos, a busca por termos como “cabelo feio” resultava majoritariamente em imagens de mulheres negras com cabelo crespo, enquanto estilos semelhantes em mulheres brancas eram descritos como “fashion” ou “modernos”.

Essa estética algorítmica sustenta um imaginário onde o bonito, o confiável e o profissional têm rosto branco, liso e masculino. Como alerta a cientista da computação Joy Buolamwini, fundadora da Algorithmic Justice League, os algoritmos funcionam como espelhos distorcidos da sociedade. E se a sociedade é desigual, a tecnologia refletirá e amplificará essas distorções.

Buolamwini tornou-se uma das principais vozes globais na denúncia dos vieses embutidos nos sistemas de inteligência artificial. Durante sua pós-graduação no MIT, ao desenvolver um projeto experimental chamado “espelho inteligente”, percebeu que o sistema de reconhecimento facial não conseguia detectar seu rosto — a não ser quando ela usava uma máscara branca. A experiência motivou uma investigação científica mais profunda, revelando que softwares amplamente utilizados por gigantes da tecnologia como Amazon, IBM e Microsoft apresentavam alto índice de erro ao identificar rostos de pessoas negras, especialmente de mulheres negras. A partir dessa constatação, cunhou a metáfora da “máscara branca” para simbolizar a exclusão algorítmica disfarçada de neutralidade.

Sua trajetória é retratada no documentário Coded Bias (2020), dirigido por Shalini Kantayya e disponível na Netflix, que acompanha sua mobilização internacional por justiça algorítmica, regulamentação ética e inclusão nas tecnologias emergentes.

Coded Bias mostra que o reconhecimento facial e enviesado Comunicação e marketing para marcas, causas, eventos e cultura
Joy Buolamwini usa uma máscara em frente a um espelho digital; seu rosto foi reconhecido apenas com a máscara branca

A urgência de um novo olhar

Não se trata de culpar a tecnologia, mas de compreender que ela é construída por pessoas situadas em contextos sociais específicos, com recortes de classe, raça, gênero e território. Ignorar isso é perpetuar a falácia da “neutralidade algorítmica”. O desafio, portanto, é ampliar a diversidade na criação, na análise crítica e na regulação dessas tecnologias.

O Plano Brasileiro de Inteligência Artificial reconhece esse desafio ao estabelecer, entre seus princípios, o respeito aos direitos humanos, a inclusão e a promoção da equidade. Embora o documento ainda careça de ações robustas e vinculantes, ele propõe o estímulo à diversidade de gênero e raça no desenvolvimento e aplicação da IA, o fortalecimento da educação digital crítica e o incentivo a iniciativas de base comunitária, especialmente nas periferias e nos territórios historicamente marginalizados .

Comunicação popular como resposta

Na Candiá Produções, entendemos a comunicação popular não apenas como uma estratégia, mas como um posicionamento ético. Trabalhamos com e a partir das margens, assumindo um compromisso com justiça social, democratização do acesso à informação e crítica às estruturas de poder. É por isso que o debate sobre inteligência artificial precisa sair dos grandes centros e alcançar quem mais sente seus efeitos, mesmo sem saber que se trata de “IA”.

A inteligência artificial tem potencial para ampliar vozes, valorizar culturas e fortalecer práticas comunitárias. Mas, para isso, deve ser desenvolvida a partir dessas vozes, e não apenas sobre elas. Tecnologia, para nós, só faz sentido se estiver a serviço da vida, da equidade e da diversidade.


Gostou do conteúdo? Compartilhe com sua rede, marque @candiaproducoes nas redes sociais e siga acompanhando nossos conteúdos sobre comunicação popular, inteligência artificial, cultura digital e direitos humanos.

Valéria Diniz de Amorim

Especialista em Comunicação, Marketing, Eventos, Branding e Growth, atua no mercado desde 2008, desenvolvendo projetos que conectam cultura, comunicação popular, meio ambiente, direitos humanos e empreendedorismo.

Em 2016, fundou a Candiá Produções, agência 360º voltada para o terceiro setor e causas socioambientais, criando estratégias personalizadas que geram soluções assertivas e experiências memoráveis para marcas, empresas e organizações.

0 comentários

Enviar um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Você também pode gostar:

SEO: como fazer seu site ser encontrado no Google?

SEO: como fazer seu site ser encontrado no Google?

No Brasil, onde mais de 80% da população está conectada à internet, ter um site não é mais uma opção – é uma necessidade. Mas não basta ter um site bonito; ele precisa ser encontrado. Segundo estudos, 68% das experiências online começam com uma busca no Google, e a...

Como fazer um plano de comunicação com linguagem inclusiva

Como fazer um plano de comunicação com linguagem inclusiva

Planejamento estratégico e comprometido com equidade, diversidade e pertencimento A linguagem é um dos instrumentos mais poderosos da comunicação, ela pode incluir ou excluir, representar ou invisibilizar. Em contextos sociais e culturais, usar uma linguagem inclusiva...

Precisando melhorar sua estratégia de comunicação e marketing?

...

Fale conosco 

contato@candiaproducoes.com.br
+55 61 9 8242-4262
Brasília, DF

Horário de atendimento

Seg. à Sex.: Das 9h às 18h

[njwa_button id="24365"]