Ferramentas baseadas em inteligência artificial estão transformando a forma como produzimos conteúdo, respondemos dúvidas, criamos imagens, programamos e até pensamos estratégias de comunicação. ChatGPT, Perplexity, Gemini e outras plataformas prometem agilidade, produtividade e precisão. Mas por trás dessa promessa, há perguntas que o terceiro setor precisa urgentemente fazer.
Plataformas de IA são neutras? Elas compreendem a diversidade dos territórios, das culturas, das experiências humanas reais? A resposta curta: não.
O viés vem embutido
Modelos de IA são treinados com grandes volumes de dados retirados da internet. O problema é que a internet reflete desigualdades estruturais: machismo, racismo, capacitismo e outras formas de exclusão. A consequência? Algoritmos que reproduzem, e até amplificam, esses preconceitos.
Estudos apontam que sistemas de IA podem reproduzir preconceitos raciais e de gênero. Por exemplo, algoritmos de reconhecimento facial apresentam taxas de erro significativamente maiores ao identificar rostos de pessoas negras e asiáticas, em comparação com rostos brancos.
Além disso, a falta de diversidade nas equipes de desenvolvimento de IA contribui para a perpetuação desses vieses. A pesquisa “Quem Coda BR”, realizada pela PretaLab em parceria com a ThoughtWorks, mostrou que a desigualdade começa na base: as equipes que desenvolvem tecnologias são majoritariamente compostas por homens brancos de classe média alta. O estudo, que ouviu 693 profissionais de 21 estados, revelou que em 64,9% dos times, as mulheres representam no máximo 20% da equipe. Já em 88,4% dos casos, não há qualquer pessoa de identidade de gênero diversa, e em 77,1%, menos de 10% se identificam com uma orientação sexual diferente da heterossexual.
Esse desequilíbrio impacta diretamente as escolhas de dados, os recortes de mundo e as representações que os algoritmos passam a reproduzir. Um sistema de IA alimentado apenas com visões hegemônicas dificilmente conseguirá refletir a pluralidade de experiências, corpos, culturas e linguagens. Pior: pode reforçar a exclusão de tudo aquilo que foge da “norma”, justamente o que o terceiro setor se empenha em visibilizar.
Sua organização está representada nos dados?
ONGs, coletivos e projetos comunitários muitas vezes nem aparecem nas bases de dados que alimentam essas plataformas. Como alerta a Mozilla Foundation, a exclusão de comunidades minoritárias das bases de treinamento de IA cria um ciclo de invisibilidade digital: se você não está nos dados, não está nas respostas.
O resultado? A IA responde com base no que conhece: grandes centros urbanos, instituições do Norte Global, visões hegemônicas. Isso significa que, se sua causa é local, se sua pauta é interseccional ou se sua linguagem é territorializada, você precisa ficar atento. Usar IA com senso crítico não é uma escolha, é uma necessidade ética para quem atua com direitos humanos, justiça climática, educação popular e comunicação contra-hegemônica.
IA pode ser aliada, mas exige vigilância
A solução não é abandonar a IA, mas aprender a usá-la com responsabilidade. Algumas recomendações para organizações da sociedade civil:
- Alimente a IA com seus próprios dados: trechos de documentos, releases, vídeos e textos institucionais devem ser a base para o que ela vai produzir.
- Revise sempre as respostas: nenhuma IA entende contexto como um ser humano comprometido com a causa.
- Construa diretrizes éticas internas para o uso de IA, incluindo critérios de verificação, revisão e autoria.
- Promova a formação crítica de suas equipes sobre como os algoritmos operam e como os dados podem ser colonizadores ou libertadores.
A atuação da Candiá Produções
Na Candiá Produções, usamos ferramentas de IA de forma estratégica, mas com a curadoria ativa de profissionais que conhecem os territórios, as lutas e as linguagens das causas. Não acreditamos em respostas prontas. Acreditamos em comunicação com propósito, construída com senso crítico e repertório.
Capacitamos organizações para lidar com a tecnologia sem perder sua identidade. Produzimos conteúdos que não apenas informam, mas também mobilizam, emocionam e engajam. E, quando usamos IA, é para potencializar, e não substituir, as narrativas populares, indígenas, periféricas e ambientalistas que nos movem.
Se você é uma organização da sociedade civil, coletivo periférico, quilombola, indígena ou projeto cultural e quer explorar a IA sem apagar sua identidade, conte com a Candiá. Trabalhamos para que a comunicação popular esteja não só nas ruas, mas também nos algoritmos.
Vamos junt@s criar estratégias que reposicionem a luta dentro da tecnologia.








0 comentários