Tudo bem, gente bonita?
Já parou para pensar que, enquanto navegamos pela internet ou usamos aplicativos, sistemas invisíveis estão tomando decisões sobre nossas vidas?
Sim, estão. Algoritmos determinam quem consegue uma entrevista de emprego, quem recebe um empréstimo, e até quem é considerado “suspeito” pela polícia. E sabe o que é mais doloroso? Para pessoas negras, os vieses algorítmicos, essa tecnologia supostamente “neutra” frequentemente amplifica feridas históricas em vez de curá-las.
O que são vieses algorítmicos e por que afetam pessoas negras
O reforço do racismo estrutural através dos dados
Vieses algorítmicos são distorções sistemáticas nos resultados produzidos por inteligências artificiais e sistemas automatizados. Tecnicamente, surgem de três fontes principais: conjuntos de dados enviesados usados no treinamento, escolhas de design que priorizam certas métricas sobre outras e a própria arquitetura matemática dos modelos. É como se disséssemos ao computador “aprenda com o mundo”, mas o mundo que ele observa já está profundamente marcado pelo racismo estrutural.
Como os algoritmos reproduzem desigualdades raciais
Brasil e seus maus exemplos de vieses algorítmicos
Para explicar sem rodeios: quando um algoritmo de recrutamento é treinado com dados históricos de contratação onde candidatos negros foram sistematicamente rejeitados, ele “aprende” esse padrão discriminatório como regra. Não é magia nem acidente, é matemática aplicada a dados contaminados por desigualdades.
Pesquisas recentes mostram que sistemas de pontuação de crédito baseados em machine learning frequentemente penalizam CEPs de regiões periféricas, onde a população é majoritariamente negra. Isso ocorre porque o algoritmo correlaciona características geográficas com inadimplência, sem considerar o contexto histórico de exclusão financeira que criou essa correlação. Resultado técnico: falsos negativos desproporcionais para um grupo específico. Resultado humano: menos acesso a recursos para quem já tem menos, ou seja, um viés algorítmico plantado e sendo colhido por quem não merece.
No reconhecimento facial, a taxa de erro para mulheres de pele escura chega a ser 34% maior do que para homens de pele clara, segundo estudos da MIT Media Lab. Esse é um exemplo grave de como os vieses algorítmicos operam de forma silenciosa, mas devastadora.
Cuidado! Há uma armadilha sedutora em acreditar que a tecnologia é neutra por ser matemática. Esses vieses algorítmicos não surgem do vácuo – são criados por pessoas, em empresas, com interesses bem específicos. E quando essas pessoas são predominantemente de um único grupo demográfico (homens brancos representam mais de 70% dos profissionais de tecnologia no Brasil), suas experiências limitadas moldam o que é considerado “normal” ou “universal”.
Uma estrada para uma tecnologia mais justa
Mas há esperança, meus caros. Equipes diversas criam tecnologias mais justas e isso não é apenas um slogan bonito, é um fato comprovado por pesquisas de Stanford e MIT. Quando pessoas negras participam do desenvolvimento tecnológico, problemas antes invisíveis tornam-se evidentes e solucionáveis.
Precisamos urgentemente de:
- Transparência algorítmica: o direito de saber como somos avaliados
- Auditorias independentes para sistemas de alto impacto
- Maior diversidade nos times de desenvolvimento
- Legislação específica sobre responsabilidade algorítmica
Esse não é apenas um debate técnico, é uma convocação. Como comunidade, devemos exigir que a tecnologia sirva à justiça. Não ao contrário. A inteligência artificial pode ser uma ferramenta poderosa para reparação histórica ou um mecanismo de perpetuação de vieses, que propagam desigualdades. A diferença está nas nossas escolhas e na nossa capacidade de questionar o que nos é apresentado como “objetivo” ou “imparcial”.
A tecnologia deve libertar, não aprisionar. E para isso, precisamos de TODAS as vozes: especialmente aquelas que os algoritmos tendem a silenciar. Falar sobre vieses algorítmicos é o primeiro passo para mudar essa realidade. Compartilhe este texto com quem também precisa entender como a tecnologia pode reproduzir injustiças.
Muitos bons ventos!

Líder em Formação, têm construído sua trajetória profissional através de três eixos: Sustentabilidade, Tecnologia e Equidade social. Está em transição profissional para a área da tecnologia, movida pela paixão em poder transformar a sociedade em espaços coletivos que promovam desenvolvimento humano, ambiental, social e tecnológico.
Cursa duas graduações (Ciência de Dados e Governança Ambiental) e dois cursos técnicos (Desenvolvimento de Sistemas e Serviços Jurídicos). Acredita que a educação é a chave para a transformação, independente da idade.