

Inteligência artificial: os riscos de viés racista em tecnologias digitais sem regulação na segurança pública
Em dezembro de 2024, um homem negro de 80 anos foi detido por engano na zona leste de São Paulo após ser identificado por um sistema de reconhecimento facial. O idoso, voluntário em uma unidade básica de saúde na Cidade Tiradentes, foi apontado como autor de um crime que não cometeu. O verdadeiro suspeito era uma pessoa branca. Após dez horas de detenção, o erro foi evidenciado, mas a vítima saiu da delegacia sem a certeza de que não passaria pela mesma situação outra vez. O caso ilustra o risco de um futuro digital sem regulação, que em vez de corrigir, aprofunda as desigualdades raciais.
A tecnologia, quando usada sem regulação e sem controle social, pode se tornar mais um vetor de exclusão e violência. Em países marcados pelo racismo estrutural, como o Brasil, sistemas de inteligência artificial aplicados à segurança pública têm reproduzido desigualdades históricas, com impactos diretos sobre pessoas negras. Prisões injustas, abordagens violentas e humilhações públicas estão entre as consequências de algoritmos enviesados. A promessa de maior eficiência na segurança pública, nesse contexto, transforma-se em um mecanismo sofisticado de criminalização seletiva — revelando como o racismo, longe de ser superado, segue operando como uma tecnologia social que se atualiza e se adapta às novas ferramentas institucionais.
Durante o painel “Inteligência artificial e justiça digital para pessoas afrodescendentes” realizado no Fórum Permanente de Afrodescendentes da ONU, a advogada Caroline Leal, assessora de litígio da Conectas Direitos Humanos, afirmou que “a tecnologia incorre em vieses, erros e falhas frequentes contra pessoas negras, as quais são submetidas a abordagens policiais violentas, detenções e prisões ilegais.”
Leal denunciou que, no Brasil, o reconhecimento facial tem sido utilizado sem qualquer regulação robusta, o que resulta na ampliação das desigualdades raciais sob o pretexto de inovação.
Nesse cenário, a justiça reparatória do século XXI precisa ir além da reparação dos traumas históricos. Significa também garantir direitos no ambiente virtual, proteger dados sensíveis, neutralizar algoritmos discriminatórios e construir infraestruturas de equidade digital.
Conectas apresentou três recomendações aos Estados no fórum da ONU:
1 – Proibição da contratação de sistemas de inteligência artificial na segurança pública até que estejam devidamente regulados de acordo com os direitos humanos e comprovadamente livres de viés racial e de gênero;
2 – Criação de mecanismos de controle social e judicial sobre o uso dessas tecnologias;
3- Participação ativa das populações afetadas na formulação de políticas públicas sobre inovação tecnológica.
Fonte: Conectas
Para mais notícias sobre Políticas Públicas de Comunicação, acesse aqui.