ALGORITMOS DE EXCLUSÃO
QUANDO A TECNOLOGIA REFORÇA O RACISMO PENAL
Visualizações: 46DOI:
https://doi.org/10.56579/redac.v2i1.3328Palavras-chave:
Algoritmos, Justiça criminal, Racismo estrutural, Reconhecimento facial, Seletividade PenalResumo
O emprego de algoritmos e de sistemas de inteligência artificial (IA) na justiça criminal tem sido propagado como solução eficiente, objetiva e neutra para problemas de segurança pública e gestão judicial. Contudo, a literatura crítica e as evidências empíricas indicam que tais ferramentas, quando desenvolvidas e aplicadas sobre dados historicamente enviesados, tendem a reproduzir e amplificar a seletividade penal e o racismo estrutural. Este artigo analisa como tecnologias de avaliação de risco, reconhecimento facial e policiamento preditivo impactam o sistema penal, comparando a experiência brasileira com casos paradigmáticos internacionais. A pesquisa, de abordagem qualitativa, adota análise de conteúdo e análise crítica do discurso sobre relatórios, artigos científicos e documentos institucionais. Os resultados mostram que a promessa de neutralidade tecnológica encobre mecanismos de exclusão que atingem desproporcionalmente grupos racializados e empobrecidos, fragilizando garantias constitucionais e a confiança social nas instituições. Conclui-se pela necessidade de marcos regulatórios sólidos, transparência algorítmica, controle democrático e mecanismos de mitigação de viés, a fim de impedir que a IA reitere, em novas roupagens, desigualdades antigas.