AS TECNOLOGIAS DIGITAIS COMO FERRAMENTA DO ‘RACISMO ALGORÍTMICO’ PARA O ENCARCERAMENTO DOS CORPOS PRETOS

*Vanice Aparecida Alves

Este artigo surge a partir de inquietações e observações cotidianas de matérias e pesquisas que tem problematizado e reafirmado o sistema de reconhecimento facial como ‘racismo algorítmico’, e neste contexto não podemos nos isentar deste debate tão caro que afeta os grupos raciais (negros e indígenas), tendo em vista as raízes do racismo estrutural no Brasil e suas práticas e normas incorporadas nas instituições sociais, políticas e econômicas, que resultam em discriminação sistemática contra esses grupos raciais. Portanto, pretendemos problematizar as tecnologias digitais e seus sistemas informáticos que reforçam o racismo estrutural e resulta no encarceramento da população preta. Neste cenário, concordamos as autoras Paula, Barros e Oliveira (2024) que afirmam que analisar a Tecnologia de Reconhecimento Facial (TRF) torna-se relevante tendo em vista que esta ferramenta é apropriada para ser utilizada em uma população determinada.

Tecnologia de Reconhecimento Facial (TRF). Fonte: https://br.pinterest.com/pin/4595149481424401536/. Acesso em 05/05/2026.

Conforme apontado pelas autoras Paula, Barros e Oliveira (2024) o sistema de reconhecimento facial, perpetua a discriminação racial no âmbito das políticas criminais, que já reproduz seletividade sistêmica em que a brancura é reconhecida como humano.

[…] o sistema de reconhecimento facial é uma tecnologia que se viabilizou por meio do desenvolvimento dos chamados big datas, bancos de dados que reúnem dados biométricos, utilizados no processamento que permite a identificação dos indivíduos. […] trata-se de um sistema de análise da geometria da face realizada a partir da coleta de dados faciais […] para criar uma “assinatura facial’’, originados de fotos ou segmentos de vídeos. A partir disso, os traços e características do rosto analisado são transformados em “pontos de referência’’, cuja distância entre tais pontos possibilita a identificação de um indivíduo (PAULA BARROS. OLIVEIRA, 2024, p. 2).

A partir dos autores Amaral, Martins e Elesbão (2021) observamos que a discriminação nos meios digitais, reproduz traços em sua operacionalidade ordinária, como é nos casos dos “algoritmos de relevância pública”. A autora Carrera (2020, p. 217) também questiona os “processos de algoritmização do racismo e sexismo em bancos de imagem digitais”, pois considera que esses dispositivos guiam “os sentidos sobre ser mulher e ser negro por meio de modos sutis de construção de subjetivação”.

Coadunamos com Carrera (2020, p. 218) que afirmar que as tecnologias digitais apresentam seus vieses discriminatórios, além de sua manutenção de desigualdades e suas “influências para a promoção do conservadorismo e da extrema direita”. Paula, Barros e Oliveira (2024, p. 01) estes dispositivos ainda apresentam lacunas legislativas e “[…] o controle de dados nas mãos de uma entidade criadora pode gerar um tendencionismo ideológico, fato este que leva à intensificação da segregação social.”

[…] as falhas do sistema tecnológico de reconhecimento facial, em virtude do desconhecimento do algoritmo em relação à miscigenação brasileira, através da exploração de casos reais, ressaltando como tamanho sistema pode corroborar para um processo de seletividade da política criminal (Paula, Barros e Oliveira, 2024, p. 02).

Podem ocorrer falhas no sistema tecnológico de reconhecimento facial (TRF). Fonte: https://www.kaspersky.com.br/blog/bad-facial-recognition/6487/. Acesso em 05/05/2026.

De acordo com a Secretaria Nacional de Políticas Penais (Brasil, 2025) no período de janeiro a junho de 2025 no Estado de São Paulo a população encarcerada masculina expressava:

 75.090 homens brancos;

 27.192 homens pretos;

 99.403 homens pardos.

Totalizando assim, 126.595 homens pretos e pardos. Nos dados apresentados pelo Conselho Nacional de Justiça (2022) as vítimas de reconhecimentos equivocados foi de:

 65,5% com pessoas negras (somatório de pretos e pardos);

17,7% pessoas brancas;

Em 16,8% dos casos não se obteve informação de raça/cor.

Entre os anos 2000 e 2021, a imprensa 113 casos de reconhecimentos errôneos pela TRF. Considerando que a distribuição geográfica de 76,1% fora oriunda de dois estados: São Paulo e Rio de Janeiro. Observa-se que ainda há uma escassez de pesquisas e estudos sobre os encarceramentos por erros do reconhecimento facial, provocando novos questionamentos e pesquisas nesta temática.

Os autores Amaral, Martins e Elesbão (2021, p 01-02) acrescentam que o avanço de novas tecnologias digitais, apontam para questões de seu funcionamento, e apresenta desafios em compreender as relações entre tecnologia, poder e política. As autoras Paula, Barros e Oliveira (2024) descrevem também que a violência urbana e a criminalidade, faz com que as tecnologias digitais adquiram um patamar de vigilância e videomonitoramento dos cidadãos, com a utilização da Inteligência Artificial (IA) e seu algorítmico.

Carrera (2020) ao analisar o racismo e o sexismo nos algoritmos nos tempos atuais, assinala que pesquisadores da University College Dublin (UCD), foram premiados pelo melhor trabalho apresentado no workshop Black in AI, em que a tese central afirma que os

 “[…] indivíduos marginalizados são mais impactados negativamente pelas decisões de automação: “Estes sistemas ‘captam’ estereótipos históricos e sociais” (p. 01)” (CARRERA, 2020, p. 222).

Ainda segundo os autores Amaral, Martins e Elesbão (2021) o novo contexto sociotécnico, os algoritmos e dados tornam-se um novas formas de controle social, e os algoritmos nos bancos de imagens digitais produzem resultados racistas.

Portanto, concluímos que o sistema de reconhecimento facial se torna técnicas de normatização, controle e exercício de poder nos corpos pretos, considerando que o banco de imagens são racializados, e privilegiam a branquitude ao identificamos que a população encarcerada em sua maioria ainda são homens pretos e os erros do reconhecimento facial também os são, reforçando as raízes do racismo estrutural em nossa sociedade.

REFERÊNCIAS

AMARAL, Augusto Jobim do. MARTINS, Fernanda.  ELESBÃO, Ana Clara. Racismo algorítmico: uma análise da branquitude nos bancos de imagens digitais. In: Pensar – Revista de Ciências Jurídicas. Universidade de Fortaleza Unifor: CE. v. 26, n. 4, out/dez, 2021, p. 1-9 Disponível em: <file:///C:/Users/andra/Downloads/_11806-Texto%20do%20Artigo-51554-51057-10-20211117.pdf> Acesso em 02.04.2026

BRASIL, Secretaria Nacional de Políticas Penais. Levantamento de Informações Penitenciária – 18º Ciclo – 1º semestre de 2025. SENAPPEN Secretaria Nacional de Políticas Penais: Brasília. 2025 Disponível em: < https://www.gov.br/senappen/pt-br/servicos/sisdepen/relatorios/relatorios-de-informacoes-penitenciarias/relatorio-do-1o-semestre-de-2025.pdf&gt; Acesso em 07 mar. 2026.

BRASIL, Conselho Nacional de Justiça. Grupo de Trabalho: reconhecimento de pessoas. Conselho Nacional de Justiça: Brasília, 2022 Disponível em: < relatorio-final-gt-sobre-o-reconhecimento-de-pessoas-conselho-nacional-de-jusica.pdf> Acesso 06 abr. 2026

CARRERA, Fernanda. A raça e o gênero da estética e dos afetos: algoritmização do racismo e do sexismo em bancos contemporâneos de imagens digitais. In: Revista Matrizes.Programa de Pós-Graduação em Ciências da Comunicação da Universidade de São Paulo. USP: SP,v 14, n 2, maio/ago, 2020 Disponível em: < file:///C:/Users/andra/Downloads/matrizes,+MATRIZES_14.2_10_CARRERA_PT.pdf > Acesso 10 mar. 2026

PAULA, Aíssa Victória de.  BARROS, Fernanda de. OLIVEIRA, Laís Resende de. A discriminação racial no sistema de reconhecimento facial no Brasil e seus impactos na política criminal. In: Revista de Direitos Humanos e Desenvolvimento Social. Campinas, v. 5, 2024, p. 01-08 Disponível em: < 13770-Texto do Artigo-49209-49706-10-20241122.pdf > Acesso 10 mar. 2026.

* Assistente Social da Secretaria de Políticas para Mulher e Igualdade Racial de Jandira/SP, Mestra em Política Social, Doutora em Serviço Social, Pós-Graduação em Políticas públicas, Direitos Humanos, Diversidade Sexual e Gênero, Aperfeiçoamento em “Educação em Direitos Humanos e Diversidade: educar-se e educar para a construção de uma sociedade fundamentada em direitos humanos”. Facilitadora do Grupo “E Agora José”. Foi tutora no Curso de Especialização em Educação em Direitos Humanos da Universidade Federal do ABC (UFABC). Pesquisadora do Grupo de Pesquisa Educação em Direitos Humanos na UFABC. Contato: dialetica@hotmail.com.

Deixe um comentário