Isso tem nome
Voltar para o catálogo

Vigilância preditiva

Uso de algoritmos de Inteligência Artificial para prever crimes e identificar 'suspeitos' com base em dados históricos viciados, resultando no policiamento excessivo de bairros negros e periféricos e na reprodução automatizada do racismo estrutural.

segurança públicatecnologiadireitos humanosjustiça racial

Definição

A vigilância preditiva não é uma ferramenta de ficção científica estilo Minority Report, mas uma prática real e perigosa de segurança pública que utiliza Big Data para tentar antecipar onde crimes ocorrerão ou quem os cometerá. No entanto, em vez de prever o futuro, esses sistemas apenas preveem o passado. Como os algoritmos são treinados com bases de dados policiais históricas — repletas de abordagens racistas e foco desproporcional em áreas pobres —, a "previsão" matemática acaba indicando que a polícia deve vigiar exatamente as mesmas pessoas que sempre vigiou: jovens negros de periferia.

No Brasil, isso se traduz no uso crescente de reconhecimento facial e softwares de hotspots (manchas criminais) que, sob o manto da neutralidade tecnológica, legitimam a militarização de territórios marginalizados. Tarcízio Silva denomina esse fenômeno de racismo algorítmico: a automação da discriminação racial, onde a máquina oferece um verniz de "ciência" para preconceitos antigos.

Como funciona

O funcionamento baseia-se em um ciclo de retroalimentação viciado (feedback loop). A polícia fornece ao algoritmo dados de onde ocorreram prisões no passado. Como o policiamento ostensivo é historicamente concentrado em favelas e bairros negros, esses locais geram mais dados de "crimes detectados" (muitas vezes crimes menores, como porte de drogas, ignorando crimes de colarinho branco em bairros nobres).

O algoritmo processa esses dados e "descobre" que essas áreas são zonas de risco, instruindo a polícia a patrulhar ainda mais lá. Com mais polícia, mais prisões ocorrem, gerando novos dados que confirmam a "previsão" do algoritmo. Em paralelo, sistemas de reconhecimento facial com baixíssima acurácia para rostos negros (devido a bases de treinamento majoritariamente brancas) geram falsos positivos constantes, levando à prisão de inocentes apenas porque o sistema apontou uma "semelhança" estatística.

Exemplos

  • Prisões por "Semelhança": Casos recorrentes no Brasil de pessoas negras presas erroneamente porque o sistema de reconhecimento facial apontou 90% de semelhança com um foragido, mesmo que a pessoa estivesse trabalhando em outro lugar na hora do crime.

  • Policiamento de Manchas Criminais: O envio massivo de viaturas para uma única rua da periferia baseada em dados de algoritmos, criando um clima de guerra e hostilidade constante com os moradores.

  • Reconhecimento Facial no Metrô/Estádios: O uso de câmeras biométricas em espaços públicos que coletam dados de milhões de cidadãos sem consentimento, criando um banco de dados gigantesco para rastreamento estatal.

  • Scoring de Risco: Softwares usados em tribunais (mais comuns nos EUA, mas chegando ao Brasil) que sugerem sentenças maiores para réus negros baseados em variáveis como "bairro de residência" ou "histórico familiar".

Quem é afetado

A população negra, periférica e pobre é o alvo preferencial. No Brasil, relatórios da Defensoria Pública mostram que a vasta maioria dos erros de reconhecimento fotográfico e facial em delegacias atinge homens negros. Além disso, moradores de favelas sofrem com operações policiais mais letais justificadas por "inteligência de dados", que na prática criminalizam o CEP e a cor da pele, tratando todo morador como um potencial suspeito ("risco calculado").

Por que é invisível

A vigilância preditiva opera dentro de "caixas-pretas" (algoritmos proprietários de empresas privadas), cujos critérios não são transparentes nem auditáveis pela sociedade civil. A invisibilidade é reforçada pelo mito da neutralidade matemática: juízes, promotores e a opinião pública tendem a confiar cegamente no resultado de um computador, acreditando que a máquina é "imparcial" e "livre de emoções humanas", ignorando que ela foi programada por humanos e alimentada com dados humanos preconceituosos.

Efeitos

  • Encarceramento em Massa: Aumento de prisões preventivas baseadas em "probabilidade" e não em flagrante ou investigação sólida.
  • Violação da Presunção de Inocência: O indivíduo é tratado como criminoso antes de cometer qualquer ato, apenas por se encaixar em um perfil de risco estatístico.
  • Desumanização: A redução de vidas humanas a datapoints (pontos de dados), onde a liberdade de uma pessoa é decidida por uma pontuação de risco (score).
  • Efeito Chilling (Resfriamento): O medo constante da vigilância inibe a livre circulação e a organização política em comunidades monitoradas.

Autores brasileiros

  • Tarcízio Silva
  • Letícia Simões-Gomes
  • Pablo Nunes
  • Nina da Hora

Autores estrangeiros

  • Safiya Noble
  • Cathy O'Neil
  • Virginia Eubanks
  • Ruha Benjamin

Temas relacionados