Ele costumava sorrir! Seu rosto não é apenas filmado, mas também classificado, comparado e identificado, principalmente por agências de segurança pública. Na maioria das vezes sem o seu conhecimento. É isso que mostra pesquisas do Defensor Público Federal (DPU) em parceria com o Center for Security and Citizenship Studies (CESEC), uma instituição acadêmica ligada à Universidade de Candido Mendes, no Rio de Janeiro.
Divulgado na quarta-feira (7), o relatório mapeando a vigilância biométrica ressalta que, depois de sediar a Copa do Mundo em 2014, o Brasil se tornou um vasto campo de vigilância digital, onde as chamadas tecnologias de reconhecimento facial (TRFs) encontraram solo fértil.
Obrigado, em parte, à promessa de facilitar a identificação de criminosos e a localização de pessoas desaparecidas.
“O reconhecimento facial tem sido amplamente incorporado por órgãos públicos no Brasil, em um processo que começou com mega eventos no país, especialmente na Copa do Mundo de Futebol em 2014, e nos Jogos Olímpicos em 2016”, os defensores públicos da DPU e os membros da CESEC, referindo-se às fachadas sofisticadas e enfrentadas de face a face, atualizando crescente na área urbana.
Segundo os pesquisadores, em abril deste ano, houve, no Brasil, pelo menos 376 projetos de reconhecimento facial ativos. Juntos, essas empresas têm o potencial de assistir a quase 83 milhões de pessoas, o equivalente a cerca de 40% da população brasileira.
E eles já moveram pelo menos R $ 160 milhões em investimentos públicos – valor calculado a partir das informações de que 23 das 27 unidades federativas forneceram aos responsáveis pelo estudo – não responderam à pesquisa, feitos entre julho e dezembro de 2024, Amazonas, Maranhão, Parába e Sergipe.
“Apesar de todo esse cenário, as soluções regulatórias estão atrasadas”, diz os pesquisadores da DPU e da CESEC, garantindo que o Brasil não tenha leis para disciplinar o uso de sistemas de vigilância digital, particularmente câmeras de reconhecimento facial.
Além disso, para especialistas, mecanismos de controle externo, padrões uniformes-operacionais e transparência na implementação de sistemas. Isso expande as chances de erros graves, violações de privacidade, discriminação e uso indevido de recursos públicos.
Erros
Em outra pesquisa, a CESEC mapeou 24 casos entre 2019 e abril de 2025, que afirma ter identificado falhas nos sistemas de reconhecimento facial. O mais conhecido deles é o personal trainer João Antônio Trindade Bastos, 23.
Em abril de 2024, a polícia militar removeu Bastos das arquibancadas do estádio Batista de Lourival em Aracaju (SE) durante a partida final do campeonato de Sergipano.
Eles levaram o garoto a uma sala, onde o procuraram severamente. Somente depois de verificar toda a documentação de Bastos, que teve que responder a várias perguntas para provar que ele alegou ser, a PMS revelou que o sistema de reconhecimento facial implementado no estádio o confundiu com um fugitivo.
Indignado, Bastos usou redes sociais para fazer uma explosão contra a injustiça sofrida. A repercussão do caso levou o governo de Sergipe a suspender o uso da tecnologia pelo PM – que, de acordo com as notícias da época, já a usava para parar mais de dez pessoas.
Bastos é preto. Como a maioria das pessoas identificadas por sistemas de vigilância e reconhecimento facial no Brasil e em outros países – de acordo com o relatório DPU e CESEC, existem indicadores de que 70% das forças policiais do mundo têm acesso a algum tipo de TRF e que 60% dos países têm reconhecimento facial nos aeroportos.
No Brasil, “mais da metade das abordagens policiais motivadas pelo reconhecimento facial resultaram em conceitos errôneos, destacando o risco de prisões indevidas”.
“As preocupações com o uso dessas tecnologias não são infundadas”, alerta especialistas, citando pesquisas internacionais que, em alguns casos, as taxas de erros do sistema são “desproporcionalmente altas para certos grupos populacionais, sendo dez a 100 vezes mais altos para pessoas negras, indígenas e asiáticas em comparação a indivíduos brancos”.
Esta descoberta motivou o Parlamento Europeu em 2021 a alertar que “[as] imprecisões técnicas de sistemas de inteligência artificial [IA]Concebido para identificação biométrica a uma distância das pessoas singulares, pode levar a resultados tendenciosos e ter efeitos discriminatórios. ”
Legislação
Ao lidar com “desafios institucionais e normativos”, os pesquisadores lembram que, em dezembro de 2024, o Senado aprovou o projeto de lei nº 2338/2023, que busca regular o uso da inteligência artificial, incluindo sistemas biométricos em segurança pública.
Para se tornar lei, a proposta deverá ser aprovada pela Câmara dos Deputados, que no mês passado criou uma comissão especial para discutir o assunto.
Além disso, para os pesquisadores da DPU e da CESEC, embora o PL propõe proibir o uso de sistemas de identificação biométricos de distância e em tempo real em espaços públicos, o texto aprovado pelo Senado fornece tantas exceções que, na prática, atuam “como uma ampla autorização para a implementação” desses sistemas.
“As categorias de permissões [no texto aprovado] Eles incluem investigações criminais, ofensa flagrante, busca por falta e recuperação de fugitivos, situações que cobrem um espectro considerável de atividades de segurança pública.
Considerando a história do abuso e a falta de mecanismos de controle eficazes, essa abertura para uso acaba mantendo a possibilidade de um estado de vigilância e violação de direitos. ”
Recomendações
Os pesquisadores concluem defendendo a urgência de um “debate público qualificado”, com a participação ativa da sociedade civil, membros da Academia e representantes dos órgãos de controle público e órgãos internacionais.
Eles também recomendam o que classificam como “medidas urgentes”, como a aprovação de uma lei nacional específica para regular o uso da tecnologia; A padronização de protocolos que respeitam o devido processo legal e a realização de auditorias independentes e regulares.
Especialistas também apontam a necessidade de os órgãos públicos darem mais transparência aos bancos de dados e bancos de dados utilizados, garantindo o acesso da população a informações claras sobre os sistemas de reconhecimento facial e permitindo agentes públicos que lidam com o assunto.
E sugira a obrigação de autorização judicial anterior de usar as informações obtidas com o uso de TRFs em investigações, bem como a limitação temporal para armazenar dados biométricos e o fortalecimento do controle sobre as empresas privadas que operam esses sistemas.
“Esperamos que essas descobertas não apenas oriem e subsidiem o processamento do PL 2338 na Câmara dos Deputados, mas também um aviso para que os órgãos regulatórios e de controle estejam cientes do que acontece no Brasil.
O relatório destaca os vieses raciais no uso da tecnologia e dos problemas de uso indevido de recursos públicos e a falta de transparência em sua implementação ”, diz o coordenador geral da CESEC, Pablo Nunes.
–
Onde assistir o maior canal de negócios do mundo no Brasil:
Canal 562 CLAROTV+ | Canal 562 céu | Canal 592 Vivo | Canal 187 Oi | Operadores regionais
Sinal aberto da TV: canal parabólico 562
Online: www.timesbrasil.com.br | YouTube
Canais rápidos rápidos: Samsung TV Plus, Canais TCL, Plutão TV, Roku, Soul TV, Zapping | Novos streamings