Enquanto espera pelo trem na
estação, caminha pela rua ou relaxa em uma praia, você pode estar sendo vigiado
por câmeras de segurança, que enviam imagens diretamente para um centro de
controle policial. Lá, um programa de computador acessa o banco de dados com
rostos de suspeitos de crimes e compara com as imagens das câmeras. O que
parece roteiro de ficção científica, é realidade há um tempo em diferentes
partes do país, onde sistemas de reconhecimento facial vêm sendo cada vez mais
usados na segurança pública.
O caso mais recente foi a
adesão de concessionárias do transporte público no Rio de Janeiro à tecnologia
controlada pela Polícia Militar. Mais de 1.000 câmeras posicionadas em estações
e vias estão agora disponíveis para o trabalho da corporação.
Enquanto autoridades
defendem a medida como eficaz para o combate à criminalidade, especialistas em
direitos humanos e segurança apontam os riscos de ampliação do racismo e da
privação de liberdade.
Horrara Moreira é advogada e
coordenadora da campanha Tire Meu Rosto da Sua Mira, que defende o “banimento
total do uso das tecnologias digitais de reconhecimento facial na segurança
pública no Brasil”. Ela diz que o primeiro problema a ser considerado é a
ocorrência de prisões equivocadas.
“Há o problema da
identificação, quando acontece algum erro nas informações biométricas do rosto
e na comparação delas com o banco de dados. E existem os erros decorrentes dos
trâmites do próprio sistema de justiça, como mandados de prisão que estão
vencidos ou que já foram cumpridos”, alerta Horrara.
E se fosse possível melhorar
as tecnologias disponíveis, a ponto de praticamente zerar o número de erros?
Mesmo assim, Horrara afirma que não impediria um outro problema grave, a
característica inerentemente racista do sistema.
“Muitas tecnologias de
reconhecimento facial usam a inteligência artificial como regra de
processamento matemático. Ela pode ser de deep learning ou de machine learning,
em que você fornece previamente um banco de dados, para que ela aprenda a
identificar os rostos de pessoas no geral. E você também precisa definir
critérios de quem é homem, mulher, branco, negro, e ensinar a máquina a
identificar esses padrões. Qualquer enviesamento nesse treinamento da máquina
vai influenciar na taxa de precisão. E o treinamento não é transparente. Se eu
dou mais informações para a máquina sobre pessoas negras, ela pode indicar que
pessoas negras cometem mais crimes do que pessoas brancas”, avalia a advogada.
Thalita Lima coordena o
Panóptico, projeto sobre reconhecimento facial do Centro de Estudo de Segurança
e Cidadania (CESeC). Ela defende que a tecnologia não produz impacto
significativo na redução da criminalidade e cita os exemplos de Salvador e do
Rio de Janeiro para corroborar o argumento.
“Há o problema da
identificação, quando acontece algum erro nas informações biométricas do rosto
e na comparação delas com o banco de dados. E existem os erros decorrentes dos
trâmites do próprio sistema de justiça, como mandados de prisão que estão
vencidos ou que já foram cumpridos”, alerta Horrara.
E se fosse possível melhorar
as tecnologias disponíveis, a ponto de praticamente zerar o número de erros?
Mesmo assim, Horrara afirma que não impediria um outro problema grave, a
característica inerentemente racista do sistema.
“Muitas tecnologias de reconhecimento
facial usam a inteligência artificial como regra de processamento matemático.
Ela pode ser de deep learning ou de machine learning, em que você fornece
previamente um banco de dados, para que ela aprenda a identificar os rostos de
pessoas no geral. E você também precisa definir critérios de quem é homem,
mulher, branco, negro, e ensinar a máquina a identificar esses padrões.
Qualquer enviesamento nesse treinamento da máquina vai influenciar na taxa de
precisão. E o treinamento não é transparente. Se eu dou mais informações para a
máquina sobre pessoas negras, ela pode indicar que pessoas negras cometem mais
crimes do que pessoas brancas”, avalia a advogada.
Thalita Lima coordena o
Panóptico, projeto sobre reconhecimento facial do Centro de Estudo de Segurança
e Cidadania (CESeC). Ela defende que a tecnologia não produz impacto
significativo na redução da criminalidade e cita os exemplos de Salvador e do
Rio de Janeiro para corroborar o argumento.
“O estado que mais utilizou
reconhecimento facial no Brasil foi a Bahia, onde mais de 60 municípios já o
adotaram como medida de segurança pública. Salvador é permeada por câmeras que
usam essa tecnologia. E um estudo do Panóptico mostra que entre 2019 e 2022, os
índices criminais de roubo a transeuntes e de atentados contra a vida não
tiveram mudanças significativas”, diz Thalita.
“Assim como no estudo sobre
o Rio de Janeiro, de um projeto piloto que aconteceu em 2019 em Copacabana e no
Maracanã, quando foi verificado que a criminalidade aumentou. Segurança pública
envolve medidas que são muito mais estruturais do que simplesmente adotar
câmeras de reconhecimento facial”, acrescenta Thalita.
A pesquisadora enfatiza que
também é preciso estar alerta à ampliação da vigilância sobre a população. Em
termos morais e políticos, quais os riscos à privacidade e ao direito de livre
circulação nas cidades?
“Temos a vigilância em
escala ampliada em ambientes de grande circulação de pessoas, e precisamos
analisar que outras camadas de direito vão ser flexibilizadas. Não apenas o de
se locomover, o de mobilidade, o direito à cidade, aos espaços onde se possa
circular e não ter o risco de ser abordado erroneamente, mas também é preciso
resguardar o direito à privacidade e à livre expressão nesses espaços. No
Brasil, tem aumentado cada vez mais o uso dessa tecnologia sem uma reflexão dos
riscos e sem relatórios de impacto dela”, afirma.
A reportagem da Agência
Brasil entrou em contato com os governos do estado do Rio de Janeiro e da
Bahia, citados na matéria, para que apresentassem mais dados e informações
sobre o sistema de reconhecimento facial. Mas não obteve resposta até o
momento.
AGÊNCIA BRASIL