“Profissão Repórter” desta terça (22/07) investiga os avanços e os perigos do monitoramento por câmeras no Brasil

0
Foto: Reprodução/ Internet

Em São Paulo, o futuro parece já ter chegado. Mais de 30 mil câmeras espalhadas pela cidade observam, registram e, cada vez mais, decidem quem deve ser abordado, revistado, levado à delegacia. Em um contexto urbano de crescimento populacional, desigualdade e insegurança, a capital paulista se transformou em um imenso laboratório de vigilância, onde inteligência artificial e reconhecimento facial são apontados como promessas de eficiência na segurança pública.

Mas o que acontece quando a máquina erra o rosto? Quando a tecnologia se engana sobre quem você é?

Foi isso que o Profissão Repórter da última terça-feira (22) quis investigar. A equipe liderada por Chico Bahia, Talita Marchiori e outros jornalistas do programa mergulhou nas entranhas do sistema de videomonitoramento da cidade e descobriu que, entre capturas bem-sucedidas de foragidos da Justiça, há também falhas que mudam — e ferem — vidas inteiras.

A central do Smart Sampa: entre dados e decisões

O ponto de partida da reportagem é a central do Smart Sampa, programa da Prefeitura de São Paulo que concentra as câmeras públicas da cidade. As imagens, monitoradas em tempo real, são processadas por softwares de reconhecimento facial. Quando um rosto registrado no banco de dados das polícias é identificado, o sistema emite um alerta e aciona as forças de segurança.

Segundo dados da própria Prefeitura, o sistema já colaborou para prender 1.481 foragidos da Justiça. O número impressiona — mas 23 pessoas também foram presas por engano, e outras 1.212 foram abordadas de forma equivocada, sem chegar a ser detidas.

A frieza das estatísticas esconde dramas como o de Bárbara Maria Mendonça, 39 anos, produtora de eventos, moradora da Zona Oeste. “Em menos de uma hora, fui parada duas vezes. Saí de casa para ir ao posto de saúde e voltei tremendo. Nunca fui de sair muito, mas agora tenho medo até de ir na padaria”, conta, com os olhos cheios d’água. Desde o episódio, Bárbara tem evitado andar sozinha e passou a tomar medicamentos para ansiedade.

O trauma de um inocente: “Me confundiram com alguém que eu nunca vi”

O caso de Francisco Ferreira da Silva, de 80 anos, é ainda mais angustiante. Aposentado, voluntário em uma horta comunitária e morador da Zona Leste, Francisco foi levado à delegacia após ser identificado pelo sistema como um suposto criminoso. “Eu estava regando as plantas. Eles chegaram, perguntaram meu nome, mandaram eu subir na viatura. Nem entendi o porquê. Passei o dia preso, sem saber de nada.”

Foram quase dez horas de detenção até que o erro fosse reconhecido. O constrangimento público, a desconfiança de vizinhos e a vergonha permanecem. “Nunca passei por isso nem nos tempos difíceis da ditadura. Nunca imaginei que, com 80 anos, ia ser tratado como bandido.”

A família de Francisco relata que, após o ocorrido, ele passou a se isolar. “Ele parou de ir à horta. Disse que tem medo de ser confundido de novo. E agora?”, questiona a filha, Ana Cláudia.

Câmeras também vigiam do lado de dentro dos muros

A reportagem também revela que o reconhecimento facial não está restrito ao setor público. Os repórteres Everton Lucas e Francisco Gomes acompanharam reuniões em condomínios residenciais da capital paulista que discutem a instalação de câmeras com IA.

A promessa dos fornecedores é tentadora: portarias automatizadas, controle de acesso por biometria facial e até alerta automático para “pessoas suspeitas”. Mas o que define “suspeito”? Como é feito o cruzamento de dados? Para quem vai essa informação?

A reportagem aponta que as imagens privadas já estão sendo integradas ao sistema público de segurança, criando um enorme banco de dados que pode, eventualmente, escapar do controle dos próprios moradores.

“É uma sensação estranha. Ao mesmo tempo em que você se sente mais seguro, começa a se perguntar se a sua casa virou parte de um sistema maior que você não entende bem”, comenta Marcos, síndico de um condomínio na Vila Mariana. “E quando o rosto confundido for o do meu filho voltando da escola?”

A tecnologia também é usada para enganar — e lucrar

No interior do estado, o reconhecimento facial foi instrumento de um golpe perverso. A equipe de Esther Radaelli e João Lucas Martins acompanhou investigações em cidades como Júlio Mesquita e Guarantã, onde idosos foram vítimas de estelionatários que utilizaram suas imagens para contrair empréstimos falsos em bancos digitais.

As imagens eram captadas por redes sociais, documentos digitalizados ou câmeras públicas. “Bastava uma foto bem iluminada para burlar o sistema de verificação facial”, explica o delegado Gustavo Pozzer, responsável pelo caso.

Entre as vítimas, Pedro Nunes, 77 anos, descobriu que seu nome estava sujo no SPC por uma dívida que nunca contraiu. “Disseram que eu pedi um empréstimo de R$ 20 mil. Eu nem sei usar aplicativo de banco, quanto mais pedir dinheiro.”

O caso expõe um novo risco: o sequestro da identidade biométrica. Ao contrário de uma senha, o rosto de alguém não pode ser alterado. E se a tecnologia que deveria proteger acaba servindo para enganar, o problema é ainda mais grave.

Inteligência artificial pode reproduzir desigualdades

Especialistas ouvidos pela reportagem ressaltam que a inteligência artificial não é neutra. Ela aprende com dados — e se esses dados forem enviesados, o resultado também será. Pessoas negras, pobres ou periféricas, historicamente mais expostas a abordagens policiais, são também as mais vulneráveis aos erros da tecnologia.

“A gente costuma pensar que o computador é imparcial, mas ele apenas repete padrões. Se os bancos de dados usados no reconhecimento facial forem baseados em abordagens históricas injustas, isso será reproduzido sem filtro”, alerta a pesquisadora Bruna Freitas, doutora em direitos digitais.

Em outros países, como Reino Unido e Estados Unidos, cidades suspenderam o uso de reconhecimento facial após protestos e denúncias de abusos. No Brasil, a ausência de uma regulação clara preocupa especialistas, que alertam para o risco de um sistema de vigilância descontrolado, alimentado por interesses públicos e privados.

Entre o medo e a eficiência: o dilema da segurança moderna

O que o Profissão Repórter desta semana revela é que a tecnologia, quando usada sem critérios humanos, pode deixar de proteger para passar a punir. A eficiência do sistema é inegável — foragidos são capturados, desaparecidos localizados, investigações aceleradas.

Mas ao mesmo tempo, as falhas têm rostos, histórias e traumas. E muitas vezes, essas falhas não têm quem as responda.

O futuro nos observa — mas quem observa o futuro?

A matéria termina com um questionamento inevitável: quem vigia os vigilantes? Em uma cidade onde câmeras estão em cada esquina, e onde os rostos são processados por algoritmos que ninguém entende completamente, a linha entre segurança e abuso pode ser tênue.

A tecnologia está entre nós — e cada vez mais, sobre nós. Mas se ela for adotada sem transparência, sem justiça e sem humanidade, não estaremos apenas entregando nosso rosto ao Estado e ao mercado. Estaremos renunciando ao direito de sermos tratados como pessoas, e não como suspeitos.

COMENTE

Por favor digite seu comentário!
Por favor, digite seu nome aqui