Por que essa cidade perto do Vale do Silício baniu as câmeras com reconhecimento facial
Essa cidade fica no Vale do Silício, na Califórnia, um dos epicentros da inovação global, mas decidiu colocar um freio na tecnologia. São Francisco, em 2019, se tornou a primeira grande cidade americana a banir o uso de tecnologia de reconhecimento facial por agências públicas locais.
O objetivo da decisão é combater o uso crescente de ferramentas automatizadas de vigilância com potencial de erro, viés racial e violação de direitos civis. Ao mesmo tempo, é vista como algo na contramão da tendência atual de usar cada vez mais a inteligência artificial na segurança pública. Cidades como Londres, metrópoles chinesas e São Paulo têm feito uma aposta pesada no modelo como estratégia anticrime.
Aprovada por ampla maioria no Legislativo, a política Stop Secret Surveillance Ordinance prevê que qualquer tecnologia de vigilância só poderia ser usada após aprovação formal da prefeitura, procuradoria e Comitê de Tecnologia da Informação. E impôs veto direto ao uso de softwares capazes de identificar rostos humanos por imagens de câmeras na cidade com cerca de 830 mil habitantes.
A proibição se aplica apenas a órgãos da administração municipal. Agências federais — como a alfândega ou a TSA, que atua na segurança de aeroportos — não são afetadas. Além disso, o uso privado de sistemas de reconhecimento facial segue permitido: lojas, condomínios e até empresas terceirizadas de segurança podem adotar tais tecnologias.
Vale a pena usar essa tecnologia?
“As câmeras, assim como quaisquer outras tecnologias aplicadas à segurança, devem possuir delimitação clara dos contornos para sua utilização, assim como os limites sobre as informações capturadas pelas filmagens”, diz Humberto Barrionuevo Fabretti, professor de Direito na Universidade Mackenzie.
O foco da legislação é impedir que o Estado local utilize o reconhecimento facial sem controle social. “Vários países europeus e cidades americanas vêm vetando essa solução por erros que se tornam verdadeiros abusos à cidadania”, ressalta José Vicente da Silva, coronel da reserva e ex-secretário nacional de Segurança.
Segundo especialistas, grupos marginalizados, como pobres, negros e imigrantes, sofrem mais com os efeitos negativos de erros ou vieses dessas tecnologias.
Mas relatório publicado este ano pela agência americana National Institute of Standards and Technology mostrou que os falsos positivos estão em patamares abaixo de 1% nos melhores algoritmos.
“Isso qualifica o reconhecimento facial como ferramenta confiável, quando bem calibrada”, afirma o especialista em segurança Hugo Tisaka, fundador e CEO da empresa NSA Global.
Segundo ele, os erros tendem a diminuir com o tempo. “É fato que negros e asiáticos têm características faciais que reduzem a eficácia do sistema, mas esses algoritmos melhoram a cada dia, inclusive com a introdução de inteligência artificial”, aponta.
“Há também algoritmos capazes de analisar comportamentos, o que ajuda na prevenção de crimes não só patrimoniais mas de cunho extremista, que identificam objetos deixados de propósito ou em locais suspeitos”, acrescenta Tisaka.
Além de “erros frequentes”, “impactantes e constrangedores”, na visão do pesquisador Gabriel Pereira, da Universidade de Amsterdã, a questão da privacidade, com denúncias de condutas inadequadas, é um problema.
“A vigilância algorítmica gera dados detalhados sobre o movimento de pessoas, que podem ser usados para fins distintos dos originalmente planejados”, pondera Pereira. Isso inclui, exemplifica, abusos de agentes de segurança contra ex-parceiras e vazamento de dados.
“Há muitas formas de se coibir esse comportamento, tais como trilhas auditáveis, câmeras dentro da sala de monitoramento - ou seja, vigiar o vigiador -, programas de educação continuada reforçando a importância da ética e da privacidade”, defende Tisaka.
‘Não podemos viver na Idade da Pedra’
Passados cinco anos da lei em vigor, o tema voltou com um referendo popular em 2024, impulsionado pela prefeita London Breed e respaldado por setores preocupados com a alta da criminalidade.
A votação autorizou ampliar o uso de câmeras de vigilância, drones e leitores automáticos de placas pela polícia — sem a exigência de revisões públicas a cada aquisição ou modificação tecnológica.
Apesar disso, a proibição do reconhecimento facial foi mantida. Ou seja: mesmo com a ampliação de outros dispositivos de monitoramento, softwares de identificação biométrica facial seguem fora do escopo legal das forças de segurança municipais.
“Não podemos viver na Idade da Pedra enquanto São Francisco é a capital mundial da inteligência artificial. Temos ferramentas tecnológicas e precisamos usá-las”, declarou Breed, prefeita de São Francisco de 2018 a 2025.
Ela afirmou que “a tecnologia mudou o jogo para a segurança pública”. Segundo ela, “expandindo o uso da tecnologia e tirando os agentes de trás das mesas e colocando-os de volta nas ruas, continuaremos nossa missão de tornar São Francisco mais segura.”
Conforme balanço da prefeitura, os crimes contra a propriedade caíram 29% na cidade de 2023 para 2024 — e os crimes violentos também recuaram 17%, no mesmo período.
Mas grupos de defesa da privacidade e das liberdades civis alertam para o risco de que a nova onda de vigilância abra brechas para a reintrodução velada do reconhecimento facial.
Dados da Electronic Frontier Foundation (EFF) apontam 2.753 câmeras de vigilância em operação na cidade — o que inclui equipamentos públicos e privados que compartilham suas imagens com a polícia. De julho a setembro de 2023, por exemplo, a SFPD (polícia de São Francisco) coletou cerca de 193 horas de vídeos ao vivo de câmeras privadas.
“A intervenção criminal exige ponderação entre interesses individuais, como o direito à privacidade e à intimidade, e interesses do grupo de combate e prevenção da criminalidade de outro”, diz o criminalista Bruno Buonicore, professor no Centro Universitário de Brasília.
“O uso de câmeras de segurança depende tanto da tecnologia segura, a partir da qual a margem de erro seja consideravelmente reduzida - idealmente zerada -, como de estudos empíricos prévios que justifiquem seu uso em regiões, condições e circunstâncias específicas e concretas bem delimitadas”, continua ele, doutor pela Universidade de Frankfurt.
Comentários