O órgão de proteção de dados do Reino Unido solicitou respostas urgentes ao governo após um relatório do Home Office revelar viés racial na tecnologia de reconhecimento facial retrospectivo (RFR) usada pela polícia.
A vice-comissária de informação, Emily Keaney, disse em comunicado na sexta-feira que o Escritório do Comissário de Informação (ICO) solicitou ao Ministério do Interior “clareza urgente sobre esse assunto para que possamos avaliar a situação e considerar nossos próximos passos.”
O relatório do Laboratório Nacional de Física (NPL), divulgado na quinta-feira, testou o algoritmo Cognitec FaceVACS-DBScan ID v5.5.
RFR é usado para comparar imagens capturadas de câmeras de segurança, imagens de celulares, câmeras de painha/vídeo ou redes sociais com imagens do Banco de Dados Nacional da Polícia.
Estima-se que 25.000 buscas sejam realizadas a cada mês para capturar criminosos em liberdade.
No entanto, o relatório constatou que, “em um conjunto limitado de circunstâncias, o algoritmo tende a incluir incorretamente alguns grupos demográficos em seus resultados de busca.”
Especificamente, as taxas de falsos positivos para sujeitos brancos (0,04%) são muito menores do que as de sujeitos asiáticos (4%) e negros (5,5%).
“O FPIR para sujeitos negros do sexo masculino (0,4%) é menor do que para sujeitos negros do sexo feminino (9,9%)”, acrescentou.
Keaney disse que a ICO reconhece que medidas estão sendo tomadas pelo Home Office para corrigir esses preconceitos.
“No entanto, é decepcionante que não tenhamos sido informados sobre isso antes, apesar do engajamento regular com o Home Office e órgãos policiais como parte do nosso trabalho mais amplo para responsabilizar o governo e o setor público sobre como os dados estão sendo usados em seus serviços”, acrescentou.
“Embora reconheçamos o papel valioso que a tecnologia pode desempenhar, a confiança pública em seu uso é fundamental, e qualquer percepção de viés e discriminação pode agravar a desconfiança. A ICO está aqui para apoiar e auxiliar o setor público a fazer isso direito.”
Correção de viés
O Home Office afirmou em seu relatório que adquiriu um novo algoritmo com base nas conclusões do teste, acrescentando que ele “pode ser usado em configurações sem variação demográfica significativa no desempenho.”
Continuou: “O novo algoritmo deve ser testado operacionalmente no início do próximo ano e estará sujeito a avaliação.”
A Associação de Comissários de Polícia e Crime (APCC) também reconheceu que o governo introduziu “mitigações” para garantir que o viés no sistema de RFR não impacte a polícia. No entanto, assim como a ICO, expressou preocupações sobre transparência.
“Embora não haja evidências de impacto adverso em nenhum caso individual, isso é mais por sorte do que por design. “Falhas de sistemas já são conhecidas há algum tempo, mas não foram compartilhadas com as comunidades afetadas, nem com os principais atores do setor”, afirmou em um comunicado.
“Essas tecnologias estão cada vez mais invasivas e sofisticadas. Se quiserem conquistar a confiança e o apoio do público, especialmente daqueles grupos historicamente desconfiados da polícia, então total transparência é vital.”
A APCC afirmou que tais tecnologias precisam ser avaliadas de forma robusta e independente antes de serem implantadas, e contar com supervisão contínua durante as operações, com clara responsabilidade perante o público quando algo der errado.
“Convocamos a polícia e o governo a reconhecerem os erros cometidos e a trabalharem com aqueles responsáveis pela governança, local e nacionalmente, para garantir que o escrutínio e a transparência estejam no centro da agenda de reforma policial e do próximo livro branco. A polícia não pode ser deixada para corrigir seu próprio dever de casa”, acrescentou.
