Reconhecimento facial: o uso de máscara pode colocar o sistema em xeque (Angel Garcia/Getty Images)
Mariana Martucci
Publicado em 29 de julho de 2020 às 20h57.
Última atualização em 29 de julho de 2020 às 22h35.
As máscaras faciais são uma das melhores defesas contra a disseminação do novo coronavírus, mas sua crescente adoção tem um segundo efeito não intencional: quebrar os algoritmos de reconhecimento facial.
Usar máscaras que cubram adequadamente a boca e o nariz faz com que a taxa de erro em algoritmos de reconhecimento facial passe de 5% para 50%, segundo um estudo do Instituto Nacional de Padrões e Tecnologia dos EUA (NIST). O NIST é o instituto governamental encarregado de avaliar a precisão desses algoritmos para o governo americano, e sua classificação é de extrema importância para as empresas do ramo.
"Com a chegada da pandemia, precisamos entender como a tecnologia de reconhecimento de rosto lida com rostos mascarados", disse Mei Ngan, autora do relatório e cientista da computação do NIST. “Começamos focando em como um algoritmo desenvolvido antes da pandemia pode ser afetado por indivíduos usando máscaras. No final deste verão, planejamos testar a precisão de algoritmos que foram intencionalmente desenvolvidos com rostos mascarados", acrescentou.
Algoritmos de reconhecimento facial, como os testados pelo NIST, medem as distâncias entre os traços do rosto do indivíduo. As máscaras reduzem a precisão desses algoritmos removendo a maioria dessas particularidades de cada rosto, embora algumas ainda permaneçam.
Outro fato interessante é que as cores são um fator decisivo em relação a porcentagem de erro. O instituto afirmou que máscaras faciais de cor preta afetam muito mais os resultados que as de cor azul. O formato também importa: modelos circulares tendem a ser mais fáceis de serem burlados do que as máscaras que cobrem a maior parte do nariz e praticamente toda a metade inferior da face.
Isso é um pouco diferente de como o reconhecimento facial funciona nos iPhones, por exemplo, que usam sensores de profundidade para segurança extra, garantindo que os algoritmos não sejam enganados — a princípio para evitar fraudes a partir de fotos, agora para driblar os novos obstáculos.
O relatório do NIST testou apenas um tipo de reconhecimento facial conhecido como correspondência "um a um". Esse é o procedimento usado em fronteiras e controle de passaporte, em que o algoritmo verifica se o rosto do alvo corresponde ao seu ID — ou carteira de identidade. Isso é diferente do tipo de sistema de reconhecimento facial usado para vigilância em massa, onde uma multidão é examinada para encontrar correspondências com rostos em um banco de dados. Isso é chamado de sistema "um- para-muitos".
Embora o relatório do NIST não cubra o sistema "um-para-muitos", ele geralmente possui mais erros do que algoritmos "um-para-um". Escolher rostos na multidão é mais difícil, porque você não pode controlar o ângulo ou a iluminação do rosto e a resolução geralmente é reduzida. Isso sugere que, se as máscaras estão quebrando os sistemas "um-para-um", é provável que eles estejam quebrando algoritmos "um-para-muitos" com pelo menos a mesma frequência, ou até maior.
Para os defensores da privacidade, isso será uma boa notícia. Muitos alertaram sobre a pressa dos governos mundiais em adotar os sistemas de reconhecimento facial, apesar dos efeitos que essa tecnologia exerce sobre as liberdades civis e os amplamente reconhecidos preconceitos raciais e de gênero desses sistemas.
No Brasil, a tecnologia de reconhecimento facial está presente em pelo menos 37 cidades. Aqui, o sistema é usado nas áreas de segurança pública, transporte e controle de fronteiras. As ruas de Salvador (BA), por exemplo, são filmadas por um sistema de inteligência artificial, onde cada rosto é filmado, digitalizado e comparado a uma base de dados com as fichas criminais do estado da Bahia. O sistema, que possibilitou mais de 100 prisões, é capaz de identificar um pessoa que está sendo procurada pela polícia através de um sistema de reconhecimento facial da Huawei.
O tema vem suscitando intensas polêmicas no território nacional. Autoridades apostam no reconhecimento facial como um instrumento sofisticado das formas de controle em políticas públicas. Porém, essas ferramentas também são objeto de fortes questionamentos, já tendo sido proibidas em cidades dos Estados Unidos, como San Francisco e Oakland.
Para além de governos e organizações da sociedade civil, até mesmo empresas de tecnologia, como a Microsfot, já defenderam a regulação dessa prática. A IBM, por outro lado, anunciou no mês passado que deixará de desenvolver e oferecer tecnologia de reconhecimento facial. A empresa, que é uma das maiores no ramo de inteligência artifical do mundo, se diz contrária ao uso para monitoramento em massa, criação de perfis raciais e violações de direitos humanos básicos, além da liberdade individual.