iPhone X configurando reconhecimento facial durante apresentação para mídia em Pequim, China (Thomas Peter/Reuters)
Lucas Agrela
Publicado em 24 de outubro de 2018 às 14h36.
Última atualização em 24 de outubro de 2018 às 14h37.
A Amazon ofereceu em junho sua tecnologia de reconhecimento facial -- capaz de identificar pessoas a partir de imagens de vigilância usando bancos de dados de imagens -- como ferramenta para o Serviço de Imigração e Alfândega dos EUA (ICE, na sigla em inglês), o que mostra que a Amazon continuou ofertando o software a agências de segurança em meio a críticas de funcionários da empresa e de grupos de defesa das liberdades civis.
Funcionários da unidade de computação em nuvem Amazon Web Services se reuniram com a agência federal na Califórnia para apresentar suas ferramentas de inteligência artificial, segundo e-mails obtidos pela organização sem fins lucrativos Project on Government Oversight.
Entre essas ferramentas estão a Rekognition, que usa inteligência artificial para identificar pessoas rapidamente em fotos e vídeos. O software permite que as autoridades policiais monitorem pessoas a partir de câmeras em lugares públicos. A União Americana pelas Liberdades Civis criticou em maio o uso da tecnologia pelos departamentos de polícia do Oregon e da Flórida, afirmando que ela ameaça os direitos civis.
A notícia de que a tecnologia está sendo analisada por autoridades federais de imigração foi divulgada primeiro pelo The Daily Beast, na terça-feira.
A Amazon compartilhou detalhes sobre a Rekognition e outras ferramentas em um “dia de treinamento” patrocinado pela McKinsey com participação de outras empresas de tecnologia, disse uma porta-voz da Amazon em comunicado.
“Como costumamos fazer, fizemos acompanhamento com clientes que estavam interessados em aprender mais sobre como usar nossos serviços”, disse a porta-voz. “O Serviço de Imigração e Alfândega foi uma das organizações com as quais houve discussões de acompanhamento.”
O ICE atualmente não tem contratos com a Amazon, escreveu o porta-voz da agência, Matthew Bourke, por e-mail. A agência se reúne regularmente com fornecedores para conhecer melhor as ferramentas que oferecem, disse.
“O serviço de Investigações de Segurança Interna do ICE já usou reconhecimento facial de forma auxiliar durante investigações criminais relacionadas a atividades fraudulentas, roubos de identidade e crimes de exploração infantil, e continuará avaliando tecnologias de ponta para complementar investigações criminais no futuro”, disse Bourke.
As forças de segurança têm feito amplo uso de ferramentas de reconhecimento facial para uma série de tarefas, desde a comparação de fotos de registros policiais com bancos de dados de fotos de carteiras de motorista até o escaneamento de pessoas caminhando pelas ruas por câmeras de vigilância. Alguns softwares de inteligência artificial usados para reconhecimento facial mostraram ser tendenciosos em relação à raça porque foram treinados com um volume relativamente baixo de imagens de minorias. Em um exemplo infame de 2015, o sistema de marcação de fotos do Google com tecnologia de IA classificou algumas pessoas negras como gorilas. Em artigo publicado neste ano, pesquisadores do Instituto de Tecnologia de Massachusetts (MIT) e da Microsoft descobriram que os sistemas de reconhecimento facial são muito menos precisos na identificação de pessoas não brancas e de mulheres do que de homens brancos.