Inteligência Artificial

Meta lança FACET, uma ferramenta para corrigir vieses em IAs que analisam humanos em fotos

A FACET promete oferecer aos pesquisadores e profissionais uma maneira de desvendar vieses ocultos e disparidades em sistemas de IA que analisam e interpretam imagens

FACET, da Meta, em ação: análise calibrada para IAs com banco de dados enviesados  (Meta/Divulgação)

FACET, da Meta, em ação: análise calibrada para IAs com banco de dados enviesados (Meta/Divulgação)

André Lopes
André Lopes

Repórter

Publicado em 5 de setembro de 2023 às 09h47.

Última atualização em 5 de setembro de 2023 às 09h50.

A Meta, responsável pela plataforma Facebook e Instagram, introduziu no fim de agosto uma nova ferramenta chamada FACET, destinada à avaliação de modelos de visão computacional.

Com o acrônimo de “Avaliação de Justiça em Visão Computacional“, ou “FAirness in Computer Vision EvaluaTion”, a FACET tem como objetivo proporcionar a pesquisadores e profissionais insights sobre possíveis vieses e disparidades em sistemas de inteligência artificial (IA) que interpretam imagens.

A iniciativa surge em resposta a estudos que indicam disparidades no desempenho de modelos de visão computacional baseadas em atributos demográficos, como gênero e tom de pele.

Segundo a empresa, a necessidade de uma metodologia padronizada para mensurar tais diferenças em aplicações comuns dessa tecnologia é o que a moveu a desenvolver o FACET.

Como funciona o FACET

Composto por um conjunto de 32.000 imagens e representando 50.000 indivíduos etiquetados por analistas, o FACET abrange informações como ocupações, atividades e atributos demográficos.

Estes dados foram complementados com detalhes sobre características físicas, como cabelo e vestuário, extraídas do conjunto de dados Segment Anything 1 Billion, também da Meta.

Especialistas contratados pela empresa anotaram manualmente atributos relacionados a cada pessoa nas imagens, incluindo detalhes como tipo de cabelo e profissão.

A aquisição dessas imagens se deu através de um fornecedor, levantando questões sobre a informação prévia dada aos retratados sobre sua utilização e a remuneração.

Em um documento técnico, a Meta esclareceu que os especialistas foram recrutados globalmente, incluindo regiões como América do Norte, América Latina, Oriente Médio, África, Sudeste Asiático e Ásia Oriental. A remuneração foi estabelecida com base nas condições econômicas de cada região.

Ao aplicar o FACET ao algoritmo DINOv2, de visão computacional da própria Meta, identificaram-se vieses, como associações estereotipadas de gênero. A empresa reconheceu essas falhas e expressou planos de abordar tais questões em futuros desenvolvimentos.

Acompanhe tudo sobre:Inteligência artificialMeta

Mais de Inteligência Artificial

Regulação da IA terá novo texto e deve ser votada no Senado após eleições, diz relator

Apoios falsos de celebridades gerados por IA se multiplicam na campanha presidencial dos EUA

Argentina, uma 'potência mundial'? Os sonhos de IA de Javier Milei

Usuários do WhatsApp são os que mais usam IA da Meta, mostra levantamento