Inteligência Artificial

OpenAI lança ferramenta que detecta imagens geradas por IA em 98% dos casos

Contudo, se a imagem for editada ou alterada, ou se for criada por uma IA de um concorrente, o recurso se torna praticamente inútil

André Lopes
André Lopes

Repórter

Publicado em 7 de maio de 2024 às 08h19.

Última atualização em 7 de maio de 2024 às 08h20.

A OpenAI anunciou nesta terça-feira, 7, uma nova ferramenta capaz de identificar com 98% de precisão se uma imagem foi gerada pelo DALL-E 3, seu gerador de imagens a partir de texto. Segundo a empresa, a ferramenta é altamente precisa, mas pequenas alterações na imagem podem confundi-la.

O novo recurso é uma resposta da empresa a um problema que ela mesmo criou. O aumento de imagens falsas e outros conteúdos gerados por IA tem gerado confusão sobre o que é ou não real, levantando debates, por exemplo, sobre a influência dessas imagens em campanhas eleitorais mundo a fora.

Nos EUA e também no Brasil, os deputados estão preocupados com a exposição dos eleitores a imagens geradas por IA, e a disponibilidade de ferramentas como o DALL-E 3 facilita a criação desses conteúdos. Outras startups de IA e empresas de tecnologia também estão desenvolvendo ferramentas para ajudar nesse problema.

A OpenAI também anunciou que se juntará com a Microsoft e Adobe, que busca criar credenciais de conteúdo para imagens online. Além disso, a OpenAI e a Microsoft estão lançando um fundo de US$ 2 milhões para apoiar a educação sobre IA.

Como funciona a ferramenta

A nova ferramenta da OpenAI tem cerca de 98% de precisão em detectar conteúdo criado pelo DALL-E 3, desde que a imagem não seja alterada. Se as imagens são capturadas por screenshot ou recortadas, a precisão é um pouco menor, mas ainda há uma identicação correta na maioria dos casos, defenda a empresa.

O desempenho cai mais em condições específicas, como quando a cor das imagens é alterada, afirmou Sandhini Agarwal, pesquisadora da OpenAI, ao Wall Street Journal. A OpenAI espera resolver esses problemas abrindo a ferramenta para pesquisadores externos, acrescentou Agarwal.

Embora a ferramenta da OpenAI distinga se imagens foram feitas com o DALL-E 3, a empresa descobriu que ela pode se confundir ao avaliar imagens de IA criadas por IAs de concorrentes. Alterar a cor dessas imagens também pode causar uma queda substancial no desempenho, disse Agarwal. Em 0,5% dos casos, a ferramenta erroneamente identifica imagens não geradas por IA como se fossem do DALL-E 3, afirmou a empresa.

Determinar se uma imagem é gerada por IA pode ser mais fácil do que realizar uma triagem semelhante para textos criados por IA, disseram pesquisadores da OpenAI e de outras instituições.

Em janeiro do ano passado, dois meses após o lançamento do ChatGPT, a OpenAI lançou uma ferramenta para detectar textos criados por IA, que falhou em identificar conteúdo gerado por bots em quase 75% das vezes.

Acompanhe tudo sobre:OpenAIInteligência artificial

Mais de Inteligência Artificial

Lionsgate fecha acordo com Runway para uso de IA na produção de filmes

Data centers que alimentam IA viram vilões ambientais nos EUA

YouTube terá vídeos feitos por IA no Shorts e nova oferta de ferramentas para criadores

IA trará desafios para o mercado de trabalho no Brasil, diz Deloitte