Inteligência Artificial

OpenAI lança ferramenta que detecta imagens geradas por IA em 98% dos casos

Contudo, se a imagem for editada ou alterada, ou se for criada por uma IA de um concorrente, o recurso se torna praticamente inútil

André Lopes
André Lopes

Repórter

Publicado em 7 de maio de 2024 às 08h19.

Última atualização em 7 de maio de 2024 às 08h20.

A OpenAI anunciou nesta terça-feira, 7, uma nova ferramenta capaz de identificar com 98% de precisão se uma imagem foi gerada pelo DALL-E 3, seu gerador de imagens a partir de texto. Segundo a empresa, a ferramenta é altamente precisa, mas pequenas alterações na imagem podem confundi-la.

O novo recurso é uma resposta da empresa a um problema que ela mesmo criou. O aumento de imagens falsas e outros conteúdos gerados por IA tem gerado confusão sobre o que é ou não real, levantando debates, por exemplo, sobre a influência dessas imagens em campanhas eleitorais mundo a fora.

Nos EUA e também no Brasil, os deputados estão preocupados com a exposição dos eleitores a imagens geradas por IA, e a disponibilidade de ferramentas como o DALL-E 3 facilita a criação desses conteúdos. Outras startups de IA e empresas de tecnologia também estão desenvolvendo ferramentas para ajudar nesse problema.

A OpenAI também anunciou que se juntará com a Microsoft e Adobe, que busca criar credenciais de conteúdo para imagens online. Além disso, a OpenAI e a Microsoft estão lançando um fundo de US$ 2 milhões para apoiar a educação sobre IA.

Como funciona a ferramenta

A nova ferramenta da OpenAI tem cerca de 98% de precisão em detectar conteúdo criado pelo DALL-E 3, desde que a imagem não seja alterada. Se as imagens são capturadas por screenshot ou recortadas, a precisão é um pouco menor, mas ainda há uma identicação correta na maioria dos casos, defenda a empresa.

O desempenho cai mais em condições específicas, como quando a cor das imagens é alterada, afirmou Sandhini Agarwal, pesquisadora da OpenAI, ao Wall Street Journal. A OpenAI espera resolver esses problemas abrindo a ferramenta para pesquisadores externos, acrescentou Agarwal.

Embora a ferramenta da OpenAI distinga se imagens foram feitas com o DALL-E 3, a empresa descobriu que ela pode se confundir ao avaliar imagens de IA criadas por IAs de concorrentes. Alterar a cor dessas imagens também pode causar uma queda substancial no desempenho, disse Agarwal. Em 0,5% dos casos, a ferramenta erroneamente identifica imagens não geradas por IA como se fossem do DALL-E 3, afirmou a empresa.

Determinar se uma imagem é gerada por IA pode ser mais fácil do que realizar uma triagem semelhante para textos criados por IA, disseram pesquisadores da OpenAI e de outras instituições.

Em janeiro do ano passado, dois meses após o lançamento do ChatGPT, a OpenAI lançou uma ferramenta para detectar textos criados por IA, que falhou em identificar conteúdo gerado por bots em quase 75% das vezes.

Acompanhe tudo sobre:OpenAIInteligência artificial

Mais de Inteligência Artificial

Impacto ambiental da IA desafia expansão da tecnologia, alertam cientistas

O que a IA pode fazer contra fraudes em planos de saúde? A Horuss tem uma tese

AMD lança chip de IA para concorrer com a Nvidia

Médico alagoano usa luz virtual e IA para criar lente que trata catarata