Inteligência Artificial

Meta identificará conteúdos gerados por IA em luta contra desinformação

Conteúdos considerados suspeitos serão marcados pela plataforma

Meta: empresa é a controladora do Facebook (Agence France-Presse/AFP)

Meta: empresa é a controladora do Facebook (Agence France-Presse/AFP)

AFP
AFP

Agência de notícias

Publicado em 5 de abril de 2024 às 18h30.

Última atualização em 5 de abril de 2024 às 18h44.

O gigante americano Meta, empresa matriz do Facebook, Instagram e Threads, anunciou nesta sexta-feira, 5, que identificará qualquer conteúdo de imagem ou áudio gerado por inteligência artificial (IA) para reforçar a luta contra a desinformação.

"Prevemos começar a marcar o conteúdo gerado por IA em maio de 2024", indicou em seu blog Monika Bickert, vice-presidente de conteúdo da Meta, acrescentando que a menção Made with AI ("Feito com IA"), já usada em imagens fotorrealistas, seria aplicada a "um maior número de conteúdos de vídeo, áudio e de imagens".

Estes conteúdos serão marcados se a plataforma detectar "indicadores de imagem de IA conforme as normas da indústria" ou se "as pessoas indicarem que estão carregando conteúdos gerados por IA", destacou.

Além das etiquetas visíveis, esses conteúdos serão marcados pela plataforma com uma "marca d'água", um tipo de "tatuagem" digital invisível.

"Um filtro é melhor do que nada, embora inevitavelmente existam brechas", explicou à AFP o diretor de IA Nicolas Gaudemet, da consultoria francesa Onepoint.

Google, Microsoft e OpenAI já utilizam esse tipo de tecnologia.

Depois de consultar seu conselho de supervisão, a Meta modificará sua forma de tratar os conteúdos criados com IA, pois agora considera que "a transparência e um maior contexto como a melhor forma de tratar os conteúdos manipulados".

Com isso, "o risco de restringir sem necessidade a liberdade de expressão" é evitado. Em vez de eliminá-los, como era feito até agora, serão acrescentados "etiquetas e contexto" a estes conteúdos.

No entanto, advertiu a Meta, qualquer conteúdo, seja criado por um humano, seja por IA, que viole as regras "contra a interferência nos processos eleitorais, a intimidação, o assédio, a violência (...) ou qualquer outra política em nossas normas comunitárias" será retirado.

Uma rede de verificadores

A Meta reafirmou que confia em sua rede de "aproximadamente 100 verificadores de dados independentes" para detectar conteúdos gerados por IA "falsos ou enganosos".

A empresa matriz do Facebook anunciou em fevereiro seu desejo de etiquetar todas as imagens geradas por IA para lutar contra a desinformação.

"Dar contexto" às imagens que circulam nas redes sociais "é absolutamente necessário", explica Gaudemet, que se mostra cauteloso antes de saber como será a política da Meta em relação a isso.

Sua concorrência, como Microsoft, Google e OpenAI, tem assumido compromissos similares.

Existe receio de que as pessoas utilizem as ferramentas para semear o caos político, especialmente por meio da desinformação ou informação errada. Este ano é marcado por várias eleições importantes, especialmente nos Estados Unidos, onde vídeos falsos já estão circulando, tanto para atacar o presidente democrata Joe Biden quanto o candidato republicano e ex-presidente Donald Trump.

No Paquistão, o partido do ex-primeiro-ministro Imran Khan usou a IA para gerar discursos de seu líder, que está preso.

Para além das datas eleitorais, o desenvolvimento de programas de IA generativa leva a produção de um fluxo de conteúdo degradante, segundo muitos especialistas e reguladores, como as falsas imagens ("deepfakes") pornográficas de mulheres famosas, um fenômeno que também afeta pessoas anônimas.

Acompanhe tudo sobre:MetaFacebookOpenAIChatGPTInstagram

Mais de Inteligência Artificial

Amado pelos designers, CEO do Figma acredita que futuro dos produtos digitais passa pela IA

Google DeepMind é um sucesso e uma tragédia ao mesmo tempo, diz executiva da empresa

Musk acusa OpenAI de tentar 'monopolizar' mercado de IA

CEO da Nvidia teve chance de comprar empresa no passado — mas recusou