Inteligência Artificial

YouTube introduz ferramenta para identificação de conteúdo gerado por IA

Plataforma atualiza políticas para garantir transparência em vídeos com mídia sintética ou alterada

YouTube: plataforma de vídeos do Google (STR/NurPhoto/Getty Images)

YouTube: plataforma de vídeos do Google (STR/NurPhoto/Getty Images)

André Lopes
André Lopes

Repórter

Publicado em 19 de março de 2024 às 09h53.

O YouTube anunciou na segunda-feira, 18, uma nova política que obriga criadores de conteúdo a informar os espectadores sobre vídeos que utilizam inteligência artificial (IA) para criar representações realistas de pessoas, lugares ou eventos.

A medida busca evitar que os usuários sejam enganados por vídeos sinteticamente criados, tendo em vista que as novas ferramentas de IA generativa tornam cada vez mais difícil distinguir entre o real e o falso.

A plataforma, que já havia sinalizado em novembro a implementação dessa atualização como parte de uma introdução mais ampla de novas políticas de IA, destaca que a exigência não se aplica a conteúdo claramente irrealista ou animado, como animações fantásticas.

O foco está nos vídeos que utilizam a aparência de pessoas reais de maneira realista, exigindo a divulgação de alterações digitais significativas, como a substituição de rostos ou a geração sintética de vozes.

Os criadores também deverão informar quando modificarem digitalmente imagens de eventos ou locais reais, ou quando criarem cenas realistas de eventos fictícios importantes, visando sempre a transparência e a clareza para o espectador.

Segundo o YouTube, a maioria dos vídeos afetados pela política terá um rótulo na descrição expandida, mas vídeos que abordem tópicos sensíveis como saúde ou notícias receberão uma etiqueta mais proeminente diretamente no vídeo.

As novas etiquetas começarão a ser implementadas nas próximas semanas em todos os formatos da plataforma, iniciando pelo aplicativo móvel do YouTube e, posteriormente, estendendo-se para as versões de desktop e TV.

A plataforma também planeja adotar medidas de fiscalização para criadores que consistentemente optarem por não usar os rótulos, incluindo a possibilidade de adicionar etiquetas por conta própria em casos em que o conteúdo possa confundir ou induzir o espectador ao erro.

Acompanhe tudo sobre:YouTube

Mais de Inteligência Artificial

Lançamento do Gemini 2.0 inaugura caminho para Google estrear sua "era dos agentes"

É o fim da IA? Futurista Amy Webb prevê novas tecnologias que devem revolucionar o mercado em 2025

OpenAI lança Sora, seu gerador de vídeos por IA; saiba como funciona

Nova esperança contra o câncer: IA detecta 21% mais casos de tumores em mamografias