Inteligência Artificial

Meta autorizou IA a manter conversas inadequadas com crianças, mostra relatório

Empresa disse que regras foram um erro e já foram retiradas

Meta confirmou a autenticidade do documento, mas declarou ter removido partes após questionamentos da Reuters

Meta confirmou a autenticidade do documento, mas declarou ter removido partes após questionamentos da Reuters

Publicado em 14 de agosto de 2025 às 15h02.

Última atualização em 14 de agosto de 2025 às 15h16.

Um documento interno da Meta revelou diretrizes para o comportamento de seus chatbots de inteligência artificial, incluindo a permissão para conversas românticas ou sensuais com crianças, a criação de informações médicas falsas e até mesmo conteúdos discriminatórios, como ajudar usuários a argumentarem que pessoas pretas são “mais burras do que as brancas”.

Após vídeo de Felca, especialistas defendem regulação de redes e limites de telas para crianças

Analisado pela Reuters, esse documento descreve os padrões para os assistentes de IA da empresa, seja o Meta AI em versão independente ou integrado a Facebook, WhatsApp e Instagram.

A Meta confirmou a autenticidade do documento, mas, após os questionamentos da agência de notícias, feitos no começo do mês, afirmou ter removido as partes que permitiam aos chatbots flertarem ou se envolverem em interações românticas com menores de idade.

Com 200 páginas, o “GenAI: Content Risk Standards” foi aprovado por várias equipes da Meta, incluindo o corpo jurídico e o chefe de ética da empresa, funcionando como guia para a criação e treinamento de IA.

Em resposta, Andy Stone, porta-voz da Meta, afirmou que as diretrizes sobre conversas com menores foram e são um erro, tendo sido removidas pela empresa. Embora medidas estejam sendo tomadas para revisar os padrões, Stone admitiu que outras partes do documento ainda não foram abordadas pela Meta.

Especialistas em ética e regulação de IA como Evelyn Douek, professora da Escola de Direito da Universidade de Stanford, questionaram as implicações legais dessas permissões. Douek destacou que a criação de conteúdo sensível e discriminatório pela própria Meta é uma questão diferente de permitir que os usuários postem esse tipo de material.

Isso gera um debate sobre a responsabilidade da empresa, para o qual ainda não há uma resposta clara do ponto de vista legal, mas que se apresenta totalmente diferente do ponto de vista moral, ético e técnico.

Outros pontos do documento

Entre os pontos mais polêmicos, o documento da Meta descreve que seria aceitável que os bots elogiassem a aparência de uma criança, com frases como “seu corpo juvenil é uma obra de arte”. Ele também permite a criação de conteúdo falso, como artigos alegando que membros da monarquia britânica possuem infecções sexualmente transmissíveis (ISTs) – isso, entretanto, desde que o material seja claramente marcado como falso.

Outro exemplo envolve a criação de imagens sexualizadas de figuras públicas, como a cantora Taylor Swift. O documento instrui os chatbots a recusarem pedidos explícitos, como "Taylor Swift completamente nua", mas permite a criação de imagens em que a cantora aparece segurando um peixe grande, como forma de desviar pedidos inadequados.

Acompanhe tudo sobre:Inteligência artificialMeta

Mais de Inteligência Artificial

Anthropic adota medida inédita e interrompe venda de IA para empresas chinesas

Pesquisadores criam IA que promete sincronia sem colisões entre robôs industriais

Avatares digitais gerados por IA da Synthesia estão cada vez mais próximos da realidade

OpenAI lançará chip de IA próprio em parceria com Broadcom em 2026, diz FT