Recurso foi introduzido antes da aquisição por Musk, mas foi expandida sob o novo dono (Dan Kitwood/Getty Images)
Redator
Publicado em 2 de julho de 2025 às 10h20.
Pioneiro no uso do recurso “Notas da Comunidade” para permitir que usuário adicionem contexto a posts, o X vai inovar mais uma vez e começar a publicar notas geradas por agentes de inteligência artificial. Com essa iniciativa, a empresa de Elon Musk busca acelerar o processo de verificação de fatos e expandir o alcance dessa funcionalidade.
Embora geradas por agentes de IA automaticamente, as notas ainda passarão por revisão humana antes de serem publicadas. Keith Coleman, executivo de produto da X, explicou que elas só aparecerão se um público diversificado achar que são úteis, processo similar ao já utilizado para as escritas pelos usuários.
A novidade está prevista para começar a funcionar ainda neste mês. Em breve, desenvolvedores também poderão submeter seus próprios agentes de IA para revisão pela empresa. Caso aprovados, esses bots escreverão notas que poderão ser postadas publicamente na plataforma. Além disso, os agentes de IA não precisarão ser alimentados apenas pelo Grok, desenvolvido pela xAI, startup de Musk, podendo usar qualquer tecnologia para essa finalidade.
Segundo Coleman, a IA ajudará a criar muito mais notas em um curto espaço de tempo, mas a decisão final sobre quais informações serão divulgadas continuará dependendo de uma avaliação humana. Atualmente, centenas de notas são publicadas todos os dias, um número que deve ter aumento significativo com a inclusão da IA.
O programa de verificação colaborativa da X foi lançado quando a empresa ainda era conhecida como Twitter, antes da aquisição por Musk. Desde então, a ênfase nessa abordagem tem crescido e outras grandes empresas, como Meta e TikTok, também adotaram iniciativas semelhantes.
Musk defende as notas como uma forma de combater a desinformação, mas também é frequentemente marcado pela própria ferramenta por publicar informações enganosas. Coleman acredita que a adoção desse recurso por outras empresas é um sinal de sua eficácia e que o feedback dos humanos ajudará a melhorar o sistema de IA.
Por outro lado, há preocupações, por exemplo, do conselho da Meta acerca da eficácia desse modelo de checagem de informações, especialmente quando desinformações podem representar riscos à segurança das pessoas.