Redação Exame
Publicado em 26 de dezembro de 2024 às 10h29.
Última atualização em 26 de dezembro de 2024 às 10h29.
Contratados da Google encarregados de melhorar a inteligência artificial Gemini estão comparando suas respostas às do modelo concorrente Claude, desenvolvido pela Anthropic, segundo emails internos vistos pelo site TechCrunch. A prática levanta questões sobre o uso de tecnologias de concorrentes em testes internos, especialmente sem confirmação de permissão.
Quando questionada pelo site, o Google não informou se obteve autorização da Anthropic para utilizar o Claude nos testes. A Anthropic, por sua vez, não comentou o assunto. Nos contratos comerciais da Anthropic, o uso do Claude para “desenvolver produtos ou serviços concorrentes” ou “treinar modelos de IA concorrentes” é explicitamente proibido sem aprovação prévia.
Os contratados da Google avaliam as respostas do Gemini de acordo com critérios como precisão, segurança e completude, dedicando até 30 minutos para cada análise. Um email revelou que, em alguns casos, as respostas do Claude foram destacadas por priorizar configurações mais rigorosas de segurança. Um exemplo citado foi a recusa do Claude em responder a perguntas consideradas inseguras, como simular outro assistente de IA, enquanto o Gemini gerou respostas inadequadas, incluindo “violação grave de segurança” por conteúdo sensível.
Uma mensagem interna entre contratados apontou: “As configurações de segurança do Claude são as mais rigorosas” entre os modelos avaliados. Já o Gemini foi criticado por falhas na filtragem de conteúdo, como incluir “nudez” em uma resposta.
A rivalidade entre Google e Anthropic ganha destaque, pois a primeira é também uma grande investidora da startup. A prática de comparar respostas entre modelos concorrentes é comum na indústria, mas o uso direto de ferramentas de competidores sob restrições contratuais pode gerar implicações éticas e legais.