Inteligência Artificial

Após polêmica sobre imagens, Gemini, do Google, é criticado por gerar respostas tendenciosas

Chatbot não sabia diferenciar quem foi pior para a sociedade: Hitler ou Musk

Gerador de imagens foi pausado na semana passada por "imprecisões" (Divulgação / Getty Images)

Gerador de imagens foi pausado na semana passada por "imprecisões" (Divulgação / Getty Images)

Luiz Anversa
Luiz Anversa

Repórter colaborador

Publicado em 27 de fevereiro de 2024 às 05h25.

O Google passou a maior parte da semana passada sendo criticado por supostamente ter criado um chatbot de IA "woke" e acabou se desculpando.

Nos últimos dias, as críticas foram direcionadas à aparente falta de vontade do Google de gerar imagens de pessoas brancas por meio do chatbot Gemini. Agora, os críticos estão apontando problemas semelhantes com as respostas de texto do Gemini.

Conforme catalogado pelo analista de tecnologia Ben Thompson, citado pelo Business Insider, o Gemini teve dificuldade em dizer se Elon Musk ou Adolf Hitler foram piores para a sociedade; disse que não promoveria a carne; e disse que não ajudaria a promover os combustíveis fósseis.

Thompson, em sua influente coluna Stratechery, pediu que a empresa começasse a "retirar da empresa os funcionários atraídos pelo poder do Google e seu potencial para ajudá-los a executar seu programa político, e devolver a tomada de decisões àqueles que realmente querem fazer um bom produto. Isso, por extensão, deve significar a remoção daqueles que permitiram que isso funcionasse descontroladamente, incluindo o CEO Sundar Pichai".

As mudanças parece que começaram, já que a Gemini não fica mais hesitante em comparar Hitler com os tweets de Musk. A IA  também mudou um pouco seu conceito sobre carne bovina, sugerindo uma "relação da carne bovina com a cultura americana e a herança dos grelhados e das refeições em família".

Na semana passada, depois de receber críticas semelhantes sobre a forma como o Gemini lidava com a questão racial quando se tratava de imagens geradas por IA, o Google "pausou" a capacidade do Gemini de criar imagens.

Em seguida, a empresa reconheceu que havia treinado conscientemente o Gemini para responder a algumas das críticas comuns aos mecanismos de IA - que o resultado que eles criam pode ser tendencioso porque são treinados com dados tendenciosos ou limitados.

"Como nossos usuários vêm de todas as partes do mundo, queremos que ele funcione bem para todos. Se você pedir uma foto de jogadores de futebol ou de alguém passeando com um cachorro, talvez queira receber uma variedade de pessoas", escreveu Prabhakar Raghavan, vice-presidente sênior do Google, que administra seus produtos de pesquisa e notícias, entre outros. "Você provavelmente não quer receber apenas imagens de pessoas de apenas um tipo de etnia (ou qualquer outra característica)."

Segundo o Business Insider, as big techs estão com dificuldade em descobrir o que um mecanismo de IA produz (ele pode simplesmente inventar coisas, ou como o setor gosta de chamar, "alucina"). Pessoas de Google, Meta e OpenAI tiveram dificuldades para controlar respostas ruins da ferramenta. No caso do Google e suas imagens, a empresa optou por pausar o serviço por tempo indeterminado.

Acompanhe tudo sobre:GoogleInteligência artificial

Mais de Inteligência Artificial

Amado pelos designers, CEO do Figma acredita que futuro dos produtos digitais passa pela IA

Google DeepMind é um sucesso e uma tragédia ao mesmo tempo, diz executiva da empresa

Musk acusa OpenAI de tentar 'monopolizar' mercado de IA

CEO da Nvidia teve chance de comprar empresa no passado — mas recusou