Future of Money

OpenAI é processada após ChatGPT criar acusações falsas contra radialista

Inteligência artificial foi usada por jornalista para analisar documento, mas acabou inventando informações de um processo falso

ChatGPT exige cuidados ao ser usado como ferramenta de pesquisa (NurPhoto / Colaborador/Getty Images)

ChatGPT exige cuidados ao ser usado como ferramenta de pesquisa (NurPhoto / Colaborador/Getty Images)

Da Redação
Da Redação

Redação Exame

Publicado em 13 de junho de 2023 às 11h51.

A OpenAI, empresa responsável por criar o ChatGPT, se tornou alvo de um processo nos Estados Unidos que pode ser a primeira ação do tipo contra a companhia. Um radialista acusa a empresa de praticar difamação contra ele, após a ferramenta de inteligência artificial compartilhar informações falsas sobre seu passado.

O processo foi aberto em um tribunal no estado da Georgia pelo radialista Mark Walters. Ele alega que o ChatGPT compartilhou informações falsas sobre ele ao ser questionado pelo jornalista Fred Riehl, que também é citado na ação. A inteligência artificial teria afirmado que Walters foi investigado por desviar fundos de uma ONG, o que nunca ocorreu.

Segundo os documentos submetidos ao tribunal, Riehl teria enviado para a ferramenta um link para um documento e solicitado uma análise por parte da inteligência artificial. Ela, então, apresentou um resumo das informações contidas no documento - referente a um processo real -, mas com informações inventadas sobre Walters, alegando que ele teria desviado mais de US$ 5 milhões de uma ONG.

As informações não apenas eram falsas, como Walters nem era citado no processo original fornecido por Riehl. Entretanto, a acusação contra a OpenAI afirma que a informação inventada foi fornecida de forma detalhada e convincente, sem correção por parte da ferramenta.

Apesar de Riehl não ter publicado essas informações e ter checado sua veracidade com outras fontes, Walters acabou descobrindo a existência das acusações falsas no ChatGPT, o motivando a processar a OpenAI. Os detalhes sobre o caso ainda não foram divulgados, mas o radialista pede uma indenização para a empresa.

Em uma publicação sobre o tema, o professor de direito da Universidade da Califórnia Eugene Volokh destacou que o caso pode ser o "primeiro processo de difamação" contra a OpenAI. Na visão dele, "casos de difamação [contra a OpenAI] são, a princípio, legalmente viáveis. Mas esse processo em específico é difícil de se sustentar".

O motivo, na visão do professor, a OpenAI pode sair vitoriosa no processo porque Walters não tentou avisar a companhia sobre os erros para que eles fossem corrigidos, além de não ter apresentado consequências concretas de possíveis danos gerados pelas informações falsas.

"Suponho que Walters poderia argumentar que a OpenAI sabe que o ChatGPT geralmente publica declarações falsas (ele publica, e a OpenAI de fato reconheceu isso), mesmo que não soubesse sobre as declarações falsas sobre Walters em particular. Mas não acho que esse conhecimento geral seja suficiente", explicou o professor.

yt thumbnail

O ChatGPT mente?

Casos como o de Walters e de um advogado que usou o ChatGPT em um processo mas obteve informações inventadas levantam o debate sobre possíveis "mentiras" contadas pela inteligência artificial. Cientistas se referem a essas situações como "alucinações" de inteligências artificias. 

À EXAME, especialistas explicaram que é impreciso dizer que o ChatGPT "mente", já que ele não possui essa intenção. As alucinações se referem à criação de conteúdo que não estava previsto na base de dados usada para treinar uma IA, e por isso esse material pode conter imprecisões e conteúdo falso.

Relatos de outras alucinações na ferramenta despertaram críticas contra o bot, mas também mostram a importância de ter cuidado ao usá-lo como uma fonte de pesquisa e sempre verificar as informações fornecidas. Diogo Cortiz, professor da PUC-SP, destacou à EXAME que é importante lembrar da função principal da ferramenta: fornecer textos convincentes, e não necessariamente verdadeiros.

"Se pensar no erro, ele ocorre quando a máquina se comporta de um jeito que não foi programada pra fazer, uma exceção. Mas, um modelo de linguagem como o ChatGPT é construído para dar uma resposta, produzir um texto de saída. Se ele produz algo que seja coerente, tralhando com a probabilidade de relação com as palavras, ele não está errando, mas pode construir algo que não condiz com a realidade", afirma.

Esse anúncio da Mynt não foi escrito por uma Inteligência Artificial. Mas somos tecnológicos. Nossa segurança é de ponta e nossa curadoria, de excelência. O que falta para você investir em crypto com a Mynt?

Siga o Future of Money nas redes sociais: Instagram | Twitter | YouTube Telegram | Tik Tok

Acompanhe tudo sobre:ChatGPTInteligência artificial

Mais de Future of Money

Autor de Pai Rico, Pai Pobre diz que preço do bitcoin vai “explodir”; entenda o porquê

Além de celulares e joias, criminosos miram criptomoedas em assaltos no Rio de Janeiro

"Acredito firmemente que blockchain é o futuro do mercado financeiro", diz CEO da Binance

McLaren e OKX revelam novo design de carro inspirado em Ayrton Senna