Future of Money

Elon Musk assina carta que pede 'pausa' no desenvolvimento de inteligência artificial

Documento defende que nova tecnologia representa "riscos profundos para a sociedade e a humanidade"

Inteligência artificial ganhou destaque após lançamento do ChatGPT (Reprodução/Reprodução)

Inteligência artificial ganhou destaque após lançamento do ChatGPT (Reprodução/Reprodução)

Cointelegraph
Cointelegraph

Agência de notícias

Publicado em 30 de março de 2023 às 10h42.

O bilionário Elon Musk e mais de 2.600 líderes e pesquisadores do setor de tecnologia se uniram para assinar uma carta aberta pedindo uma pausa temporária no desenvolvimento da inteligência artificial, temendo o que eles acreditam ser “riscos profundos para a sociedade e a humanidade" ligados à tecnologia.

Além do dono da Tesla e o Twitter, o cofundador da Apple, Steve Wozniak, e uma série de CEOs e pesquisadores estão entre os signatários da carta. O documento foi publicado em 22 de março pela Future of Life Institute (FOLI, na sigla em inglês), uma instituição de pesquisa sediada nos Estados Unidos.

O instituto convocou todas as empresas de inteligência artificial a “pausar imediatamente” o treinamento de sistemas de IA mais poderosos que o GPT-4 por pelo menos seis meses, sob o argumento de que “a competição de inteligência com os humanos pode representar riscos profundos para a sociedade e a humanidade”.

“A IA avançada pode representar uma mudança profunda na história da vida na Terra e deve ser planejada e gerenciada com cuidado e recursos proporcionais. Infelizmente, esse nível de planejamento e gestão não está sendo adotado”, defendeu o instituto.

Lançado em 14 de março, o GPT-4 é a mais recente versão do chat baseado em inteligência artificial da OpenAI. Até o momento, ele passou em alguns dos mais rigorosos exames de ensino médio e direito dos Estados Unidos, com pontuações que o colocam entre os melhores classificados. Segundo a empresa, a nova versão é dez vezes mais avançada que a versão original do ChatGPT.

Para a FOLI, há uma “corrida fora de controle” entre as empresas de inteligência artificial para desenvolver a IA "mais poderosa", cujo resultado “ninguém – nem mesmo seus criadores – pode entender, prever ou controlar de forma confiável”. A carta alega que as máquinas poderiam potencialmente inundar os canais de informação com “propaganda e falsidade” e também levanta a possibilidade de que as máquinas “automatizem” todas as oportunidades de emprego.

A instituição levou essas preocupações um passo adiante, sugerindo que o desenvolvimento dos produtos dessas empresas podem levar a humanidade a uma ameaça existencial: “Devemos desenvolver mentes não humanas que possam eventualmente nos superar em número, ser mais espertas, tornando as nossas mentes obsoletas e nos substituir? Devemos arriscar perder o controle sobre a nossa civilização?”.

“Tais decisões não devem ser delegadas a líderes tecnológicos não eleitos” pelo público, acrescentou a carta. O instituto também concordou com uma declaração recente do fundador da OpenAI, Sam Altman, de que uma revisão independente é necessária antes do treinamento de futuros sistemas de inteligência artificial.

Em uma publicação em 24 de fevereiro no blog oficial da OpenAI, Altman destacou a necessidade de se preparar para robôs de inteligência artificial geral (AGI, na sigla em inglês) e para a superinteligência artificial (ASI, na sigla em inglês).

Divergências sobre inteligência artificial

Mas nem todos os especialistas em inteligência artificial se juntaram à petição. Ben Goertzel, CEO da SingularityNET, explicou que os modelos de aprendizado de linguagem (LLMs, na sigla em inglês) que são usados atualmente em projetos como o ChatGPT não se tornarão AGIs. Até o momento, argumentou ele, tem havido poucos desenvolvimentos nesse sentido. Ele defendeu que a pesquisa e o desenvolvimento de armas biológicas e nucleares é que devem ser desaceleradas.

Além de modelos de aprendizado de linguagem como o ChatGPT, a tecnologia deep fake alimentada por IA foi usada para criar imagens, áudios e vídeos falsos bastante convincentes. A tecnologia também tem sido usada para criar obras de arte, gerando preocupações acerca de possíveis violações das leis de direitos autorais em certos casos.

O CEO da Galaxy Digital, Mike Novogratz, disse recentemente aos investidores que ficou chocado com a quantidade de atenção que os reguladores dos Estados Unidos têm dado às criptomoedas, enquanto pouca atenção é destinada à inteligência artificial.

“Quando penso em IA, fico chocado ao notar que estamos falando tanto sobre regulamentação de criptomoedas e nada sobre regulamentação de IA. Quero dizer, acho que o governo está completamente equivocado”, opinou ele durante uma teleconferência com acionistas em 28 de março.

Nesse sentido, a FOLI argumentou que, caso a pausa no desenvolvimento da IA não seja decretada rapidamente, os governos devem intervir: “Essa pausa deve ser pública e verificável e incluir todos os atores-chave. Se tal pausa não puder ser decretada rapidamente, os governos devem intervir e instituir uma moratória".

Esse anúncio da Mynt não foi escrito por uma Inteligência Artificial. Mas somos tecnológicos. Nossa segurança é de ponta e nossa curadoria, de excelência. O que falta para você investir em crypto com a Mynt?

Siga o Future of Money nas redes sociais: Instagram | Twitter | YouTube | Telegram | TikTok

Acompanhe tudo sobre:Inteligência artificialChatGPTElon Musk

Mais de Future of Money

Shaquille O'Neal vai pagar R$ 63 milhões para encerrar processo sobre NFTs

Coreia do Norte é acusada de roubar US$ 1 bilhão em ether com ataque hacker

CEO da Schwab, gestora de US$ 7 trilhões, se arrepende de não investir em cripto: "Me sinto bobo"

Mercado de criptomoedas chega a US$ 3,4 trilhões e atinge capitalização recorde