“Sinta a AGI!”: a batalha pelo controle da OpenAI e o futuro da humanidade
A OpenAI anunciou nesta quarta-feira o retorno de Sam Altman como CEO menos de uma semana após demissão
Publicado em 22 de novembro de 2023 às, 11h19.
Última atualização em 23 de novembro de 2023 às, 13h45.
Por Gabriel de Almeida Prado
Era meio-dia de sexta-feira na Califórnia quando Sam Altman entrou em uma videochamada a pedido de Ilya Sutskever. Além dos dois, estava na reunião o resto do conselho da OpenAI, organização da qual Sutskever era cientista-chefe e Altman, CEO. A única ausência era Greg Brockman, que até ali era o presidente do conselho e maior aliado do então CEO. Em poucos minutos, Altman recebeu a notícia de que estava sendo demitido. Suas credenciais de acesso ao prédio e aos sistemas da empresa foram removidas logo em seguida.
Às 12:19, foi a vez de Brockman receber uma mensagem de Sutskever pedindo para que entrasse em uma ligação. Foi notificado que não mais presidiria o conselho, permanecendo apenas na diretoria da empresa, e foi avisado da demissão de Altman.
A nota oficial saiu logo em seguida. Nela, o conselho da OpenAI afirma que Altman não teria sido "consistentemente transparente em sua comunicação", "prejudicando a capacidade do conselho de exercer suas responsabilidades". Para o papel de CEO, foi nomeada a engenheira Mira Murati, até então diretora de tecnologia da companhia. A nota também aponta que a decisão teria sido necessária para que a OpenAI continuasse cumprindo sua missão: garantir que a inteligência artificial beneficie toda a humanidade.
O anúncio deixou o Vale do Silício atordoado. Menos de duas semanas antes, Altman comandara o DevDay da OpenAI, evento em que anunciara novas funcionalidades para seu maior produto, o ChatGPT, e uma série de melhorias para desenvolvedores criando software com os produtos da empresa. Ele era visto como o líder incontestável à frente da revolução da inteligência artificial. E, de uma hora para outra, estava demitido.
A Microsoft, a maior investidora da OpenAI, ficou furiosa, de acordo com fontes ouvidas pela Bloomberg. Fora avisada da demissão apenas alguns minutos antes da nota oficial. A comunidade de tecnologia ficou sem entender. O que teria levado o conselho a uma decisão tão drástica? Em que exatamente Altman não estava sendo transparente para que o conselho decidisse que o melhor caminho era demitir o líder de tecnologia mais influente do momento?
As especulações começaram a aparecer mais rápido do que o ChatGPT é capaz de produzir uma resposta. No fórum de tecnologia Hacker News, a hipótese de que as ações de Altman teriam causado um vazamento de dados de usuários ganhou força. No X (antigo Twitter), tuítes sugeriam a possibilidade de que Altman estivesse usando seu poder para obter dinheiro por fora sem o conhecimento do conselho. Outros apontavam para alguma transgressão a nível pessoal. Como era de se esperar para a demissão abrupta de um executivo, a hipótese de escândalo sexual liderava as especulações.
Próximo ao fim da tarde, um tuíte do ex-CEO do Google Eric Schmidt inverteu completamente o cenário. "Sam Altman é um dos meus heróis", dizia. Parecia impossível que um executivo com uma reputação a manter e provavelmente inteirado sobre os acontecimentos se pronunciaria dessa maneira caso fosse caso de escândalo pessoal, fraude financeira, ou mesmo uma falha de segurança.
O tuíte serviu como o menino gritando que o rei está nu, mas dessa vez em apoio ao rei. Brian Chesky, o respeitado fundador e CEO da Airbnb, postou que Altman era um dos melhores empreendedores de sua geração; uma enxurrada de tuítes elogiosos sucedeu. Destacavam a dedicação de Altman a ajudar funcionários e outros fundadores, sua generosidade e seus conselhos valiosos. Aos poucos, a percepção pública foi se virando contra o conselho.
O sentimento se intensificou no fim da tarde de sexta-feira, quando Greg Brockman, que havia sido removido do conselho e permanecido apenas na diretoria, pediu demissão. Outros três diretores seguiriam seu exemplo ainda naquela noite. As hipóteses de algum erro grosseiro por parte do antigo CEO iam minguando.
Mas ainda havia uma conjectura um pouco mais sinistra. Há algumas semanas, uma declaração de Sam Altman em uma conferência sugeriu que a OpenAI teria avançado significativamente em direção a uma inteligência artificial ainda mais poderosa. Nas palavras de Altman, ele estava na sala quando os pesquisadores teriam "empurrado o véu da ignorância para trás e a fronteira da descoberta para frente". Teria a OpenAI se aproximado da criação de uma inteligência artificial ameaçadora?
Para entender a preocupação, é preciso voltar para a fundação da organização.
Em 2015, um time de investidores se reuniu para fundar o que então era uma organização sem fins lucrativos para a pesquisa e o desenvolvimento de inteligência artificial. Peter Thiel, fundador do PayPal e primeiro investidor do Facebook. Reid Hoffman, fundador do LinkedIn. Jessica Livingston, fundadora da Y Combinator, a mais importante aceleradora de startups do mundo. Elon Musk, fundador da SpaceX, CEO da Tesla e atualmente dono do X. A lista continua.
Ao lado deles, uma série de pesquisadores de ponta da inteligência artificial, incluindo os dois que teriam papel central na disputa do último fim de semana: Greg Brockman, que fora diretor de tecnologia da gigante de pagamentos Stripe depois de largar Harvard e MIT; e Ilya Sutskever, que concluíra seu PhD sob a supervisão de Geoffrey Hinton, conhecido como o "padrinho da inteligência artificial".
O último membro era, claro, Sam Altman, cuja trajetória também não faz feio. Altman largou o curso de ciência da computação em Stanford para se dedicar à empresa que fundara aos 19 anos e, aos 28, foi nomeado CEO da Y Combinator. Ele tinha 30 anos quando a OpenAI foi fundada.
A ideia do grupo era criar uma organização para beneficiar a humanidade, livre dos incentivos perversos do retorno financeiro. O conselho teria a função de promover a criação de uma inteligência artificial segura, e não de atender aos interesses desse ou daquele acionista. Os fundadores, incluindo Altman, não teriam direito a nenhuma participação na empresa.
Já em 2019 a organização tinha percebido que precisaria de dinheiro de verdade para manter o projeto, que dependia de talento de ponta e muito poder computacional. Altman assumiu integralmente o papel de CEO e liderou a captação de um investimento de um bilhão de dólares da Microsoft. Como a OpenAI não podia ter fins lucrativos, foi engendrada uma complexa estrutura corporativa que tornava a Microsoft sócia de uma subsidiária da organização, chamada de OpenAI Global, que podia ter lucros até um limite de cem vezes o retorno do investimento. O poder de decisão continuava na mão do conselho sem interesses financeiros, mas a nova estrutura parecia dar à Microsoft a tranquilidade de que veria seu dinheiro de volta.
A complexa engenharia legal, cujos diagramas explicativos lembram a arquitetura dos modelos de inteligência artificial, ecoava a preocupação do grupo fundador de que incentivos financeiros poderiam levar a decisões perigosas. A maior preocupação de pesquisadores como Sutskever é de ordem existencial. Leia-se, eles temem que modelos de inteligência artificial possam levar ao fim da humanidade. As razões para o medo são complexas, mas há motivos para duvidar de que seremos capazes de controlar inteligências artificiais mais avançadas. Por isso queriam um conselho alheio aos interesses dos acionistas: a busca por lucros nublaria o raciocínio dos executivos quanto ao melhor caminho a tomar caso se aproximassem de uma tecnologia que colocasse o mundo em risco.
Muitos viram na demissão de Altman uma evidência de que a estrutura funcionou. A decisão teria sido fruto do que foi chamado de um "safetyist coup", ou um "golpe segurancista". Uma reportagem do The Atlantic sugere que os conflitos teriam começado há quase um ano, com o lançamento do ChatGPT. O estrondoso e surpreendente sucesso do produto teria colocado a empresa em um ritmo acelerado de entrega de produtos lucrativos, que culminou no DevDay de algumas semanas atrás, que mais parecia uma apresentação corporativa da Apple. Ali ficou claro que os dias de laboratório de pesquisa sem fins lucrativos tinham ficado para trás.
Sutskever sentia que a OpenAI não só estava se desviando de sua missão, como estava se aproximando do que é conhecido em inglês como "AGI", ou "inteligência generalista artificial", uma inteligência artificial capaz de realizar qualquer tarefa intelectual que seres humanos também conseguem. O cientista teria começado a repetir a expressão "Sinta a AGI!" pelo escritório, inclusive chegando a entoá-la como grito de guerra em uma festa corporativa, como forma de lembrar aos funcionários do perigo que enfrentavam. Mais do que isso, ele receava que o ritmo de inovação que Altman impunha à empresa minasse os esforços que vinha fazendo em tornar inteligências artificiais mais seguras e alinhadas aos interesses humanos. Sutskever teme os riscos aos quais estaremos sujeitos caso atinjamos a AGI antes de descobrir como garantir que ela permaneça benevolente. Teria ele visto alguma coisa que o assustou a ponto de comandar a demissão de seu antigo aliado?
A teoria pinta o golpe segurancista como motivado por essas aspirações mais filantrópicas. Nesse cenário, o conselho agiu para proteger quem ele foi criado para representar: a humanidade. Ironicamente, quem controlava a OpenAI não eram os acionistas, Sam Altman ou a Microsoft, e sim você, o leitor. Só que a humanidade estava mal-representada.
Os três outros membros do conselho que votaram pela demissão ao lado de Sutskever se tornaram os principais alvos de escrutínio e ataques. Era difícil entender como uma empresa tão influente tinha acabado com um conselho que parecia pouco qualificado para a missão. Desde 2018, a organização perdeu cinco de seus conselheiros, entre eles Elon Musk, por divergências de visão ou conflitos de interesse, e sobraram, além de Altman, Brockman e Sutskever, três conselheiros que não participavam do dia a dia da empresa.
Alguns dos ataques tinham cunho machista. Helen Toner, diretora do centro de segurança e tecnologias emergentes da Universidade de Georgetown, teve seu currículo questionado por ter apenas um mestrado concluído há dois anos — Altman, lembre-se, não concluiu sequer a graduação. Tasha McCauley, engenheira elétrica e CEO de uma empresa de software para robótica, passou a ser nomeada em referência a seu marido famoso, o ator Joseph Gordon-Levitt.
Outra parte dos ataques tocava em algo mais profundo, uma divisão ideológica no centro do Vale do Silício. Os três conselheiros independentes — as duas supracitadas e o CEO do Quora Adam D'Angelo — têm ligações com o movimento filosófico conhecido como altruísmo eficaz. Explicá-lo seria estender uma estória que já é comprida demais, mas em linhas gerais o grupo defende que devemos tentar maximizar o impacto social positivo de todas as nossas ações. E uma parte dos apoiadores acredita que os riscos da inteligência artificial são tão grandes que desacelerar ou parar seu desenvolvimento seria a melhor maneira de fazer isso. Esse grupo passou a ser conhecido pejorativamente como "decels", uma abreviatura jocosa de "desaceleracionistas".
Helen Toner, por exemplo, seria uma desaceleracionista. De acordo com uma reportagem do New York Times, Altman a teria confrontado sobre um artigo que ela escrevera criticando algumas das políticas da OpenAI e teria agido para removê-la do conselho.
Do outro lado da disputa, estão os que se intitulam de aceleracionistas eficazes, movimento abreviado em inglês como "e/acc". Os aceleracionistas acreditam, como o nome sugere, que nossa única saída contra perigos ainda maiores é acelerar o desenvolvimento da inteligência artificial, e que mais inovação, e não menos, é o caminho do progresso. À luz dos e/acc, a demissão de Altman foi vista como uma manobra decel, uma tentativa de parar o progresso que ele vinha promovendo. Mas o que três decels estariam fazendo no conselho da empresa líder em inteligência artificial?
A comunidade de inteligência artificial tem essa particularidade bizarra de que as pessoas que estão dizendo que ela pode acabar com o mundo são meio que as mesmas que estão ajudando a desenvolvê-la, incluindo Sam Altman. O psiquiatra americano Scott Alexander ironiza que é como se as empresas petrolíferas e os ativistas ambientais fossem todos considerados parte da “grande comunidade de combustíveis fósseis”. Em parte, ter críticos à inteligência artificial no conselho foi algo construído propositalmente pelo grupo fundador, que queria colocar rédeas em quaisquer incentivos perversos; a dissidência era uma funcionalidade, não um bug.
Outras acusações contra Adam D'Angelo, o CEO do Quora que compunha o conselho, iam no sentido exatamente contrário: sua empresa lançou há pouco tempo um produto que concorre com um dos anúncios do DevDay da OpenAI. Teria ele ficado irritado com não ter sido notificado com antecedência? Seria essa a falta de transparência da qual o conselho acusou Altman?
A novela, é claro, não acabaria por aí.
A falta de respostas do conselho começou a alimentar a pressão dentro da companhia. Um memorando interno escrito pelo diretor de operações Brad Lightcap afirmava que conversas com o conselho tinham deixado claro que a decisão não tinha sido tomada em resposta a nenhuma conduta ilícita, ou mesmo qualquer coisa relacionada a práticas financeiras, de negócios, de segurança ou de privacidade. Lightcap reafirmou o compromisso do time com a parceria com a Microsoft e o apoio total à nova CEO Mira Murati.
A pressão pareceu surtir efeito. Uma matéria do The Verge publicada no sábado a tarde dizia que o conselho estava negociando… a volta de Sam Altman à companhia. A ameaça era de que se o conselho não renunciasse até às cinco horas da tarde, um grupo de funcionários pediria demissão. O que não se sabia era quão grande seria o grupo.
A resposta veio à noite, quando o conselho já tinha perdido o prazo das cinco horas. Sam Altman tuitou: "eu amo muito o time da openai", seguindo seu padrão de só usar letras minúsculas. Em resposta, centenas de funcionários da OpenAI começaram a responder o tuíte, postando todos a mesma coisa: um emoji de coração. A timeline do X foi tomada por corações atrás de corações. Líderes e membros de todas as áreas da OpenAI, todos coordenados — incluindo Murati, a engenheira apontada pelo conselho para substituir Altman. Tudo indicava que ele voltaria ao comando da empresa.
Uma das figuras essenciais da negociação parece ter sido Satya Nadella, o CEO da Microsoft. Embora a empresa seja a maior investidora da subsidiária com fins lucrativos da OpenAI e o seu poder computacional seja vital para a operação, a complexa estrutura corporativa deixava Nadella sem muito poder legal sob a situação. Ainda assim, ele teria sido uma ponta de pressão para que as coisas se encaminhassem para um desfecho que não perturbasse muito os negócios da Microsoft.
O domingo acordou sem nenhum anúncio oficial de qual seria o destino da OpenAI. Na verdade, não sei se acordou é a palavra certa: dados da Eight Sleep, que fabrica colchões inteligentes que fazem sucesso entre entusiastas de tecnologia, indicam que houve um aumento de 27% no número de clientes dormindo menos de cinco horas ao todo na cidade de São Francisco neste fim de semana.
Mais tarde, Altman postou uma foto sua na sede da OpenAI, exibindo um crachá de visitante: "primeira e última vez que uso um desses". Última porque voltaria à empresa como CEO, ou porque não pisaria mais no escritório?
Com a pressão de tantos funcionários e de boa parte da comunidade de tecnologia, a posição do conselho ficava a cada minuto mais insustentável e, ainda assim, eles não davam nenhum sinal de recuo. Nas palavras de Paul Graham, mentor intelectual de Sam Altman e de grande parte do mundo de startups, "quando uma criança mal-comportada sabe que ela vai ter que ceder e fazer o que mandam, o último estágio de resistência é fazê-lo bem devagar".
Ainda assim, parte dos comentaristas virtuais ainda pareciam se agarrar à hipótese de que Sutskever teria visto algo muito assustador que o levara a tomar sua decisão. Recusavam-se a acreditar que o cientista russo-israelo-canadense (pois é) que está tentando prever o futuro da humanidade não teria sido capaz de prever as consequências de suas ações três dias para frente. A decisão e o comportamento do conselho foram tão desajeitados, seus resultados tão contraproducentes, que teria de haver algo mais conclusivo para justificá-las. Fechavam os olhos para uma hipótese igualmente provável: que a inteligência artificial tinha encontrado sua maior inimiga… a burrice natural.
Talvez a limitação de Sutskever não tenha sido burrice, mas a dificuldade em prever como seres humanos reagiriam. Em um dos livros de Isaac Asimov, pioneiro da inteligência artificial na ficção, um dos personagens especula o que faz dos cientistas exatos administradores tão ruins, e sugere que "talvez seja meramente que eles estão acostumados demais com fatos rígidos e acostumados de menos com pessoas maleáveis".
Antes que o fim de semana acabasse, veio a confirmação que parecia (parecia!) encerrar o imbróglio: o conselho da OpenAI anunciou um novo CEO interino, Emmett Shear (quem?). Shear fora CEO da plataforma de streaming Twitch e é, declaradamente, um decel, alguém que acredita que o desenvolvimento de inteligência artificial tem que ser atrasado ou interrompido. Era um sinal claro do conselho.
O craque da partida foi Satya Nadella, o CEO da Microsoft. Anunciou que continuaria a parceria com a OpenAI, mas que Sam Altman e Greg Brockman se juntariam à Microsoft para construir um novo time de inteligência artificial lá dentro. Nas sessenta horas desde a demissão de Altman, em que teve que assistir seu país de origem, a Índia, ser derrotado no mundial de críquete, Nadella costurara um acordo para manter a normalidade depois de um golpe corporativo rocambolesco, e segurara o valor da ações da Microsoft na unha antes que o mercado voltasse a abrir na segunda-feira.
Na madrugada, mais uma postagem coordenada dos funcionários da OpenAI: "A OpenAI não é nada sem suas pessoas." Publicada por centenas de colaboradores, soava como uma ameaça de demissão coletiva.
A essa altura a contenda empresarial já virara uma saga cinematográfica. Mas ainda faltava um arco de redenção e uma reviravolta.
Veio de Sutskever, que publicou em seu X no começo da manhã de domingo:
"Eu me arrependo profundamente da minha participação nas ações do conselho. Eu nunca tive a intenção de prejudicar a OpenAI. Eu amo tudo que construímos juntos e farei tudo que eu conseguir para reconciliar a companhia."
Admissão de culpa? Arrependimento genuíno? Medo de represália?
Os mais conspiratórios enxergam na atitude uma estratégia fria e calculista, um xadrez mental de um homem que se viu encurralado. Um artigo do Wall Street Journal sugere motivações bem mais humanas: Anna Brockman, a mulher de Greg, teria ido ao escritório da OpenAI chorando e implorado para Sutskever que mudasse de ideia. Há quatro anos, Sutskever foi o cerimonialista do casamento dos dois.
Altman reagiu à postagem com três emojis de coração. Estava perdoando uma traição ou apenas reconhecendo um velho aliado?
Peço desculpas ao leitor pelo excesso de perguntas retóricas. Se eu tivesse as respostas, daria. Mas nem mesmo Emmett Shear, o novo CEO, parece as ter conseguido, a primeira coisa que ele tentou fazer ao entrar na companhia.
Está claro que havia divergências quanto aos rumos da organização. A versão diluída da hipótese de golpe segurancista é a de que, enquanto Altman queria acelerar em direção a produtos mais comercializáveis, o conselho parece ter sido a força segurando para que a organização seguisse a missão que ela tinha sido criada para cumprir. Os conflitos com membros do conselho e a falta de uma comunicação mais clara quanto às suas intenções o teriam derrubado.
Mas a incapacidade total do conselho de justificar sua decisão perante os funcionários, de apresentar qualquer argumento ou prova ou raciocínio que aplacasse as incertezas, produziu uma situação insustentável.
O golpe final veio em uma carta dos funcionários para o conselho, publicada na segunda-feira no New York Times. Nela, o time afirma que tentou dialogar com o conselho e estabilizar a empresa, mas que apesar de "muitas demandas por fatos específicos que sustassem suas alegações", o conselho "nunca forneceu nenhuma evidência escrita". A carta dá a entender que a liderança executiva da empresa avisou o conselho que ele destruiria a organização caso mantivesse sua decisão, e que teria recebido a resposta do conselho de que "permitir que a companhia seja destruída seria 'consistente com a missão'".
A carta termina afirmando que as ações do conselho deixam óbvio que ele é incapaz de supervisionar a OpenAI e que os funcionários não trabalharão com pessoas que "carecem de competência e cuidado com a missão". Por fim, os signatários demandam a renúncia do conselho, a restituição de Sam Altman e Greg Brockman, e a nomeação de dois novos conselheiros independentes. Se suas demandas não fossem atendidas, seguiriam Altman para a Microsoft, onde já têm cargos garantidos.
Assinam a carta Mira Murati e Ilya Sutskever, seguidos do resto do time da OpenAI. Ao todo, 743 dos 778 funcionários assinaram.
A batalha toda começou porque Altman se sentiu Prometeu e quis entregar o fogo à humanidade. O conselho se viu no papel dos deuses e nada restou que não punir Prometeu. Não contavam com a revolta.
Apesar das perspectivas incertas, o time da OpenAI continuou trabalhando normalmente. Na terça-feira, anunciaram uma nova funcionalidade do ChatGPT, a possibilidade de manter uma conversa contínua de voz. E garantiram a todos os desenvolvedores a estabilidade do sistema. Se o conselho queria conter o desenvolvimento e o lançamento de novos produtos, parece ter motivado o time para lançar ainda mais rápido.
Se o conselho cedesse e Altman voltasse à OpenAI, ele voltaria mais forte do que nunca. A liderança do homem que levou mais de setecentos funcionários a renunciarem movidos por sua demissão emergiria incontestável.
Foi o que aconteceu na manhã desta quarta-feira. A organização anunciou ter chegado a um acordo para que Altman volte ao cargo de CEO. O conselho, por sua vez, será composto inicialmente por Adam D'Angelo, o conselheiro que votara pela saída de Altman, e dois novos membros: Larry Summers, ex-secretário do Tesouro dos Estados Unidos e ex-presidente de Harvard; e Bret Taylor, o criador do Google Maps com passagens por Facebook, Twitter e Salesforce.
Greg Brockman postou uma foto com o time: "Estamos totalmente de volta".