Na segunda-feira, O nova-iorquino publicou uma longa investigação detalhando os dias que antecederam e seguiram a breve saída de Sam Altman do cargo de CEO da OpenAI.
No final de 2023, o conselho de administração da OpenAI chocou o Vale do Silício ao demitir Sam Altman aparentemente do nada. Após uma campanha de cinco dias na mídia por Altman e seus apoiadores e uma carta pública exigindo seu retorno, Altman voltou à empresa como CEO. Os membros do conselho que orquestraram o golpe foram depostos e substituídos por aliados de Altman, como o economista Larry Summers e o ex-CTO do Facebook, Bret Taylor, que atualmente é o presidente do conselho da OpenAI.
Quando Altman foi reintegrado como CEO, os funcionários da OpenAI começaram a se referir aos dias turbulentos como “o Blip”, em referência ao pontinho no Universo Cinematográfico Marvel, quando o supervilão Thanos fez metade da população mundial desaparecer por cinco anos.
De acordo com o relatório da New Yorker, citando entrevistas com dezenas de pessoas bem informadas, incluindo o próprio Altman, o executivo da OpenAI foi deposto porque os seus próprios membros do conselho não o consideraram suficientemente confiável para “ter o dedo no botão” da superinteligência artificial, um futuro sistema de IA superpoderoso, teórico e altamente contestado, que poderia superar a inteligência humana em todas as frentes. O termo é por vezes utilizado de forma intercambiável com inteligência artificial geral (AGI), embora descreva um passo ainda mais além disso.
Após memorandos secretos enviados a outros membros do conselho pelo então cientista-chefe da OpenAI, Ilya Sutskever, o conselho compilou um documento de cerca de setenta páginas evidenciando o “padrão consistente” de mentira de Altman, inclusive sobre protocolos de segurança internos.
O relatório diz que o suposto histórico de mentiras de Altman também se estende a uma época anterior à OpenAI. De acordo com a investigação, funcionários seniores da startup anterior de Altman, um serviço de compartilhamento de localização extinto chamado Loopt, pediram ao conselho que o demitisse do cargo de CEO devido a preocupações com sua falta de transparência.
As acusações o seguiram até a aceleradora de startups Y Combinator, que Altman liderou por cinco anos até ser afastado por desconfiança, segundo as fontes citadas no artigo. A liderança da Y Combinator disse que não foi demitido, mas apenas solicitado a escolher entre o acelerador de startups e o OpenAI. O falecido hacktivista e ex-coproprietário do Reddit Aaron Swartz, que fazia parte do grupo de Altman quando se juntou à Y Combinator como empresário da Loopt, supostamente o descreveu como “um sociopata” em quem “nunca se poderia confiar”.
Na OpenAI, Altman foi acusado de mentir para executivos e até mesmo para funcionários do governo. O relatório detalha um caso em que Altman disse aos funcionários da inteligência dos EUA que a China tinha lançado um grande projecto de desenvolvimento de AGI e pediu financiamento governamental para lançar uma contra-ofensiva, mas depois não apresentou qualquer prova quando questionada.
O relatório também detalha casos de Altman supostamente desmentindo o cofundador da Anthropic e então funcionário da OpenAI, Dario Amodei, em relação a uma cláusula no acordo de bilhões de dólares que a OpenAI assinou em 2019 com a Microsoft, que substituiria as cláusulas altruístas que Amodei havia incluído no estatuto da empresa. A cláusula em questão era sobre AGI e postulava que se outra empresa encontrasse uma maneira de construí-lo com segurança, então a OpenAI “pararia de competir e começaria a ajudar este projeto”, como uma organização sem fins lucrativos com o objetivo de segurança em primeiro lugar. Desde então, a OpenAI mudou sua estrutura para se tornar uma corporação com fins lucrativos.
Até mesmo alguns executivos seniores da Microsoft, com quem a OpenAI mantém uma longa parceria desde o acordo de 2019, descreveram Altman como alguém que “deturpou, distorceu, renegociou, renegou acordos”. Aparentemente, um executivo sênior disse o seguinte sobre Altman: “Acho que há uma chance pequena, mas real, de que ele eventualmente seja lembrado como um golpista de nível Bernie Madoff ou Sam Bankman-Fried”.
Estas são palavras alarmantes para ler sobre qualquer executivo responsável por uma empresa tão grande e importante como a OpenAI, mas têm ainda mais peso considerando que a OpenAI é a empresa líder na criação de uma tecnologia que muitos, incluindo os seus primeiros funcionários, definiram como uma possível ameaça existencial à humanidade.
Sob a liderança de Sam Altman, a tecnologia OpenAI se infiltrou em praticamente todos os aspectos da vida moderna. A IA da OpenAI é usada por dezenas de milhões de pessoas em todo o mundo para aconselhamento de saúde, e por muitas outras para tudo, desde automatizar o trabalho em todas as indústrias até terminar o trabalho de casa para estudantes e até mesmo oferecer companhia obscura a algumas pessoas solitárias que a procuram. O ChatGPT também é usado em todo o governo federal, e Altman também vendeu recentemente a tecnologia ao Pentágono.
Tudo isso é alimentado pela habilidade de vendas de Altman. Ele vendeu o potencial e as supostas realidades do ChatGPT a tantas pessoas, levando a uma onda de negociações sem precedentes e potencialmente frágil que atraiu tantos investimentos que alguns especialistas dizem que está a sustentar toda a economia americana neste momento.
O relatório da New Yorker também afirma que Altman garantiu ao conselho que o GPT-4 havia sido aprovado por um painel de segurança, o que se revelou uma deturpação quando um membro do conselho solicitou documentação das aprovações. Sutskever afirmou nos memorandos que Altman também minimizou a necessidade de aprovações de segurança em conversa com a ex-CTO da OpenAI, Mira Murati, citando o conselho geral da empresa. Mas quando Murati perguntou ao conselheiro geral sobre isso, ele disse que estava “confuso de onde Sam tirou essa impressão”.
As acusações em torno dos recursos de segurança do ChatGPT são particularmente contundentes, considerando as consequências do GPT-4o, a iteração do ChatGPT que se seguiu ao GPT-4. O talento do modelo para a bajulação supostamente causou casos de “psicose de IA” em usuários vulneráveis, com alguns casos terminando em fatalidades.
Algumas das inconsistências de Altman também foram bem documentadas publicamente. Repetidamente, o chefe da OpenAI publicou declarações contraditórias sobre coisas como os méritos de colocar anúncios em chatbots de IA, a necessidade de regulamentação da IA ou se o recurso de voz do ChatGPT revelado em 2024 foi inspirado na atuação de Scarlett Johansson no filme “Her”. Altman também foi examinado recentemente por causa de um enorme acordo de US$ 100 bilhões com a Nvidia que simplesmente não se concretizou como anunciado inicialmente.
O relatório também detalha como a cultura da empresa mudou enormemente após a reintegração de Altman como CEO. Antes do “Blip”, a empresa abordou o conceito de AGI com cautela, enquanto depois, AGI supostamente se tornou uma estrela do norte para a empresa, com slogans como “sinta o AGI” vistos em mercadorias em seus escritórios. A suposta diferença também foi vista na prática, quando a OpenAI dissolveu algumas equipes-chave focadas na segurança do chatbot, como a equipe de risco existencial de IA e a equipe de superalinhamento, que era co-liderada por Sutskever.
O relatório surge no momento em que a liderança de Altman é colocada sob um microscópio, à medida que a empresa começa a preparar-se para um potencial IPO.
De acordo com um recente O relatório de informaçõesAltman parece estar em desacordo com os executivos mais uma vez, desta vez em relação à preparação da OpenAI para um IPO. Altman supostamente quer abrir o capital já no quarto trimestre deste ano e está se comprometendo a gastar US$ 600 bilhões nos próximos cinco anos, apesar das expectativas de que a OpenAI queimará mais de US$ 200 bilhões antes de começar a ganhar dinheiro. Enquanto isso, o relatório afirma que a CFO da OpenAI, Sarah Friar, não acredita que a empresa esteja pronta para abrir o capital este ano, devido aos compromissos de gastos arriscados. Ao contrário de Altman, Friar ainda não acredita que o crescimento da receita da OpenAI possa apoiar os seus compromissos financeiros, nem tem certeza de que a empresa precisará investir tanto dinheiro em servidores de IA.











