Assine para ter acesso básico ao site e receber a News do Meio.

A OpenAI ameaça a humanidade?

Nas últimas semanas de outubro, um dos laboratórios da OpenAI chegou a um algoritmo capaz de resolver problemas de matemática. Não era nada muito sofisticado, cálculos que crianças aprendem até os 11, mas o avanço é algo nunca visto. A produção de textos, como faz o ChatGPT, é em essência um cálculo probabilístico. Uma capacidade maciça de computação que, após ter deglutido o número de livros que uma pessoa sozinha levaria 20 mil anos lendo, consegue imaginar a alta probabilidade de a palavra “gato” ser seguida da palavra “mia”. Processamento computacional abissal aplicado a calcular qual a palavra mais provável de aparecer após a anterior quando se compara trilhões de textos. Mas com matemática é diferente. A partir de uma pergunta, muitos textos escritos diferentes são respostas corretas possíveis. Dado um problema matemático, não. Só há uma resposta. O computador portanto precisa compreender de alguma forma a pergunta feita, entender que conta leva à resposta e então fazê-la. Força bruta de processamento não resolve isso. É preciso compreensão. Matemática traz os modelos de inteligência artificial um pouco mais próximos da inteligência real. Foi provavelmente uma referência a esta conquista da OpenAI que o CEO Sam Altman se referiu quando falou em público durante a Cúpula de Cooperação com a Ásia, em San Francisco, na semana passada. “Por quatro vezes estive numa sala em que empurramos o véu da ignorância um pouco mais longe” ele contou. “A última vez em que isso aconteceu faz poucas semanas. Estar presente nessas horas tem sido o orgulho profissional de minha vida.” Naquela noite, não muito após seu discurso, Altman recebeu uma mensagem de texto de seu amigo, Ilya Sutskever, cientista-chefe da empresa. Perguntava se poderiam se ver numa reunião virtual, no dia seguinte. Altman respondeu que sim. Ele não sabia, mas seria demitido naquele encontro.

A guerra interna da OpenAI durou, contados, cinco dias. Altman foi demitido pelo conselho de administração no fim da tarde de sexta-feira, dia 17 de novembro, e recontratado para o mesmo cargo de CEO na manhã de quarta, dia 22. Com exceção de duas, todas as reuniões da crise foram remotas, via Google Meet — uma ironia, já que sua principal parceira é a Microsoft e, a principal adversária, Google. (Ninguém usa Microsoft Teams, no Vale.) Ao fim do processo, quatro dos seis membros do conselho haviam perdido suas cadeiras — dois já substituídos.

Altman foi à guerra e venceu — está no comando da empresa com capacidade de se tornar a mais valiosa do mundo em menos de dez anos. Para compreender o que foi esta guerra é preciso colher os fragmentos tornados públicos e tentar encaixá-los. Mas desta compreensão sai muito. Dela sai a noção exata do receio que a indústria da tecnologia tem de regulação. Sai a percepção de que a indústria também percebeu a crise social provocada pelas redes — e tenta descobrir como evitar que algo do tipo se repita. Dá mostras de uma megalomania mística que se tornou parte da cultura local. Mostra, também, que há uma briga de foice em curso sobre quem vai liderar a nova onda do negócio digital — e a Microsoft está de volta à dianteira. Mas no centro, no centro de tudo, permanece um mistério. É a busca pela construção de uma inteligência não biológica, uma procura que envolve ciência profunda mas também fé — ainda que não admitida. Alguns acreditam que estamos próximos desta inteligência artificial real. Mas, se estamos mesmo próximos, não está claro.

Ato 1. As personagens e suas crenças

No centro desta história estão duas personagens principais, a dupla no coração da OpenAI, sem a qual a empresa não seria o que é. Duplas são comuns, no Vale do Silício, tão arquetípicas das histórias de fundação de startups quanto o início numa garagem. Steve Jobs e Steve Wozniak na Apple, Larry Page e Sergey Brin no Google, mesmo Mark Zuckerberg e Sheryl Sandberg na Meta. No caso da OpenAI são dois dos cofundadores. Sam Altman e Iliya Sutskever. A história não viria completa, no entanto, sem dois outros sujeitos que, mesmo não sendo protagonistas, tomaram ações que a fizeram mover. Outros dois cofundadores. Elon Musk, da Tesla, SpaceX e X, que um dia foi Twitter. E Greg Brockman.

Sam Altman é Steve Jobs. Tanto o vendedor quanto o negociador. É a pessoa com noção de produto, de como seduzir o mundo para as ideias que a empresa propõe. Toda empresa de tecnologia de ponta está vendendo uma versão possível do futuro nos produtos que constrói. A sobrevivência depende de sua capacidade de convencer o mundo de aquele futuro é desejável. Aos 38 anos, nascido em Chicago, fundou jovem uma startup social chamada Loopt que não chegou a se tornar conhecida. Ainda assim, impressionou gente o bastante para o catapultar para o comando da Y-Combinator, uma aceleradora de empresas que ajudou no crescimento de Airbnb, Dropbox, Twitch, entre outras.

E Iliya Sutskever é Steve Wozniak. O gênio técnico. Foi aluno de doutorado de um dos três padrinhos da inteligência artificial, Geoffrey Hinton, na Universidade de Toronto. Dois dos três cientistas considerados padrinhos da IA lecionam no Canadá, o país que mais produz especialistas da área. Mas Sutskever não foi apenas um dos muitos doutorandos de Hinton. Com Hinton, ele é um dos três nomes que assinam o paper que propõe o método deep learning de IA, a base de tudo o que se produz desde 2012. É um dos inventores desta tecnologia. Também com 38, nascido na URSS que se desmontava mas criado em Jerusalém, educado no Canadá, é o cérebro por trás de todo o desenvolvimento da OpenAI.

A história do relacionamento dos dois não pode ser contada apenas pelas habilidades que os distinguem. É marcada também por ideologia. Altman é um prepper. Sutskever, um altruísta eficaz. No Vale do Silício, as duas expressões são imediatamente compreendidas.

Um prepper se prepara para uma catástrofe que possa levar à extinção da humanidade — ou pelas mudanças climáticas, ou uma pandemia, ou uma IA que saia do controle humano. Preppers muitas vezes milionários como Altman ou Musk têm bunkers construídos com armazenamento especial de comida, autossuficientes em energia, para que possam se esconder e sobreviver quando a tragédia vier. O que os motivou a criar a OpenAI foi esta crença básica. Era fundamental terem eles as rédeas de como IA será desenvolvida para que a humanidade não perca seu controle.

Altruístas eficazes propõem uma visão racional da caridade religiosa, sua meta é aplicar seus talentos de forma a melhor beneficiar o máximo de pessoas. O que mobilizou Sutskever a deixar o Google para erguer a OpenAI foi a convicção de que o desenvolvimento da inteligência artificial não poderia estar nas mãos de grandes corporações. O dinheiro, ele acreditava e tudo indica que ainda acredita, corrompe as intenções dos envolvidos.

Nos últimos anos, Sutskever assumiu, dentro da OpenAI, a responsabilidade pelo alinhamento. O termo é técnico — quer dizer alinhar IAs a um determinado conjunto de valores. Sua convicção pessoal é de que elas se tornarão brevemente superiores a nós. Alinhar desde já os algoritmos a uma linha ética e humanitária é fundamental para evitar o pior, no futuro. Mas é um adendo muito difícil para uma tecnologia ensinada a ser autônoma.

Para ele, a questão não é apenas obsessiva. Beira o misticismo. Em uma reunião de lideranças da empresa realizada fora da sede, em um local onde todos estavam isolados, incendiou num ritual um ídolo de madeira representando a IA não-alinhada. “Não penso em inteligência artificial no futuro como uma entidade inteligente como eu ou como você”, ele descreveu ao repórter Ross Andersen, da Atlantic. “Será mais como uma organização autônoma que produz ciência, engenharia, manufatura.” Sua visão é de que IA assumirá boa parte da produção do planeta. “Será o último chefe da humanidade.” É por isso, raciocina, que precisam ser treinadas desde cedo para se comportar bem. Este, ele considera, é seu principal trabalho.

Quando os dois se uniram a Greg Brockman, um engenheiro da computação amigo de ambos, e Elon Musk, em 2015, por razões distintas todos consideravam importante controlar o desenvolvimento da tecnologia desde cedo. Musk trazia o dinheiro. Altman, a capacidade de gestão do projeto. Os engenheiros, o conhecimento.

Ato 2. Governança

Em 1985, um Steve Jobs de 30 anos foi demitido da Apple, a empresa que fundou, pelo conselho de acionistas. A decisão é, hoje, considerada um erro. Apesar de temperamental, imaturo, arrogante, ele imprimia uma certa qualidade aos produtos da companhia que a faziam se destacar. Entre aquele ano e seu retorno, em 1997, a empresa andou de lado, decaiu e chegou perto de quebrar. Após Jobs reassumi-la, ela tomou o rumo que a tornaria a companhia de maior valor de mercado da história do capitalismo. O Vale do Silício tem inúmeras anedotas do tipo, história contadas, repetidas, descritas, que ao longo das décadas levaram a um modelo de governança. Quase toda startup nasce mais ou menos com a mesma estrutura jurídica cujo objetivo é maximizar seu crescimento.

Uma startup ocorre quando os primeiros investidores põem dinheiro na ideia de um conjunto de pessoas — em geral, claro, uma dupla. Conforme a empresa cresce, é preciso identificar lá dentro quem são os talentos fundamentais. A estas pessoas são oferecidas ações. É um incentivo financeiro. Fazer a empresa crescer é colaborar para fazer uma fortuna pessoal. No Conselho de Administração estão, em geral, representantes dos interesses de fundadores e investidores. Eles acompanham a gestão da empresa, tomam a decisão de mudar seu comando quando se mostra necessário, mas a preferência no geral é manter os fundadores. Eles têm a intuição do negócio como ninguém.

Mas a OpenAI foi criada para que inteligência artificial fosse desenvolvida sob segurança. Uma estrutura de governança corporativa que maximizasse conquista de mercado e crescimento rápido não funcionaria. Preppers com medo do apocalipse e altruístas mobilizados para fazer o melhor pela humanidade decidiram montar outro desenho. Em 2015, a OpenAI nasceu como uma instituição sem fins lucrativos.

Seu desenho é consequência, também, de outra característica ideológica do principal financiador. Musk é um libertário. Acredita que entidades privadas sempre resolverão o problema do bem comum melhor do que governos.

Em 2018, Musk tentou assumir comando pleno da OpenAI. Quando se frustrou, abandonou a organização. Naquele momento, dinheiro se tornou um problema. Ele era o principal financiador — e o dinheiro que eles precisavam não era pouco. Inteligência artificial exige, claro, uma quantidade abissal de processamento para ser desenvolvida. Para um grupo cujo propósito é estar na frente de todos os outros, o problema só aumenta.

Sam Altman resolveu o dilema criando uma empresa com fins de lucro que responderia à fundação sem fins de lucro. Esta empresa, a OpenAI comercial, poderia receber investimentos, assim como poderia distribuir ações, atraindo os melhores engenheiros de IA que o Canadá consegue formar. É nesta empresa que a Microsoft investiu o primeiro US$ 1 bilhão e que, depois, entrou de sócia com a promessa de mais US$ 12 bilhões.

A entrada da Microsoft no jogo não foi bem digerida por muitos. Em 2021, um grupo de engenheiros importantes tentaram ir ao conselho para tirar Altman do comando e reverter a “comercialização” da OpenAI. Perderam a briga porque Brockman e Sutskever ficaram do lado do CEO. Este grupo deixou a empresa para formar a Anthropic, outra companhia voltada para criar IAs e que, segundo um email interno ao qual o New York Times teve acesso, é percebida como a principal rival em capacidade criativa.

A Anthropic é uma desaceleradora eficaz — outro termo do jogo ideológico que mobiliza o mundo da inteligência artificial. Há os aceleradores eficazes e os desaceleradores eficazes.

Um conjunto, que inclui nomes importantes do Vale como o megainvestidor Marc Andreessen e outro dos três padrinhos da IA, Yann LeCun, que dirige o departamento na Meta, acreditam que a tecnologia resolverá problemas demais no mundo para não ser desenvolvida o mais rápido possível. “Os modelos atuais são treinados com um volume de dados que um humano precisaria de 20 mil anos para ler”, escreveu recentemente LeCun, no X. “E ainda assim esses modelos não compreendem que, se A é igual a B, então B é igual a A. Humanos têm muito mais capacidade de inteligência precisando de muito menos dados. Até cachorros, papagaios e polvos se tornam muito mais inteligentes.” Para ele, o caminho ainda é longo.

Mas pessoas como Dario Amodei, que comanda a Anthropic, e o próprio Ilyia Sutskever, são desaceleradores. Defendem que é preciso tempo de reflexão para garantir que a tecnologia seja desenvolvida em segurança. De forma alinhada.

Os conflitos no conselho da OpenAI jamais diminuíram. Desde 2001, três pessoas deixaram seus assentos por motivos diversos. Nunca foram repostos porque, quem ficou, não chegava a um acordo. Brockman presidia o conselho até a sexta-feira passada. Eram membros também Altman, Sutskever, o CEO da plataforma Quora, Adam DiAngelo, uma professora da Universidade de Georgetown chamada Helen Toner e uma executiva do Vale que poucos conhecem chamada Tasha McCauley. Toner era ligada, como Sutskever, ao movimento de altruístas eficazes. DiAngelo, um dedicado desacelerador. Ao todo, seis. Os três cofundadores da OpenAI, amigos de longo tempo, se uniam. Sutskever, o místico cientificista, havia sido juiz de paz no casamento de Brockman, que por sua vez havia se tornado o braço direito de Altman. O placar de três votos a três se repetia.

Ato 3. Golpe e contragolpe

Na tarde da sexta-feira, dia 17, seguindo o pedido de Sutskever, Sam Altman se logou na plataforma do Google Meet para uma reunião de conselho. Brockman, o presidente do conselho, não estava lá — apenas os outros quatro. Ele estranhou. Então, constrangido, Sutskever leu de um documento que já estava preparado. Altman, ele dizia, “não havia sido consistentemente honesto em suas comunicações com o conselho”, o que “diminuía a habilidade de exercer nossas responsabilidades.” Os conselheiros não confiavam mais em sua capacidade de liderar a OpenAI.

Quando um documento similar na forma de release foi distribuído à imprensa, algo como meia hora depois, o texto deixou inicialmente a percepção de que havia um escândalo para explodir. Desvio de recursos, talvez algo pessoal. Mas não era nada disso. Satya Nadella, CEO da Microsoft — a segunda companhia de maior valor de mercados dos EUA e principal investidora da OpenAI — foi informado quase que junto da imprensa da decisão.

À influente jornalista Kara Swisher, Nadella afirmou na terça-feira que ainda não havia recebido uma explicação formal sobre por que demitir. Ezra Klein, do New York Times, outro jornalista particularmente influente, ouviu uma história que explica muito. Quando alguém disse à professora Helen Toner, do conselho e de Georgetown, que a demissão de Altman poderia destruir a OpenAI, ela respondeu com franqueza. “Isto seria consistente com nossa missão.”

A OpenAI foi criada por Elon Musk com uma estrutura que tiraria do desenvolvimento da IA duas pressões. Uma, a da regulação governamental. Uma entidade privada sem fins lucrativos talvez inspirasse mais confiança. E, outra, a da obrigatoriedade de dar lucro ou crescer em base de usuários enquanto é desenvolvida. Quando Musk percebeu que não teria controle total de sua cria, abandonou-a. E a OpenAI ficou com a estrutura de governança torta. Um conselho de administração composto por gente do segundo time da tecnologia e uma mentalidade anticapitalista. E estes com poder sobre o comando da empresa de maior crescimento da história do capitalismo.

Altman não compartilhou com o conselho os anúncios públicos de novos produtos que fez em uma conferência no início de novembro. Dentre aquilo que anunciou, e já implementou, estão o que batizou de GPTs. Cada usuário pagante pode criar seus programas que automatizam certas funções usando o ChatGPT. Ainda são uma versão primitiva, mas são também a primeira versão do que chamamos agentes. Softwares providos de alguma inteligência que resolvem problemas práticos do dia a dia.

Bill Gates, o fundador da Microsoft, vem falando que a grande corrida da IA está na produção destes agentes. Estes assistentes executivos digitais capazes de resolver a parte chata do cotidiano. São justamente nestes agentes que Sutskever vê o início das organizações autônomas que comandarão a produção de tudo. E o problema do alinhamento ainda não está resolvido.

O cerne do debate entre aceleradores e desaceleradores está ali. Tendo oficiado o casamento de Brockman, amigo pessoal de ambos, naquele momento Ilyia Sutskever decidiu que suas crenças eram maiores do que os relacionamentos pessoais. Demitiu-os a ambos e ficaram só ele e os outros três no conselho.

Epílogo: O futuro

A estrutura jurídica de governança criada para conter a pressão por controle da aceleração do desenvolvimento tecnológico não funcionou.

Quando Sam Altman foi demitido, outro processo se deu. Os incontáveis engenheiros que ele havia atraído para a OpenAI com a promessa de participação em ações e projetos individuais de criação de fortuna pessoal se sentiram traídos. Já na segunda-feira, mais de 600 dos 700 funcionários avisavam que sairiam com ele. Ao mesmo passo, Nadella acenava que Altman ganharia um laboratório na Microsoft e que poderia trazer todo mundo.

A mudança de casa imporia um atraso de alguns meses, talvez um ano, no desenvolvimento da IA. Talvez o Google os ultrapassasse na liderança do modelo mais sofisticado. Mas, sem amarras, a aceleração tecnológica aconteceria de qualquer forma.

Além disto, a OpenAI atraiu centenas de engenheiros com a promessa de crescimento e a oferta de compartilhar com participação o que viesse. Isto está em cada contrato de trabalho. Ao decidir propositalmente bloquear este crescimento, o conselho abriu o caminho para ser processado por quebra de contrato. Em bilhões de dólares. A Microsoft provavelmente faria o mesmo. Uma entidade privada só terá recursos para liderar o desenvolvimento de IA se ou tiver um mecenas com bolsos muito fundos ou o fizer de forma acelerada, usando a estrutura jurídica tradicional do Vale. Aquela em que há incentivos para investidores, fundadores e engenheiros na forma de uma fortuna ali na frente.

Quando os advogados entraram, os conselheiros perceberam que não tinham escolha. Pediram o chapéu. Sam Altman e Gary Brockman estavam de volta.

Para quem considera importante controlar o desenvolvimento, sobrou apenas um caminho. A regulação. Na quarta-feira, conforme Altman retomava seu posto, ganhava assento no conselho da nova OpenAI o economista Larry Summers. Secretário do Tesouro no segundo governo Bill Clinton, diretor do Conselho Econômico Nacional sob Barack Obama. Não foi chamado à toa — conhece todo mundo em Washington.

E já chegará com argumento pronto. Quem segurar o desenvolvimento de IA pelos EUA periga ver a China chegando na frente.

Encontrou algum problema no site? Entre em contato.

Já é assinante premium? Clique aqui.

Este é um conteúdo Premium do Meio.

Escolha um dos nossos planos para ter acesso!

Premium

  • News do Meio mais cedo
  • Edição de Sábado
  • Descontos nos Cursos do Meio
  • 3 dispositivos
  • Acesso ao acervo de Cursos do Meio*
ou

De R$ 180 por R$ 150 no Plano Anual

Premium + Cursos

  • News do Meio mais cedo
  • Edição de Sábado
  • Descontos nos Cursos do Meio
  • 3 dispositivos
  • Acesso ao acervo de Cursos do Meio*
ou

De R$ 840 por R$ 700 no Plano Anual

*Acesso a todos os cursos publicados até o semestre anterior a data de aquisição do plano. Não inclui cursos em andamento.

Quer saber mais sobre os benefícios da assinatura Premium? Clique aqui.