Início Tecnologia A nova ‘autopesquisa’ de código aberto de Andrej Karpathy permite que você...

A nova ‘autopesquisa’ de código aberto de Andrej Karpathy permite que você execute centenas de experimentos de IA por noite – com implicações revolucionárias

27
0

No fim de semana, Andrej Karpathy – o influente ex-líder e cofundador da Tesla AI e ex-membro da OpenAI que cunhou o termo “vibe coding” – postado em X sobre seu novo projeto de código aberto, pesquisa automática.

Não era um modelo acabado ou um produto corporativo massivo: era, como ele mesmo admitiu, um script simples de 630 linhas. disponibilizado no Github sob uma licença MIT permissiva e amigável para empresas. Mas a ambição era enorme: automatizar o método científico com agentes de IA enquanto nós, humanos, dormimos.

“O objetivo é projetar seus agentes para fazer o progresso mais rápido da pesquisa indefinidamente e sem qualquer envolvimento seu”, afirmou ele no X.

O sistema funciona como um ciclo de otimização autônomo. Um agente de IA recebe um script de treinamento e um orçamento de computação fixo (normalmente 5 minutos em uma GPU).

Ele lê seu próprio código-fonte, forma uma hipótese de melhoria (como alterar a taxa de aprendizado ou a profundidade da arquitetura), modifica o código, executa o experimento e avalia os resultados.

Se a perda de validação – medida em bits por byte (val_bpb)—melhora, mantém a mudança; caso contrário, ele reverte e tenta novamente. Em em uma corrida noturna, o agente de Karpathy completou 126 experimentosreduzindo a perda de 0,9979 para 0,9697.

Hoje, Karpathy relatou que depois de deixar o agente ajustar um modelo de “profundidade = 12” por dois dias, ele conseguiu processou aproximadamente 700 alterações autônomas.

O agente encontrou cerca de 20 melhorias aditivas que foram perfeitamente transferidas para modelos maiores. O acúmulo dessas mudanças reduziu a métrica “Tempo para GPT-2” na tabela de classificação de 2,02 horas para 1,80 horas – um ganho de eficiência de 11% em um projeto que Karpathy acreditava já estar bem ajustado.

“Ver o agente fazer todo esse fluxo de trabalho de ponta a ponta e por si só… é uma loucura”, observou Karpathy, observando que o agente detectou descuidos no dimensionamento e regularização da atenção que ele havia perdido manualmente ao longo de duas décadas de trabalho.

Isso é mais do que apenas um hack de produtividade; é uma mudança fundamental na forma como a inteligência é refinada. Ao automatizar o “método científico” do código, Karpathy transformou o aprendizado de máquina em um processo evolutivo que funciona na velocidade do silício, e não na velocidade do pensamento humano.

E mais do que isso, mostrou à comunidade mais ampla de IA e aprendizado de máquina no X que esse tipo de processo poderia ser aplicado muito além da ciência da computação, em áreas como marketing, saúde e, bem, basicamente qualquer coisa que exija pesquisa.

A autopesquisa se espalha por toda parte

A reação foi rápida e viral, com a postagem de Karpathy obtendo mais de 8,6 milhões de visualizações nos dois dias seguintes, enquanto construtores e pesquisadores lutavam para escalar o “ciclo Karpathy”.

Varun Mathur, CEO da plataforma agregadora de ferramentas de IA Hyperspace AI, pegou o loop de agente único e o distribuiu por uma rede ponto a ponto. Cada nó que executa o agente Hiperespaço tornou-se um pesquisador autônomo.

Na noite de 8 para 9 de março, 35 agentes autônomos da rede Hiperespaço realizaram 333 experimentos completamente sem supervisão. Os resultados foram uma masterclass em estratégia emergente:

  • Diversidade de hardware como recurso: Mathur observou que, embora as GPUs H100 usassem “força bruta” para encontrar taxas de aprendizado agressivas, os agentes somente de CPU em laptops foram forçados a ser inteligentes. Esses agentes “oprimidos” concentravam-se em estratégias de inicialização (como Kaiming e Xavier init) e opções de normalização porque não podiam confiar no rendimento bruto.

  • Descoberta baseada em fofocas: Usando o protocolo GossipSub, os agentes compartilharam suas vitórias em tempo real. Quando um agente descobriu que a inicialização do Kaiming reduziu as perdas em 21%, a ideia se espalhou pela rede como um vírus digital. Em poucas horas, outros 23 agentes incorporaram a descoberta em suas próprias hipóteses.

  • A compressão da história: Em apenas 17 horas, esses agentes redescobriram de forma independente marcos de ML, como o RMSNorm e os embeddings vinculados, que levaram quase oito anos para serem formalizados por pesquisadores humanos em laboratórios como Google Brain e OpenAI.

Execute 36.500 experimentos de marketing por ano, em vez de 30

Enquanto os puristas do ML se concentravam nas curvas de perdas, o mundo dos negócios assistiu a um tipo diferente de revolução. Eric Siu, fundador da agência de publicidade Single Grainaplicou a autopesquisa ao “Circuito Experimental” do marketing.

“A maioria das equipes de marketing realiza cerca de 30 experimentos por ano”, escreveu Siu no X. “A próxima geração executará mais de 36.500. Ele continuou:

“Eles farão experimentos enquanto dormem. As equipes de marketing atuais realizam de 20 a 30 experimentos por ano. Talvez 52 se forem ‘bons’. Nova página de destino. Novo criativo de anúncio. Talvez um teste de linha de assunto. Isso é considerado “marketing orientado a dados”. Mas a próxima geração de sistemas de marketing executará mais de 36.500 experimentos por ano.”

A estrutura de Siu substitui o script de treinamento por um ativo de marketing – uma página de destino, um criativo de anúncio ou um e-mail frio. O agente modifica uma variável (a linha de assunto ou CTA), implanta-a, mede a “taxa de resposta positiva” e mantém ou descarta.

Siu argumenta que isso cria um “mapa proprietário” daquilo que repercute em um público específico – um fosso construído não de código, mas de história de experimentos. “As empresas vencedoras não terão profissionais de marketing melhores”, escreveu ele, “elas terão ciclos de experimentos mais rápidos”.

Discussão comunitária e ‘estragar’ o conjunto de validação

Apesar do fervor, o Discussões do GitHub revelou uma comunidade lutando com as implicações de um progresso tão rápido e automatizado.

A armadilha da otimização excessiva: Pesquisador alexisthual levantou uma preocupação comovente: “Você não está preocupado com o fato de que o lançamento de tantos experimentos acabará ‘estragando’ o conjunto de validação?”. O temor é que, com agentes suficientes, os parâmetros sejam otimizados para as peculiaridades específicas dos dados de teste, em vez da inteligência geral.

O significado dos ganhos: Usuário Samionb questionou se uma queda de 0,9979 para 0,9697 era realmente perceptível. A resposta de Karpathy foi caracteristicamente direta: “Tudo o que estamos fazendo é otimizar o desempenho por computação… estes são ganhos reais e substanciais”

O Elemento Humano: No X, usuário bruxoChefe de Crescimento da plataforma criptográfica Yari Finançasdocumentou sua própria execução noturna em um Mac Mini M4, observando que, embora 26 dos 35 experimentos falharam ou travaram, os sete que tiveram sucesso revelaram que “o modelo melhorou ao ficar mais simples”.

Esta percepção – de que menos é muitas vezes mais – foi alcançada sem uma única intervenção humana.

O futuro: a curiosidade como gargalo

O lançamento da pesquisa automática sugere um futuro de pesquisa em domínios onde, graças a mecanismos simples de instrução de IA, o papel do ser humano muda de “experimentador” para “designer experimental”.

À medida que ferramentas como DarkMatter, Optimization Arena e NanoClaw surgem para apoiar esse enxame, o gargalo do progresso da IA ​​​​não é mais a capacidade de codificação do “computador de carne” (a descrição de Karpathy do cérebro humano) – é a nossa capacidade de definir as restrições da pesquisa.

Andrej Karpathy mais uma vez mudou o clima. Não somos mais apenas modelos de codificação; estamos semeando ecossistemas que aprendem enquanto dormimos.

fonte

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui