Início Tecnologia O CEO da LangChain argumenta que modelos melhores por si só não...

O CEO da LangChain argumenta que modelos melhores por si só não levarão seu agente de IA à produção

20
0

À medida que os modelos se tornam mais inteligentes e mais capazes, os “arreios” em torno deles também devem evoluir. Esta “engenharia de chicote” é uma extensão da engenharia de contexto, diz LangChain cofundador e CEO Harrison Chase em um novo podcast VentureBeat Além do Piloto episódio. Enquanto os chicotes de IA tradicionais tendem a restringir a execução de modelos em loops e chamadas de ferramentas, os chicotes criados especificamente para agentes de IA permitem que eles interajam de forma mais independente e executem tarefas de longa duração com eficácia.

Chase também opinou sobre a aquisição do OpenClaw pela OpenAI, argumentando que seu sucesso viral se resumiu à disposição de “deixá-lo rasgar” de uma forma que nenhum grande laboratório faria – e questionando se a aquisição realmente aproxima a OpenAI de uma versão empresarial segura do produto. “A tendência nos chicotes é realmente dar ao próprio modelo de linguagem grande (LLM) mais controle sobre a engenharia de contexto, deixando-o decidir o que vê e o que não vê”, diz Chase. “Agora, esta ideia de um assistente mais autónomo e de longa duração é viável.”

Acompanhar o progresso e manter a coerência

Embora o conceito de permitir que LLMs sejam executados em loop e chamem ferramentas pareça relativamente simples, é difícil executá-lo de maneira confiável, observou Chase. Por um tempo, os modelos estavam “abaixo do limite de utilidade” e simplesmente não podiam ser executados em loop, então os desenvolvedores usaram gráficos e escreveram cadeias para contornar isso. Chase apontou o AutoGPT – que já foi o projeto GitHub de crescimento mais rápido de todos os tempos – como um exemplo preventivo: a mesma arquitetura dos principais agentes de hoje, mas os modelos ainda não eram bons o suficiente para serem executados de forma confiável em loop, então ele desapareceu rapidamente. Mas à medida que os LLMs continuam a melhorar, as equipas podem construir ambientes onde os modelos podem ser executados em ciclos e planear horizontes mais longos, e podem melhorar continuamente estas capacidades. Anteriormente, “não era possível realmente fazer melhorias no arnês porque não era possível operar o modelo em um arnês”, disse Chase. A resposta da LangChain para isso é Deep Agents, um software personalizável arnês de uso geral. Construído em LangChain e LangGraph, possui recursos de planejamento, um sistema de arquivos virtual, gerenciamento de contexto e token, execução de código e habilidades e funções de memória. Além disso, pode delegar tarefas a subagentes; estes são especializados com diferentes ferramentas e configurações e podem funcionar em paralelo. O contexto também é isolado, o que significa que o trabalho do subagente não sobrecarrega o contexto do agente principal, e o contexto grande da subtarefa é compactado em um único resultado para eficiência do token. Todos esses agentes têm acesso a sistemas de arquivos, explicou Chase, e podem essencialmente criar listas de tarefas que podem ser executadas e rastreadas ao longo do tempo. “Quando passa para a próxima etapa, e passa para a etapa dois, ou etapa três, ou etapa quatro de um processo de 200 etapas, há uma maneira de acompanhar seu progresso e manter essa coerência”, disse Chase. “Basicamente, tudo se resume a permitir que o LLM escreva seus pensamentos à medida que avança.” Ele enfatizou que os chicotes devem ser projetados para que os modelos possam manter a coerência em tarefas mais longas e sejam “acessíveis” para que os modelos decidam quando compactar o contexto em pontos que determinem ser “vantajosos”. Além disso, dar aos agentes acesso a interpretadores de código e ferramentas BASH aumenta a flexibilidade. E fornecer habilidades aos agentes, em vez de apenas ferramentas carregadas antecipadamente, permite que eles carreguem informações quando precisarem delas. “Portanto, em vez de codificar tudo em um grande prompt do sistema”, explicou Chase, “você poderia ter um prompt de sistema menor, ‘Esta é a base principal, mas se eu precisar fazer X, deixe-me ler a habilidade para X. Se eu precisar fazer Y, deixe-me ler a habilidade para Y.’” Essencialmente, a engenharia de contexto é uma maneira “realmente sofisticada” de dizer: o que o LLM está vendo? Porque isso é diferente do que os desenvolvedores veem, observou ele. Quando os desenvolvedores humanos conseguem analisar os rastreamentos dos agentes, eles podem se colocar na “mentalidade” da IA ​​e responder a perguntas como: Qual é o prompt do sistema? Como ele é criado? É estático ou está preenchido? Quais ferramentas o agente possui? Quando ele faz uma chamada de ferramenta e recebe uma resposta, como isso é apresentado? “Quando os agentes erram, eles erram porque não têm o contexto certo; quando têm sucesso, eles têm sucesso porque têm o contexto certo”, disse Chase. “Penso na engenharia de contexto como trazer as informações certas, no formato certo, para o LLM, no momento certo.” Ouça o podcast para saber mais sobre:

  • Como LangChain construiu sua pilha: LangGraph como pilar central, LangChain no centro, Deep Agents no topo.

  • Por que os sandboxes de código serão a próxima grande novidade.

  • Como um tipo diferente de UX evoluirá à medida que os agentes executam em intervalos mais longos (ou continuamente).

  • Por que rastreamentos e observabilidade são essenciais para construir um agente que realmente funcione.

Você também pode ouvir e assinar Além do piloto sobre Spotify, Maçã ou onde quer que você obtenha seus podcasts.

fonte

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui