Kako modeli postaju pametniji i sposobniji, "uprtači" oko njih se također mora razvijati. Ovaj "zaprežna tehnika" je proširenje inženjeringa konteksta, kaže LangChain suosnivač i izvršni direktor Harrison Chase u a novi podcast VentureBeat Beyond the Pilot epizoda. Dok su tradicionalni AI pojasevi imali tendenciju ograničavanja pokretanja modela u petlji i pozivanja alata, pojasevi posebno izrađeni za AI agente omogućuju im neovisniju interakciju i učinkovitije obavljanje dugotrajnih zadataka.
Chase je također komentirao OpenAI-jevu akviziciju OpenClaw-a, tvrdeći da se njegov virusni uspjeh sveo na spremnost da "neka se rastrgne" na načine na koje niti jedan veliki laboratorij ne bi – i postavlja se pitanje hoće li akvizicija uistinu približiti OpenAI sigurnoj poslovnoj verziji proizvoda. “Trend u povezivanju zapravo je da se samom velikom jezičnom modelu (LLM) da više kontrole nad inženjeringom konteksta, dopuštajući mu da odlučuje što vidi, a što ne vidi”, kaže Chase. “Sada je ova ideja dugotrajnog, autonomnijeg pomoćnika održiva.”
Praćenje napretka i održavanje koherentnosti
Dok se koncept dopuštanja LLM-u da radi u petlji i poziva alate čini relativno jednostavnim, teško ga je pouzdano izvesti, primijetio je Chase. Neko su vrijeme modeli bili “ispod praga korisnosti” i jednostavno nisu mogli raditi u petlji, pa su razvojni programeri koristili grafikone i pisali lance kako bi to zaobišli. Chase je ukazao na AutoGPT — nekoć najbrže rastući GitHub projekt ikad — kao primjer upozorenja: ista arhitektura kao i današnji vrhunski agenti, ali modeli još nisu bili dovoljno dobri da bi pouzdano radili u petlji, pa je brzo nestao. Ali kako se LLM usavršavaju, timovi mogu konstruirati okruženja u kojima se modeli mogu izvoditi u petljama i planirati na dužim horizontima, te mogu kontinuirano poboljšavati ta povezivanja. Ranije, “niste mogli napraviti poboljšanja na pojasu jer zapravo niste mogli pokrenuti model u pojasu”, rekao je Chase. LangChainov odgovor na ovo su Deep Agents, prilagodljivi uprtač opće namjene. Izgrađen na LangChain i LangGraph, ima mogućnosti planiranja, virtualni datotečni sustav, upravljanje kontekstom i tokenima, izvršavanje koda te vještine i memorijske funkcije. Nadalje, može delegirati zadatke subagentima; oni su specijalizirani s različitim alatima i konfiguracijama i mogu raditi paralelno. Kontekst je također izoliran, što znači da rad subagenta ne zatrpava kontekst glavnog agenta, a veliki kontekst podzadatka komprimiran je u jedan rezultat za učinkovitost tokena. Svi ovi agenti imaju pristup datotečnim sustavima, objasnio je Chase, i u biti mogu kreirati popise obaveza koje mogu izvršavati i pratiti tijekom vremena. “Kada prijeđe na sljedeći korak, i prijeđe na korak dva, korak tri ili korak četiri od procesa od 200 koraka, ima način da prati svoj napredak i zadrži tu koherentnost”, rekao je Chase. “Svodi se na to da dopustimo LLM-u da zapiše svoje misli u hodu, u biti.” Naglasio je da pojasevi trebaju biti dizajnirani tako da modeli mogu održavati koherentnost tijekom duljih zadataka i biti “podložni” modelima koji odlučuju kada sabiti kontekst u točkama koje smatraju “povoljnima”. Također, davanje agentima pristupa tumačima koda i BASH alatima povećava fleksibilnost. A pružanje vještina agentima za razliku od samo unaprijed učitanih alata omogućuje im učitavanje informacija kada im trebaju. “Dakle, umjesto da sve tvrdo kodiramo u jedan veliki sistemski odzivnik," Chase je objasnio, "mogli biste imati manji odziv sustava, ‘Ovo je osnovni temelj, ali ako trebam napraviti X, dajte mi da pročitam vještinu za X. Ako trebam da uradim Y, dajte mi da pročitam vještinu za Y.’"
U biti, inženjerstvo konteksta je “stvarno otmjen” način da se kaže: Što LLM vidi? Zato što je to drugačije od onoga što programeri vide, primijetio je. Kada ljudski razvojni programeri mogu analizirati tragove agenta, mogu se staviti u “nastavu” umjetne inteligencije i odgovoriti na pitanja poput: Što je upit sustava? Kako nastaje? Je li statičan ili je popunjen? Koje alate ima agent? Kad pozove alat i dobije odgovor, kako se to prikazuje? “Kada agenti zabrljaju, zabrljaju jer nemaju pravi kontekst; kada uspiju, uspiju jer imaju pravi kontekst”, rekao je Chase. “Mislim da je inženjerstvo konteksta donošenje pravih informacija u pravom formatu na LLM u pravo vrijeme.” Poslušajte podcast da biste saznali više o:
-
Kako je LangChain izgradio svoj skup: LangGraph kao temeljni stup, LangChain u središtu, Deep Agents na vrhu.
-
Zašto će sandboxovi koda biti sljedeća velika stvar.
-
Kako će se različita vrsta UX-a razvijati kako se agenti pokreću u duljim intervalima (ili kontinuirano).
-
Zašto su tragovi i vidljivost ključni za stvaranje agenta koji stvarno radi.
Također možete slušati i pretplatiti se S onu stranu pilota na Spotify, Jabuka ili gdje god dobijete svoje podcaste.




