Anthropicov standard otvorenog koda, Model Context Protocol (MCP), objavljen krajem 2024., omogućuje korisnicima povezivanje AI modela i agenata na njima s vanjskim alatima u strukturiranom, pouzdanom formatu. To je motor koji stoji iza Anthropicovog hit AI agentskog programskog pojasa, Claude Code, koji mu omogućuje pristup brojnim funkcijama kao što su pregledavanje weba i stvaranje datoteka odmah kada se to zatraži.
Ali postojao je jedan problem: Claude Code obično je morao "pročitati" priručnik s uputama za svaki pojedini alat koji je dostupan, bez obzira na to je li bio potreban za trenutni zadatak, koristeći dostupni kontekst koji bi inače mogao biti ispunjen s više informacija iz korisničkih upita ili odgovora agenta.
Barem do sinoć. Tim Claude Code objavio je ažuriranje koji bitno mijenja ovu jednadžbu. Predstavlja značajku pod nazivom MCP Tool Search "lijeno učitavanje" za AI alate, dopuštajući agentima da dinamički dohvate definicije alata samo kada je to potrebno.
To je pomak koji agente umjetne inteligencije premješta s arhitekture grube sile na nešto što nalikuje modernom softverskom inženjerstvu—a prema prvim podacima, učinkovito rješava "nadutost" problem koji je prijetio ugušiti ekosustav.
Sadržaj objave
‘Porez na pokretanje poslovanja’ za agente
Da bismo razumjeli značaj pretraživanja alata, moramo razumjeti trenje prethodnog sustava. Model Context Protocol (MCP), koji je 2024. objavio Anthropic kao standard otvorenog koda, osmišljen je kao univerzalni standard za povezivanje AI modela s izvorima podataka i alatima—sve od GitHub repozitorija do lokalnih datotečnih sustava.
Međutim, kako je ekosustav rastao, tako je rastao i "startup porez."
Thariq Shihipar, član tehničkog osoblja Anthropica, istaknuo je razmjere problema u najava.
"Otkrili smo da MCP poslužitelji mogu imati do 50+ alata," – napisao je Šihipar. "Korisnici su dokumentirali postavke sa 7+ poslužitelja koji su trošili 67k+ tokena."
U praktičnom smislu, to je značilo da bi razvojni programer koji koristi robustan skup alata mogao žrtvovati 33% ili više svog dostupnog ograničenja kontekstnog prozora od 200.000 tokena prije nego što uopće upiše jedan znak odziva, kao Autor AI biltena Aakash Gupta istaknuo je u objavi na X.
Model je bio učinkovit "čitanje" stotine stranica tehničke dokumentacije za alate koje možda nikada neće koristiti tijekom te sesije.
Analiza zajednice pružila je još oštrije primjere.
Gupta je dalje primijetio da bi jedan Docker MCP poslužitelj mogao potrošiti 125.000 tokena samo za definiranje svojih 135 alata.
"Staro ograničenje iznudilo je brutalan kompromis," napisao je. "Ili ograničite svoje MCP poslužitelje na 2-3 temeljna alata ili prihvatite da polovica proračuna konteksta nestane prije nego počnete raditi."
Kako radi pretraživanje alata
Rješenje koje je Anthropic izbacio — koje je nazvao Shihipar "jedna od naših najtraženijih značajki na GitHub" — elegantan je u svojoj suzdržanosti. Umjesto prethodnog učitavanja svake definicije, Claude Code sada prati korištenje konteksta.
Prema bilješkama o izdanju, sustav automatski otkriva kada bi opisi alata zauzeli više od 10% dostupnog konteksta.
Kada se taj prag prijeđe, sustav mijenja strategije. Umjesto izbacivanja sirove dokumentacije u upit, učitava lagani indeks pretraživanja.
Kada korisnik traži određenu radnju—recimo, "postaviti ovaj spremnik"—Claude Code ne skenira golemi, unaprijed učitani popis od 200 naredbi. Umjesto toga, ispituje indeks, pronalazi relevantnu definiciju alata i povlači samo taj određeni alat u kontekst.
"Pretraživanje alata okreće arhitekturu," Gupta je analizirao. "Uštede tokena su dramatične: od ~134k do ~5k u Anthropicovom internom testiranju. To je smanjenje od 85% uz zadržavanje punog pristupa alatu."
Za programere koji održavaju MCP poslužitelje, ovo mijenja strategiju optimizacije.
Shihipar je primijetio da polje `upute poslužitelja` u MCP definiciji—ranije a "lijepo imati"— sada je kritično. Djeluje kao metapodatak koji pomaže Claudeu "znati kada tražiti svoje alate, slično vještinama."
‘Lijeno učitavanje’ i povećanje točnosti
Dok je ušteda tokena glavna metrika—ušteda novca i memorije uvijek je popularna—sekundarni učinak ovog ažuriranja mogao bi biti važniji: fokus.
LLM-i su notorno osjetljivi na "odvraćanje pažnje." Kada je kontekstni prozor modela natrpan tisućama redaka nebitnih definicija alata, njegova sposobnost rasuđivanja se smanjuje. To stvara a "igla u plastu sijena" problem gdje se model bori s razlikovanjem sličnih naredbi, kao što je `notification-send-user` nasuprot `notification-send-channel`.
Boris Cherny, voditelj Claude Codea, naglasio je to u njegova reakcija na lansiranje na X: "Svaki korisnik Claude Codea upravo je dobio puno više konteksta, bolje praćenje uputa i mogućnost uključivanja još više alata."
Podaci to potvrđuju. Interna mjerila koja dijeli zajednica pokazuju da je omogućavanje pretraživanja alata poboljšalo točnost modela Opus 4 na MCP evaluacijama s 49% na 74%.
Za noviji Opus 4.5, točnost je skočila sa 79,5% na 88,1%.
Uklanjanjem buke stotina neiskorištenih alata, model se može posvetiti "Pažnja" mehanizama na korisnikov stvarni upit i relevantne aktivne alate.
Sazrijevanje hrpe
Ovo ažuriranje signalizira sazrijevanje načina na koji tretiramo AI infrastrukturu. U ranim danima svake softverske paradigme gruba sila je uobičajena. Ali kako se sustavi povećavaju, učinkovitost postaje primarni inženjerski izazov.
Aakash Gupta povukao je paralelu s evolucijom integriranih razvojnih okruženja (IDE) kao što su VSCode ili JetBrains. "Usko grlo nije bilo “previše alata”.
Učitavao je definicije alata poput statičkih uvoza iz ere 2020. umjesto lijenog učitavanja iz ere 2024." napisao je. "VSCode ne učitava svako proširenje pri pokretanju. JetBrains ne ubacuje dokumente svakog dodatka u memoriju."
Usvajanjem "lijeno učitavanje"—standardna najbolja praksa u razvoju weba i softvera—Anthropic priznaje da AI agenti više nisu samo noviteti; to su složene softverske platforme koje zahtijevaju arhitektonsku disciplinu.
Implikacije za ekosustav
Za krajnjeg korisnika, ovo ažuriranje je besprijekorno: Claude Code jednostavno osjeća "pametniji" i zadržava više sjećanja na razgovor. Ali za razvojni ekosustav, to otvara vrata.
Ranije je postojao "meka kapa" o tome koliko agent može biti sposoban. Programeri su morali pažljivo prilagoditi svoje skupove alata kako bi izbjegli lobotomiziranje modela s pretjeranim kontekstom. Pomoću Tool Searcha taj je strop učinkovito uklonjen. Agent teoretski može imati pristup tisućama alata—konektorima baze podataka, skriptama za implementaciju oblaka, API omotačima, lokalnim manipulatorima datoteka—bez plaćanja kazne dok se ti alati stvarno ne dotaknu.
Okreće se "ekonomija konteksta" iz modela oskudice u model pristupa. Kao što je Gupta sažeo, "Oni ne optimiziraju samo korištenje konteksta. Oni mijenjaju ono što ‘agenti bogati alatima’ mogu značiti."
Ažuriranje se odmah pokreće za korisnike Claude Code. Za programere koji izrađuju MCP klijente, Anthropic preporučuje implementaciju `ToolSearchTool` za podršku ovom dinamičkom učitavanju, osiguravajući da, kako budućnost agenta stigne, ne ostane bez memorije prije nego što se javi.




