Narativom umjetne inteligencije uglavnom je dominirala izvedba modela na ključnim mjerilima industrije. Ali kako polje sazrijeva i poduzeća žele izvući stvarnu vrijednost iz napretka u AI, vidimo paralelna istraživanja tehnika koje pomažu u proizvodnji AI aplikacija.
U VentureBeatu pratimo istraživanje umjetne inteligencije koje može pomoći u razumijevanju kamo ide praktična implementacija tehnologije. Radujemo se otkrićima koja se ne tiču samo sirove inteligencije jednog modela, već načina na koji projektiramo sustave oko njih. Kako se približavamo 2026., evo četiri trenda koji mogu predstavljati nacrt za sljedeću generaciju robusnih, skalabilnih poslovnih aplikacija.
Sadržaj objave
Kontinuirano učenje
Kontinuirano učenje bavi se jednim od ključnih izazova trenutnih modela umjetne inteligencije: poučavanjem novih informacija i vještina bez uništavanja njihovog postojećeg znanja (često se naziva “katastrofalni zaborav”).
Tradicionalno, postoje dva načina da se to riješi. Jedan je ponovno uvježbavanje modela kombinacijom starih i novih informacija, što je skupo, dugotrajno i iznimno komplicirano. To ga čini nedostupnim većini tvrtki koje koriste modele.
Još jedno zaobilazno rješenje je pružiti modelima informacije u kontekstu pomoću tehnika kao što je RAG. Međutim, ove tehnike ne ažuriraju unutarnje znanje modela, što se može pokazati problematičnim kako se udaljavate od granice znanja modela i činjenice počinju biti u sukobu s onim što je bilo istinito u vrijeme obuke modela. Oni također zahtijevaju puno inženjeringa i ograničeni su kontekstnim prozorima modela.
Kontinuirano učenje omogućuje modelima da ažuriraju svoje interno znanje bez potrebe za prekvalifikacijom. Google je radio na tome s nekoliko novih arhitektura modela. Jedan od njih je Titans, koji predlaže drugačiji primitiv: naučeni modul dugotrajne memorije koji omogućuje sustavu uključivanje povijesnog konteksta u vrijeme zaključivanja. Intuitivno premješta nešto “učenja” iz izvanmrežnih ažuriranja težine u mrežni memorijski proces, bliže onome kako timovi već razmišljaju o predmemorijama, indeksima i zapisima.
Nested Learning gura istu temu iz drugog kuta. Tretira model kao skup ugniježđenih optimizacijskih problema, svaki sa svojim unutarnjim tijekovima rada, i koristi to uokvirivanje za rješavanje katastrofalnog zaboravljanja.
Standardni jezični modeli temeljeni na transformatorima imaju guste slojeve koji pohranjuju dugoročnu memoriju dobivenu tijekom predvježbe i slojeve pažnje koji drže neposredni kontekst. Nested Learning uvodi “kontinualni memorijski sustav”, gdje se memorija promatra kao spektar modula koji se ažuriraju različitim frekvencijama. To stvara sustav pamćenja koji je prilagođeniji kontinuiranom učenju.
Kontinuirano učenje komplementarno je radu koji se obavlja na davanju kratkoročnog pamćenja agentima putem inženjeringa konteksta. Kako sazrijeva, poduzeća mogu očekivati generaciju modela koji se prilagođavaju promjenjivim okruženjima, dinamički odlučujući koje će nove informacije internalizirati, a koje sačuvati u kratkoročnom pamćenju.
Svjetski modeli
Svjetski modeli obećavaju da će AI sustavima omogućiti da razumiju svoje okruženje bez potrebe za podacima označenim ljudima ili ljudskim tekstom. Sa svjetskim modelima, AI sustavi mogu bolje odgovoriti na nepredvidive događaje i događaje izvan distribucije te postati otporniji na neizvjesnost stvarnog svijeta.
Što je još važnije, svjetski modeli otvaraju put sustavima umjetne inteligencije koji mogu ići dalje od teksta i rješavati zadatke koji uključuju fizička okruženja. Modeli svijeta pokušavaju naučiti pravilnosti fizičkog svijeta izravno iz promatranja i interakcije.
Postoje različiti pristupi stvaranju svjetskih modela. DeepMind gradi Genie, obitelj generativnih end-to-end modela koji simuliraju okruženje tako da agent može predvidjeti kako će se okruženje razvijati i kako će ga akcije promijeniti. Uzima sliku ili upit zajedno s radnjama korisnika i generira slijed video okvira koji odražavaju kako se svijet mijenja. Genie može stvoriti interaktivna okruženja koja se mogu koristiti u različite svrhe, uključujući robote za obuku i samovozeće automobile.
Svjetski laboratorijinovi startup koji je osnovao pionir umjetne inteligencije Fei-Fei Li, ima nešto drugačiji pristup. Marble, prvi AI sustav World Labsa, koristi generativni AI za stvaranje 3D modela iz slike ili odziva, koji zatim može koristiti fizikalni i 3D motor za renderiranje i simulaciju interaktivnog okruženja koje se koristi za treniranje robota.
Drugi pristup je Joint Embedding Predictive Architecture (JEPA) koju podržava dobitnik Turingove nagrade i bivši šef Meta AI Yann LeCun. JEPA modeli uče latentne prikaze iz sirovih podataka tako da sustav može predvidjeti što slijedi bez generiranja svakog piksela.
JEPA modeli puno su učinkovitiji od generativnih modela, što ih čini prikladnima za brze AI aplikacije u stvarnom vremenu koje se moraju izvoditi na uređajima s ograničenim resursima. V-JEPA, video verzija arhitekture, unaprijed je uvježbana na neoznačenom videu na internetskoj razini kako bi naučila modele svijeta kroz promatranje. Zatim dodaje malu količinu podataka o interakciji iz putanja robota radi podrške planiranju. Ta kombinacija nagovještava put na kojem poduzeća iskorištavaju obilan pasivni video (obuka, inspekcija, nadzorne kamere, maloprodaja) i dodaju ograničene podatke o interakciji visoke vrijednosti tamo gdje im je potrebna kontrola.
U studenom god. LeCun je potvrdio da će napustiti Metu i pokrenut će novi AI startup koji će težiti “sustavima koji razumiju fizički svijet, imaju postojanu memoriju, mogu razmišljati i mogu planirati složene akcijske sekvence.”
Orkestracija
Frontier LLM nastavljaju napredovati na vrlo izazovnim mjerilima, često nadmašujući ljudske stručnjake. Ali kada su u pitanju zadaci iz stvarnog svijeta i agentski tijek rada u više koraka, čak i jaki modeli ne uspijevaju: gube kontekst, pozivaju alate s pogrešnim parametrima i stvaraju male pogreške.
Orkestracija tretira te kvarove kao sistemske probleme koji se mogu riješiti s pravom skelom i inženjeringom. Na primjer, usmjerivač bira između brzog malog modela, većeg modela za teže korake, vraćanja za uzemljenje i determinističkih alata za akcije.
Sada postoji više okvira koji stvaraju slojeve orkestracije za poboljšanje učinkovitosti i točnosti AI agenata, posebno kada se koriste vanjski alati. Stanfordov OctoTools okvir je otvorenog koda koji može orkestrirati više alata bez potrebe za finim podešavanjem ili prilagođavanjem modela. OctoTools koristi modularni pristup koji planira rješenje, odabire alate i prosljeđuje podzadatke različitim agentima. OctoTools može koristiti bilo koji LLM opće namjene kao svoju okosnicu.
Drugi pristup je treniranje specijaliziranog modela orkestratora koji može podijeliti rad između različitih komponenti AI sustava. Jedan takav primjer je Nvidijin Orchestrator, model s 8 milijardi parametara koji koordinira različite alate i LLM-ove za rješavanje složenih problema. Orkestrator je obučen kroz posebnu tehniku učenja za potkrepljivanje dizajniranu za orkestraciju modela. Može reći kada koristiti alate, kada delegirati zadatke malim specijaliziranim modelima, a kada koristiti sposobnosti razmišljanja i znanja velikih generalističkih modela.
Jedna od karakteristika ovih i drugih sličnih okvira je da mogu imati koristi od napretka u temeljnim modelima. Dakle, kako nastavljamo vidjeti napredak u graničnim modelima, možemo očekivati da će se okviri za orkestraciju razvijati i pomoći poduzećima da izgrade robusne i resursno učinkovite agencijske aplikacije.
Pročišćavanje
Tehnike usavršavanja pretvaraju “jedan odgovor” u kontrolirani proces: predlažu, kritiziraju, revidiraju i verificiraju. Uokviruje tijek rada kao korištenje istog modela za generiranje početnog izlaza, stvaranje povratnih informacija o njemu i iterativno poboljšanje, bez dodatne obuke.
Iako su tehnike samousavršavanja prisutne već nekoliko godina, mogli bismo biti na točki u kojoj možemo vidjeti da pružaju korak promjene u agentskim aplikacijama. To je u potpunosti prikazano u rezultatima ARC nagrade, koja je 2025. nazvala “Godina petlje usavršavanja” i napisao: “Iz perspektive teorije informacija, profinjenost je inteligencija.”
ARC testira modele na kompliciranim apstraktnim zagonetkama. Vlastita analiza ARC-a izvješćuje da je najbolje provjereno rješenje za usavršavanje, izgrađeno na graničnom modelu i razvio Poetiqdosegao je 54% na ARC-AGI-2, pobijedivši drugoplasiranog, Gemini 3 Deep Think (45%), po upola nižoj cijeni.
Poetiqovo rješenje je rekurzivan, samopoboljšujući sustav koji je agnostičan za LLM. Osmišljen je tako da iskorištava sposobnosti razmišljanja i znanja temeljnog modela kako bi odražavao i poboljšao vlastito rješenje i pozivao alate kao što su tumači koda kada je to potrebno.
Kako modeli postaju jači, dodavanje slojeva za samopročišćavanje omogućit će da iz njih izvučete više. Poetiq već surađuje s partnerima na prilagodbi svog meta-sustava za “brišanje sa složenim problemima stvarnog svijeta koje granični modeli teško rješavaju.”
Kako pratiti istraživanje umjetne inteligencije u 2026
Praktičan način čitanja istraživanja u nadolazećoj godini jest promatranje koje nove tehnike mogu pomoći poduzećima da prebace agentičke aplikacije s dokaza koncepata u skalabilne sustave.
Kontinuirano učenje pomiče rigoroznost prema porijeklu i zadržavanju pamćenja. Svjetski modeli pomiču ga prema robusnoj simulaciji i predviđanju događaja u stvarnom svijetu. Orkestracija ga pomiče prema boljem korištenju resursa. Profinjenost ga pomiče prema pametnom promišljanju i ispravljanju odgovora.
Pobjednici neće odabrati samo jake modele, oni će izgraditi upravljačku razinu koja održava te modele ispravnima, aktualnima i isplativima.

