Tim istraživača AI-ja Qwen kineskog diva e-trgovine Alibaba pojavio se u posljednjih godinu dana kao jedan od globalnih predvodnika razvoja AI-ja otvorenog koda, izdajući mnoštvo moćnih velikih jezičnih modela i specijaliziranih multimodalnih modela koji se približavaju, au nekim slučajevima i nadmašuju performanse vlasničkih američkih lidera kao što su OpenAI, Anthropic, Google i xAI.
Sada se Qwen tim ponovno vraća ovaj tjedan s uvjerljivim izdanjem koje odgovara "vibe kodiranje" ludnica koja je nastala posljednjih mjeseci: Qwen3-Coder-Sljedećispecijalizirani model s 80 milijardi parametara dizajniran za isporuku elitnih agentičkih performansi unutar laganog aktivnog traga.
Izdan je pod dopuštenom licencom Apache 2.0, omogućujući komercijalnu upotrebu velikim poduzećima i nezavisnim programerima, s težine modela dostupne na Hugging Face u četiri varijante i a tehnički izvještaj opisujući neke od svojih pristupa obuci i inovacija.
Ovo izdanje označava veliku eskalaciju globalne utrke u naoružanju za ultimativnog pomoćnika kodiranja, nakon tjedna u kojem je svemir eksplodirao s novim sudionicima. Od ogromnog povećanja učinkovitosti Anthropicovog Claude Code pojasa do visokoprofilnog lansiranja OpenAI Codex aplikacije i brzog prihvaćanja open-source okvira kao što je OpenClaw od strane zajednice, konkurentsko okruženje nikada nije bilo prenatrpanije.
U ovom okruženju s visokim ulozima, Alibaba ne samo da drži korak – on pokušava postaviti novi standard za inteligenciju otvorene težine.
Za LLM donositelje odluka, Qwen3-Coder-Next predstavlja temeljni pomak u ekonomiji AI inženjerstva. Dok model sadrži 80 milijardi ukupnih parametara, on koristi ultra-rijetku arhitekturu Mixture-of-Experts (MoE) koja aktivira samo 3 milijarde parametara po prolazu naprijed.
Ovaj dizajn mu omogućuje isporuku sposobnosti razmišljanja koje se mogu mjeriti s masivnim vlasničkim sustavima, a istovremeno održava niske troškove implementacije i visoku propusnost laganog lokalnog modela.
Sadržaj objave
Rješavanje uskog grla dugog konteksta
Temeljni tehnički proboj iza Qwen3-Coder-Next je hibridna arhitektura dizajnirana posebno za zaobilaženje problema s kvadratnim skaliranjem koji muče tradicionalne Transformerse.
Kako se kontekstni prozori šire – a ovaj model podržava golemih 262.144 tokena – tradicionalni mehanizmi pažnje postaju računski previsoki.
Standardni transformatori pate od a "memorijski zid" gdje cijena obrade konteksta raste kvadratno s duljinom niza. Qwen to rješava kombinirajući Gated DeltaNet s Gated Attention.
Gated DeltaNet djeluje kao alternativa linearne složenosti standardnoj softmax pozornosti. Omogućuje modelu da održi stanje kroz svoj prozor od četvrt milijuna tokena bez eksponencijalnih kazni latencije tipičnih za razmišljanje s dugim horizontom.
U kombinaciji s ultra-sparse MoE, rezultat je teoretski 10x veći protok za zadatke na razini repozitorija u usporedbi s gustim modelima sličnog ukupnog kapaciteta.
Ova arhitektura osigurava da agent može "pročitati" cijelu Python biblioteku ili složeni JavaScript okvir i reagirati brzinom 3B modela, ali uz strukturno razumijevanje 80B sustava.
Kako bi spriječio halucinacije konteksta tijekom treninga, tim je koristio Best-Fit Packing (BFP), strategiju koja održava učinkovitost bez grešaka skraćivanja koje se nalaze u tradicionalnom ulančavanju dokumenata.
Obučen da bude agent prvi
The "Sljedeći" u nomenklaturi modela odnosi se na temeljni stožer u metodologiji obuke. Povijesno gledano, modeli kodiranja uvježbavani su na statičnim parovima kod-tekst – u biti a "samo za čitanje" obrazovanje. Qwen3-Coder-Next je umjesto toga razvijen kroz masivni "obuka agenata" cjevovod.
Tehničko izvješće detaljno opisuje cjevovod sinteze koji je proizveo 800.000 provjerljivih zadataka kodiranja. To nisu bili puki isječci; bili su to scenariji ispravljanja pogrešaka iz stvarnog svijeta iskopani iz zahtjeva za povlačenjem GitHub-a i upareni s potpuno izvršnim okruženjima.
Infrastruktura za obuku, poznata kao MegaFlow, je sustav orkestracije izvorni u oblaku koji se temelji na Alibaba Cloud Kubernetesu. U MegaFlowu, svaki agentski zadatak izražen je kao tijek rada u tri faze: uvođenje agenta, procjena i naknadna obrada. Tijekom predstavljanja, model je u interakciji sa živim kontejnerskim okruženjem.
Ako generira kod koji ne prođe jedinični test ili sruši spremnik, dobiva trenutnu povratnu informaciju kroz uvježbavanje i učenje za pojačanje. Ovaj "zatvorena petlja" obrazovanje omogućuje modelu da uči iz povratnih informacija okoline, učeći ga da se oporavi od grešaka i poboljša rješenja u stvarnom vremenu.
Specifikacije proizvoda uključuju:
-
Podrška za 370 programskih jezika: Proširenje od 92 u prethodnim verzijama.
-
Poziv alata u stilu XML-a: Novi format qwen3_coder dizajniran za argumente pune stringova, dopuštajući modelu emitiranje dugih isječaka koda bez ugniježđenog navođenja i izbjegavanja dodatnih troškova tipičnih za JSON.
-
Fokus na razini spremišta: Srednja obuka proširena je na približno 600B tokena podataka na razini repozitorija, što se pokazalo učinkovitijim za logiku ovisnosti između datoteka nego sami skupovi podataka na razini datoteke.
Specijalizacija putem ekspertnih modela
Ključna razlika u cjevovodu Qwen3-Coder-Next je njegova upotreba specijaliziranih ekspertnih modela. Umjesto da obučava jedan opći model za sve zadatke, tim je razvio stručnjake specifične za domenu za web razvoj i korisničko iskustvo (UX).
Stručnjak za web razvoj cilja na cjelovite zadatke poput konstrukcije korisničkog sučelja i sastava komponenti. Svi uzorci koda prikazani su u Chromium okruženju kojim upravlja Playwright.
Za uzorke Reacta postavljen je Vite poslužitelj kako bi se osiguralo da su sve ovisnosti ispravno inicijalizirane. Vision-Language Model (VLM) zatim je ocjenjivao prikazane stranice u pogledu integriteta izgleda i kvalitete korisničkog sučelja.
Stručnjak za korisničko iskustvo optimiziran je za pridržavanje formata poziva alata u različitim CLI/IDE skelama kao što su Cline i OpenCode. Tim je otkrio da je obuka na različitim predlošcima za chat alata značajno poboljšala otpornost modela na nevidljive sheme u vrijeme postavljanja.
Nakon što su ovi stručnjaci postigli vrhunske performanse, njihove su sposobnosti destilirane natrag u jedan model 80B/3B MoE. Ovo osigurava da lagana inačica za implementaciju zadržava nijansirano znanje mnogo većih modela nastavnika.
Nadmašuje referentne vrijednosti uz visoku sigurnost
Rezultati ove specijalizirane obuke vidljivi su u konkurentskom položaju modela u odnosu na industrijske divove. U evaluacijama referentnih vrijednosti provedenim pomoću SWE-Agent skele, Qwen3-Coder-Next pokazao je iznimnu učinkovitost u odnosu na broj aktivnih parametara.
Na SWE-Bench Verified, model je postigao rezultat od 70,6%. Ova izvedba je izrazito konkurentna kada se stavi uz znatno veće modele; nadmašuje DeepSeek-V3.2, koji postiže rezultat od 70,2%, i samo malo zaostaje za rezultatom GLM-4.7 od 74,2%.
Ono što je ključno, model pokazuje snažnu inherentnu svijest o sigurnosti. Na SecCodeBenchu, koji ocjenjuje sposobnost modela da popravi ranjivosti, Qwen3-Coder-Next nadmašio je Claude-Opus-4.5 u scenarijima generiranja koda (61,2% u odnosu na 52,5%).
Značajno je da je zadržao visoke rezultate čak i kada nije dobio nikakve sigurnosne savjete, što ukazuje da je naučio predvidjeti uobičajene sigurnosne zamke tijekom svoje faze agentske obuke od 800 tisuća zadataka.
U višejezičnim višejezičnim sigurnosnim procjenama, model je također pokazao konkurentnu ravnotežu između funkcionalnog i sigurnog generiranja koda, nadmašivši i DeepSeek-V3.2 i GLM-4.7 na referentnoj vrijednosti CWEval s rezultatom func-sec@1 od 56,32%.
Izazivanje vlasničkih divova
Ovo izdanje predstavlja najznačajniji izazov dominaciji modela kodiranja zatvorenog koda u 2026. Dokazivanjem da model sa samo 3B aktivnih parametara može upravljati složenošću stvarnog softverskog inženjerstva jednako učinkovito kao i "div," Alibaba je učinkovito demokratizirala agentsko kodiranje.
The "aha!" trenutak za industriju je spoznaja da su duljina konteksta i propusnost dvije najvažnije poluge za agentski uspjeh.
Model koji može obraditi 262k tokena repozitorija u sekundama i provjeriti vlastiti rad u Docker spremniku u osnovi je korisniji od većeg modela koji je prespor ili preskup za ponavljanje.
Kao što Qwen tim zaključuje u svom izvješću: "Skaliranje agentske obuke, a ne sama veličina modela, ključni je pokretač za unaprjeđenje sposobnosti agenata za kodiranje u stvarnom svijetu". S Qwen3-Coder-Next, era of "mamut" model kodiranja možda se bliži kraju, zamijenjen ultrabrzim, rijetkim stručnjacima koji mogu razmišljati jednako duboko kao što mogu trčati.




