Oblak Znanja

  • Home
  • Novosti
  • Učionica
    • Informatika 5
    • Informatika 6
    • Informatika 7
    • Informatika 8
    • Logo jezik
    • WordPress
    • Microsoft Office
  • Vodiči
    • Online vodiči
    • Kratki savjeti
    • Korisne aplikacije
    • Društvene mreže
    • Multimedija
    • Zanimljivosti
✕

Qwen3-Coder-Next nudi vibe koderima snažan open source, ultra-sparse model s 10x većom propusnošću za repo zadatke

Novosti

Qwen3-Coder-Next nudi vibe koderima snažan open source, ultra-sparse model s 10x većom propusnošću za repo zadatke

Tomšić Damjan 4. veljače 2026

Tim istraživača AI-ja Qwen kineskog diva e-trgovine Alibaba pojavio se u posljednjih godinu dana kao jedan od globalnih predvodnika razvoja AI-ja otvorenog koda, izdajući mnoštvo moćnih velikih jezičnih modela i specijaliziranih multimodalnih modela koji se približavaju, au nekim slučajevima i nadmašuju performanse vlasničkih američkih lidera kao što su OpenAI, Anthropic, Google i xAI.

Sada se Qwen tim ponovno vraća ovaj tjedan s uvjerljivim izdanjem koje odgovara "vibe kodiranje" ludnica koja je nastala posljednjih mjeseci: Qwen3-Coder-Sljedećispecijalizirani model s 80 milijardi parametara dizajniran za isporuku elitnih agentičkih performansi unutar laganog aktivnog traga.

Izdan je pod dopuštenom licencom Apache 2.0, omogućujući komercijalnu upotrebu velikim poduzećima i nezavisnim programerima, s težine modela dostupne na Hugging Face u četiri varijante i a tehnički izvještaj opisujući neke od svojih pristupa obuci i inovacija.

Ovo izdanje označava veliku eskalaciju globalne utrke u naoružanju za ultimativnog pomoćnika kodiranja, nakon tjedna u kojem je svemir eksplodirao s novim sudionicima. Od ogromnog povećanja učinkovitosti Anthropicovog Claude Code pojasa do visokoprofilnog lansiranja OpenAI Codex aplikacije i brzog prihvaćanja open-source okvira kao što je OpenClaw od strane zajednice, konkurentsko okruženje nikada nije bilo prenatrpanije.

U ovom okruženju s visokim ulozima, Alibaba ne samo da drži korak – on pokušava postaviti novi standard za inteligenciju otvorene težine.

Za LLM donositelje odluka, Qwen3-Coder-Next predstavlja temeljni pomak u ekonomiji AI inženjerstva. Dok model sadrži 80 milijardi ukupnih parametara, on koristi ultra-rijetku arhitekturu Mixture-of-Experts (MoE) koja aktivira samo 3 milijarde parametara po prolazu naprijed.

Ovaj dizajn mu omogućuje isporuku sposobnosti razmišljanja koje se mogu mjeriti s masivnim vlasničkim sustavima, a istovremeno održava niske troškove implementacije i visoku propusnost laganog lokalnog modela.

Sadržaj objave

  • 1 Rješavanje uskog grla dugog konteksta
  • 2 Obučen da bude agent prvi
  • 3 Specijalizacija putem ekspertnih modela
  • 4 Nadmašuje referentne vrijednosti uz visoku sigurnost
  • 5 Izazivanje vlasničkih divova
    • 5.1 Povezani sadržaji

Rješavanje uskog grla dugog konteksta

Temeljni tehnički proboj iza Qwen3-Coder-Next je hibridna arhitektura dizajnirana posebno za zaobilaženje problema s kvadratnim skaliranjem koji muče tradicionalne Transformerse.

Kako se kontekstni prozori šire – a ovaj model podržava golemih 262.144 tokena – tradicionalni mehanizmi pažnje postaju računski previsoki.

Standardni transformatori pate od a "memorijski zid" gdje cijena obrade konteksta raste kvadratno s duljinom niza. Qwen to rješava kombinirajući Gated DeltaNet s Gated Attention.

Gated DeltaNet djeluje kao alternativa linearne složenosti standardnoj softmax pozornosti. Omogućuje modelu da održi stanje kroz svoj prozor od četvrt milijuna tokena bez eksponencijalnih kazni latencije tipičnih za razmišljanje s dugim horizontom.

U kombinaciji s ultra-sparse MoE, rezultat je teoretski 10x veći protok za zadatke na razini repozitorija u usporedbi s gustim modelima sličnog ukupnog kapaciteta.

Ova arhitektura osigurava da agent može "pročitati" cijelu Python biblioteku ili složeni JavaScript okvir i reagirati brzinom 3B modela, ali uz strukturno razumijevanje 80B sustava.

Kako bi spriječio halucinacije konteksta tijekom treninga, tim je koristio Best-Fit Packing (BFP), strategiju koja održava učinkovitost bez grešaka skraćivanja koje se nalaze u tradicionalnom ulančavanju dokumenata.

Obučen da bude agent prvi

The "Sljedeći" u nomenklaturi modela odnosi se na temeljni stožer u metodologiji obuke. Povijesno gledano, modeli kodiranja uvježbavani su na statičnim parovima kod-tekst – u biti a "samo za čitanje" obrazovanje. Qwen3-Coder-Next je umjesto toga razvijen kroz masivni "obuka agenata" cjevovod.

Tehničko izvješće detaljno opisuje cjevovod sinteze koji je proizveo 800.000 provjerljivih zadataka kodiranja. To nisu bili puki isječci; bili su to scenariji ispravljanja pogrešaka iz stvarnog svijeta iskopani iz zahtjeva za povlačenjem GitHub-a i upareni s potpuno izvršnim okruženjima.

Infrastruktura za obuku, poznata kao MegaFlow, je sustav orkestracije izvorni u oblaku koji se temelji na Alibaba Cloud Kubernetesu. U MegaFlowu, svaki agentski zadatak izražen je kao tijek rada u tri faze: uvođenje agenta, procjena i naknadna obrada. Tijekom predstavljanja, model je u interakciji sa živim kontejnerskim okruženjem.

Ako generira kod koji ne prođe jedinični test ili sruši spremnik, dobiva trenutnu povratnu informaciju kroz uvježbavanje i učenje za pojačanje. Ovaj "zatvorena petlja" obrazovanje omogućuje modelu da uči iz povratnih informacija okoline, učeći ga da se oporavi od grešaka i poboljša rješenja u stvarnom vremenu.

Specifikacije proizvoda uključuju:

  • Podrška za 370 programskih jezika: Proširenje od 92 u prethodnim verzijama.

  • Poziv alata u stilu XML-a: Novi format qwen3_coder dizajniran za argumente pune stringova, dopuštajući modelu emitiranje dugih isječaka koda bez ugniježđenog navođenja i izbjegavanja dodatnih troškova tipičnih za JSON.

  • Fokus na razini spremišta: Srednja obuka proširena je na približno 600B tokena podataka na razini repozitorija, što se pokazalo učinkovitijim za logiku ovisnosti između datoteka nego sami skupovi podataka na razini datoteke.

Specijalizacija putem ekspertnih modela

Ključna razlika u cjevovodu Qwen3-Coder-Next je njegova upotreba specijaliziranih ekspertnih modela. Umjesto da obučava jedan opći model za sve zadatke, tim je razvio stručnjake specifične za domenu za web razvoj i korisničko iskustvo (UX).

Stručnjak za web razvoj cilja na cjelovite zadatke poput konstrukcije korisničkog sučelja i sastava komponenti. Svi uzorci koda prikazani su u Chromium okruženju kojim upravlja Playwright.

Za uzorke Reacta postavljen je Vite poslužitelj kako bi se osiguralo da su sve ovisnosti ispravno inicijalizirane. Vision-Language Model (VLM) zatim je ocjenjivao prikazane stranice u pogledu integriteta izgleda i kvalitete korisničkog sučelja.

Stručnjak za korisničko iskustvo optimiziran je za pridržavanje formata poziva alata u različitim CLI/IDE skelama kao što su Cline i OpenCode. Tim je otkrio da je obuka na različitim predlošcima za chat alata značajno poboljšala otpornost modela na nevidljive sheme u vrijeme postavljanja.

Nakon što su ovi stručnjaci postigli vrhunske performanse, njihove su sposobnosti destilirane natrag u jedan model 80B/3B MoE. Ovo osigurava da lagana inačica za implementaciju zadržava nijansirano znanje mnogo većih modela nastavnika.

Nadmašuje referentne vrijednosti uz visoku sigurnost

Rezultati ove specijalizirane obuke vidljivi su u konkurentskom položaju modela u odnosu na industrijske divove. U evaluacijama referentnih vrijednosti provedenim pomoću SWE-Agent skele, Qwen3-Coder-Next pokazao je iznimnu učinkovitost u odnosu na broj aktivnih parametara.

Na SWE-Bench Verified, model je postigao rezultat od 70,6%. Ova izvedba je izrazito konkurentna kada se stavi uz znatno veće modele; nadmašuje DeepSeek-V3.2, koji postiže rezultat od 70,2%, i samo malo zaostaje za rezultatom GLM-4.7 od 74,2%.

Ono što je ključno, model pokazuje snažnu inherentnu svijest o sigurnosti. Na SecCodeBenchu, koji ocjenjuje sposobnost modela da popravi ranjivosti, Qwen3-Coder-Next nadmašio je Claude-Opus-4.5 u scenarijima generiranja koda (61,2% u odnosu na 52,5%).

Značajno je da je zadržao visoke rezultate čak i kada nije dobio nikakve sigurnosne savjete, što ukazuje da je naučio predvidjeti uobičajene sigurnosne zamke tijekom svoje faze agentske obuke od 800 tisuća zadataka.

U višejezičnim višejezičnim sigurnosnim procjenama, model je također pokazao konkurentnu ravnotežu između funkcionalnog i sigurnog generiranja koda, nadmašivši i DeepSeek-V3.2 i GLM-4.7 na referentnoj vrijednosti CWEval s rezultatom func-sec@1 od 56,32%.

Izazivanje vlasničkih divova

Ovo izdanje predstavlja najznačajniji izazov dominaciji modela kodiranja zatvorenog koda u 2026. Dokazivanjem da model sa samo 3B aktivnih parametara može upravljati složenošću stvarnog softverskog inženjerstva jednako učinkovito kao i "div," Alibaba je učinkovito demokratizirala agentsko kodiranje.

The "aha!" trenutak za industriju je spoznaja da su duljina konteksta i propusnost dvije najvažnije poluge za agentski uspjeh.

Model koji može obraditi 262k tokena repozitorija u sekundama i provjeriti vlastiti rad u Docker spremniku u osnovi je korisniji od većeg modela koji je prespor ili preskup za ponavljanje.

Kao što Qwen tim zaključuje u svom izvješću: "Skaliranje agentske obuke, a ne sama veličina modela, ključni je pokretač za unaprjeđenje sposobnosti agenata za kodiranje u stvarnom svijetu". S Qwen3-Coder-Next, era of "mamut" model kodiranja možda se bliži kraju, zamijenjen ultrabrzim, rijetkim stručnjacima koji mogu razmišljati jednako duboko kao što mogu trčati.

Web izvor

Povezani sadržaji

  • Moja 2 omiljena alata za čitanje stranica priručnika za Linux na jednostavan načinMoja 2 omiljena alata za čitanje stranica priručnika za Linux na jednostavan način
  • Vaping je ‘posvuda’ u školama—pokreće bum nadzora kupaonicaVaping je ‘posvuda’ u školama—pokreće bum nadzora kupaonica
  • Cloudflare popravlja drugi prekid u mjesec danaCloudflare popravlja drugi prekid u mjesec dana
  • From pilot to profit: The real path to scalable, ROI-positive AIFrom pilot to profit: The real path to scalable, ROI-positive AI
  • Britansko altnet tržište ‘ulazi u najopasniju fazu dosad’Britansko altnet tržište ‘ulazi u najopasniju fazu dosad’
  • Intervju: Holland & Barrett CDO Pripremajući Michelinovu strategiju podataka vrijednu zvijezdeIntervju: Holland & Barrett CDO Pripremajući Michelinovu strategiju podataka vrijednu zvijezde

Previous Article

Rastuće temperature narušavaju zdravlje sna

Posljednje objave

Qwen3-Coder-Next nudi vibe koderima snažan open source, ultra-sparse model s 10x većom propusnošću za repo zadatke

Qwen3-Coder-Next nudi vibe koderima snažan open source, ultra-sparse model s 10x većom propusnošću za repo zadatke

Rastuće temperature narušavaju zdravlje sna

Rastuće temperature narušavaju zdravlje sna

Mjesecima sam se mučio s Hyprlandom, sve dok ga ova distribucija temeljena na Archu nije popravila

Sadržaj

  • 1 Rješavanje uskog grla dugog konteksta
  • 2 Obučen da bude agent prvi
  • 3 Specijalizacija putem ekspertnih modela
  • 4 Nadmašuje referentne vrijednosti uz visoku sigurnost
  • 5 Izazivanje vlasničkih divova

Novosti

  • Qwen3-Coder-Next nudi vibe koderima snažan open source, ultra-sparse model s 10x većom propusnošću za repo zadatke 4. veljače 2026
  • Rastuće temperature narušavaju zdravlje sna 4. veljače 2026
  • Mjesecima sam se mučio s Hyprlandom, sve dok ga ova distribucija temeljena na Archu nije popravila 4. veljače 2026
  • Kako uključiti način privatnog DNS-a na Androidu – i zašto je to obavezno radi sigurnosti 3. veljače 2026
  • Gdje je ažuriranje Pixela za veljaču? 3. veljače 2026
  • Kako broj igrača opada, Highguard čini zapravo prilično dobar način 5v5 trajnim 3. veljače 2026
  • E& enterprise donosi agentsku umjetnu inteligenciju u MENAT 3. veljače 2026
  • Zajednička memorija je sloj koji nedostaje u AI orkestraciji 3. veljače 2026
  • HHS koristi AI alate iz Palantira za ciljanje ‘DEI’ i ‘rodne ideologije’ u grantovima 3. veljače 2026
  • Zaboravite Google pretraživanje: pronašao sam alat za pretraživanje koji me ne prati niti gura AI – i postaje bolji 2. veljače 2026

O nama

Oblak Znanja je blog edukativnog karaktera i namijenjen je svima koji žele unaprijediti svoje znanje iz područja računala i interneta.

Naš cilj je edukacija i pisanje zanimljivih objava kojima ćemo zajedno učiti i informirati se o svijetu informatike.

Na ovom blogu zabranjeno je svako kopiranje sadržaja bez dozvole autora.

Oblak Znanja

Oznake

besplatni powerpoint predlošci društvene mreže excel facebook firefox gmail google+ Google Chrome halloween halloween walpapers internet kartice linkedin profil linux microsoft Mozilla Firefox ms powerpoint oblak znanja office 2007 office savjeti online kupovina pick powerpoint powerpoint predložak powerpoint savjeti rastući niz savjet slike za radnu površinu spremanje datoteka strani jezik tipkovnicke kratice twitter twitter alati uređivanje slika wallpaper clock web preglednik windows windows 7 windows aplikacije windows vista word word 2007 word savjeti youtube savjeti youtube tipkovničke kratice