Želite pametnije uvide u vašu pristiglu poštu? Prijavite se za naše tjedne biltene kako biste dobili samo ono što je važno za vođe AI, podataka i sigurnosti. Pretplatite se sada
Prošlo je nešto više od mjesec dana otkako je kineski pokretač AI DeepSeek, udruživanje high-flyer Capital Management sa sjedištem u Hong Kongu, objavio najnoviju verziju svog hit modela otvorenog koda DeepSeek, R1-0528.
Kao i njegov prethodnik, DeepSeek-R1-koji je ljuljao AI i globalne poslovne zajednice s tim kako je jeftino osposobljeno i koliko je dobro obavljao zadatke obrazloženja, a sve dostupno programerima i poduzećima besplatno-R1-0528 već se prilagođava i remiksiraju drugi AI laboratoriji i programerima.
Ovaj tjedan 24-godišnja njemačka tvrtka TNG Technology Consulting GmbH je objavio jedan Takva adaptacija: Deepseek-tng r1t2 himeranajnoviji model u njegovoj obitelji Chimera velikog jezika (LLM). R1t2 donosi značajno poticaj učinkovitosti i brzine, postižući više od 90% R1-0528-ovih referentnih rezultatadok generira odgovore s Manje od 40% broja izlaznog tokena R1-0528.
To znači da daje kraće odgovore, prevodeći izravno u Brži zaključak i niži troškovi izračunavanja. Na kartici modela TNG objavljen za svoj novi R1T2 na zajednici zagrljaja AI koda zagrljaj lica, tvrtka navodi da je “oko 20% brže od redovnog R1” (onog objavljenog u siječnju) “i više nego dvostruko brže od R1-0528” (službeno ažuriranje svibnja iz Deepseeka).
Već je odgovor bio nevjerojatno pozitivan od zajednice AI programera. “Prokletstvo! DeepSeek R1T2-200% brže od R1-0528 i 20% brže od R1”, napisao je Vaibhav (VB) Srivastav, stariji vođa za Hugging Face, na x. “Značajno je bolje od R1 na GPQA & AIME 24, napravljeno putem sastavljanja stručnjaka s DS V3, R1 i R1-0528-i to je licencirano na MIT, dostupno na zagrljajnom licu.”
Taj je dobitak omogućen TNG-ovom metodom za sastavljanje eksperts (AOE)-tehnika za izgradnju LLM-a selektivnim spajanjem tenzora težine (unutarnjih parametara) iz više unaprijed obučenih modela koje je TNG opisao u a Rad objavljen u svibnju Na ARXIV-u, ne-peer pregledao internetski časopis za otvoreni pristup.
Nasljednik originalne R1T Chimera, R1T2 uvodi novu konfiguraciju „Tri-Mind“ koja integrira tri matična modela: DeepSeek-R1-0528, DeepSeek-R1 i DeepSeek-V3-0324. Rezultat je model koji je projektiran za održavanje visoke sposobnosti rasuđivanja, a istovremeno smanjuje troškove zaključivanja.
R1T2 se konstruira bez daljnjeg prilagođavanja ili prekvalifikacije. Nasljeđuje snagu rezonovanja R1-0528, strukturirane misaone obrasce R1 i sažeto ponašanje usmjereno na upute V3-0324-pružajući učinkovitiji, a opet sposoban model za korištenje poduzeća i istraživanja.
Sadržaj objave
Kako se sastavljanje preglednika (AOE) razlikuje od smjese propisa (MOE)
Mješavina ekspera (MOE) je arhitektonski dizajn u kojem su različite komponente ili „stručnjaci“ uvjetno aktivirane po ulazu. U LLM-ovima poput DeepSeek-V3 ili Mixtral-a, samo podskup stručnih slojeva modela (npr. 8 od 256) aktivan je tijekom bilo kojeg danog tokena naprijed. To omogućava vrlo velikim modelima da postignu veći broj parametara i specijalizaciju, a istovremeno održavaju troškove zaključivanja – jer se procjenjuje samo djelić mreže po tokenu.
Sastavljanje pregledi (AOE) je model tehnike spajanja, a ne arhitektura. Koristi se za stvaranje novog modela iz više unaprijed obučenih modela MOE selektivno interpolirajući svoje tenzore utega.
“Stručnjaci” u AOE odnose se na komponente modela koje se spoje – obično usmjereni stručni tenzori unutar slojeva MOE – a ne stručnjaci dinamički aktivirani u vrijeme izvođenja.
TNG-ova implementacija AOE-a usredotočena je prvenstveno na spajanje usmjerenih stručnih tenzora-dio modela koji je najodgovorniji za specijalizirano rasuđivanje-dok često zadržava učinkovitije slojeve dijeljenja i pozornosti od bržih modela poput V3-0324. Ovaj pristup omogućuje rezultirajućim Chimera modelima da nasljeđuju snagu o rasuđivanju bez ponovnog ponavljanja verbosity ili kašnjenja najjačih matičnih modela.
Performanse i brzina: što zapravo pokazuju referentne vrijednosti
Prema usporedbama referentnih vrijednosti koje je predstavio TNG, R1t2 postiže između 90% i 92% Od obrazloženja svog najinteligentnijeg roditelja, DeepSeek-R1-0528, mjereno od strane AIME-24, AIME-25 i GPQA-DIAMONDSKE SETS.
Međutim, za razliku od DeepSeek-R1-0528-što ima tendenciju da proizvodi duge, detaljne odgovore zbog produženog obrazloženja lanca-R1T2 je zamišljen da bude mnogo sažetiji. Donosi slične inteligentne odgovore, koristeći znatno manje riječi.
Umjesto da se usredotoči na vrijeme sirovog obrade ili tokene po sekundi, TNG mjeri “brzinu” u smislu Broj izlaznog tokena po odgovoru – Praktični punomoćnik i za troškove i za latenciju. Prema referentnim vrijednostima koje dijeli TNG, R1T2 generira odgovore koristeći otprilike 40% tokena zahtijeva R1-0528.
To znači a 60% smanjenje izlazne duljinešto izravno smanjuje vrijeme zaključivanja i izračunava opterećenje, ubrzavajući odgovore za 2x ili 200%.
U usporedbi s originalnim DeepSeek-R1, R1T2 je također oko 20% više sažeti u prosjekunudeći značajne dobitke učinkovitosti za implementaciju visoke propusnosti ili troškova.
Ova učinkovitost ne dolazi po cijenu inteligencije. Kao što je prikazano u referentnom grafikonu predstavljenom u TNG -ovom tehničkom radu, R1T2 sjedi u poželjnoj zoni na krivulji inteligencije i izlaznih troškova. Očuva kvalitetu rezonovanja uz minimiziranje verbosity – ishod kritičan za poslovne aplikacije gdje je brzina zaključivanja, propusnost i koštati sve materije.
Razmatranja i dostupnost raspoređivanja
R1T2 je objavljen pod dopuštenom licencom za MIT i dostupan je sada na zagrljaju lica, što znači da je otvoreni izvor i dostupan je za upotrebu i ugradnju u komercijalne aplikacije.
TNG napominje da, iako je model dobro prilagođen za zadatke općih rasuđivanja, trenutno se ne preporučuje za slučajeve upotrebe koji zahtijevaju pozivanje na funkciju ili uporabu alata, zbog ograničenja naslijeđenih iz njegove DeepSeek-R1 loze. Oni se mogu riješiti u budućim ažuriranjima.
Tvrtka također savjetuje europske korisnike da procjenjuju poštivanje Zakona o AI -u EU -a koji stupa na snagu 2. kolovoza 2025. godine.
Poduzeća koja djeluju u EU trebala bi pregledati relevantne odredbe ili razmotriti zaustavljanje korištenja modela nakon tog datuma ako se zahtjevi ne mogu ispuniti.
Međutim, američke tvrtke koje posluju u zemlji i servisiraju korisnike sa sjedištem u SAD-u ili one drugih naroda ne U skladu s uvjetima Zakona o EU AI, koji bi im trebao dati značajnu fleksibilnost prilikom korištenja i implementacije ovog besplatnog, brzog modela rasuđivanja otvorenog koda. Ako servisiraju korisnike u EU, neki Odredbe Zakona o EU i dalje će se primjenjivati.
TNG je već učinio prethodne varijante himere dostupnim putem platformi poput OpenRouter i Chutes, gdje su navodno obrađivali milijarde tokena dnevno. Oslobađanje R1T2 predstavlja daljnju evoluciju u ovom naporu za dostupnost javnosti.
O TNG Technology Consulting GmbH
Osnovan u siječnju 2001., TNG Technology Consulting GmbH Sa sjedištem u Bavari, Njemačka i zapošljava preko 900 ljudi, s visokom koncentracijom doktorata i tehničkih stručnjaka.
Tvrtka se fokusira na razvoj softvera, umjetnu inteligenciju i DevOps/Cloud Services, opslužujući glavne klijente poduzeća u industrijama kao što su telekomunikacije, osiguranje, automobilska, e-trgovina i logistika.
TNG djeluje kao savjetovanje utemeljeno na vrijednostima. Njegova jedinstvena struktura, utemeljena na principima operativnih istraživanja i samoupravljanja, podržava kulturu tehničke inovacije.
Aktivno doprinosi zajednicama otvorenog koda i istraživanjima, što je pokazano kroz javna izdanja poput R1T2 i objavljivanjem njegove metodologije sastavljanja.
Što to znači za donositelje tehničkih odluka poduzeća
Za CTOS, vlasnike AI platforme, inženjerski vodiči i IT timovi za nabavu, R1T2 uvodi opipljive koristi i strateške mogućnosti:
- Niži troškovi zaključivanja: S manje izlaznih tokena po zadatku, R1T2 smanjuje vrijeme i potrošnju energije GPU-a, prevodeći izravno u uštedu infrastrukture-posebno važno u okruženjima visoke propusnosti ili u stvarnom vremenu.
- Visoka kvaliteta obrazloženja bez režijskih troškova: Očuva velik dio obrazloženja moć vrhunskih modela poput R1-0528, ali bez njihove dugotrajnosti. To je idealno za strukturirane zadatke (matematika, programiranje, logika) gdje su poželjniji sažeti odgovori.
- Otvoreno i izmjenjivo: Licenca MIT-a omogućava potpunu kontrolu i prilagodbu implementacije, omogućavajući privatni hosting, poravnavanje modela ili daljnju obuku u reguliranom ili zračnom okruženju.
- Modularnost u nastajanju: AOE pristup sugerira budućnost u kojoj su modeli izgrađeni modularno, omogućujući poduzećima da sastavljaju specijalizirane varijante rekombinirajući snage postojećih modela, a ne prekvalifikaciju ispočetka.
- Upozorenje: Poduzeća koja se oslanjaju na funkcionalno pozivanje, korištenje alata ili orkestracija naprednog agenta trebaju imati zabilježena trenutna ograničenja, iako buduća ažuriranja himere mogu se baviti tim nedostacima.
TNG potiče istraživače, programere i korisnike poduzeća da istražuju model, testiraju njegovo ponašanje i pružaju povratne informacije. R1T2 himera je dostupna na Huggingface.co/tngtech/deepseek-tng-r1t2-chimeraa tehničke upiti mogu se usmjeriti na istraživanje@tngtech.com.
Za metodologiju tehničke pozadine i referentne vrijednosti, TNG -ov istraživački rad dostupan je na ARXIV: 2506.14794.
Web izvor




