Pridružite se našim dnevnim i tjednim biltenima za najnovija ažuriranja i ekskluzivni sadržaj na vodećim AI pokrivenosti. Saznati više
Na nedavnoj konferenciji NVIDIA GTC, tvrtka je otkrila ono što je opisala kao prvi sustav poslužitelja koji je mogao jedan exaflop-milijardu milijardi ili kvintillijuna, operacijama s pomičnim točkama (FLOPS) u sekundi. Ovaj proboj temelji se na najnovijem sustavu GB200 NVL72, koji uključuje NVIDIA -ove najnovije jedinice za obradu grafike Blackwell (GPUS). Standardni računalni stalak visok je oko 6 stopa, dubinski nešto više od 3 metra i manje od 2 metra.
Sadržaj objave
Smanjivanje Exaflopa: od granice do Blackwella
Pogodilo me nekoliko stvari o najavi. Prvo, prvo svjetsko računalo koje se može uspostaviti na exaflop instalirano je prije samo nekoliko godina, 2022. godine, u Nacionalnom laboratoriju Oak Ridge. Za usporedbu, “granično” superračunalo koje je izgradio HPE, a napajalo ga AMD GPU i CPU, izvorno se sastojalo od 74 stalka poslužitelja. Novi NVIDIA sustav postigao je otprilike 73x veću gustoću performansi u samo tri godine, što je ekvivalentno trostrukoj performansama svake godine. Ovaj napredak odražava izvanredan napredak u računalnoj gustoći, energetskoj učinkovitosti i arhitektonskom dizajnu.
Drugo, potrebno je reći da, iako su oba sustava pogodila prekretnicu Exascale, izgrađeni su za različite izazove, jedan optimiziran za brzinu, a drugi za preciznost. Exaflop specifikacija NVIDIA-e temelji se na matematici niže preciznosti-posebno 4-bitnim i 8-bitnim operacijama s pomičnim za točke-smatra se optimalnim za radno opterećenje AI, uključujući zadatke poput treninga i pokretanja velikih jezičnih modela (LLMS). Ovi izračuni daju prioritet brzini nad preciznošću. Suprotno tome, Exaflop ocjena za Frontier postignuta je 64-bitnom dvostrukom preciznom matematikom, zlatnim standardom za znanstvene simulacije u kojima je točnost kritična.
Došli smo dug put (vrlo brzo)
Ova razina napretka čini se gotovo nevjerojatnom, pogotovo što se sjećam najsuvremenije kada sam započela karijeru u računalnoj industriji. Moj prvi profesionalni posao bio je programer na DEC KL 1090. Ovaj stroj, dio DEC-ove PDP-10 serije TimeShare Mainframes, ponudio je 1,8 milijuna uputa u sekundi (MIPS). Osim svojih performansi CPU -a, stroj spojen na katodnu Ray Tube (CRT) prikazuje se putem tvrdog kabela. Nije bilo grafičkih mogućnosti, samo lagani tekst na tamnoj pozadini. I naravno, nema interneta. Daljinski korisnici povezani preko telefonskih linija koristeći modeme koji rade brzinom do 1.200 bita u sekundi.
500 milijardi puta više računanja
Iako uspoređivanje MIPS -a s FLOPS -om daje opći osjećaj napretka, važno je zapamtiti da ove metrike mjere različita radna opterećenja. MIPS odražava cijelu brzinu obrade, što je korisno za računalstvo opće namjene, posebno u poslovnim aplikacijama. FLOPS mjeri performanse plutajuće točke koje su ključne za znanstvena radna opterećenja i tešku rušenje broja iza modernog AI, poput matične matematike i linearne algebre koja se koristi za treniranje i pokretanje modela strojnog učenja (ML).
Iako nije izravna usporedba, čista skala razlike između MIPS -a tada i FLOPS sada pruža snažnu ilustraciju brzog rasta računalnih performansi. Koristeći ih kao grubi heuristički za mjerenje obavljenih radova, novi NVIDIA sustav je otprilike 500 milijardi puta snažniji od stroja DEC -a. Takav skok pokazuje eksponencijalni rast računalne snage tijekom jedne profesionalne karijere i postavlja pitanje: ako je taj napredak moguć za 40 godina, što bi sljedećih 5 mogao donijeti?
Nvidia je sa svoje strane ponudila neke tragove. Na GTC-u je tvrtka podijelila mapu puta koji je predviđao da će njegov sustav pune generacije ultra arhitekture „Vera Rubin“ pružiti 14x performanse Blackwell Ultra stalakske broda ove godine, dosegnuvši negdje između 14 i 15 exaflops u AI-optimiziranom radu u sljedećoj godini ili dvije.
Jednako je zapažena i učinkovitost. Postizanje ove razine performansi u jednom stalku znači manje fizičkog prostora po jedinici rada, manje materijala i potencijalno niže potrošnje energije po operaciji, iako apsolutni zahtjevi za napajanjem ovih sustava ostaju neizmjerni.
Iako su takvi dobici performansi doista impresivni, AI industrija se sada suočava s temeljnim pitanjem: Koliko je računalna snaga uistinu potrebna i po koju cijenu? Utrka za izgradnju ogromnih novih AI podatkovnih centara pokreće rastući zahtjevi Exascale računarstva i sve više sposobnih AI modela.
Najambiciozniji napor je Stargate projekta u iznosu od 500 milijardi dolara, koji predviđa 20 podatkovnih centara širom SAD -a, a svaki se proteže na pola milijuna četvornih metara. Val drugih hiperscale projekata je ili u tijeku ili u fazama planiranja širom svijeta, jer se tvrtke i države trude kako bi osigurale da imaju infrastrukturu za podršku AI radnom opterećenju sutrašnjih.
Neki analitičari se sada brinu da bismo mogli prevladati kapacitet AI podatkovnog centra. Zabrinutost se pojačala nakon objavljivanja R1, modela obrazloženja kineskog Deepseeka koji zahtijeva znatno manje izračunavanja od mnogih njegovih vršnjaka. Microsoft je kasnije otkazao najmove s više pružatelja usluga podatkovnog centra, što je izazvalo nagađanja da bi mogao ponovno kalibrirati svoja očekivanja za buduću potražnju AI infrastrukture.
Međutim, Registar predložen Da ovaj povrat može imati više veze s nekim planiranim AI podatkovnim centrima koji nemaju dovoljno robusnu sposobnost da podržavaju potrebe za napajanjem i hlađenjem AI sustava sljedećeg gena. Već AI modeli guraju granice onoga što sadašnja infrastruktura može podržati. MIT tehnološki pregled prijavljen Da je to razlog zbog kojeg se mnogi podatkovni centri u Kini bore i ne uspijevaju, jer su izgrađeni do specifikacija koje nisu optimalne za sadašnju potrebu, a kamoli onih u sljedećih nekoliko godina.
AI zaključivanje zahtijeva više flopa
Modeli obrazloženja provode većinu svog rada u vrijeme izvođenja kroz proces poznat kao zaključak. Ovi modeli danas pokreću neke od najnaprednijih i resursnih aplikacija, uključujući duboke istraživačke asistente i novi val agentnih AI sustava.
Dok je DeepSeek-R1 u početku prekršio industriju misleći da bi budućnost AI mogao zahtijevati manje Računalna snaga, predsjednik Uprave Nvidia Jensen Huang teško je gurnuo natrag. Govor CNBC -u se suprotstavio ovoj percepciji: “Bio je upravo suprotan zaključak koji su svi imali.” Dodao je da obrazloženje AI troši 100x više računarstva od AI-a koji nije ometao.
Kako se AI i dalje razvija od modela obrazloženja do autonomnih agenata i šire, potražnja za računanjem vjerojatno će se još jednom povećati. Sljedeći proboji mogu doći ne samo u jeziku ili viziji, već i u koordinaciji AI agenta, simulacijama fuzije ili čak digitalnim blizancima velikih razmjera, a svaki je omogućio vrstu računalne sposobnosti koju smo upravo svjedočili.
Naizgled u Cueu, OpenAi je upravo najavio 40 milijardi dolara novog financiranja, najvećeg privatnog tehnološkog financiranja. Tvrtka je rekla u a blog blog Da financiranje “omogućava nam još više guranje granica istraživanja AI, razmjera našu računalnu infrastrukturu i isporučuje sve moćnije alate za 500 milijuna ljudi koji svaki tjedan koriste chatgpt.”
Zašto toliko kapitala ulazi u AI? Razlozi se kreću od konkurentnosti do nacionalne sigurnosti. Iako se ističe jedan određeni faktor, kao što je primjer McKinsey naslov: “AI bi mogao povećati korporativni profit za 4,4 bilijuna dolara godišnje.”
Što slijedi? To je bilo tko nagađanje
U svojoj srži, informacijski sustavi se odnose na apstrahiranje složenosti, bilo da sam putem sustava usmjeravanja vozila jednom napisao u Fortranu, alatu za izvještavanje o studentskom dostignuću izgrađenom u Cobolu ili modernim AI sustavima koji ubrzavaju otkrivanje lijekova. Cilj je oduvijek bio isti: da se više osjeća u svijetu.
Sada, s moćnim AI koji se počinje pojavljivati, prelazimo prag. Po prvi put možemo imati računalnu moć i inteligenciju za rješavanje problema koji su nekada bili izvan ljudskog dosega.
Kolumnist New York Timesa Kevin Roose nedavno dobro uhvaćen ovaj trenutak: “Svaki tjedan susrećem inženjere i poduzetnike koji rade na AI-u koji mi kažu da je promjena-velika promjena, promjena svjetske tresenja, vrsta transformacije koju nikad prije nismo vidjeli-nalazi se iza ugla.” A to čak ni ne broji proboji koji stižu svaki tjedan.
Upravo u proteklih nekoliko dana vidjeli smo da je GPT-4o OpenAi generirao Gotovo savršene slike Iz teksta, Google izdanje Ono što je možda najnapredniji model obrazloženja, do sada u GEMINI 2.5 Pro i Runway, otkrio je video model s dosljednošću lika i scene, nešto što je VentureBeat Notes do sada izbjeglo većinu AI video generatora.
Ono što slijedi uistinu je pretpostavka. Ne znamo hoće li moćni AI biti proboj ili slom, hoće li pomoći u rješavanju fuzijske energije ili osloboditi nove biološke rizike. No, s sve više flopa koji dolazi na mreži tijekom sljedećih pet godina, čini se da će jedna stvar biti sigurna: inovacija će doći brzo – i silom. Također je jasno da se, kako se skaliraju flops, moraju i naši razgovori o odgovornosti, regulaciji i suzdržavanju.
Gary Grossman je EVP tehnološke prakse u Edelman i globalno vodstvo Edelmanovog AI centra izvrsnosti.
Web izvor


