Pratite ZDNET: Dodajte nas kao željeni izvor na Googleu.
Sadržaj objave
Ključni podaci ZDNET-a za van
- AI radi na Linuxu. Razdoblje. Nema zamjena.
- Canonical i Red Hat grade Linux distribucije specifične za Nvidia Vera Rubin.
- Linux kernel se podešava za radna opterećenja AI i ML.
Moderna umjetna inteligencija započela je s otvorenim kodom i radila je na Linuxu. Danas Linux nije važan samo za umjetnu inteligenciju; to je temelj na kojem se danas temelji čitava moderna umjetna inteligencija. Od hiperrazmjernih klastera za obuku do rubnih okvira za zaključivanje, sve je to Linux od vrha do dna.
Također: Isprobao sam distribuciju Linuxa koja obećava besplatan, ugrađeni AI – i stvari su postale čudne
Čarobni trikovi umjetne inteligencije zapravo su agregatni rezultat vrlo prozaične infrastrukture: superračunala, GPU farme i klasteri u oblaku koji gotovo svi pokreću neku vrstu Linuxa. Osnovni okviri strojnog učenja — TensorFlow, PyTorch, scikit-learn i prijatelji — svi su bili prvo razvijen i podešen na Linuxu. Alati oko ovih alata, od Jupytera i Anaconde do Dockera i Kubernetesa, na sličan su način optimizirani za Linux.
Zašto će IT poslovi živjeti i umrijeti na Linuxu
Zašto? Zato što istraživači i proizvodni inženjeri zapravo postavljaju AI na Linux. Budući IT poslovi živjet će i umrijeti na Linuxu.
Vidite, AI radi na Linuxu jer je to najfleksibilnije, najsnažnije i skalabilno okruženje za GPU-teška, distribuirana radna opterećenja koja moderna AI zahtijeva. Osim toga, cijeli ekosustav alata i oblaka standardiziran je za Linux.
Da, svaka AI platforma, bilo da se radi o OpenAI, Copilot, Perplexity, Anthropic ili vašem omiljenom AI chatbotu, izgrađena je na Linuxu, plus upravljački programi, biblioteke i orkestracija, a sve je spojeno na različite načine. Vlasnički dijelovi mogu prigrabiti marku, ali bez Linuxa, oni su nigdje.
To se prevodi u više Linux poslova.
Kao Linux Foundation’s Izvješće o stanju tehničkih talenata za 2025 Primijećeno je da umjetna inteligencija dovodi do neto povećanja tehnoloških poslova, posebice Linux poslova. Kako ovo izgleda svodi se na “AI [is] preoblikovanje uloga umjesto njihovog uklanjanja”, prema izvješću, “što dovodi do promjena u potražnji vještina i novih prilika za rast radne snage.”
Osim povećanja poslova administracije Linux sustava i mreže, stranica Linux karijere vidi “brzo rastući trend koji uključuje profesionalci koji kombiniraju stručnost o Linuxu s umjetnom inteligencijom i operacije strojnog učenja.” Takvi novi poslovi za AI/Linux uključuju stručnjaka za AI operacije, MLOps inženjera, ML inženjera i DevOps/AI inženjera.
Naravno, distributeri Linuxa sve to znaju, zbog čega, kada izađu nove Linux distribucije, njihovi proizvođači ističu značajke umjetne inteligencije.
Na primjer, Kanonski i Crveni šešir utrkuju se postaviti svoje Linux zastave na Nvidijinu novu Vera Rubin AI superračunalnu platformu. Utrka je u tijeku da se vidi tko će posjedovati sloj operativnog sustava “gigascale AI tvornica”.
Sa svoje strane, Red Hat predstavlja Red Hat Enterprise Linux (RHEL) za Nvidia. Ovo odabrano izdanje RHEL-a optimizirano je posebno za Nvidijinu Rubin platformu, uključujući Vera Rubin NVL72 sustavi regalnih vaga.
Također: Kako AI i Rust mijenjaju Linux i Windows programiranje
Tvrtka kaže da će se ova varijanta isporučivati s podrškom Day 0 za Vera CPU, Rubin GPU i Nvidijin CUDA X stack, s potvrđenim OpenRM upravljačkim programima i alatima isporučenim izravno putem Red Hat repozitorija.
Linux kernel i AI
Canonical također uvodi službenu Ubuntu podršku za Nvidia Rubin platformu, također ciljajući na Vera Rubin NVL72. Tvrtka sa sjedištem u Londonu svoju priču temelji na tome da prilagođeni Arm-bazirani Vera CPU postane “građanin prve klase”, s x86 paritetom u nadolazećem izdanju Izdanje Ubuntu 26.04.
Dakle, za razliku od Red Hata, koji ima RHEL samo za Nvidijine procesore, novi Ubuntu će podržavati Nvidiju. Ova verzija će također imati uzvodne značajke kao što su Ugniježđena virtualizacija i ARM particioniranje i praćenje memorije (MPAM) za bolju particiju propusnosti memorije i predmemorije za radna opterećenja umjetne inteligencije s više korisnika.
Također: Čak i Linus Torvalds sada kodira vibe
Ono što pokreće sve ovo je Linux kernel koji je postojano modificiran kako bi održao korak s AI-jevim proždrljivim apetitom za hardverskim ubrzanjem. Moderne jezgre upravljaju GPU-om i specijaliziranim upravljačkim programima akceleratora, sofisticiranim upravljanjem memorijom za brzo premještanje tenzora i planerima podešenim za masivne paralelne paketne poslove.
Ukratko, kernel je tijekom posljednjeg desetljeća preinačen kako bi postao operativni sustav za AI hardverske akceleratore.
Memorija: stavljanje podataka tamo gdje su GPU-ovi
Konkretno, jedan od najvažnijih pokretača bio je Heterogeno upravljanje memorijom. To omogućuje da se memorija uređaja, kao što je grafička procesorska jedinica/video memorija s izravnim pristupom (GPU VRAM), integrira u podsustav virtualne memorije Linuxa.
To, u kombinaciji s međuspremnikom izravnog pristupa memoriji (DMA-BUF) i Nejednolik pristup memoriji (NUMA) optimizacija, omogućuje AI runtimes da drže tenzore blizu akceleratora i smanjuju kopiranje podataka, što ima tendenciju usporavanja performansi.
Također: Evo kako sam konačno riješio škakljiv Linux problem s ovom AI terminalskom aplikacijom
Nedavni kerneli također tretiraju napredne CPU-GPU kombinacije, kao što su čvrsto povezani CPU/GPU čvorovi u stilu NUMA, kao građane prve klase. Uz to, memorija se može migrirati između RAM-a priključenog na CPU i GPU memorije visoke propusnosti na zahtjev.
Ovo, kako je objasnila Nvidia, “omogućuje CPU-u i GPU-u da dijele jednu tablicu stranica po procesu, omogućavanje svim CPU i GPU nitima pristupa svoj memoriji dodijeljenoj sustavu.”
Akceleratori: pravi podsustav, a ne dodatak
Linux sada ima namjenski podsustav računalnih akceleratora koji je dizajniran za izlaganje GPU-ova, jedinica za obradu tenzora (TPU) i prilagođenih integriranih sklopova specifičnih za AI aplikaciju (ASIC) vašim programima za umjetnu inteligenciju i strojno učenje (ML).
Povrh toga, GPU podrška je sazrijela od grafičke prve do računalne teške, putem Direct Rendering Managera (DRM), otvorenih skupova kao što su ROCm i OpenCL i Nvidijinih upravljačkih programa Compute Unified Device Architecture (CUDA).
Također: AI je već dio sustava Linuxa – sviđalo se to programerima ili ne
Rad na kernelu proširio se na novije AI akceleratore kao što su Intelov Habana Gaudi, Googleov Edge TPU i FPGA/ASIC ploče, s upravljačkim programima i apstrakcijama sabirnice. To omogućuje AI programima kao što su PyTorch ili TensorFlow da ih vide i koriste kao samo još jedan uređaj. Stoga, svatko tko danas proizvodi novi AI silicij s pravom pretpostavlja da će Linux raditi na njemu.
Raspored: hranjenje gladnih akceleratora
Linuxov zadani planer, Prvo najraniji prihvatljivi virtualni rok (EEVDF)planer u stvarnom vremenu i NUMA balansiranje svi su podešeni kako bi omogućili radnim opterećenjima umjetne inteligencije da prikvače CPU, izoliraju bučne susjede i ubrzivače feedova bez podrhtavanja. Raditi na podizanje zadane frekvencije mjerača vremena jezgre s 250 Hz na 1000 Hz već pokazuje mjerljiva poboljšanja u ubrzanju Large Language Model (LLM) uz zanemarivu cijenu energije.
Također: Pronašao sam 7 osnovnih Linux aplikacija za studente – uključujući lokalnu umjetnu inteligenciju
Iako nije zadana postavka za Linux, neke distribucije, poput Ubuntu kerneli niske latencijesada dolazi s ovim kao standardnom postavkom.
Izravni putovi: izbacivanje CPU posrednika
Moderne jezgre omogućuju GPU-ovima izravan pristup memoriji, pohrani, pa čak i ravnopravnim uređajima, koristeći tehnologije poput Nvidijine GPUDirect i peer-to-peer DMA. U kombinaciji sa Compute Express Link (CXL) i poboljšano rukovanje Input/Output Memory Management Unit (IOMMU), omogućuje akceleratorima da zaobiđu CPU prilikom premještanja podataka. Ovo eliminira uska grla koja su prethodno zaustavljala ML obuku. Ovaj nevidljivi vodovod je razlog zašto se AI klasteri mogu proširiti bez kolapsa pod vlastitim I/O.
Također: Moje dvije omiljene AI aplikacije na Linuxu – i kako ih koristim da učinim više
Ono što sve ovo znači jest da, kada rukovoditelji govore o “strategiji umjetne inteligencije”, ono što ne govore jest da je neglamurozna stvarnost da strategija umjetne inteligencije ovisi o upravljanju Linuxom na razini. Sve je u krpanju kernela, očvršćavanju spremnika i osiguravanju neprozirnih radnih opterećenja. AI može doći na naslovnice, ali Linux ostaje operativni sustav koji obavlja stvarni posao.





