Pridružite se našim dnevnim i tjednim biltenima za najnovija ažuriranja i ekskluzivni sadržaj na vodećim AI pokrivenosti. Saznati više
Dok tehnološki divovi izjavljuju da su svoja izdanja AI otvorena – pa čak i unijela riječ u svoja imena – nekada insajderski izraz “Otvoreni izvor” izbio je u moderni zeitgeist. Tijekom ovog nesigurnog vremena u kojem bi pogrešan korak jedne tvrtke mogao vratiti udobnost javnosti s AI -om za desetljeće ili više, koncepti otvorenosti i transparentnosti se drže nesretno, a ponekad i nepošteno, uzgajati povjerenje.
Istodobno, s novom upravom Bijele kuće koji su pristupili višem pristupu tehnološkom regulaciji, bojne linije su izvučene-postavljajući inovaciju protiv regulacije i predviđanje strašnih posljedica ako prevlada “pogrešna” strana.
Postoji, međutim, treći način koji je testiran i dokazan drugim valovima tehnoloških promjena. Utemeljena na principima otvorenosti i transparentnosti, istinska suradnja otvorenog koda otključava brže stope inovacija, čak i ako industrija omogućuje razvijanje tehnologije koja je nepristrana, etična i korisna za društvo.
Sadržaj objave
Razumijevanje snage istinske suradnje otvorenog koda
Jednostavno, softvera s otvorenim kodom značajke slobodno dostupnog izvornog koda koji se može promatrati, modificirati, secirati, usvojiti i dijeliti u komercijalne i nekomercijalne svrhe-i povijesno je bio monumentalan u inovaciji uzgoja. Ponuda otvorenog koda Linux, Apache, MySQL i PHP, na primjer, oslobodili su Internet kakav znamo.
Sada, demokratiziranjem pristupa AI modelima, podacima, parametrima i AI alatima otvorenog koda, zajednica može ponovno osloboditi bržu inovaciju umjesto da neprestano rekreira kotač-zbog čega je nedavna IBM studija o 2.400 donositelja odluka otkrio je sve veći interes za korištenje AI alata otvorenog koda za pokretanje ROI-a. Iako su brži razvoj i inovacije bili na vrhu popisa kada je u pitanju utvrđivanje ROI -a u AI, istraživanje je također potvrdilo da prihvaćanje otvorenih rješenja može biti povezano s većom financijskom održivošću.
Umjesto kratkoročnih dobitaka koji favoriziraju manje tvrtki, AI otvorenog koda poziva na stvaranje raznolikih i prilagođenih aplikacija u svim industrijama i domenama koje inače možda nemaju resurse za vlasničke modele.
Možda, što je još važnije, transparentnost otvorenog koda omogućava neovisni nadzor i reviziju ponašanja i etike AI sustava – i kada iskoristimo postojeći interes i pokretanje mase, oni će pronaći probleme i pogreške kao što su to činili s Laion 5b skup podataka fijasko.
U tom se slučaju mnoštvo ukorijenilo više od 1.000 URL -a Sadrži potvrđeni materijal za seksualno zlostavljanje djece skriven u podacima koji podstiče generativne AI modele poput stabilne difuzije i Midjourney-koji proizvode slike iz tekstualnih i slika i temeljne su u mnogim internetskim alatima i aplikacijama za stvaranje video-generiranja.
Iako je ovaj nalaz izazvao nemir, ako je taj skup podataka zatvoren, kao i kod OpenAijeve Sora ili Googleov Blizanci, posljedice bi mogle biti i daleko gore. Teško je zamisliti povratnu reakciju koja bi nastala ako AI -ovi najuzbudljiviji alati za stvaranje videozapisa počeli izvijati uznemirujući sadržaj.
Srećom, otvorena priroda skupa podataka LAION 5B osnažila je zajednicu da motivira svoje kreativce da partnere s industrijskim čuvarima kako bi pronašli popravljanje i puštanje Re-Laion 5B-što pokazuje zašto transparentnost istinskog AI otvorenog izvora ne samo da koristi korisnicima, već i industriji i stvaralaca koji rade na temelju povjerenja i javnosti.
Opasnost od otvorenog izvora u AI
Iako je samo izvorni kod relativno lako dijeliti, AI sustavi su daleko složeniji od softvera. Oni se oslanjaju na izvorni kôd sustava, kao i na parametre modela, skup podataka, hiperparametre, izvorni kôd za trening, generiranje slučajnih brojeva i softverske okvire – a svaka od tih komponenti mora raditi na koncertu za AI sustav da pravilno funkcionira.
Usred zabrinutosti oko sigurnosti u AI, postalo je uobičajeno ustvrditi da je izdanje otvoreno ili otvoreni izvor. Da bi to bilo točno, inovatori moraju podijeliti sve dijelove zagonetke kako bi drugi igrači mogli u potpunosti razumjeti, analizirati i procijeniti svojstva AI sustava kako bi u konačnici reproducirali, izmijenili i proširili svoje mogućnosti.
Meta, na primjer, Proglašena llama 3.1 405b Kao “prvi AI model s otvorenim kodom na granici”, ali je samo javno podijelio unaprijed obučene parametre ili utege sustava i malo softvera. Iako ovo omogućuje korisnicima da preuzimaju i koriste model po volji, ključne komponente poput izvornog koda i skupa podataka ostaju zatvoreni – što postaje više zabrinjavajuće nakon najava da meta ubrizgat će AI bot profile u eter čak i ako prestane provjeriti sadržaj radi točnosti.
Da budemo fer, ono što se dijeli zasigurno doprinosi zajednici. Modeli otvorene težine nude fleksibilnost, pristupačnost, inovaciju i razinu transparentnosti. Odluka DeepSeeka da otvori svoje utege, oslobodila svoja tehnička izvješća za R1 i učinila je slobodno korištenje, na primjer, omogućila zajednici AI -ja da proučava i provjeri njegovu metodologiju i utkane je u svoj rad.
Jest zabludameđutim, nazvati otvoreni izvor AI sustava kada nitko zapravo ne može gledati, eksperimentirati i razumjeti svaki komad slagalice koji je ušao u stvaranje.
Ova zabluda čini više nego prijeti povjerenjem javnosti. Umjesto da osnažuju sve u zajednici da surađuju, grade i napreduju na modelima poput Llama X, on prisiljava inovatore koji koriste takve AI sustave da slijepo vjeruju komponentama koje nisu dijeljene.
Prihvaćanje izazova pred nama
Dok automobili koji se samostalno voze prolaze na ulice u većim gradovima, a AI sustavi pomažu kirurgima u operacijskoj sali, tek smo na početku puštanja ove tehnologije da uzme poslovični kotač. Obećanje je neizmjerno, kao što je potencijal za pogrešku – zbog čega su nam potrebne nove mjere onoga što znači biti pouzdan u svijetu AI.
Čak i kao Anka Reuel i kolege na Sveučilištu Stanford Nedavno pokušao Da bi se postavio novi okvir za AI referentne vrijednosti koje se koriste za procjenu kako dobro provodi modeli, na primjer, praksa pregleda na koju se industrija i javnost oslanjaju još nije dovoljna. Benchmarking ne objašnjava činjenicu da se skupovi podataka u srži sustava učenja neprestano mijenjaju i da se odgovarajuće metrike razlikuju od slučaja upotrebe do upotrebe. Polje i dalje nedostaje bogat matematički jezik za opisivanje sposobnosti i ograničenja u suvremenom AI.
Dijeljenjem čitavih AI sustava kako bi se omogućila otvorenost i transparentnost, umjesto da se oslanjamo na nedovoljne preglede i plaćanje usluge usana Buzzwords, možemo potaknuti veću suradnju i njegovati inovacije sa sigurnim i etički razvijenim AI.
Iako True Open-source AI nudi dokazani okvir za postizanje ovih ciljeva, u industriji postoji nedostatak transparentnosti. Bez odvažnog vodstva i suradnje od tehnoloških kompanija do samouprave, taj bi se informativni jaz mogao naštetiti javnom povjerenju i prihvaćanju. Prihvaćanje otvorenosti, transparentnosti i otvorenog koda nije samo snažan poslovni model – već je i u odabiru između AI budućnosti koja koristi svima umjesto samo nekoliko.
Jason Corso je profesor na Sveučilištu u Michiganu i suosnivač Voxel51.
Web izvor


