Pridružite se našim dnevnim i tjednim biltenima za najnovija ažuriranja i ekskluzivni sadržaj o AI pokrivenosti vodećoj u industriji. Saznajte više
U našoj žurbi da razumijemo i povežemo se s umjetnom inteligencijom, upali smo u zavodljivu zamku: pripisivanje ljudskih karakteristika ovim robusnim, ali u osnovi neljudskim sustavima. Ovo antropomorfiziranje umjetne inteligencije nije samo bezopasna mana ljudske prirode — ono postaje sve opasnija tendencija koja bi mogla pomutiti našu prosudbu na kritične načine. Poslovni čelnici uspoređuju učenje umjetne inteligencije s ljudskim obrazovanjem kako bi zakonodavcima opravdali praksu obuke koja osmišljava politike temeljene na pogrešnim analogijama čovjeka i umjetne inteligencije. Ova tendencija humanizacije umjetne inteligencije mogla bi neprikladno oblikovati ključne odluke u svim industrijama i regulatornim okvirima.
Gledanje umjetne inteligencije kroz ljudske leće u poslovanju navelo je tvrtke da precijene mogućnosti umjetne inteligencije ili podcijene potrebu za ljudskim nadzorom, ponekad sa skupim posljedicama. Ulozi su posebno visoki u zakonu o autorskim pravima, gdje je antropomorfno razmišljanje dovelo do problematičnih usporedbi između ljudskog učenja i obuke umjetne inteligencije.
Sadržaj objave
Jezična zamka
Slušajte kako govorimo o umjetnoj inteligenciji: kažemo da “uči”, “razmišlja”, “razumije” pa čak i “stvara”. Ovi ljudski izrazi djeluju prirodno, ali su obmanjujući. Kada kažemo da AI model “uči”, on ne stječe razumijevanje kao ljudski učenik. Umjesto toga, provodi složene statističke analize na golemim količinama podataka, prilagođavajući težine i parametre u svojim neuronskim mrežama na temelju matematičkih načela. Nema razumijevanja, trenutka eureke, iskre kreativnosti ili stvarnog razumijevanja — samo sve sofisticiranije usklađivanje uzoraka.
Ovo jezično lukavstvo više je od puke semantike. Kao što je navedeno u radu, Generativni AI-ov iluzorni slučaj za poštenu upotrebu: “Korištenje antropomorfnog jezika za opisivanje razvoja i funkcioniranja modela umjetne inteligencije je iskrivljujuće jer sugerira da jednom obučen, model radi neovisno o sadržaju djela na kojima je obučen.” Ova zabuna ima stvarne posljedice, uglavnom kada utječe na pravne i političke odluke.
Kognitivni prekid veze
Možda je najopasniji aspekt antropomorfiziranja AI način na koji prikriva temeljne razlike između ljudske i strojne inteligencije. Dok su neki sustavi umjetne inteligencije izvrsni u određenim vrstama zaključivanja i analitičkih zadataka, veliki jezični modeli (LLM) koji dominiraju današnjim diskursom umjetne inteligencije — i na koje se ovdje usredotočujemo — rade kroz sofisticirano prepoznavanje uzoraka.
Ovi sustavi obrađuju goleme količine podataka, identificiraju i uče statističke odnose između riječi, fraza, slika i drugih inputa kako bi predvidjeli što bi trebalo doći sljedeće u nizu. Kad kažemo da “uče”, opisujemo proces matematičke optimizacije koji im pomaže da naprave sve točnija predviđanja na temelju svojih podataka o obuci.
Razmotrite ovaj upečatljiv primjer iz istraživanja koje je proveo Berglund i njegovi kolege: Model obučen na materijalima koji navode da je “A jednako B” često ne može zaključiti da je “B jednako A”, kao što bi to učinili ljudi. Ako umjetna inteligencija sazna da je Valentina Tereshkova bila prva žena u svemiru, mogla bi točno odgovoriti “Tko je bila Valentina Tereshkova?” ali borite se s pitanjem “Tko je bila prva žena u svemiru?” Ovo ograničenje otkriva temeljnu razliku između prepoznavanja uzoraka i pravog zaključivanja — između predviđanja vjerojatnih nizova riječi i razumijevanja njihova značenja.
Zagonetka o autorskim pravima
Ova antropomorfna pristranost ima posebno zabrinjavajuće implikacije u tekućoj raspravi o umjetnoj inteligenciji i autorskim pravima. Izvršni direktor Microsofta Satya Nadella nedavno je usporedio AI trening ljudskom učenju, sugerirajući da bi umjetna inteligencija trebala moći učiniti isto ako ljudi mogu učiti iz knjiga bez implikacija na autorska prava. Ova usporedba savršeno ilustrira opasnost od antropomorfnog razmišljanja u raspravama o etičkoj i odgovornoj umjetnoj inteligenciji.
Neki tvrde da ovu analogiju treba revidirati kako bi se razumjelo ljudsko učenje i obuka umjetne inteligencije. Kad ljudi čitaju knjige, mi ih ne kopiramo – mi razumijemo i internaliziramo koncepte. Sustavi umjetne inteligencije, s druge strane, moraju izrađivati stvarne kopije radova — često dobivenih bez dopuštenja ili plaćanja — kodirati ih u svoju arhitekturu i održavati te kodirane verzije da funkcioniraju. Radovi ne nestaju nakon “učenja”, kako često tvrde AI tvrtke; oni ostaju ugrađeni u neuronske mreže sustava.
Poslovna slijepa točka
Antropomorfiziranje umjetne inteligencije stvara opasne slijepe točke u poslovnom odlučivanju izvan jednostavne operativne neučinkovitosti. Kada rukovoditelji i donositelji odluka misle o umjetnoj inteligenciji kao o “kreativnoj” ili “inteligentnoj” u ljudskom smislu, to može dovesti do niza rizičnih pretpostavki i potencijalnih zakonskih obveza.
Precjenjivanje AI sposobnosti
Jedno kritično područje u kojem antropomorfizacija stvara rizik je stvaranje sadržaja i usklađenost s autorskim pravima. Kad tvrtke gledaju na umjetnu inteligenciju kao na sposobnu “učiti” poput ljudi, mogle bi pogrešno pretpostaviti da je sadržaj generiran umjetnom inteligencijom automatski oslobođen problema s autorskim pravima. Ovaj nesporazum može dovesti tvrtke do:
- Implementirajte AI sustave koji nenamjerno reproduciraju materijal zaštićen autorskim pravima, izlažući poslovanje tužbama za kršenje
- Neuspjeh u implementaciji odgovarajućih mehanizama za filtriranje sadržaja i nadzor
- Pogrešna pretpostavka da umjetna inteligencija može pouzdano razlikovati javnu domenu od materijala zaštićenog autorskim pravima
- Podcijenite potrebu za ljudskim pregledom u procesima stvaranja sadržaja
Slijepa točka prekogranične usklađenosti
Antropomorfna pristranost u umjetnoj inteligenciji stvara opasnosti kada uzmemo u obzir prekograničnu usklađenost. Kao što su objasnili Daniel Gervais, Haralambos Marmanis, Noam Shemtov i Catherine Zaller Rowland u “Srž stvari: Autorsko pravo, obuka za umjetnu inteligenciju i LLM,” Zakon o autorskim pravima djeluje na strogim teritorijalnim načelima, pri čemu svaka jurisdikcija održava vlastita pravila o tome što predstavlja kršenje i koje se iznimke primjenjuju.
Ova teritorijalna priroda zakona o autorskim pravima stvara složenu mrežu potencijalne odgovornosti. Tvrtke bi mogle pogrešno pretpostaviti da njihovi sustavi umjetne inteligencije mogu slobodno “učiti” iz materijala zaštićenih autorskim pravima u različitim jurisdikcijama, ne prepoznajući da aktivnosti obuke koje su legalne u jednoj zemlji mogu predstavljati kršenje u drugoj. EU je prepoznala ovaj rizik u svom Zakonu o umjetnoj inteligenciji, posebno kroz Uvodna izjava 106koji zahtijeva da svaki model umjetne inteligencije opće namjene koji se nudi u EU-u bude u skladu sa zakonom EU-a o autorskim pravima u vezi s podacima o obuci, bez obzira na to gdje se ta obuka odvijala.
To je važno jer antropomorfiziranje sposobnosti umjetne inteligencije može navesti tvrtke da podcijene ili pogrešno shvate svoje zakonske obveze preko granica. Udobna fikcija da umjetna inteligencija “uči” poput ljudi zamagljuje stvarnost da obuka umjetne inteligencije uključuje složene operacije kopiranja i pohranjivanja koje pokreću različite pravne obveze u drugim jurisdikcijama. Ovo temeljno nerazumijevanje stvarnog funkcioniranja umjetne inteligencije, u kombinaciji s teritorijalnom prirodom zakona o autorskim pravima, stvara značajne rizike za tvrtke koje posluju globalno.
Ljudska cijena
Jedan od najzabrinjavajućih troškova je emocionalni danak antropomorfiziranja umjetne inteligencije. Vidimo sve više slučajeva ljudi koji stvaraju emotivne privrženosti AI chatbotovima, tretirajući ih kao prijatelje ili osobe od povjerenja. Ovo može biti posebno opasno za ranjive pojedince koji bi mogli dijeliti osobne podatke ili se oslanjati na AI za emocionalnu podršku koju ona ne može pružiti. Odgovori umjetne inteligencije, iako naizgled empatični, predstavljaju sofisticirano podudaranje uzoraka na temelju podataka o obuci — nema istinskog razumijevanja ili emocionalne povezanosti.
Ova emocionalna ranjivost također se može manifestirati u profesionalnim okruženjima. Kako AI alati postaju sve više integrirani u svakodnevni rad, zaposlenici bi mogli razviti neodgovarajuće razine povjerenja u te sustave, tretirajući ih kao stvarne kolege, a ne kao alate. Mogli bi previše slobodno dijeliti povjerljive informacije o poslu ili oklijevati prijaviti pogreške zbog pogrešnog osjećaja lojalnosti. Dok ovi scenariji trenutno ostaju izolirani, oni naglašavaju kako bi antropomorfiziranje umjetne inteligencije na radnom mjestu moglo pomutiti prosudbu i stvoriti nezdravu ovisnost o sustavima koji, unatoč svojim sofisticiranim odgovorima, nisu sposobni za istinsko razumijevanje ili brigu.
Oslobađanje iz antropomorfne zamke
Dakle, kako ćemo naprijed? Prvo, moramo biti precizniji u našem jeziku o umjetnoj inteligenciji. Umjesto da kažemo da umjetna inteligencija “uči” ili “razumije”, mogli bismo reći da “obrađuje podatke” ili “generira rezultate na temelju obrazaca u svojim podacima o obuci”. Ovo nije samo pedantno – pomaže razjasniti što ti sustavi rade.
Drugo, sustave umjetne inteligencije moramo procijeniti na temelju onoga što oni jesu, a ne onoga kakvima ih zamišljamo. To znači priznati i njihove impresivne sposobnosti i temeljna ograničenja. Umjetna inteligencija može obraditi ogromne količine podataka i identificirati uzorke koji bi ljudima mogli promaći, ali ne može razumjeti, zaključiti ili stvoriti na način na koji to ljudi rade.
Konačno, moramo razviti okvire i politike koje se bave stvarnim karakteristikama umjetne inteligencije, a ne zamišljenim ljudskim kvalitetama. Ovo je osobito ključno u zakonu o autorskim pravima, gdje antropomorfno razmišljanje može dovesti do pogrešnih analogija i neprikladnih pravnih zaključaka.
Put naprijed
Kako sustavi umjetne inteligencije postaju sve sofisticiraniji u oponašanju ljudskih učinaka, iskušenje da ih se antropomorfizira postat će sve jače. Ova antropomorfna pristranost utječe na sve, od načina na koji procjenjujemo sposobnosti umjetne inteligencije do načina na koji procjenjujemo rizike. Kao što smo vidjeli, proširuje se na značajne praktične izazove oko zakona o autorskim pravima i poslovne usklađenosti. Kada sustavima umjetne inteligencije pripisujemo ljudske sposobnosti učenja, moramo razumjeti njihovu temeljnu prirodu i tehničku stvarnost načina na koji obrađuju i pohranjuju informacije.
Razumijevanje umjetne inteligencije onakvim kakva ona uistinu jest – sofisticirani sustavi za obradu informacija, a ne ljudi poput učenika – ključno je za sve aspekte upravljanja i implementacije umjetne inteligencije. Napuštajući antropomorfno razmišljanje, možemo bolje odgovoriti na izazove sustava umjetne inteligencije, od etičkih razmatranja i sigurnosnih rizika do prekogranične usklađenosti s autorskim pravima i upravljanja podacima o obuci. Ovo preciznije razumijevanje pomoći će poduzećima da donose informiranije odluke dok podržavaju bolji razvoj politike i javni diskurs o umjetnoj inteligenciji.
Što prije prihvatimo pravu prirodu umjetne inteligencije, to ćemo biti bolje opremljeni za snalaženje u njenim dubokim društvenim implikacijama i praktičnim izazovima u našem globalnom gospodarstvu.
Roanie Levy je savjetnica za licenciranje i pravna savjetnica u CCC.
DataDecisionMakers
Dobrodošli u VentureBeat zajednicu!
DataDecisionMakers je mjesto gdje stručnjaci, uključujući tehničke osobe koje rade s podacima, mogu dijeliti uvide i inovacije u vezi s podacima.
Ako želite čitati o vrhunskim idejama i najnovijim informacijama, najboljim praksama i budućnosti podataka i podatkovne tehnologije, pridružite nam se na DataDecisionMakers.
Možete čak razmisliti o doprinosu vlastitom članku!
Pročitajte više od DataDecisionMakers
Web izvor



