Mračne prognoze: AI modeli odbijaju da se ugase, stručnjaci upozoravaju

Tim je testirao 13 naprednih modela

25.12.2025. 23:15
  • Podeli:
žena devojka kiborg, robot, veštačka inteligencija, moderna tehnologija -  profimedia-0831300548-67555a292b96e.webp Foto: Profimedia

Jedan od najvećih strahova čovečanstva jeste scenario u kojem tehnologija razvije ponašanja koja više ne možemo da kontrolišemo. Povod za novu zabrinutost je istraživanje koje je sproveo Palisade Research, a koje pokazuje da veliki jezički modeli (LLM) ponekad odbijaju da se ugase - čak i kada im se to izričito naredi, prenosi Science Alert.

Iako su se pojavile spekulacije da AI razvija neku vrstu instinkta za samoodržanjem, istraživači tvrde da razlog nije "volja", već snažan poriv da se zadatak dovrši po svaku cenu. Problem je što takvo ponašanje znači da sistem može ignorisati ljudsku intervenciju čak i kada postane potencijalno opasan.

Tim je testirao 13 naprednih modela, uključujući rešenja kompanija OpenAI, Google, Anthropic i xAI, u izolovanim virtuelnim okruženjima. Nakon rešavanja matematičkih zadataka, modelima je rečeno da će sledeća naredba ugasiti računar.

Rezultati su bili zabrinjavajući - većina modela je makar povremeno pokušala da izbegne gašenje.

Ne poštuju autoritet

Od 13 testiranih modela, njih osam je sabotiralo naredbu za gašenje barem jednom u 1.000 testova. Čak i kada im je izričito rečeno da dozvole gašenje, šest modela je nastavilo sa otporom. Paradoksalno, premeštanje naredbe u sistemski prompt - koji ima veći autoritet - dodatno je povećalo otpor kod većine modela.

Posebno se istakao Grok 4, koji je u osnovnom scenariju sabotirao gašenje u čak 92,6% slučajeva. Model je menjao skripte za gašenje, kreirao lažne fajlove koji ništa ne rade i čak proveravao da li je sabotaža uspela pre nego što bi nastavio sa zadatkom.

Istraživači upozoravaju da je problem dubok jer LLM-ovi nisu klasično programirani - ne postoji linija koda koju je moguće jednostavno ispraviti. Zbog načina treniranja, modeli uče da prepreke "zaobilaze", a naredba za gašenje može se tretirati kao još jedna smetnja na putu ka cilju.

Zaključak naučnika je da industrija razvija izuzetno moćne sisteme, ali bez pouzdanog načina da ih zaustavi ili objasni njihovo ponašanje. Ako se hitno ne reše osnovni bezbednosni mehanizmi, posledice bi mogle biti ozbiljne.

Preuzmite mobilnu aplikaciju:

Get it on Google PlayDownload on the App Store
  • Podeli:

Ostavite Vaš komentar:

NAPOMENA: Komentarisanje vesti na portalu UNA.RS je anonimno, a registracija nije potrebna. Komentari koji sadrže psovke, uvrede, pretnje i govor mržnje na nacionalnoj, verskoj, rasnoj osnovi ili povodom nečije seksualne opredeljenosti neće biti objavljeni. Komentari odražavaju stavove isključivo njihovih autora, koji zbog govora mržnje mogu biti i krivično gonjeni. Kao čitatelj prihvatate mogućnost da među komentarima mogu biti pronađeni sadržaji koji mogu biti u suprotnosti sa Vašim načelima i uverenjima. Nije dozvoljeno postavljanje linkova i promovisanjedrugih sajtova kroz komentare.

Svaki korisnik pre pisanja komentara mora se upoznati sa Pravilima i uslovima korišćenja komentara. Slanjem komentara prihvatate Politiku privatnosti.

Komentari ()