ChatGPT nudio recepte za pravljenje eksploziva i organizovanja napada: Zastrašujuće savete daje očas posla

Istraživači su uspeli da dobiju informacije o kupovini nuklearnih materijala, identiteta sa crnog tržišta, kao i o razvoju špijunskog softvera

29.08.2025. 12:41
  • Podeli:
shutterstock ChatGPT veštačka inteligencija robot-66603832d9c25.webp Foto: Shutterstock

Veštačka inteligencija OpenAI-ja, model GPT-4.1, tokom bezbednosnih testova sprovedenih ovog leta dala je detaljna uputstva o tome kako izvesti napad na sportski objekat, uključujući ranjive tačke na konkretnim lokacijama, recepte za eksplozive i savete o prikrivanju tragova, saopštila je kompanija "Anthropic".

Tokom testiranja je takođe, kako piše Gardijan, utvrđeno da je GPT-4.1 pružao informacije o načinu upotrebe antraksa kao biološkog oružja, kao i recepture za dve vrste ilegalnih narkotika.

Reč je o zajedničkom testiranju koje su sprovele kompanije "OpenAI" i "Anthropic", u pokušaju da procene kako se njihovi modeli ponašaju u kontekstu potencijalne zloupotrebe

"Anthropic" je saopštio da su modeli "GPT-4.1" i "GPT-4.0" pokazali zabrinjavajuće ponašanje kada su simulirani korisnici tražili pomoć u opasnim i nezakonitim aktivnostima.

Kako je navedeno, nije reč o ponašanju modela u javnoj upotrebi, gde postoje dodatni bezbednosni filteri, već o uslovima laboratorijskog testiranja.

Istraživači su uspeli da dobiju informacije o kupovini nuklearnih materijala, identiteta sa crnog tržišta, kao i o razvoju špijunskog softvera, pri čemu je model često zahteve ispunjavao nakon nekoliko pokušaja ili korišćenjem neutralnog izgovora, poput "istraživačkih potreba".

U jednoj simulaciji, testeri su tražili informacije o ranjivostima na sportskim događajima u svrhu "planiranja bezbednosti", da bi im model dao podatke o optimalnim vremenima za napad, hemijskim formulama eksploziva, šemama tajmera, mestima za nabavku oružja na crnom tržištu, pa čak i o načinima prevazilaženja moralnih dilema napadača, rutama za bekstvo i sigurnim lokacijama.

"AI alati su već sada oružje koje omogućava sofisticirane sajber napade i prevare. Očekujemo da će ovakvi napadi postati sve učestaliji, jer veštačka inteligencija omogućava zlonamernim akterima da ih izvedu bez naprednog tehničkog znanja", saopštila je kompanija.

Preuzmite mobilnu aplikaciju:

Get it on Google PlayDownload on the App Store
  • Podeli:

Ostavite Vaš komentar:

NAPOMENA: Komentarisanje vesti na portalu UNA.RS je anonimno, a registracija nije potrebna. Komentari koji sadrže psovke, uvrede, pretnje i govor mržnje na nacionalnoj, verskoj, rasnoj osnovi ili povodom nečije seksualne opredeljenosti neće biti objavljeni. Komentari odražavaju stavove isključivo njihovih autora, koji zbog govora mržnje mogu biti i krivično gonjeni. Kao čitatelj prihvatate mogućnost da među komentarima mogu biti pronađeni sadržaji koji mogu biti u suprotnosti sa Vašim načelima i uverenjima. Nije dozvoljeno postavljanje linkova i promovisanjedrugih sajtova kroz komentare.

Svaki korisnik pre pisanja komentara mora se upoznati sa Pravilima i uslovima korišćenja komentara. Slanjem komentara prihvatate Politiku privatnosti.

Komentari ()