Četiri stručnjaka, čiji su radovi citirani u Maskovom pismu o opasnosti od AI, izrazili su zabrinutost što su pominjani
Četiri stručnjaka za veštačku inteligenciju izrazila su zabrinutost nakon što je njihov rad citiran u otvorenom pismu, koje je, između ostalih, potpisao Ilon Mask, a u kojem se zahteva da se pod hitno zaustavi istraživanje veštačke inteligencije.
Kritičari su optužili Institut za budućnost života (FLI), neprofitnu organizaciju koja stoji iza pisma, a koju prvenstveno finansira Mask fondacija, da daje prioritet "zamišljenim apokaliptičnim scenarijima" u odnosu na neposrednije brige koje izaziva veštačka inteligencija, kao što su rasističke ili seksističke predrasude koje se programiraju u mašine.
U pismu od 22. marta, koje je do petka potpisalo više od 1.800 ljudi, traži se šestomesečna pauza u razvoju sistema "moćnijih" od novog "GPT-4", programa koji je razvila američka istraživačka laboratorija veštačke inteligencije "OpenAI", a koji može da vodi ljudske razgovore, komponuje pesme i sažima obimne dokumente.
U otvorenom pismu navodi se da sistemi veštačke inteligencije sa "inteligencijom konkuretnom ljudskoj" predstavljaju veliki rizik za čovečanstvo i citira se 12 istraživanja stručnjaka, uključujući univerzitetskih akademika, kao i nekadašnjih i aktuelnih zaposlenih u OpenAI, Guglu i njegovoj produžnici DeepMind-u.
U pismu se takođe upozorava da bi se generativni alati za veštačku inteligenciju mogli da se koriste za preplavljivanje interneta "propagandom i neistinom".
Među navedenim istraživanjima u pismu je "O opasnostima stohastičkih papagaja", rad čiji je koautor Margaret Mičel, koja je prethodno nadgledala etičko istraživanje veštačke inteligencije u Guglu.
Mičel, sada glavni etički naučnik u firmi za veštačku inteligenciju "Hugging Face", kritikovala je pismo, rekavši za Rojters da je nejasno šta se smatra "moćnijim od GPT4".
Mičel i njeni koautori Timnit Gebru, Emili M. Bender i Anđelina Mekmilan-Mejdžor, objavili su odgovor na pismo, u kojem su kritikovali njegove autore za "podsticanje straha" i dizanje buke oko veštačke inteligencije.
Docent na Univerzitetu Konektikat Širi Dori-Hakoen rekla je za Rojters da je saglasna sa nekim delovima pisma, ali je osporila način na koji se njen rad spominje u pismu.
Ona je prošle godine bila koautor istraživačkog rada u kojem se tvrdi da raširena upotreba veštačke inteligencije već predstavlja ozbiljan rizik.
U njenom istraživanju navodi se da današnja upotreba sistema veštačke inteligencije može da utiče na donošenje odluka u vezi s klimatskim promenama, nuklearnim ratom i drugim egzistencijalnim pretnjama.
Grupe civilnog društva u SAD i EU vrše pritisak na zakonodavce da obuzdaju istraživanje koje vrši OpenAI.
OpenAI nije za sada odgovorio na zahteve za komentar.
Ni Mask i Tviter za sada nisu odgovorili na zahteve za komentar.
NAPOMENA: Komentarisanje vesti na portalu UNA.RS je anonimno, a registracija nije potrebna. Komentari koji sadrže psovke, uvrede, pretnje i govor mržnje na nacionalnoj, verskoj, rasnoj osnovi ili povodom nečije seksualne opredeljenosti neće biti objavljeni. Komentari odražavaju stavove isključivo njihovih autora, koji zbog govora mržnje mogu biti i krivično gonjeni. Kao čitatelj prihvatate mogućnost da među komentarima mogu biti pronađeni sadržaji koji mogu biti u suprotnosti sa Vašim načelima i uverenjima. Nije dozvoljeno postavljanje linkova i promovisanjedrugih sajtova kroz komentare.
Svaki korisnik pre pisanja komentara mora se upoznati sa Pravilima i uslovima korišćenja komentara. Slanjem komentara prihvatate Politiku privatnosti.