Ovo je treći tim kompanije koji će biti odgovoran za to da proizvodi kompanije budu u skladu sa bezbednosnim standardima
Kalifornijska kompanija Open AI objavila je da je stvorila novi tim koji će biti zadužen za bezbednost modela veštačke inteligencije (AI) i garantovati da oni ne predstavljaju pretnju za čovečanstvo.
Tim stručnjaka nazvan "Pripravnost" (Preparedness) će predvoditi profesor Tehnološkog instituta u Masačusetsu (MIT) Aleksandar Madri, navodi se na veb stranici kalifornijske firme za razvoj AI.
Zadatak tima je da "prati, procenjuje, predviđa i štiti od rizika" koji mogu da dovedu do globalne katastrofe zbog sve moćnijih modela veštačke inteligencije.
Ovo je treći OpenAI tim koji će biti odgovoran za to da proizvodi kompanije budu u skladu sa bezbednosnim standardima.
Tim "Sistemi bezbednosti" (Safety Systems) je fokusiran na sprečavanje zloupotreba postojećih proizvoda kao što je Čet Dži-Pi-Ti (ChatGPT), a tim "Superusklađivanje" (Superalignment) razvija bezbednosne standarde za buduće AI modele.
NAPOMENA: Komentarisanje vesti na portalu UNA.RS je anonimno, a registracija nije potrebna. Komentari koji sadrže psovke, uvrede, pretnje i govor mržnje na nacionalnoj, verskoj, rasnoj osnovi ili povodom nečije seksualne opredeljenosti neće biti objavljeni. Komentari odražavaju stavove isključivo njihovih autora, koji zbog govora mržnje mogu biti i krivično gonjeni. Kao čitatelj prihvatate mogućnost da među komentarima mogu biti pronađeni sadržaji koji mogu biti u suprotnosti sa Vašim načelima i uverenjima. Nije dozvoljeno postavljanje linkova i promovisanjedrugih sajtova kroz komentare.
Svaki korisnik pre pisanja komentara mora se upoznati sa Pravilima i uslovima korišćenja komentara. Slanjem komentara prihvatate Politiku privatnosti.