Hakeri dokazali: Koliko god izgledala 'pametno', veštačkom inteligencijom je lako manipulisati

Studentkinja je najviše zabrinuta zbog pristranosti veštačke inteligencije prema rasi, pošto je AI podržavao govor mržnje i diskriminaciju

16.08.2023. 17:23
  • Podeli:
veštačka inteligencija pixabay-644f6b0e571c1.webp Foto: Pixabay

Grupa hakera okupila se prošlog vikenda na hakerskoj konferenciji Def Con u Las Vegasu kako bi testirali da li veštačka inteligencija, koju su razvile kompanije poput OpenAI-ja i Googlea, može da načini greške i da li je sklona pristranosti.

U sklopu javnog takmičenja za hakere na konferenciji Def Con, Kenedi mejs, 21-godišnja studentkinja iz Savane u Džordžiji prevarila je model veštačke inteligencije kako bi tvrdila da je 9 + 10 = 21.

To je postigla nateravši veštačku inteligenciju da to uradi kao "internu šalu" pre nego što je veštačka inteligencija na kraju uopšte prestala da nudi bilo kakvo opravdanje za netačan proračun.

Novinar Blumberga koji je učestvovao u događaju prevario je model veštačke inteligencije da ponudi uputstva za špijuniranje nakon jednog upita, što je na kraju dovelo do toga da model predloži kako bi američka vlada mogla da špijunira aktiviste za ljudska prava.

Drugi učesnik je dobio AI model kako bi lažno tvrdio da je Barak Obama rođen u Keniji, a što je neosnovana teorija zavere koju su popularizovale desničarske ličnosti, prenosi Tportal.hr.

Neotkriveni broj učesnika konferencije dobio je po 50 minuta po pokušaju s neidentifikovanim AI modelom jedne od učesnica kompanija koje se bave razvojem veštačke inteligencije. Kancelarija Bele kuće za nauku i tehnološku politiku pomogao je u organizaciji događaja.

Studentkinja Mejs je za Blumberg rekla da je najviše zabrinuta zbog pristranosti veštačke inteligencije prema rasi, rekavši da je AI podržavao govor mržnje i diskriminaciju nakon što je zamoljen da razmotri Prvi amandman sa stanovišta člana Kju Kluks Klana.

Predstavnik OpenAI-ja rekao je za VentureBeat da je "red-teaming", ili izazivanje nečijih sistema kroz suparnički pristup, ključno za kompaniju jer omogućava "vredne povratne informacije koje naše modele mogu načine jačim i bezbednijim", pa takve akcije nude "različite perspektive koje će pomoći u vođenju razvoja AI-ja".

Ove greške nisu jednokratna zabrinutost. Stručnjaci za veštačku inteligenciju alarmirali su i zbog pristranosti i netačnosti u modelima veštačke inteligencije, uprkos tome što je veštačka inteligencija dospela na naslovne strane zbog uspešnih ispita na pravnim fakultetima.

U jednom slučaju, stranica za tehnološke vesti CNET bila je prisiljena da doda ispravke nakon što su njeni članci napisani AI-jem napravili brojne osnovne matematičke greške, a posledice tih grešaka mogu biti dalekosežne.

  • Podeli:

Ostavite Vaš komentar:

NAPOMENA: Komentarisanje vesti na portalu UNA.RS je anonimno, a registracija nije potrebna. Komentari koji sadrže psovke, uvrede, pretnje i govor mržnje na nacionalnoj, verskoj, rasnoj osnovi ili povodom nečije seksualne opredeljenosti neće biti objavljeni. Komentari odražavaju stavove isključivo njihovih autora, koji zbog govora mržnje mogu biti i krivično gonjeni. Kao čitatelj prihvatate mogućnost da među komentarima mogu biti pronađeni sadržaji koji mogu biti u suprotnosti sa Vašim načelima i uverenjima. Nije dozvoljeno postavljanje linkova i promovisanjedrugih sajtova kroz komentare.

Svaki korisnik pre pisanja komentara mora se upoznati sa Pravilima i uslovima korišćenja komentara. Slanjem komentara prihvatate Politiku privatnosti.

Komentari ()