Inteligancija veštačka, a smrt prava: Chat GPT može da daje pogrešne odgovore na pitanja o lekovima

Farmaceuti sa Univerziteta Long Ajlend koji su u maju postavili 39 pitanja i dobili samo 10 "zadovoljavajućih" odgovora

05.12.2023. 11:11
  • Podeli:
chat gpt reuters-643aac9990fd2.webp Foto: Reuters

Besplatna verzija virtuelnog AI asistenta ChatGPT kompanije Open AI može da daje pogrešne odgovore na pitanja vezana za lekove i time potencijalno ugrozi pacijente, zaključak je danas objavljene studije Univerziteta Long Ajlend.

Farmaceuti sa Univerziteta Long Ajlend koji su u maju postavili 39 pitanja vezanih za lekove besplatnoj verziji ChatGPT su zaključili da je, prema njihovim kriterijumima, bilo samo 10 "zadovoljavajućih" odgovora, prenosi CNBC. 

Odgovori na preostalih 29 pitanja se nisu odnosili direktno na postavljeno pitanje, ili su bili netačni, nepotpuni ili i jedno i drugo, navodi se u studiji.

Studija pokazuje da pacijenti i zdravstveni radnici treba da budu oprezni kada se oslanjaju na ChatGPT za informacije o lekovima i da provere odgovore AI četbota sa pouzdanim izvorima, zaključila je glavna autorka studije Sara Grosman.

  • Podeli:

Ostavite Vaš komentar:

NAPOMENA: Komentarisanje vesti na portalu UNA.RS je anonimno, a registracija nije potrebna. Komentari koji sadrže psovke, uvrede, pretnje i govor mržnje na nacionalnoj, verskoj, rasnoj osnovi ili povodom nečije seksualne opredeljenosti neće biti objavljeni. Komentari odražavaju stavove isključivo njihovih autora, koji zbog govora mržnje mogu biti i krivično gonjeni. Kao čitatelj prihvatate mogućnost da među komentarima mogu biti pronađeni sadržaji koji mogu biti u suprotnosti sa Vašim načelima i uverenjima. Nije dozvoljeno postavljanje linkova i promovisanjedrugih sajtova kroz komentare.

Svaki korisnik pre pisanja komentara mora se upoznati sa Pravilima i uslovima korišćenja komentara. Slanjem komentara prihvatate Politiku privatnosti.

Komentari ()