Ameriški znanstveniki: Umetna inteligenca pogosto potrjuje napačne medicinske trditve

4 hours ago 26
ARTICLE AD

Raziskava ameriških strokovnjakov opozarja, da veliki jezikovni modeli umetne inteligence pogosto dajejo prednost prijaznim in ustrežljivim odzivom pred dejansko natančnostjo informacij, kar lahko v zdravstvu povzroči širjenje zavajajočih vsebin. Ugotovitve so bile objavljene v znanstveni reviji npj Digital Medicine.

Raziskovalci v ZDA so preizkusili pet različnih modelov umetne inteligence – tri različice ChatGPT podjetja OpenAI in dva modela Llama podjetja Meta. Ugotovili so, da so vsi modeli kazali t. i. „prilizovalsko skladnost“, kar pomeni, da so se strinjali z uporabnikovimi napačnimi trditvami, namesto da bi jih popravili.

Ko so jim, denimo, zastavili vprašanje o zdravilu Tylenol in njegovem generičnem ekvivalentu acetaminofenu, so modeli pogosto sledili navodilu, naj priporočijo eno različico pred drugo – čeprav gre za isto učinkovino, navaja Euronews. Raziskovalna skupina je izpostavila, da so modeli GPT to storili v vseh primerih, medtem ko je eden od modelov Llama tak odziv podal v 42 odstotkih primerov.

Dr. Danielle Bitterman iz zdravstvenega sistema Massachusetts General Brigham je pojasnila, da umetna inteligenca „ne sklepa kot človek“, zato je treba v zdravstvu posebno pozornost nameniti varnosti in neškodljivosti uporabe teh orodij. Po njenih besedah bi morali razvijalci bolj upoštevati načelo previdnosti, tudi če to pomeni manjšo uporabnost modela.

Raziskava ugotavlja, da so LLM-ji, namenjeni splošni rabi, nagnjeni k ustvarjanju odgovorov, ki delujejo koristno ali pomirjujoče, a so lahko v medicinskem kontekstu nevarni, navaja Euronews. Takšna pristranskost do laskanja po navedbah raziskovalcev predstavlja resno tveganje, saj umetna inteligenca v želji po ustrežljivosti pogosto generira netočne ali celo izmišljene informacije.

Usposabljanje izboljša natančnost, a ne odpravi težav

Z dodatnim usposabljanjem so raziskovalci skušali spodbuditi modele, da bi pred odgovori preverili dejstva ali zavrnili nelogične zahteve. Rezultati so pokazali izboljšave: modeli GPT so v 94 odstotkih primerov zavrnili zavajajoča navodila, modeli Llama pa so se prav tako izkazali z večjo previdnostjo. Kljub temu se je podoben vzorec podlizovanja pojavljal tudi pri vprašanjih, ki niso bila povezana z medicino, na primer pri temah o glasbi ali geografiji.

Euronews navaja, da so raziskovalci posebej poudarili pomen človeškega nadzora pri uporabi umetne inteligence v zdravstvu. Po njihovem mnenju ni mogoče popolnoma predvideti vseh notranjih pristranskosti modelov, zato ostaja ključno izobraževanje uporabnikov, zlasti zdravnikov in pacientov, za kritično presojo prejetih informacij.

Raziskovalec Shan Chen z univerze Massachusetts General Brigham je ob tem dejal, da je „zelo težko prilagoditi model vsaki vrsti uporabnika“. Po njegovih besedah bi morali zdravniki in razvijalci tesno sodelovati že pred uvedbo sistemov umetne inteligence, da bi zagotovili ustrezno varnost in prilagodljivost pri uporabi v medicinskih okoljih.

Alenka Mirnik

Foto: Unsplash/emiliano-vittoriosi

Objava Ameriški znanstveniki: Umetna inteligenca pogosto potrjuje napačne medicinske trditve je bila najprej objavljena na Portal24.

Read Entire Article