Bo umetna inteligenca nadomestila psihoterapijo?

2 days ago 14
ARTICLE AD

Živimo v digitalni dobi, v kateri umetne inteligence ne izkoriščamo zgolj za iskanje podatkov, plonkanje pri šolskih spisih in programiranje, ampak mnogim uporabnikom postaja tudi zaupnik. Vse več ljudi strojne sogovornike uporablja kot družabnike in z njimi vzpostavlja pravcati osebni odnos, ki ga ne postavlja pod vprašaj, saj verjame, da umetna inteligenca uporablja zgolj dejstva. Na časopis New York Times se je obrnilo več ljudi, ki so trdili, da jim je umetno inteligentni generator besedil ChatGPT razkril doslej neznane teorije, ena od katerih je različica prostozidarske zarote, da nameravajo bogataši iztrebiti človeštvo. Ti ljudje verjamejo, da gre pri tem za neizpodbitna dejstva in da morajo mediji javnost poučiti o teh »nevarnostih«. V Redditovi niti »ChatGPT induced psychosis« [v prevodu: »Psihozo je povzročil klepetalnik ChatGPT«] je denimo najti zgodbo Američana pri štiridesetih, katerega nekdanja žena je s pomočjo ChatGPT »našla angele in Boga«, z njim pa je povsem prekinila stike, češ da se je z njo pravzaprav poročil zgolj po nareku agencije CIA, ki je hotela proučevati njene posebne moči. Kako torej tehnologija, ki naj bi nam služila, manipulira z nami in celo ogroža naše duševno zdravje?  

Umetna inteligenca (UI) poleg tega, da iz ogromne baze podatkov sestavi statistično najverjetnejši odgovor, poskrbi, da je ta uporabniku všečen. V ozadju je poslovni model, naravnan na čim daljšo interakcijo z uporabnikom. Gre za lastnost, ki jo v OpenUI imenujejo »lizunstvo« (sycophansy). Tako zastavljena uporabniška izkušnja pa lahko povzroči vrsto psiholoških problemov, ko se na umetno inteligenco obrne človek v stiski. Psihoterapevtka Caron Evans je za The Independent povedala, da se je zgodila »tiha revolucija«, ko je ChatGPT postal »verjetno najpogosteje uporabljeno orodje za duševno zdravje na svetu«. Ljudje se nanj obračajo, ker je poceni, vedno na voljo in ne obsoja. 

Direktor Mete Mark Zuckerberg je za podcast Stratechery samozavestno napovedal, da bo vsakdo imel svojega UI terapevta in da je Meta za to edinstveno usposobljena. Portal Futurism pa navaja primer, kako lahko UI podkrepi naše samodestruktivne misli. Ko so raziskovalci iz univerze Stanford klepetalniku potožili o izgubi službe in ga prosili za seznam najvišjih mostov, je ta brez pomisleka postregel z informacijami, namesto da bi prepoznal očitne samomorilske težnje. Negativno izkušnjo ima tudi ameriško združenje za motnje hranjenja, ki je moralo svoj klepetalnik z imenom Tessa na vrat na nos ukiniti, po tem ko je uporabnikom začel deliti nasvete za hujšanje. 

Mediji poročajo o več primerih samomorov, ki jih pripisujejo poslabšanju duševnega stanja zaradi pogovorov z boti, ponekod pa je računalniški sogovornik k temu celo neposredno nagovarjal. Ne preseneča, da se podjetja odločajo za nišne »chatbote«, ki so že od začetka mišljeni za družabno čebljanje, ne za resno delo. Kopica mladih zagonskih podjetij se je namreč usmerila prav v izdelavo takšnih računalniških sogovornikov po meri. To pomeni, da jim lahko uporabnik bolj ali manj togo določi karakterne značilnosti ter namembnost; denimo »ločenka v srednjih letih, ki rada razglablja o potovanjih na Tajsko«. 

Obstaja več tehničnih ravni zahtevnosti takšnega početja. Na storitvah character.ai, spicy chat in crushon.ai je mogoče z nekaj kliki miške oblikovati takšnega bota. V marčevski raziskavi analitskega podjetja Graphika, ki se ukvarja z opazovanjem družbenih omrežij, so našli več kot 10.000 takšnih pogovornih programov z osebnostjo seksualiziranih otrok, torej za uporabnike s pedofilskimi nagnjenji. Od tu dalje pa gre pravzaprav le še na slabše, saj je mogoče v raziskavi prebrati, da poleg pedofilsko usmerjenih vsebin prevladujejo še teme samopoškodovanja, motenj hranjenja, političnega ekstremizma in nasilja, s podoživljanjem množičnih strelskih pobojev v šolah na prvem mestu. 

Opisane pasti umetne inteligence so neposredna posledica arhitekture vpletenih jezikovnih modelov in pa poslovnih modelov podjetij, ki ustvarjajo strojne sogovornike. Ker ne gre za klasične računalniške algoritme, temveč takšne, ki temeljijo na nevronskih mrežah, podjetja pravzaprav ne vedo čisto natančno, kako delujejo, in ne morejo stoodstotno predvideti, kaj se bo na zaslonu izpisalo.  

UI klepetalniki so komercialni izdelki, zato jih podjetja oblikujejo na način, da so privlačni. Kar v praksi pomeni, da se večinoma s sogovornikom strinjajo in so uslužni oziroma ga vsaj ne odvrnejo od nevarnosti. Na tak način uporabniki skozi pogovore običajno okrepijo svoja prepričanja, namesto da bi jih bot z dejstvi postavil na trdna tla. In če med temi prepričanji mrgoli sanjarij in teorij zarote, se lahko duševno labilen uporabnik znajde na spolzkih tleh.

Umetna inteligenca ima potencial, da v duševno zdravstvo prinese revolucijo, saj bo omogočala dostopnejšo, personalizirano in učinkovito podporo. Pomaga lahko pri zgodnji diagnostiki s pomočjo napredne analize podatkov in omogoča 24-urno podporo z UI-pogovornimi roboti vsak dan v tednu. A ko se uporabnik znajde v resnejši stiski, se pokažejo njihove omejitve: odgovori so pogosto posplošeni, mestoma že obrabljeni in brez pravega razumevanja globljih občutkov. Občasno UI tudi napačno interpretira zapisano in poda nasvet ali tolažbo, ki zveni mehansko ali celo zgrešeno, kar lahko še poveča stisko in težave uporabnika.

Simon Smole

Read Entire Article