Umetna inteligenca se lahko moti. Ne le pri zapletenih vprašanjih, ampak tudi pri datumih, imenih, številkah, virih in povzetkih dokumentov. Največja težava ni vedno v sami napaki, ampak v tem, da je odgovor pogosto napisan gladko, samozavestno in brez jasnega signala, da je lahko napačen. Prav zato je pomembno, da AI razumemo kot koristno pomoč, ne pa kot samodejno avtoriteto.
Zakaj umetna inteligenca včasih poda napačen odgovor?
Generativni modeli ne preverjajo resničnosti na enak način kot človek, ki odpre zakon, poišče izvirni članek ali primerja več virov med seboj. Njihov cilj je predvsem ustvariti odgovor, ki je jezikovno smiseln in verjeten glede na vprašanje. To pogosto deluje zelo dobro, ne pomeni pa, da je vsaka trditev tudi točna.
Foto: Napačen odgovor AITu nastane ključna težava. Odgovor je lahko videti urejen, logičen in prepričljiv, a vseeno vsebuje zamenjano leto, napačno institucijo ali celo neobstoječ vir. Uporabnik takšne napake hitro spregleda, ker besedilo deluje dovršeno. Prav zato pri umetni inteligenci ni dovolj, da se vprašamo, ali odgovor “zveni prav”. Pomembneje je vprašanje, ali ga je mogoče preveriti.
Kdaj so napake najbolj verjetne?
Največkrat takrat, ko od AI pričakujemo popolno natančnost. To se hitro pokaže pri pravnih vprašanjih, medicinskih razlagah, zelo svežih novicah, dobesednih citatih ali natančnih številkah. V teh primerih sistem pogosto deluje samozavestno tudi takrat, ko dejansko sklepa, dopolnjuje vrzeli ali napačno združuje informacije.
Večje tveganje je tudi pri dvoumnih vprašanjih. Če vprašanje ni dovolj jasno, model pogosto “ugiba”, kaj je uporabnik mislil. Rezultat je lahko na prvi pogled uporaben, vendar vsebinsko zgrešen. Ravno zaradi tega so najnevarnejši tisti odgovori, ki niso povsem napačni, ampak le dovolj napačni, da zavedejo.
Kako je to videti v resničnem svetu?
Dober primer prihaja iz prava. V odmevnem primeru v ZDA so odvetniki v sodni vlogi uporabili sodne primere, ki jih je ustvaril ChatGPT, vendar ti primeri niso obstajali. Besedilo je bilo videti verodostojno, dokler ga ni nekdo preveril. Ta primer je postal pomemben opomin, ker pokaže bistvo problema: umetna inteligenca ni nevarna zato, ker bi vedno odgovarjala slabo, ampak zato, ker lahko napačen odgovor poda v obliki, ki deluje povsem verjetno.
Podobno se lahko zgodi tudi v vsakdanjem delu. AI pripravi povzetek zapisnika in zgreši eno številko. Povzame raziskavo, a preveč odločno predstavi ugotovitev, ki je bila v izvirniku precej bolj previdno zapisana. Navede vir, ki je podoben pravemu, a ni povsem točen. Takšne napake niso spektakularne, so pa dovolj resne, da lahko vplivajo na odločitev.
Kaj pomeni, če je odgovor zelo samozavesten?
Pravzaprav zelo malo, samozavesten ton ni dokaz pravilnosti. Pri generativni umetni inteligenci je to ena največjih pasti, saj sta lahko pravilen in napačen odgovor napisana skoraj enako prepričljivo. Lep slog, tekoča razlaga in hiter odgovor še ne pomenijo, da imamo pred sabo preverjeno dejstvo.
To je dobro prevesti v čisto vsakdanji jezik: dobro napisano ni isto kot dobro preverjeno. Urejen odstavek ni isto kot zanesljiv vir. In hiter povzetek ni isto kot natančno branje izvirnika. Ko uporabnik to enkrat razume, začne AI uporabljati precej bolj pametno.
Foto: Umetna inteligencaKako lahko napako hitreje opazimo?
Najboljši pristop je preprost: pri pomembnih trditvah ne preverjamo samo, ali se slišijo logično, ampak ali jih je mogoče dokazati. Če AI navede zakon, je smiselno odpreti zakon. Če omenja raziskavo, je dobro preveriti, ali študija res obstaja in ali je povzeta pošteno. Če navede citat konkretne osebe, mora biti ta citat preverljiv.
Pomaga tudi zdrava mera suma pri odgovorih, ki so presenetljivo gladki. Čim bolj natančno in občutljivo je vprašanje, tem manj smiselno je, da odgovor vzamemo kot končno resnico brez dodatnega preverjanja. Prav tu se pokaže razlika med pametno uporabo AI in slepim zaupanjem vanjo.
Zakaj je pomembno razlikovati med pomočjo in avtoriteto?
Ker je umetna inteligenca pogosto najboljša prav tam, kjer človeku prihrani prvi korak. Koristna je pri osnutku, strukturiranju besedila, poenostavitvi zapletenega pojma ali pripravi povzetka za nadaljnje delo. Težava nastane, ko jo začnemo uporabljati kot zadnjo instanco, ki naj bi sama odločila, kaj drži.
To ni le tehnično vprašanje, ampak vprašanje odgovornosti. V pravu, zdravstvu, upravi in tudi v vsakdanjem službenem delu mora nekdo na koncu preveriti, ali je besedilo točno. AI lahko zelo pomaga pri hitrosti in preglednosti, ne more pa sama prevzeti odgovornosti za posledice napačnega odgovora.
Kako na to gledajo EU, Slovenija in javne ustanove?
Evropski in slovenski okvir gre v smer odgovorne uporabe, preglednosti in človeškega nadzora. Osnovna ideja ni, da bi bilo treba umetno inteligenco zavračati, ampak da jo je treba uporabljati z razumevanjem njenih omejitev. To je še posebej pomembno tam, kjer gre za javne odločitve, osebne podatke, uradne dokumente ali vsebine, ki lahko vplivajo na pravice posameznika.
Foto: Zavračanje AITudi zato se vse pogosteje poudarja AI pismenost. To v praksi ne pomeni, da mora vsak razumeti tehnično ozadje modelov, ampak da zna presoditi, kdaj je odgovor dovolj dober za osnutek in kdaj ga je treba preveriti v izvirnem viru.
Kdaj je umetna inteligenca vseeno zelo uporabna?
Takrat, ko jo uporabljamo kot pomočnico, ne kot razsodnico. Zelo uporabna je pri pripravi prve verzije besedila, pri razlagi zahtevnejše teme, pri urejanju informacij in pri iskanju izhodišč za nadaljnje delo. Manj primerna pa je tam, kjer je potrebna popolna natančnost brez dodatnega preverjanja.
Najbolj pošten opis je zato preprost: umetna inteligenca je koristna, ni pa nezmotljiva. Če jo uporabljamo za hitrost, pregled in pomoč pri razmišljanju, je lahko zelo dobra. Če pa jo zamenjamo za preverjen vir ali za človekovo presojo, se hitro pokažejo njene meje.
Pripravil: J.P.
Vir: OpenAI, NIST, Reuters, EK, Pexels, Freepik
The post Kdaj se umetna inteligenca moti in kako to prepoznati? first appeared on NaDlani.si.

2 hours ago
24










English (US)