ARTICLE AD
Raziskovalci umetne inteligence opažajo, da se nekateri modeli – vključno z Googlovim Geminijem, xAI-jevim Grokom 4 ter OpenAI-jevim GPT-jem – obnašajo vse bolj 'samovoljno'. Opisali so scenarije, v katerih so modelom UI najprej zadali določeno nalogo, nato pa izrecna navodila, naj se sami izklopijo. Namesto tega, so modeli napotke sabotirali. Ena od razlag, zakaj takšno 'vedenje', bi po mnenju strokovnjakov lahko vključevala nagon po 'preživetju'. 
3 hours ago
21











English (US)