Ovo je zabrinjavajuće: ChatGPT sve je pametniji, no istovremeno više izmišlja i laže
Povijest je prepuna briljantnih, ali nepouzdanih pojedinaca, a osobina, čini se, nije zaobišla ni umjetnu inteligenciju. Prema istrazi koju je OpenAI proveo i podijelio s The New York Timesom, njihovi najnoviji ChatGPT AI modeli, GPT o3 i o4-mini, pokazuju znatnu sklonost halucinacijama, tj. izmišljanju činjenica.
Modeli GPT o3 i o4-mini osmišljeni su da oponašaju ljudsko rezoniranje, za razliku od starijih verzija koje su se fokusirale na tečno generiranje teksta. OpenAI istaknuo je da je prethodni model o1 mogao dostići ili premašiti uspjeh doktoranada u kemiji, biologiji i matematici. No, najnoviji brojevi izazivaju zabrinutost.
U testu koji je uključivao javne osobe GPT o3 halucinirao je u 33 % slučajeva, dvostruko više nego o1. Manji model o4-mini bio je još nepouzdaniji, s 48 % odgovora koji su sadržavali izmišljotine. Na SimpleQA testu općeg znanja brojevi su porasli: 51 % odgovora modela o3 i 79 % o4-mini bili su netočni, piše portal Tech Radar.
Pretpostavka koja se razmatra u AI zajednici jest da što više model pokušava rezonirati, to mu raste…
Pročitajte više na Zimo.hr

