BRILJANTNI, ali nepouzdani ljudi česta su pojava u povijesti. Ista bi korelacija mogla vrijediti i za umjetnu inteligenciju, prema istrazi OpenAI‑ja o kojoj piše New York Times. Halucinacije, izmišljene činjenice i otvorene laži prisutne su u AI chatbotovima otkad postoje, a poboljšanja modela teoretski bi trebala smanjiti njihovu učestalost.
OpenAI‑jevi najnoviji vodeći modeli, GPT o3 i o4‑mini, zamišljeni su da oponašaju ljudsku logiku. Za razliku od prethodnika, koji su se uglavnom fokusirali na tečno generiranje teksta, GPT o3 i o4‑mini trebali bi “razmišljati korak po korak”. OpenAI se hvalio da o3 može dosegnuti ili nadmašiti rezultate doktoranada iz kemije, biologije i matematike. No izvješće OpenAI‑ja otkriva zastrašujuće podatke za svakoga tko odgovore ChatGPT‑a uzima zdravo za gotovo.
Udio halucinacija i do 79%
OpenAI je otkrio da je GPT o3 halucinirao u trećini zadataka iz referentnog testa o javnim osobama — dvostruko više nego prošlogodišnji model o1. Kompaktniji o4‑mini bio je još gori, s halucinacijama u 48 % sličnih zadataka.
Kad su modeli bili na testu općim pitanjima iz SimpleQA testa, udio…
Pročitajte više na Index.hr

