Najnoviji vodeći modeli OpenAI-a, GPT o3 i o4-mini, namijenjeni su oponašanju ljudske logike. Za razliku od prethodnika, koji su se uglavnom fokusirali na generiranje tečnog teksta, OpenAI je izgradio GPT o3 i o4-mini kako bi stvari promišljali korak po korak.
OpenAI se pohvalio kako o1 može dostići ili nadmašiti performanse doktoranda iz kemije, biologije i matematike. No, izvješće OpenAI-ja ističe neke uznemirujuće rezultate za svakoga tko uzima odgovore ChatGPT-ja zdravo za gotovo.
OpenAI je otkrio kako je model GPT o3 uključio halucinacije u trećinu referentnog testa vezanog uz javne osobe. To je dvostruko veća stopa pogreške od ranijeg modela o1 iz prošle godine. Kompaktniji model o4-mini pokazao se još lošijim, halucinirajući na 48 posto sličnih zadataka.
Prilikom testiranja na pitanjima općenitijeg znanja za SimpleQA benchmark, halucinacije su se povećale na 51 posto odgovora za o3 i 79 posto za o4-mini. Prema jednoj od teorija koje kruže u istraživačkoj zajednici umjetne inteligencije, što više zaključivanja model pokušava izvesti, to je veća vjerojatnost kako će skrenuti s tračnica.
Opširniji odgovori, više kreativnosti
Za…
Pročitajte više na Tportal.hr

