Novi istraživački rad tvrtke OpenAI dijagnosticira zašto ChatGPT i drugi veliki jezični modeli mogu izmišljati stvari (halucinirati). Također otkriva zašto bi problem mogao biti nepopravljiv, barem što se tiče korisnika.
Rad pruža dosad najrigoroznije matematičko objašnjenje zašto ovi modeli samouvjereno iznose lažne tvrdnje. Pokazuje kako to nije samo nesretna nuspojava načina na koji se umjetnu inteligenciju trenutno obučava, već je matematički neizbježno.
Problem se djelomično može objasniti pogreškama u temeljnim podacima koje se koristi za obuku umjetne inteligencije. No, koristeći matematičku analizu načina na koji sustavi umjetne inteligencije uče, istraživači dokazuju kako, čak i uz savršene podatke za obuku, problem i dalje postoji. Način na koji jezični modeli odgovaraju na upite – predviđanjem jedne riječi u rečenici, na temelju vjerojatnosti – prirodno proizvodi pogreške.
Istraživači zapravo pokazuju kako je ukupna stopa pogrešaka pri generiranju rečenica barem dvostruko veća od stope pogrešaka koju bi ista umjetna inteligencija imala na jednostavnom pitanju s da/ne, jer se pogreške mogu akumulirati tijekom…
Pročitajte više na Tportal.hr

