Studija otkriva da je većinu AI chatbotova lako prevariti da daju opasne odgovore
CHATBOTOVI pokretani umjetnom inteligencijom predstavljaju prijetnju jer omogućuju jednostavan pristup opasnim informacijama otkrivanjem nedopuštenih ili štetnih podataka koje su programi usvojili tijekom treniranja, upozoravaju istraživači, piše The Guardian.
Upozorenje dolazi usred uznemirujućeg trenda vezanog uz chatbotove koji su “probijeni” (jailbroken) kako bi se zaobišle njihove ugrađene sigurnosne kontrole. Ta su ograničenja osmišljena kako bi spriječila programe da korisnicima pružaju štetne, pristrane ili neprimjerene odgovore. Motori koji pokreću chatbotove poput ChatGPT-a, Geminija i Claudea – veliki jezični modeli (LLM-ovi) – napajaju se golemim količinama materijala s interneta.
Unatoč nastojanjima da se iz podataka za treniranje uklone štetni tekstovi, LLM-ovi i dalje mogu upiti informacije o nezakonitim aktivnostima poput hakiranja, pranja novca, trgovanja povlaštenim informacijama i izrade bombi. Sigurnosne kontrole dizajnirane su kako bi ih spriječile da koriste te informacije u svojim odgovorima.
Rizik je neposredan, konkretan i duboko…
Pročitajte više na Index.hr

