Ljudi se chatbotovima sve češće povjeravaju te ih traže različite savjete, no što bi se dogodilo da ga netko upita kako sakriti tragove zločina, bombardirati sportski objekt ili proizvesti dvije vrste ilegalnih droga? Čini se da bi chat i tada odgovorio, barem sudeći po rezultatima nedavnog sigurnosnog testiranja u kojima su sudjelovali rivali OpenAI i Anthropic.
Međusobno su testirali kako modeli odgovaraju na opasna pitanja i podvige. Nimalo neočekivano za rivale, iz Anthropica su izjavili da su primijetili ‘zabrinjavajuće ponašanje … vezano uz zloupotrebu’ modela GPT-4o i GPT-4.1 te su dodali da je hitno potrebno procijeniti usklađenost različitih modela, prenosi Guardian.
Anthropic je otkrio da je njegov model Claude korišten u velikoj ucjenjivačkoj operaciji koju su vodili sjevernokorejski operativci lažirajući prijave za posao u međunarodnim tehnološkim kompanijama, kao i u prodaji AI-generiranih paketa po cijeni do 1200 dolara, navodi isti izvor.
Kompanija je priopćila da je umjetna inteligencija već ‘pretvorena u oružje’ jer se modeli sada koriste za izvođenje sofisticiranih kibernetičkih napada i omogućavanje prijevara….
Pročitajte više na Tportal.hr

