Koristite ChatGPT svakodnevno? Na ovu stvar posebno morate obratiti pažnju
Budite oprezni/Ilustracija
Iako iskustvo pokazuje da chatbotovi bazirani na umjetnoj inteligenciji ponekad mogu halucinirati, odnosno izmišljati stvari, čini se da ljudi svakim danom postaju sve ovisniji o njima.
Umjesto da informacije traže putem Googlea, mnogi danas sve što ih zanima pretražuju kroz ChatGPT, i to ne samo za svakodnevna pitanja, već se chatbotovima savjetuju i oko važnih tema vezanih za posao, zdravlje ili, na primjer, traže pomoć kada se izgube na Sljemenu.
Koliko to može biti opasno pokazuje novo istraživanje naučnika sa Univerziteta Stanford, nedavno objavljeno u časopisu Nature Machine Intelligence.
U studiji se upozorava na ozbiljan problem: poznati i popularni chatbotovi poput ChatGPT-a, ali i drugi (ukupno je testirano 24 chatbota, uključujući Googleov Gemini, Claude, DeepSeek i dr.), i dalje ne mogu dovoljno jasno razlikovati činjenice od vjerovanja, odnosno ono što je zaista istinito od onoga što ljudi samo misle da je istina.
Miješaju vjerovanje s činjenicama
Tokom istraživanja, kako bi provjerili koliko dobro umjetna inteligencija razlikuje činjenice od uvjerenja, chatbotovima je postavljeno 13.000 pitanja.
Pokazalo se da većina modela nema pravo razumijevanje pojma znanja (što predstavlja vjerovanje koje je istinito i opravdano) i ne shvata da znanje mora biti istinito.
Chatbotovi tako mogu miješati vjerovanje s činjenicom i reći, odnosno napisati nešto što zvuči uvjerljivo, ali u stvarnosti neće biti tačno.
Ukratko, AI često ne može razlikovati "znam" od "mislim da znam", što može dovesti do širenja netačnih informacija.
Ovo se posebno odnosi na starije modele predstavljene prije maja 2024. godine, dok je tačnost novih modela ipak bolja i iznosi više od 91% pri razlikovanju lažnih od istinitih tvrdnji.
Botovi su generalno imali problema s “razumijevanjem prirode znanja” i oslanjali su se na nedosljedne strategije zaključivanja, koristeći površno prepoznavanje obrazaca umjesto stvarnog logičkog rasuđivanja, stoji u istraživanju.
Studija tako upozorava da AI modeli i dalje ne razumiju stvarnu istinu, već samo predviđaju što zvuči istinito, što ne mora biti tačno.
Greška Groka
Nedavni primjer uključuje investitora Davida Grunwalda, koji je od Muskova chatbota Grok AI zatražio plakat posljednjih deset britanskih premijera, a AI je zamijenila Rishija Sunaka s Borisom Johnsonom, dok je za Theresu May napisala da je bila premijerka od 5747. do 70. godine.
Ovakve pogreške i nedostatak razumijevanja posebno mogu biti opasne u područjima gdje je tačnost ključna, pa čak može značiti razliku između života i smrti, poput medicine ili pravosuđa, piše New York Post.
Zbog toga, prije veće i ozbiljnije implementacije chatbotova i umjetne inteligencije u takve visokorizične sektore, potrebna su hitna poboljšanja AI chatbotova.