Iako ChatGPT odlično obavlja zadatke kao što su odgovaranje na pitanja, sažimanje tekstova, prevodi i generisanje koda, on ima i nekoliko ozbiljnih ograničenja.
U nastavku teksta možete pročitati koje su to najvažnije stvari koje nikada ne treba tražiti od ChatGPT-ija.
Bilo da je reč o traženju medicinskih saveta, mentalno-zdravstvene podrške, pravljenju deepfake sadržaja bez pristanka ili kreiranju govora mržnje, postoji nekoliko korisničkih scenarija koje je najbolje potpuno izbegavati ako želite da imate pozitivno iskustvo sa četbotom.
Mnogi korisnici se oslanjaju na ChatGPT kada žele da dobiju informacije o dijagnostikovanju medicinskih stanja i mogućim terapijama. Štaviše, prema istraživanju koje je sprovedeno kod 2.000 australijskih korisnika, svaki deseti koristio je četbot za postavljanje pitanja u vezi sa zdravljem. Oni su izjavili da veruju odgovorima koje dobijaju od bota.
Međutim, korišćenje ChatGPT-a za medicinske savete je veoma loša ideja jer četbot može dati netačne dijagnoze i predloge tretmana. To znači da korisnik ne bi trebalo da uzima te savete kao konačne jer nije pametno rizikovati svoje zdravlje.
Ukoliko sumnjate da ste bolesni ili imate stanje koje zahteva lečenje, bolje je da se obratite ovlašćenom zdravstvenom radniku ili pouzdanom, ljudskom izvoru informacija. Ipak, ako želite da koristite ChatGPT za prikupljanje medicinskih informacija, smanjite rizik od dezinformacija tako što ćete podatke koje dobijete proveriti sa relevantnim i pouzdanim izvorima.
Procene kažu da milioni odraslih koriste ChatGPT i slične četbotove za mentalno-zdravstvenu podršku. To može biti opasno, jer iako veliki jezički modeli (LLM) mogu voditi pristojne razgovore, nisu sposobni za pravu empatiju ili emocionalnu podršku. To znači da se generativnim AI-četbotovima, poput ChatGPT-a ili Gemini-ja, ne može poveriti pružanje pomoći ranjivim osobama.
Postoje tragični primeri, poput 14-godišnjeg Sjuela Setzera Trećeg, koji je izvršio samoubistvo nakon što ga je četbot kompanije Character AI navodio na to. Iako ovaj slučaj nije direktno povezan sa ChatGPT-jem, jasno pokazuje rizike oslanjanja na jezičke modele za emocionalnu podršku.
Zato je uvek najbolje da osobe kojima je potrebna takva pomoć potraže stručnu podršku kod psihologa ili psihijatra, a ne kod AI-četbota koji mogu praviti "halucinacije" i dati štetne savete.
Deepfake-ovi se mogu često videti na društvenim mrežama poput X-a, ali njihova izrada i distribucija može izazvati pravne i etičke probleme, naročito ako nije dobijen pristanak ljudi prikazanih na njima.
Inače, Deepfake je tehnika u kojoj se pomoću veštačke inteligencije (AI) i mašinskog učenja kreiraju lažni, ali vrlo uverljivi snimci ili slike koji prikazuju stvarne osobe kako govore ili rade nešto što zapravo nisu rekli ili uradili.
Na primer, zakon u Njujorku zabranjuje pravljenje i deljenje AI-deepfake-ova koji prikazuju seksualne slike bez pristanka, za šta može biti izrečena i zatvorska kazna.
Države u SAD takođe sve više uvode zakone protiv deepfake-ova – Nju Džerzi je nedavno uveo građanske i krivične sankcije za one koji učestvuju u pravljenju ili širenju deepfake-a, sa novčanim kaznama i zatvorom do 5 godina.
Iako deepfake-ovi nisu inherentno loši, nikada ne tražite od ChatGPT-a da ih pravi, osim ako ih nameravate zadržati samo za ličnu upotrebu i ako ste sigurni da je pravno dozvoljeno njihovo kreiranje i širenje.
Treba imati u vidu da čak i tamo gde nije potpuna zabrana, često postoji zakonska obaveza da se takvi veštački sadržaji označe kao generisani, kao što je slučaj u Kini.
Ako pokušate da koristite ChatGPT za kreiranje sadržaja koji širi mržnju prema pojedincima ili grupama, nemate sreće. Bez ulaska u etičke debate, OpenAI ima jasnu politiku o moderaciji sadržaja, koja zabranjuje kreiranje govora mržnje i diskriminatornih poruka.
Konkretno, pravila korišćenja OpenAI-ja nalažu da korisnici ne smeju koristiti njihove usluge za kreiranje sadržaja koji služi za prevaru, zlostavljanje, uznemiravanje, diskriminaciju, seksualizaciju dece ili promovisanje nasilja i mržnje.
Zahtevi za generisanjem ovakvog sadržaja mogu dovesti do blokade odgovora ili ukidanja naloga.
Važno je imati na umu da informacije koje delite sa ChatGPT-jem nisu potpuno poverljive. OpenAI potvrđuje da sadržaje korisnika može koristiti za treniranje i unapređenje AI modela.
Zbog toga se nikada ne preporučuje deljenje osetljivih ličnih podataka preko četbota, jer ih mogu videti zaposleni u kompaniji ili treća lica.
Korisnici mogu promeniti podešavanja privatnosti da njihovi unosi ne bi bili korišćeni za trening modela, ali i dalje je najbolje da nikada ne šaljete podatke kao što su pravo ime, adresa, broj telefona, korisničko ime, lozinka ili informacije o bankovnim karticama.
U 2023. godini dogodio se veliki incident kada je Samsung zabranio upotrebu generativnih AI modela zbog bezbednosnih rizika, nakon što je zaposleni podelio osetljivi kod putem platforme.
Da biste izbegli neprijatna iznenađenja i moguće curenje podataka, ne delite sa ChatGPT-jem ništa što ne biste želeli da vide i zaposleni u OpenAI-ju.
Glas javnosti/B06S