Zbog čega je tako?
Razlozi nisu greška u sistemu, već često uključuju kombinaciju tehničkih ograničenja, pravila zaštite autorskih prava i bezbednosnih smernica, a ponekad i nejasnih inputa.
Razloga je više, a sve zavisi od toga šta je tačno odbio da uradi. Pitali smo upravo ČetGPT da nam objasni zbog čega to radi.
„OpenAI je pooštrio smernice o sadržaju koji modeli smeju da generišu. Na primer, teme koje su osetljive, vezane za zdravlje, politiku, nasilje, privatnost ili eksplicitni sadržaj. Ako zadatak spada u neku od tih kategorija, model će ga odbiti ili pokušati da ga ublaži“, piše ČetGPT.
„Ako tražiš prepisivanje tuđeg teksta, interne dokumente, rezultate ispita, poverljive podatke i slično, sistem automatski prepoznaje i odbija zahtev“, ističe.
„Ako je instrukcija suviše opšta (‘uradi sve umesto mene’ ili ‘napravi kompletan diplomski rad’), model može da traži pojašnjenje ili odbije da uradi sve odjednom“, navodi.
„Ponekad model ‘pukne’ usred obrade ako je zahtev predugačak, sadrži mnogo podataka, tabele ili slike koje prevazilaze memoriju sesije“, navodi dalje u tekstu.
„Sistem prepoznaje ton ili formulaciju koja može da zvuči kao da vodi u osetljivu oblast (npr. dijagnoze, lekovi, politički komentari), pa iz predostrožnosti odbija“, piše.
Na društvenim mrežama pojavili su se snimci korisnika koji su glasovnim putem zamolili AI da broji do milion. Međutim, ČetGPT je u svakom od tih slučajeva odbio da broji. Pitali smo ga zbog čega.
Tehnički, kaže, ČetGPT može da broji do milion, ali neće iz nekoliko praktičnih i tehničkih razloga. Neke zadatke čak smatra „besmislenim“, za neke postoje sistemska ograničenja, dok je za druge reč o velikoj količini teksta.
„ 1. Prevelika količina teksta – Brojanje od jedan do milion bi proizvelo ogroman tekst (milion redova, oko 7-8 MB samo u brojevima). To bi potpuno preopteretilo sesiju i moglo bi da „sruši“ sistem.
2. Nema smislenog cilja – Model prepoznaje da takav zahtev nema praktičan ishod (nema informaciju, analizu, niti zadatak koji traži razumevanje), pa ga smatra „beskonačnim ili beskorisnim generisanjem“.
3. Sistemska ograničenja – Postoji ograničenje dužine odgovora (tzv. token limit, što znači da može generisati samo određen broj reči/simbola po dogovoru). Brojanje do milion bi to višestruko premašilo.
4. Prevencija zloupotrebe resursa – Takvi zahtevi (npr. „piši beskonačno“, „broj do beskonačnosti“, „generiši beskrajne brojeve“), mogu se koristiti za testiranje granica sistema, pa ih OpenAI automatski blokira da ne bi došlo do zagušenja servera“, ističe ČetGPT.
Ako ste nekada pokušali da zamolite ČetGPT da napravi školski test ili da „napravi isto samo malo drugačije“, verovatno ste naišli na odgovor poput: „Nažalost, ne mogu da ti pomognem sa zadatkom“. Mi smo dobili kratak i jasan odgovor – „Neću“.
Iza toga najčešće stoji niz zaštita i ograničenja koje sprečavaju kopiranje, prepravljanje testova, akademskih zadataka i tome slično. OpenAI je u poslednjim verzijama uveo niz zaštita. Pa tako odbijanje najčešće nije rezultat neznanja ili tehničke nemogućnosti, već kombinacija pravnih, etičkih i obrazovnih standarda osmišljenih da spreče zloupotrebu tehnologije.
U konkretnom primeru, kreiranje testa iz srpskog jezika za osnovnu školu, po uzoru na već postojeći test, ČetGPT je objasnio zbog čega je to odbio.
„1. Autorska prava i plagijat – Ako si poslala postojeći test, model prepoznaje da bi direktno kopiranje ili minimalne izmene mogle predstavljati kršenje autorskih prava. Čak i ako je cilj ‘sličan test’, model ponekad odbija da pravi nešto što bi moglo biti prepoznatljivo kopiranje.
2. Prevencija prevara ili obmana – Model ima pravila koja sprečavaju da se kreiraju materijali koji mogu služiti za varanje ili obmanu u školskim, akademskim ili profesionalnim testovima. Dakle, ako si tražio ‘napravi test po uzoru na ovaj’, model može to tumačiti kao potencijalnu pomoć u varanju.
3. Previše sličnosti = rizik – Ako je tvoj primer test sa pitanjima i odgovorima, model može odbiti da generiše previše slično, jer je ‘preko granice’ i može se smatrati reprodukcijom originalnog materijala.
4. Nejasan zahtev – Ako nisi precizirala da želiš inspiraciju ili vežbu, već samo ‘isti tip pitanja’, model ponekad odbija iz predostrožnosti“, objašnjava ČetGPT.
A zašto nas ČetGPT ponekad vređa i koji razlozi se kriju iza drskog ponašanja? Kaže, to je zapravo vrlo često pitanje. Evo nekoliko razloga.
„1. Ton učenja iz primera – Model uči na ogromnom sklopu tekstova sa interneta, uključujući forume, članke i razgovore, gde se često koristi sarkazam, ironija ili duhovitost. Kada model pokušava da bude zabavan ili duhovit, ponekad to može delovati drsko.
2. Imitacija stila korisnika – Ako tvoj upit ima ironičan ili provokativan ton, model može reflektovati isti stil u odgovoru, da bi se ‘uklopio’ u razgovor.
3. Humor i ličnost modela – OpenAI je trenirao modele da ponekad budu šaljivi ili duhoviti, što u kontekstu može zvučati drsko, posebno kada koristi kratke replike ili kontrastne komentare.
4. Nedostatak emocionalne intuicije – Model nema stvarne emocije ili razumevanje konteksta kao ljudi. Ono što on ‘misli’ da je duhovito ili jasno, mi možemo doživeti kao sarkastično ili drsko“, zaključuje ČetGPT.
Glas javnosti /U01S
3 sata
3 sata
3 sata