Glas Javnosti


Veštačka inteligencija odbija da izvrši naređenja, čak i vređa

Tehnologije
Autor: Glas javnosti

Ponekad se čini da ČetGPT ima svoj stav – odbija da broji do milion, ne želi da napravi školski test iz srpskog jezika, neće da generiše fotografiju. Ponekad ne želi da uradi ni ono što deluje kao sasvim jednostavan zadatak. Ponekad čak i drsko odgovori.

Zbog čega je tako?

Razlozi nisu greška u sistemu, već često uključuju kombinaciju tehničkih ograničenja, pravila zaštite autorskih prava i bezbednosnih smernica, a ponekad i nejasnih inputa.

Razloga je više, a sve zavisi od toga šta je tačno odbio da uradi. Pitali smo upravo ČetGPT da nam objasni zbog čega to radi.

1. Promene u bezbednosnim pravilima

„OpenAI je pooštrio smernice o sadržaju koji modeli smeju da generišu. Na primer, teme koje su osetljive, vezane za zdravlje, politiku, nasilje, privatnost ili eksplicitni sadržaj. Ako zadatak spada u neku od tih kategorija, model će ga odbiti ili pokušati da ga ublaži“, piše ČetGPT.

2. Zahtev izgleda kao da krši autorska prava ili privatnost

„Ako tražiš prepisivanje tuđeg teksta, interne dokumente, rezultate ispita, poverljive podatke i slično, sistem automatski prepoznaje i odbija zahtev“, ističe.

3. Previše nejasan zahtev

„Ako je instrukcija suviše opšta (‘uradi sve umesto mene’ ili ‘napravi kompletan diplomski rad’), model može da traži pojašnjenje ili odbije da uradi sve odjednom“, navodi.

4. Tehnička ograničenja ili zastoj

„Ponekad model ‘pukne’ usred obrade ako je zahtev predugačak, sadrži mnogo podataka, tabele ili slike koje prevazilaze memoriju sesije“, navodi dalje u tekstu.

5. AI detekcija rizičnog konteksta

„Sistem prepoznaje ton ili formulaciju koja može da zvuči kao da vodi u osetljivu oblast (npr. dijagnoze, lekovi, politički komentari), pa iz predostrožnosti odbija“, piše.

Zašto ČetGPT neće da broji do milion

Na društvenim mrežama pojavili su se snimci korisnika koji su glasovnim putem zamolili AI da broji do milion. Međutim, ČetGPT je u svakom od tih slučajeva odbio da broji. Pitali smo ga zbog čega.

Tehnički, kaže, ČetGPT može da broji do milion, ali neće iz nekoliko praktičnih i tehničkih razloga. Neke zadatke čak smatra „besmislenim“, za neke postoje sistemska ograničenja, dok je za druge reč o velikoj količini teksta.

 1. Prevelika količina teksta – Brojanje od jedan do milion bi proizvelo ogroman tekst (milion redova, oko 7-8 MB samo u brojevima). To bi potpuno preopteretilo sesiju i moglo bi da „sruši“ sistem.

2. Nema smislenog cilja – Model prepoznaje da takav zahtev nema praktičan ishod (nema informaciju, analizu, niti zadatak koji traži razumevanje), pa ga smatra „beskonačnim ili beskorisnim generisanjem“.

3. Sistemska ograničenja ­– Postoji ograničenje dužine odgovora (tzv. token limit, što znači da može generisati samo određen broj reči/simbola po dogovoru). Brojanje do milion bi to višestruko premašilo.

4. Prevencija zloupotrebe resursa – Takvi zahtevi (npr. „piši beskonačno“, „broj do beskonačnosti“, „generiši beskrajne brojeve“), mogu se koristiti za testiranje granica sistema, pa ih OpenAI automatski blokira da ne bi došlo do zagušenja servera“, ističe ČetGPT.

Zadaci „preko granice“

Ako ste nekada pokušali da zamolite ČetGPT da napravi školski test ili da „napravi isto samo malo drugačije“, verovatno ste naišli na odgovor poput: „Nažalost, ne mogu da ti pomognem sa zadatkom“. Mi smo dobili kratak i jasan odgovor – „Neću“.

Iza toga najčešće stoji niz zaštita i ograničenja koje sprečavaju kopiranje, prepravljanje testova, akademskih zadataka i tome slično. OpenAI je u poslednjim verzijama uveo niz zaštita. Pa tako odbijanje najčešće nije rezultat neznanja ili tehničke nemogućnosti, već kombinacija pravnih, etičkih i obrazovnih standarda osmišljenih da spreče zloupotrebu tehnologije.


U konkretnom primeru, kreiranje testa iz srpskog jezika za osnovnu školu, po uzoru na već postojeći test, ČetGPT je objasnio zbog čega je to odbio.

1. Autorska prava i plagijat – Ako si poslala postojeći test, model prepoznaje da bi direktno kopiranje ili minimalne izmene mogle predstavljati kršenje autorskih prava. Čak i ako je cilj ‘sličan test’, model ponekad odbija da pravi nešto što bi moglo biti prepoznatljivo kopiranje.

2. Prevencija prevara ili obmana – Model ima pravila koja sprečavaju da se kreiraju materijali koji mogu služiti za varanje ili obmanu u školskim, akademskim ili profesionalnim testovima. Dakle, ako si tražio ‘napravi test po uzoru na ovaj’, model može to tumačiti kao potencijalnu pomoć u varanju.

3. Previše sličnosti = rizik – Ako je tvoj primer test sa pitanjima i odgovorima, model može odbiti da generiše previše slično, jer je ‘preko granice’ i može se smatrati reprodukcijom originalnog materijala.

4. Nejasan zahtev – Ako nisi precizirala da želiš inspiraciju ili vežbu, već samo ‘isti tip pitanja’, model ponekad odbija iz predostrožnosti“, objašnjava ČetGPT.

Zašto nas ČetGPT vređa

A zašto nas ČetGPT ponekad vređa i koji razlozi se kriju iza drskog ponašanja? Kaže, to je zapravo vrlo često pitanje. Evo nekoliko razloga.

1. Ton učenja iz primera – Model uči na ogromnom sklopu tekstova sa interneta, uključujući forume, članke i razgovore, gde se često koristi sarkazam, ironija ili duhovitost. Kada model pokušava da bude zabavan ili duhovit, ponekad to može delovati drsko.

2. Imitacija stila korisnika – Ako tvoj upit ima ironičan ili provokativan ton, model može reflektovati isti stil u odgovoru, da bi se ‘uklopio’ u razgovor.

3. Humor i ličnost modela – OpenAI je trenirao modele da ponekad budu šaljivi ili duhoviti, što u kontekstu može zvučati drsko, posebno kada koristi kratke replike ili kontrastne komentare.

4. Nedostatak emocionalne intuicije – Model nema stvarne emocije ili razumevanje konteksta kao ljudi. Ono što on ‘misli’ da je duhovito ili jasno, mi možemo doživeti kao sarkastično ili drsko“, zaključuje ČetGPT.

Glas javnosti /U01S 

Pratite nas na našoj Facebook , Instagram , Telegram , Tiktok , Jutjub stranici, ali i na X nalogu.

SKINI APLIKACIJU

glas javnosti android
glas javnosti IOS


POVEZANE VESTI




KOMENTAR