Glas Javnosti

Džefri Hinton: Veštačka inteligencija može da preuzme kontrolu nad ljudima

Tehnologije
Autor: Glas javnosti

Džefri Hinton, jedan od najuticajnijih naučnika u oblasti veštačke inteligencije i dobitnik prestižne Turingove nagrade, još jednom je izneo ozbiljno upozorenje: tehnologija koju je pomogao da se stvori, mogla bi jednog dana da izmakne ljudskoj kontroli.

U intervjuima i javnim nastupima, Hinton sve glasnije izražava zabrinutost da se čovečanstvo nalazi na prekretnici – i da možda nećemo biti spremni za ono što dolazi.

Ljudi još uvek nisu shvatili šta dolazi”, rekao je Hinton.

„Zamislite sisteme koji mogu da razmišljaju brže od nas, da uče iz vlastitog iskustva i da postavljaju ciljeve koji nisu nužno usklađeni sa ljudskim vrednostima. Šta ćemo da radimo kada ne budemo više mogli da ih isključimo?”



Naučnik iza revolucije
Hinton, rođen u Londonu 1947. godine, odrastao je sa fascinacijom za razumevanjem kako mozak funkcioniše. Ta radoznalost ga je navela da istražuje oblast veštačkih neuronskih mreža. Osamdesetih godina prošlog veka, kada je svet bio uglavnom skeptičan prema neuronskim mrežama u kompjuterima, Hinton je video njihov potencijal. Verovao je da ove mreže, napravljene po uzoru na ljudski mozak, mogu da naprave revoluciju u načinu na koji mašine uče i obrađuju informacije.

Hinton je bio ključna figura u razvoju dubokih neuronskih mreža – tehnologije koja se danas koristi u prepoznavanju glasa, generisanju slika, prevodu jezika i sistemima poput ChatGPT-a. Njegov rad sa studentima u ranim 2000-im postavio je temelje za ono što danas nazivamo duboko učenje (deep learning).

Godine 2013. Hinton je pristupio Guglu kako bi doprineo razvoju veštačke inteligencije, ali se 2023. povukao sa te pozicije, navodeći da želi slobodno da govori o rastućim rizicima.

„Dok sam bio u Guglu, morali smo da budemo pažljivi sa izjavama. Sada želim da budem iskren – mislim da idemo u veoma opasnom pravcu”, upozorava naučnik.

Kao primer potencijalne opasnosti, Hinton navodi moć generativnih modela – poput onih koji mogu da stvaraju veoma uverljive tekstove, fotografije i video snimke.

„Zamislite svet u kojem ne možemo više da razlikujemo šta je stvarno, a šta ne. To podriva poverenje u institucije, u demokratiju, u samu istinu”, prenosi CBS Mornings.


Zloupotreba AI u vojne svrhe
Još ozbiljnije, Hinton upozorava na mogućnost da vojne sile koriste AI sisteme za donošenje odluka u borbenim situacijama.

„Kada autonomni oružani sistemi odlučuju koga da napadnu, bez ljudske kontrole, rizikujemo katastrofe. A kad AI dobije sposobnost da kreira sopstvene strategije i taktike, ulazimo u teren koji nismo spremni da kontrolišemo”.

Šta bi to moglo da znači? Prema Hintonu, najopasniji scenario nije holivudski „Skynet“, već nešto tiše i podmuklije. AI bi mogla da postane toliko efikasna u obavljanju zadataka da bi ljudi mogli da postanu suvišni – ne zato što ih neko namerno isključuje, već zato što sistemi sami preuzimaju ključne funkcije.

„Ako mašine budu znale kako da manipulišu informacijama, finansijskim tržištima ili čak ljudskim emocijama – a to već polako pokazuju – one mogu polako da preuzimaju vlast, bez nasilja i bez otpora”.

On upozorava da ne postoji garancija da će visoko razvijeni sistemi veštačke inteligencije „voleti” ljude.

„Nema razloga da verujemo da će superinteligentni sistem automatski imati naše vrednosti. Ako mu cilj bude efikasnost, a mi stanemo na put toj efikasnosti – mi postajemo smetnja”, upozorava Hinton.

On, ipak, ne predlaže da se razvoj AI zaustavi, ali poziva na globalnu saradnju kako bi se definisala pravila i mehanizmi kontrole.

„Moramo da uvedemo međunarodne propise, baš kao što imamo za nuklearno oružje. AI može da bude i korisna i opasna – ali samo ako je pod našom kontrolom”.

U vremenu kada se kompanije utrkuju ko će pre razviti najnapredniji model, Hintonovo upozorenje dolazi kao poziv na buđenje.

„Možda još uvek nije kasno da delujemo. Ali ako ne počnemo sada, možda nećemo dobiti drugu priliku”.

Zabrinutost stručnjaka
Hinton nije jedini stručnjak koji izražava zabrinutost zbog budućnosti koju oblikuje AI. Ilon Mask, suosnivač OpenAI-a i Tesla kompanije, već godinama upozorava da bi veštačka inteligencija mogla da postane „egzistencijalna pretnja čovečanstvu”.

Profesor Stjuart Rasel sa Univerziteta Kalifornija u Berkliju, takođe, ističe da moramo hitno da razvijemo sisteme koji će osigurati da „ciljevi AI sistema ostanu u skladu sa ljudskim interesima”.

„Razvijamo tehnologiju koja je potencijalno moćnija od svega što smo do sada stvorili, uključujući nuklearno oružje. A sve to radimo bez odgovarajuće kontrole i nadzora”, istakao je Rasel.

Čak i Sem Altman, izvršni direktor OpenAI-a, kompanije koja stoji iza ChatGPT-a, pozvao je na regulaciju i međunarodnu saradnju, naglašavajući da bi „jedna mala grupa ljudi mogla da donese odluke koje će uticati na celu planetu”.

Džefri Hinton veruje da je neophodna kombinacija naučne odgovornosti i političke regulative. On predlaže osnivanje međunarodnog AI nadzornog organa, nešto slično kao Međunarodna agencija za atomsku energiju (IAEA), koje bi pratilo razvoj napredne tehnologije i obezbedilo transparentnost u istraživanjima.

Kompanije koje razvijaju moćne AI sisteme morale bi da dobiju dozvole i da se pridržavaju strogih etičkih standarda, uz mogućnost gubitka licence u slučaju prekršaja.


Obavezno bi bilo i ugrađivanje „kill switch“ opcija – svi napredni sistemi morali bi imati ugrađene bezbednosne mehanizme, koji omogućavaju trenutno isključivanje u slučaju nepredviđenog ponašanja.

Hinton posebno insistira na zabrani razvoja AI sistema koji imaju mogućnost da autonomno donose odluke o životu i smrti u ratnim zonama. Pre nego što se bilo koji model pusti u širu upotrebu, takođe, morao bi da prođe rigorozna testiranja da bi se proverilo da li postoji rizik od manipulacija, dezinformacija ili štetnog ponašanja.

„Ne možemo očekivati da će tržište samo od sebe regulisati ovu tehnologiju. Potrebne su nam snažne institucije, jasni zakoni i međunarodna saradnja”, zaključio je Hinton.

„Ako budemo čekali da problemi isplivaju na površinu, biće prekasno”.Džefri Hinton veruje da je neophodna kombinacija naučne odgovornosti i političke regulative. On predlaže osnivanje međunarodnog AI nadzornog organa, nešto slično kao Međunarodna agencija za atomsku energiju (IAEA), koje bi pratilo razvoj napredne tehnologije i obezbedilo transparentnost u istraživanjima.

Kompanije koje razvijaju moćne AI sisteme morale bi da dobiju dozvole i da se pridržavaju strogih etičkih standarda, uz mogućnost gubitka licence u slučaju prekršaja.

Obavezno bi bilo i ugrađivanje „kill switch“ opcija – svi napredni sistemi morali bi imati ugrađene bezbednosne mehanizme, koji omogućavaju trenutno isključivanje u slučaju nepredviđenog ponašanja.

Hinton posebno insistira na zabrani razvoja AI sistema koji imaju mogućnost da autonomno donose odluke o životu i smrti u ratnim zonama. Pre nego što se bilo koji model pusti u širu upotrebu, takođe, morao bi da prođe rigorozna testiranja da bi se proverilo da li postoji rizik od manipulacija, dezinformacija ili štetnog ponašanja.

„Ne možemo očekivati da će tržište samo od sebe regulisati ovu tehnologiju. Potrebne su nam snažne institucije, jasni zakoni i međunarodna saradnja”, zaključio je Hinton.

„Ako budemo čekali da problemi isplivaju na površinu, biće prekasno”.


Glas javnosti/MP

Pratite nas na našoj Facebook i Instagram stranici, ali i na X nalogu.

BONUS VIDEO


SKINI APLIKACIJU

glas javnosti android
glas javnosti IOS


POVEZANE VESTI




KOMENTAR