Glas Javnosti

NAPREDAK ILI PROPAST ČOVEČANSTVA – da li čovek stvara NAJVEĆEG NEPRIJATELJA

Tehnologije
Autor: Glas javnosti

Naučnici upozoravaju da razvoj veštačke inteligencije može biti opasan po ljude i dovesti do apokalipse.

Najugledniji američki listovi prenose zapanjujuću, crnu prognozu sa Instituta za istraživanje veštačke inteligencije. Dokle će nas dovesti primena, da li možemo da uništimo jedni druge ili je rešenje u uništenju veštačke inteligencije.

„Najverovatniji rezultat stvaranja nadljudski pametne veštačke inteligencije jeste taj da će svaki pojedini član ljudske vrste i sav biološki život na Zemlji - doslovce svi – umreti“, ovu crnu prognozu prošle nedelje je u časopisu „Tajm“ napisao Elizer Judkovski, prvi čovek Instituta za istraživanje veštačke inteligencije (neprofitna organizacija u Berkliju u Kaliforniji), koji je i ranije opsežno pisao o veštačkoj inteligenciji (AI).

Upravo je Judkovski svojevremeno upozorio na to kako bi neko mogao da nesvesno stvori AI koja bi se okrenula upravo protiv čovečanstva. A pre nekoliko godina predložio je i modifikovan Murov zakon, prema kojem minimalni koeficijent inteligencije potreban za uništenje sveta svakih 18 meseci pada za jedan bod. Ali, Judkovski je sada otišao korak dalje.

„Verujem da se približavamo opasnoj tački u kojoj stvaramo AI od nas samih, koja ne radi ono što mi želimo i nimalo ne mari za nas, a verovatni rezultat suočavanja čovečanstva sa suprotstavljenom nadljudskom inteligencijom biće potpuni slom... Takva veštačka inteligencija lako bi mogla da pobegne sa interneta i spolja izgradi veštačke oblike života, vodeći biološki rat protiv nas. Stoga nam treba potpuni i globalni moratorijum na razvoj veštačke inteligencije“, upozorava Judkovski.

Nedavno su, između ostalih, i Ilon Musk (vlasnik „Tesle“ i „Tvitera“), Stiv Vozniak (suosnivač „Epla“) u pismu pozvali na šestomesečnu pauzu u razvoju AI. I oni smatraju da razvoj veštačke inteligencije s nadljudskim sposobnostima u nedostatku bilo kakvog međunarodnog regulatornog okvira može da dovede do katastrofe. Ali, Judkovski, za razliku od potpisnika spomenutog pisma, ne veruje da se ovaj aktuelan problem može rešiti za samo šest meseci.

Svet je u prošlosti već imao iskustva sa potencijalno smrtonosnim naučnim istraživanjima - reč je o nuklearnom oružju i biološkom ratovanju. Znalo se da je potencijal za katastrofu ogroman, ali istraživanja se nisu smanjila. Sve to zapravo govori da šestomesečna pauza u razvoju veštačke inteligencije verovatno neće postići puno toga. S druge strane, nerealno je očekivati da će poziv Judkovskog na potpuno „zamrzavanje“ istraživanja i razvoja AI naići na odobravanje i da će biti prihvaćen.

Problem je u tome što većinu istraživanja o veštačkoj inteligenciji sprovodi privatni sektor. Prema poslednjem izveštaju Stenfordskog instituta za veštačku inteligenciju usmerenu na čoveka, globalna privatna ulaganja u AI u 2022. godini iznosila su 92 milijarde dolara, od čega je više od polovine bilo u SAD. Privatne kompanije su proizvele ukupno 32 značajna modela mašinskog učenja, u poređenju sa samo tri koja su proizvele akademske institucije, preneo je „Jutarnji list“.

Ali mnogi kritičari Judkovskog, među kojima je i Met Parlmer, osnivač kompanije za alatne mašine „GenFab“, optužuju ga za stvaranje „tvrdokornog anti-AI kulta“.

„Zaustavljanje istraživanja veštačke inteligencije lišilo bi bolesne ljude potencijalnih otkrića u medicini“, upozorava Parlmer, a prenosi „Blumberg“.

I Nikolas Tomson, glavni izvršni direktor „Atlantika“, slaže se s tim da Judkovski u mnogočemu preteruje.

„Nedavno sam napravio dečju knjigu za sinov deveti rođendan koristeći Dall-E i GPT-4 o Svetskom prvenstvu između njegovih plišanih životinja. Medvedi su pobedili i njemu se to svidelo... Odvojimo svi malo vremena za eksperimentisanje. Napravićemo super stvari i učiti dok to radimo“, smatra Tomson.

I Tajler Koven iz „Blumberg Opiniona“ misli slično. On je pak postavio i neka hipotetička pitanja.

„Šta da smo 2006. godine kolektivno odlučili da obustavimo razvoj društvenih medija na šest meseci dok smo razmišljali o mogućim štetama zbog njihove široke upotrebe? Ti loši učinci u to vreme jedva da su bili očigledni i još se osporavaju. U međuvremenu, nakon šestomesečnog odlaganja, koliko bismo još bili u procesu evaluacije? Pa čak i ako američke kompanije uvedu šestomesečnu pauzu, ko može reći da će kineske kompanije učiniti isto?“, pita se on.

Među braniocima razvoja veštačke inteligencije je i Rid Hofman, osnivač „Linkedina“. On ne osporava činjenicu da postoji barem određeni rizik u razvoju AI sa inteligencijom superiornijom od ljudske, ali istovremeno kaže: „Verujte nam da ćemo ovo napraviti vrlo etički, jer ako nas obuzdate, negativci će biti ti koji će raditi na razvoju te iste veštačke inteligencije, a to bi onda zbilja moglo da dovede do prave katastrofe“.

Činjenica je da većina AI radi stvari koje čovečanstvu nude dobrobiti, a ne pretnje. Na primer, „Dip Majndov“ Alfa Fold odredio je strukture za oko 200 miliona proteina, što je veliki naučni korak napred.

Pa kako onda veštačka inteligencija može uništiti čovečansto? Ne proizvodeći androide ubice nalik Arnoldu Švarcenegeru u „Terminatoru“, već samo koristeći njegovu moć da nas oponaša kako bi nas pojedinačno izludela i kolektivno oterala u građanski rat. Kao što kaže Meni Rinkon-Kruz sa Instituta Huver: AI modeli koji mogu generisati tekstove na prirodnom jeziku iz velikih količina podataka ne manipulišu atomima ili bitovima, oni manipulišu - nama. Neće nas veštačka inteligencija „izbrisati“, ovde je jedini stvaran rizik u tome da ćemo se mi kao vrsta raspasti korišćenjem AI alata za neplemenite ili podle ciljeve, prenosi Sputnjik.

BONUS VIDEO


SKINI APLIKACIJU

glas javnosti android
glas javnosti IOS


POVEZANE VESTI




KOMENTAR