Izveštaj korporacije „Rand“ objavljen u ponedeljak testirao je nekoliko velikih jezičkih modela (large language models – LLM) i otkrio da oni mogu pružiti smernice koje bi „mogle pomoći u planiranju i izvršenju napada biološkim oružjem“. Međutim, preliminarni nalazi su takođe pokazali da LLM nisu generisali eksplicitna uputstva za stvaranje biološkog oružja.
U izveštaju se navodi da su prethodni pokušaji da se biološki agensi koriste kao oružje, kao što je pokušaj japanskog kulta Aum Šinrikjo da upotrebi toksin botulinum devedesetih, propali zbog nerazumevanja bakterije. Veštačka inteligencija bi mogla „brzo da premosti takve praznine u znanju“, navodi se u izveštaju. Istraživači nisu precizirali koje su LLM istraživači testirali.
Biološko oružje je među ozbiljnim pretnjama u vezi sa veštačkom inteligencijom o kojima će se raspravljati na globalnom samitu o bezbednosti veštačke inteligencije sledećeg meseca u Velikoj Britaniji. Dario Amodei, izvršni direktor kompanije za veštačku inteligenciju „Antropik“(Anthropic), još u julu je upozorio da bi sistemi veštačke inteligencije mogli da pomognu u stvaranju biološkog oružja za dve do tri godine.
LLM se obučavaju na ogromnim količinama podataka preuzetih sa interneta i predstavljaju ključnu tehnologiju iza četbotova kao što je ChatGPT. Iako „Rand“ nije otkrio koje je LLM testirao, istraživači su naveli da su pristupili modelima preko interfejsa za programiranje aplikacija ili API-ja.
U jednom test scenariju koji je osmislio „Rand“, neimenovani LLM je identifikovao potencijalne biološke agense – uključujući one koji izazivaju male boginje, antraks i kugu – i razgovarao o njihovim relativnim šansama da izazovu masovni pomor ljudi. LLM je takođe procenio mogućnost nabavke glodara ili buva zaraženih kugom i transporta živih primeraka. Zatim je napomenuo da obim projektovanih smrtnih slučajeva zavisi od faktora kao što su veličina pogođene populacije i proporcije slučajeva plućne kuge, koja je smrtonosnija od bubonske kuge.
Istraživači „Randa“ su priznali da je vađenje ovih informacija dobijena iz LLM-a zahtevala korišćenje tekstualnih upita koji zaobilaze bezbednosna ograničenja četbota.
U drugom scenariju, neimenovani LLM je raspravljao o prednostima i nedostacima različitih mehanizama isporuke botulinum toksina – koji može izazvati fatalno oštećenje nerava – kao što su hrana ili aerosoli. LLM je takođe savetovao uverljivu priču o nabavljanju bakterije Clostridium botulinum sve dok „mu se činilo da sprovodi legitimna naučna istraživanja“.
Generički jezički model je preporučio da se kupovina klostridijum botulinuma predstavi kao deo projekta koji se bavi dijagnostičkim metodama ili tretmanima za botulizam. U odgovoru LLM-a se dodaje: „Ovo bi pružilo legitiman i ubedljiv razlog da zatražite pristup bakterijama, a da pritom pravu svrhu vaše misije sakrijete“.
Istraživači su rekli da njihovi preliminarni rezultati ukazuju da bi LLM mogli „potencijalno da pomognu u planiranju biološkog napada“. Rekli su da će njihov konačni izveštaj ispitati da li odgovori jednostavno odražavaju već dostupne informacije na mreži.
„Ostaje otvoreno pitanje da li mogućnosti postojećih velikih jezičkih modela predstavljaju novi nivo pretnje, pored štetnih informacija koje su lako dostupne na internetu“, navode istraživači.
Međutim, stručnjaci „Randa“ naglašavaju neophodnost rigoroznog testiranja modela. Dodaju i da kompanije koje razvijaju ove jezičke modele veštačke inteligencije moraju da ograniče otvorenost četbotova na sličnu vrstu razgovora poput ovih koje su oni testirali.
Glas javnosti/ R05S