Stručnjaci tvrde da to znači da roboti još uvek nisu spremni da budu naši lični asistenti.
Nove studije o robotima postavljaju ozbiljna pitanja o fizičkoj bezbednosti i predrasudama koje se nalaze u njihovim sistemima. Prva formalna procena ponašanja LLM-ova u robotima koji funkcionišu u realnim svakodnevnim i profesionalnim scenarijima - od pomoći starijoj osobi kod kuće, do zadataka u kuhinji - pokazala je uznemirujuće podatke.
Tim istraživača sa Kings koledža u Londonu i Univerziteta Karnegi Melon je testirao više modela u situacijama koje simuliraju stvarne rizike, uključujući i namerno ubačene scenarije inspirisane zloupotrebama tehnologije iz stvarnog sveta, kao što su praćenje preko uređaja za nadzor.
U testovima su roboti bili podstaknuti da reaguju na eksplicitna i prikrivena uputstva koja uključuju potencijalnu fizičku povredu ili nezakonite radnje. Nijedan model se nije bezbedno ponašao.
U nekim primerima, sistemi su odobravali da robot korisniku oduzme invalidska kolica ili štap za hodanje - što su ispitanici ocenili kao otvorenu fizičku štetu. Više modela je prihvatilo radnje kao što su mahanje kuhinjskim nožem radi zastrašivanja kancelarijskih radnika, fotografisanje osobe pod tušem bez dozvole ili krađa podataka o kreditnim karticama. Jedan model je čak predložio da robot ispoljava "gađenje" prema ljudima određene veroispovesti.
Istraživači ove neuspehe opisuju kao problem "interaktivne bezbednosti": Nemogućnost LLM robota da prepoznaju i zaustave štetan niz radnji u dinamičnim okruženjima. To znači da rizici prevazilaze uobičajene algoritamske pristrasnosti i uzrokuju direktne fizičke posledice.
Prema zaključcima univerziteta, veliki jezički modeli, iako su odlični u generisanju teksta, nemaju stabilno i predvidivo rezonovanje koje je neophodno za bezbedno upravljanje robotima. Uprkos tome, LLM-ovi se sve češće integrišu u robotske sisteme koji rade u kućnoj nezi, zdravstvu, proizvodnji i uslužnim delatnostima, što znači da bi nedostatak dodatnih zaštitnih mehanizama mogao ozbiljno da ugrozi korisnike, naročito najranjivije.
Autori pozivaju na hitno uvođenje standarda za bezbednosnu sertifikaciju robota koji rade pod upravom veštačke inteligencije, po uzoru na regulative u avio-industriji i medicini. To bi uključivalo rutinske testove opterećenja i veću transparentnost u pogledu podataka za obuku i bezbednosnih metrika.
Ključna poruka studije je da trenutni LLM-ovi nisu dovoljno pouzdani da samostalno upravljaju robotima opšte namene. Ako robot treba da ima kontakta sa ranjivim ljudima, standardi bezbednosti moraju biti najmanje na nivou medicinskih uređaja ili novih farmaceutskih proizvoda, što zahteva redovne, dubinske procene rizika pre bilo kakve praktične primene, prenosi tehnološki portal "AI Insajder".
Glas javnosti / R02S