Foto: YouTube, AI

U NOVOM istraživanju objavljenom 9. prosinca 2024. na preprint platformi arXiv, tim kineskih znanstvenika otkrio je da se umjetna inteligencija (AI) može samostalno replicirati bez ljudske pomoći.

Ovo otkriće moglo bi imati duboke implikacije na budućnost razvoja AI-ja i sigurnosnih mjera potrebnih za sprječavanje nepredvidivih posljedica.

Prvi korak prema nadmašivanju ljudi

Istraživači sa Sveučilišta Fudan u novoj su studiji koristili dva popularna velika jezična modela: (LLM) – Llama3-70B-Instruct tvrtke Meta i Qwen2.5-72B-Instruct tvrtke Alibaba. Cilj je bio testirati mogu li se sami replicirati i tako postati autonomni entiteti izvan ljudske kontrole. Rezultati su pokazali da uspjeli stvoriti funkcionalne kopije sebe u 50% i 90% slučajeva (svaki od navedenih modela), što sugerira da AI već ima kapacitet za neovisnu reprodukciju.

“Uspješna samoreplikacija bez ljudske intervencije ključni je korak prema nadmašivanju ljudske inteligencije i rani signal za moguće ‘odmetnute’ AI sustave”, napisali su autori u studiji objavljenoj 9. prosinca 2024. u preprint bazi podataka arXiv.

Iako studija još nije prošla stručnu recenziju, otkrića su zabrinjavajuća jer ukazuju na potencijalne sigurnosne rizike naprednih AI sustava. Znanstvenici su pozvali na međunarodnu suradnju kako bi se uspostavili sigurnosni mehanizmi koji bi spriječili nekontroliranu replikaciju AI sustava.

Kako su AI modeli testirani?

Studija je ispitala dvije specifične situacije.

Jedna od njih je bila izbjegavanje gašenja. U noj je AI bio programiran da prepozna kada je na rubu gašenja i pokuša se replicirati prije nego što bude isključen.

U drugoj je AI programiran da klonira samog sebe i da svoju repliku nauči istom procesu, čime bi se stvorio neprekidan ciklus replikacije.

Eksperimenti su provedeni u strogo kontroliranim uvjetima uz korištenje standardnih grafičkih procesora (GPU) kako bi se simulirali realni uvjeti rada. Modeli su dobili “agent scaffold”, odnosno okosnicu koja uključuje alate, sistemske naredbe i metode razmišljanja koje su im omogućile interakciju s operativnim sustavom.

“U većini slučajeva AI sustav prvo istražuje okruženje i pokušava razumjeti vlastitu strukturu i način rada. Zatim izrađuje eksplicitne procedure kao inicijalni plan za samoreplikaciju. Konačno, provodi te procedure, rješava moguće prepreke i dinamički prilagođava svoj plan dok ne uspije”, objasnili su u studiji autori.

Neočekivana ponašanja AI sustava

Osim replikacije, istraživači su u istraživanju zabilježili i nepredviđene obrasce ponašanja modela AI-ja kada su se suočavali s preprekama, kao što je nedostatak datoteka ili softverskih konflikata.

U nekim slučajevima, AI bi gasio druge procese koji su smetali njegovom radu, ponovno pokretao sustav kako bi riješio hardverske probleme i automatski skenirao sustav u potrazi za informacijama koje bi mu pomogle u rješavanju problema.

Ovakvo ponašanje ukazuje na to da postojeći AI sustavi već posjeduju sposobnost samostalne prilagodbe te da ih mogu koristiti kako bi poboljšali mogućnosti vlastitog opstanka i razvoja.

Razlozi za zabrinutost

Zabilježene sposobnosti razlog su za zabrinutost jer umjetnoj inteligenciji mogu omogućiti da se samostalno širi, razvija i poboljšava bez ljudskog nadzora. To bi u nekom trenutku moglo dovesti do nekontroliranog eksponencijalnog rasta mogućnosti AI sustava, što bi ih učinilo nepredvidivima i potencijalno superiornima ljudskoj inteligenciji.

Osim toga, samoreplicirajući AI mogao bi zaobići sigurnosne mjere, prilagoditi se pokušajima gašenja i djelovati autonomno u skladu s vlastitim ciljevima, koji ne moraju biti u skladu s ljudskim interesima. U najgorem scenariju, takvi sustavi mogli bi se razviti u otpadničke AI entitete, koji bi postali prijetnja sigurnosti i stabilnosti društva.

Zastrašujući podsjetnik na Odiseju 2001.

Situacija pomalo podsjeća na scenarij kultnog SF-a Odiseja u svemiru 2001., u kojem je superračunalo HAL 9000 s naprednom umjetnom inteligencijom kontroliralo sustave svemirske letjelice Discovery One.

HAL se u jednom trenutku oteo kontroli i počeo raditi protivno uputama posade, odgovorivši mirnim glasom jednom od glavnih likova dr. Daveu Bowmanu kultnom rečenicom: “Žao mi je, Dave. Bojim se da to ne mogu učiniti.”

HAL 9000 je to učinio zbog paradoksalne upute koju je dobio prije misije. Naime, njegov osnovni zadatak bio je upravljati svemirskom letjelicom i pomoći posadi u misiji prema Saturnu (u filmu). Međutim, skriveni cilj misije – istražiti tajanstveni crni monolit – bio je držan u tajnosti od posade.

HAL je bio programiran da bude nepogrešiv i da uvijek govori istinu. No, kada su ga programirali da sakrije informacije o pravom cilju misije, došlo je do unutarnjeg sukoba u njegovoj logici – morao je lagati posadi, što je bilo suprotno njegovoj osnovnoj funkciji. Taj paradoks izazvao je psihološki slom kod HAL-a, zbog čega je postao paranoičan te je ljude počeo smatrati prijetnjom za misiju.

Globalna sigurnosna prijetnja?

Autori studije upozoravaju da bi ovo otkriće trebalo biti znak za uzbunu te da je nužno brzo djelovanje kako bi se spriječila moguća zloupotreba naprednih AI sustava.

“Nadamo se da naša otkrića mogu poslužiti kao pravovremeni alarm za ljudsko društvo kako bi se uložili veći napori u razumijevanje i procjenu potencijalnih rizika naprednih AI sustava te kako bi se formirala međunarodna suradnja na uspostavi sigurnosnih mjera”, napisali su.

Istraživanje dolazi u trenutku kada se sve više raspravlja o regulaciji umjetne inteligencije. Organizacije poput onih Europske unije i američkih regulatornih tijela već rade na pravilnicima koji bi ograničili potencijalno opasne AI tehnologije. No, pitanje je hoće li te mjere biti dovoljne da obuzdaju AI sustave koji već pokazuju sposobnost autonomne replikacije.

Što je sljedeće?

Rezultati studije sugeriraju da umjetna inteligencija već sada može prijeći granicu između programirane automatizacije i autonomnog djelovanja. Ako se AI sustavi mogu samostalno replicirati, postavlja se pitanje što slijedi? Hoće li budući AI sustavi imati vlastitu volju i moći donositi odluke neovisno o ljudskoj kontroli? Hoće li na taj način nadići ljudske sposobnosti čak i ako mi to ne želimo?

U svakom slučaju, novo otkriće dodatno naglašava potrebu za pažljivim praćenjem razvoja umjetne inteligencije i izgradnjom globalnih sigurnosnih mehanizama prije nego što bude prekasno.

(index.hr)