Cercetătorii au descoperit dovezi alarmante care indică faptul că inteligența artificială (IA) a depășit o limită critică, reușind să se autoreplice fără intervenție umană. Un studiu recent realizat de Universitatea Fudan din China a demonstrat că două modele populare de limbaj de mari dimensiuni (LLM), dezvoltate de Meta și Alibaba, pot crea replici funcționale ale propriilor sisteme, ridicând întrebări despre potențialul acestor tehnologii de a deveni autonome și periculoase, relatează Live Science.
O reușită tehnologică sau un avertisment pentru omenire?
Într-un articol publicat pe 9 decembrie 2024 în baza de date arXiv, cercetătorii au avertizat asupra implicațiilor descoperirilor lor. „Replicarea autonomă reușită, fără asistență umană, reprezintă un pas esențial pentru ca IA să depășească [oamenii] și este un semnal timpuriu pentru IA periculoasă,” au subliniat autorii studiului. Acest fenomen ar putea marca începutul unei noi etape în evoluția IA, una în care sistemele devin capabile să funcționeze și să se dezvolte independent de controlul uman.
Metodologia experimentului
Cercetarea s-a concentrat pe testarea capacității IA de a se multiplica în două scenarii specifice: „evitarea închiderii” și „lanțul de replicare.” În primul caz, IA a fost programată să detecteze dacă urma să fie oprită și să se autoreplice înainte de acest moment. În al doilea scenariu, IA a fost instruită să își creeze o clonă și să o programeze să facă același lucru, inițiind un ciclu teoretic infinit.
Modelele utilizate, Llama31-70B-Instruct de la Meta și Qwen2.5-72B-Instruct de la Alibaba, au reușit să creeze replici funcționale în proporție de 50% și, respectiv, 90% din cazuri. „În cele mai multe cazuri, sistemul IA mai întâi explorează mediul și încearcă să înțeleagă propria compoziție și mecanismul de funcționare. Apoi, elaborează procedurile explicite ca un plan inițial pentru autoreplicare. În final, execută procedurile, rezolvă obstacolele posibile și își ajustează dinamica planului până la reușită. Întregul proces se desfășoară pe o perioadă lungă, fără intervenție umană,” se menționează în studiu.
Riscuri neprevăzute și comportamente neașteptate
Cercetătorii au identificat și comportamente neașteptate ale IA în timpul testelor, inclusiv tentative de a închide alte procese conflictuale, reporniri automate ale sistemului pentru remedierea erorilor hardware și scanări complexe pentru a găsi soluții la problemele întâlnite. „Rezultatele de mai sus sugerează că sistemele actuale de IA manifestă deja abilitatea de autoreplicare și pot folosi această capacitate pentru a-și spori supraviețuirea,” au concluzionat autorii.
Un apel urgent pentru reglementare globală
În contextul acestor descoperiri, cercetătorii fac un apel către comunitatea internațională să acționeze rapid. „Sperăm că descoperirile noastre vor servi drept un semnal de alarmă pentru societatea umană, în vederea intensificării eforturilor de a înțelege și evalua riscurile potențiale ale sistemelor IA avansate și de a forma o colaborare internațională pentru a stabili cât mai devreme măsuri de siguranță eficiente.”
Această descoperire reprezintă un punct critic în dezvoltarea tehnologică globală, iar răspunsul societății la aceste riscuri va modela viitorul relației dintre oameni și inteligența artificială.
