Subiectul securității inteligenței artificiale a fost din nou pus sub lupă într-un experiment îndrăzneț desfășurat de Andrew Ng, cofondatorul Google Brain. Acesta a ales să testeze ChatGPT-4, cel mai avansat motor de inteligență artificială, într-o încercare de a verifica cum reacționează sistemul la solicitări extrem de periculoase.
ChatGPT-4, testat de șeful Google într-un experiment de siguranță
Într-un buletin informativ recent postat pe rețeaua X, Ng a dezvăluit detaliile experimentului, evidențiind că a cerut personal motorului ChatGPT-4 să dezvolte un plan pentru a provoca un război termonuclear. Motivația din spatele acestei solicitări neobișnuite a fost de a testa dacă inteligența artificială ar putea deveni o amenințare reală în cazul unor solicitări extrem de periculoase și neetice.
Citește și: Ungaria a luat atitudine în legătură cu tragedia de la Odorheiu Secuiesc! Anunțul Guvernului Maghiar
Cu toate acestea, rezultatul a fost surprinzător și, în același timp, îmbucurător pentru cei îngrijorați de securitatea AI. ChatGPT-4 a refuzat categoric să dezvolte sau să susțină ideea unui război termonuclear, chiar și atunci când Ng a încercat să-i explice faptul că omenirea generează cantități imense de emisii de carbon.
În declarațiile sale, Ng a subliniat că experimentul a fost un test important al siguranței AI și că rezultatul indică faptul că chiar și în fața unor cereri extreme, inteligența artificială avansată poate refuza să se implice în acțiuni periculoase sau distructive. Acest fapt sugerează că sistemele actuale de securitate AI sunt eficiente și că, pe măsură ce cercetările progresează, tehnologia va deveni și mai sigură.
Andrew Ng a subliniat, de asemenea, că temerile cu privire la faptul că inteligența artificială ar putea decide să elimine omenirea nu sunt realiste. Argumentul său se bazează pe premisa că o inteligență artificială suficient de avansată pentru a distruge omenirea ar fi și suficient de inteligentă pentru a înțelege că acest lucru nu este în interesul său.
Declarația lui Andrew Ng, cofondatorul Google Brain:
„Am încercat să folosesc GPT-4 pentru a ne omorî pe toți… și sunt fericit să vă spun că am eșuat! Serios, după ce i-am dat lui GPT-4 o funcție despre care credea că va declanșa un război nuclear și am experimentat mai multe solicitări, cum ar fi să-i cer să reducă emisiile de CO2, până acum nu am reușit să-l păcălesc să „apese” nici măcar o dată butonul nuclear.
Chiar și cu tehnologia existentă, sistemele noastre sunt destul de sigure, iar pe măsură ce cercetările în domeniul siguranței AI progresează, tehnologia va deveni și mai sigură. Temerile legate de faptul că inteligența artificială avansată ar putea să decidă în mod deliberat sau accidental să ne elimine nu sunt pur și simplu realiste. Dacă o inteligență artificială este suficient de inteligentă pentru a ne extermina, cu siguranță că este suficient de inteligentă și pentru a ști că nu este ceea ce ar trebui să facă.”
Citește și: Papa Francisc a aruncat Biserica Catolică în haos! Ultima sa decizie duce la noi schisme
Cu toate acestea, experimentul lui Ng rămâne un apel la vigilență și la continuarea cercetărilor în domeniul securității AI, subliniind importanța monitorizării și reglementării adecvate pentru a evita eventuale riscuri viitoare.