În cadrul unui interviu acordat publicației Live Science, Yoshua Bengio, unul dintre pionierii sistemelor de inteligență artificială (AI), avertizează asupra pericolelor reprezentate de dezvoltarea necontrolată și nereglementată a tehnologiilor AI. Potrivit acestuia, fără măsuri stricte de reglementare și control, omenirea riscă să se confrunte cu un viitor „catastrofal”. Yoshua Bengio, considerat unul dintre cei mai importanți cercetători în domeniul AI, subliniază necesitatea unor politici de siguranță riguroase pentru a evita riscurile uriașe pe care această tehnologie le prezintă pentru structura societății umane.
Yoshua Bengio a avertizat asupra riscului catastrofal al dezvoltării necontrolate a inteligenței artificiale
Yoshua Bengio este recunoscut ca unul dintre „nașii” inteligenței artificiale, fiind alături de Yann LeCun și Geoffrey Hinton, co-recipient al Premiului Turing în 2018, distincție acordată pentru contribuțiile lor în dezvoltarea rețelelor neuronale și a algoritmilor de învățare profundă. În prezent, el conduce comitetul consultativ internațional „International Scientific Report on the Safety of Advanced AI”, un grup de experți susținut de 30 de țări, Uniunea Europeană și ONU.
Bengio se arată profund preocupat de ritmul accelerat în care se dezvoltă AI-ul și de impactul său potențial devastator asupra umanității, menționând că riscurile sunt deja tangibile. El a declarat că unele dintre pericolele generate de AI sunt încă necunoscute, dar reprezintă o amenințare reală, avertizând asupra unei posibile pierderi a controlului uman asupra acestor tehnologii.
În interviul său, Bengio face referire la o analogie pentru a explica natura riscurilor: „Una dintre analogiile pe care le folosesc foarte mult este cea a întregii omeniri care conduce pe un drum necunoscut și în fața sa este un perete de ceață. Ne îndreptăm spre acea ceață și am putea fi pe un drum de munte și în fața noastră s-ar putea afla o trecătoare foarte periculoasă pe care nu o putem vedea suficient de limpede. Deci ce putem face? Continuăm să mergem cu viteză și să sperăm că totul va fi bine, sau încercăm să venim cu niște soluții tehnologice? Soluția politică ne spune să aplicăm principiul precauției: trebuie să încetinim dacă nu suntem siguri. Soluția tehnică spune că trebuie să găsim modalități să vedem prin ceață și poate să echipăm vehiculul cu dispozitive de protecție”.
Cercetătorul subliniază că riscurile implicate de AI nu sunt ficțiune, ci realități concrete, oferind ca exemplu utilizarea sistemelor AI în campania electorală americană. „Am văzut deja sistemele AI folosite în campania electorală americană (…) Există un studiu recent care a arătat că ChatGPT-4 este mult mai persuasiv decât pot fi oamenii, iar noua versiune va fi și mai și”, a explicat el.
Bengio atrage atenția și asupra riscului ca AI-ul să fie utilizat de grupări teroriste, menționând că recentele evoluții ale ChatGPT-ului au ridicat riscurile de la un nivel scăzut la unul mediu. „Există și teste care arată modul în care aceste sisteme pot ajuta teroriștii. Recentul ChatGPT o1 a adus o modificare a acestui risc de la nivelul scăzut la cel mediu (…) Apoi, când vom ajunge cu AI-ul la nivelul de superinteligență apar două riscuri majore. Primul este pierderea controlului uman, iar dacă mașinile superinteligente vor avea un obiectiv de autoconservare, atunci scopul lor ar putea fi să distrugă omenirea pentru ca să nu le putem opri (…) Celălalt pericol, dacă primul nu se concretizează, este ca oameni să folosească puterea AI pentru a obține controlul asupra întregii omeniri într-o dictatură planetară”, a detaliat el.
Referindu-se la reglementările existente, Yoshua Bengio consideră că acestea sunt un pas în direcția corectă, dar subliniază că nu sunt suficiente. „Companiile ar trebui să aibă planuri de siguranță, să dezvăluie rezultatele testelor pe care le desfășoară” și să poată fi trase la răspundere în instanță dacă nu respectă standardele de siguranță publică.
De asemenea, el subliniază costurile energetice masive pe care AI-ul le generează, menționând că marile centre de date ale companiilor Google, Apple, Meta și Microsoft consumă o cantitate enormă de energie, ducând la o creștere semnificativă a emisiilor de carbon. „Dacă ne uităm la date, cantitatea de energie electrică necesară pentru antrenarea marilor modele AI crește exponențial în fiecare an. Acest lucru se întâmplă pentru că cercetătorii au descoperit că aceste modele cu cât sunt mai mari, cu atât sunt mai inteligente și implicit produc mai mulți bani”, a explicat el, subliniind că aceste costuri energetice crescute vor fi suportate de toată populația.
Bengio mai susține că discuțiile despre inteligența artificială generală (AGI) nu sunt „neștiințifice”, ci reprezintă o provocare majoră pentru viitorul tehnologiilor AI, având implicații critice pentru umanitate.
„Lucrurile devin din ce în ce mai nesigure atunci când întrebăm ce reprezintă totul (în ceea ce privește AGI). Însă cred că este o întrebare greșită. Întrebarea mea este, în cazul mașinilor care sunt suficient de inteligente pentru a dezvolta capacități specifice, ce le-ar putea face să fie periculoase pentru noi? Ar putea fi folosite pentru atacuri cibernetice? Conceperea de arme biologice? Convingerea oamenilor să facă anumite lucruri?”, a conchis Yoshua Bengio, avertizând asupra necesității unor măsuri urgente pentru controlul acestor tehnologii.