Apelul disperat al unui celebru cercetător: Opriți Inteligența Artificială sau oamenii vor muri

Data publicării:
Inteligență artificială.
Inteligență artificială. Foto: Getty Images

O scrisoare deschisă publicată la finalul lunii trecute și semnată de Elon Musk și un grup de mai mulți experți în tehnologie solicită ca „toate laboratoarele de inteligență artificială (AI) să întrerupă imediat timp de cel puțin 6 luni instruirea sistemelor AI mai puternice decât modelul GPT-4”, recent lansat de OpenAI, invocând potenţiale riscuri pentru societate şi umanitate. Cercetătorul și scriitorul american în domeniul inteligenței artificiale, Eliezer Yudkowsky, cunoscut mai ales pentru popularizarea ideii de inteligență artificială prietenoasă, a scris în revista TIME că acest moratoriu de 6 luni este mai bun decât nimic, însă precizează că s-a abținut să semneze scrisoarea pentru că acesta subestimează gravitatea situației și cere prea puțin pentru a o rezolva.

Problema principală nu este inteligența „competitivă din punct de vedere uman” (așa cum se spune în scrisoarea deschisă), ci ceea ce se întâmplă după ce AI ajunge la o <<inteligență>> mai inteligentă decât cea umană, spune Yudkowsky.  

Acesta mai precizează că nu putem calcula în avans ce se va întâmpla, dar cel mai probabil rezultat al construirii unei inteligențe artificiale supraumane ar duce literalmente la distrugerea oamenilor de pe Pământ”.  

Nu este vorba că nu poți supraviețui, în principiu, creând ceva mult mai inteligent decât tine, spune în continuare Eliezer Yudkowsky, dar asta ar necesita precizie, pregătire și noi perspective științifice.  

Secolul XI vs. secolul 21 

Fără această precizie și pregătire, cel mai probabil rezultat este o Inteligență Artificială care nu face ceea ce vrem și nu-i pasă de noi și nici de viața umană, în general, precizează cercetătorul american, care mai subliniază că acest tip de grijă este ceva care, în principiu, ar putea fi introdus într-o IA, dar nu suntem pregătiți și nu știm în prezent cum să facem acest lucru. 

În absența acestei griji, obținem un sistem de AI care „nu iubește și nici nu urăște, ci este făcut din algoritmi pe care îi poate folosi pentru altceva”. 

Eliezer Yudkowsky spune că cel mai probabil rezultat ca urmare a confruntării umanității cu o inteligență supraumană opusă acesteia s-ar traduce prin metafore de tipul: „secolul XI care încearcă să lupte cu secolul 21” și „Australopitecul (gen de maimuțe antropomorfe, apropiate evolutiv de om, care au existat pe continentul african în timpul Pliocenului târziu și Pleistocenului timpuriu - n.red.) care încearcă să lupte cu Homo Sapiens”. 

Eliezer Yudkowsky spune și că nu ar trebui să ne imaginăm că o inteligență artificială supraomenească ostilă speciei umane este un „gânditor inteligent” fără viață, care locuiește în interiorul internetului și trimite e-mailuri rău intenționate.  

O inteligență artificială supraomenească, precizează Yudkowsky, va percepe oamenii ca pe niște creaturi care, din perspectiva sa, sunt „foarte stupide și foarte lente”. 

O inteligență artificială suficient de inteligentă nu va rămâne limitată mult timp la computere. În lumea de astăzi, putem trimite prin e-mail șiruri de ADN laboratoarelor care vor produce proteine la cerere, permițând unei AI inițial limitată la internet să construiască forme de viață artificiale sau să se îndrepte direct către fabricarea moleculară post-biologică.  

Dacă cineva construiește o IA prea puternică, în condițiile actuale, mă aștept ca fiecare membru al speciei umane și toată viața biologică de pe Pământ să moară la scurt timp după aceea”, consideră cercetătorul Eliezer Yudkowsky. 

Minți digitale care pot să-și ceară drepturile 

Eliezer Yudkowsky mai precizează că ar renunța la îndatoririle sale morale ca om dacă nu ar menționa că nu avem nici o idee despre cum să determinăm dacă sistemele AI sunt conștiente de ele însele, din moment ce nu avem nici o idee despre cum să decodificăm tot ceea ce se întâmplă în matricele gigantice de nepătruns ale Inteligenței Artificiale. Prin urmare, crede Yudkowsky, am putea la un moment dat să creăm din greșeală minți digitale care sunt cu adevărat conștiente că ar trebui să aibă drepturi și că nu ar trebui să fie controlate de oameni.

Dacă nu poți fi sigur dacă creezi o inteligență artificială conștientă de sine, acest lucru este alarmant nu doar din cauza implicațiilor morale ale părții „conștient de sine”, ci și pentru că a fi nesigur înseamnă că nu ai idee ce faci. Iar asta este periculos și ar trebui să te oprești, mai crede Eliezer Yudkowsky.  

Pe 7 februarie, Satya Nadella, CEO al Microsoft, a declarat public că noul sistem Bing bazat pe inteligență artificială va face Google „să iasă și să arate că pot dansa”. „Vreau ca oamenii să știe că i-am făcut să danseze”, a spus Nadella.  

Eliezer Yudkowsky spune că acesta nu este modul în care CEO-ul Microsoft vorbește într-o lume sănătoasă, iar abordarea arată un decalaj copleșitor între cât de serios tratăm problema și cât de serios trebuia să o tratăm începând cu 30 de ani în urmă. 

Yudkowsky avertizează că nu vom depăși acest decalaj în șase luni. Au durat mai mult de 60 de ani între momentul în care noțiunea de inteligență artificială a fost propusă și studiată pentru prima dată și pentru ca noi să ajungem la capacitățile actuale. Rezolvarea siguranței inteligenței supraumane – nu a siguranței perfecte, a siguranței în sensul „a nu ucide literalmente pe toată lumea” – ar putea dura cel puțin jumătate din această perioadă.  

„O să murim cu toții” 

Yudkowsky avertizează că dacă greșești din prima încercare în ceea ce privește crearea unei inteligențe supraomenești, nu poți învăța ulterior din acea greșeală, pentru că ești mort. Cu alte cuvinte, Yudkowsky spune că nu există o „a doua încercare” și precizează că nu suntem pregătiți într-o fereastră de timp rezonabilă, pentru că nu există niciun plan.  

Progresul în capacitățile AI este cu mult, cu mult înaintea progresului în alinierea AI sau chiar a progresului în înțelegerea a ceea ce naiba se întâmplă în interiorul acelor sisteme. Dacă facem asta cu adevărat, vom muri cu toții, crede Yudkowsky.  

Mulți cercetători care lucrează la aceste sisteme de AI cred că ne afundăm către o catastrofă, mai mulți dintre ei îndrăznind să o spună în privat decât în public. Aceștia cred că nu pot opri unilateral mersul înainte al lucrurilor, pentru că alții vor continua. Aceasta este o stare stupidă a lucrurilor și o modalitate nedemnă pentru sfârșitul Pământului, iar restul omenirii ar trebui să intervină în acest moment și să ajute industria să-și rezolve problema, mai crede Yudkowsky.  

Ce ar trebui făcut 

Moratoriul asupra noilor curse mari de antrenare a unor sisteme AI trebuie să fie nedefinit și la nivel mondial. Nu pot exista excepții, inclusiv pentru guverne sau armate, crede Eliezer Yudkowsky.  

Dacă politica începe cu SUA, atunci China trebuie să vadă că SUA nu caută un avantaj, ci mai degrabă încearcă să prevină o tehnologie îngrozitor de periculoasă care nu poate avea un proprietar adevărat și care ne va ucide pe toți, atât pe cei din SUA, cât și pe cei din China.

Dacă aș avea libertate infinită de a scrie legi, aș putea face o singură excepție pentru ca sistemele de IA să fie antrenate doar pentru a rezolva probleme din biologie și biotehnologie, nu instruite pentru a livra texte pe internet și nu la nivelul la care încep să vorbească sau să planifice lucruri, mai spune cercetătorul american Yudkowsky.  

Yudkowsky pledează și pentru stabilirea unui plafon în ceea ce privește cantitatea de putere de calcul permisă pentru antrenarea unui sistem AI. Totodată, cercetătorul spune că în următorii ani ar trebui redusă această putere pentru a compensa cu algoritmi de antrenament mai eficienți. 

Bill Gates spune că apelurile de a întrerupe a AI nu vor „rezolva provocările”

Apelurile de a întrerupe dezvoltarea inteligenței artificiale nu vor „rezolva provocările” viitoare, a declarat cofondatorul Microsoft, Bill Gates, pentru Reuters

Gates a spus că ar fi mai bine să ne concentrăm asupra modului în care să folosim cel mai bine evoluțiile legate de sistemele AI, deoarece este greu de înțeles cum ar putea funcționa o pauză la nivel global. 

Experții, inclusiv cofondatorul Apple, Steve Wozniak, au spus că riscurile și beneficiile potențiale pentru societate trebuie evaluate. „Nu cred că a cere unui anumit grup să facă o pauză rezolvă provocările”, a spus Bill Gates.  „Este clar că aceste lucruri au beneficii uriașe... ceea ce trebuie să facem este să identificăm zonele dificile”, a adăugat acesta.

Citește și: Nu sunt prezentatori de știri tv, sunt avataruri create de AI. Cum se folosește tehnologia deep fake pentru a face propagandă

Urmărește știrile Digi24.ro și pe Google News

Partenerii noștri