Guvernul SUA se teme că AI-ul ar putea crea o armă nucleară. Care este riscul ca secretele expuse de chatboți să ducă la o catastrofă

Data actualizării: Data publicării:
explozie test nuclear / ilustrație inteligența artificială
Guvernul SUA a lucrat cu o companie AI ca să se asigure că chatbotul acesteia nu dezvăluie secrete cruciale pentru construcția de arme nucleare. Colaj foto: Profimedia Images

Compania de inteligență artificială Anthropic a anunțat că a format un parteneriat cu Departamentul Energiei (DOE) și Administrația Națională pentru Securitate Nucleară (NNSA) din SUA ca să se asigure că chatbotul lor, Claude, nu va dezvălui secrete nucleare. Părerile experților sunt împărțite în privința eficienței acestei inițiative și a pericolului ca cineva să poată folosi AI-ul ca să construiască o armă nucleară.

Producția de arme nucleare este o știință exactă, dar și o problemă rezolvată acum mult timp. Cu toate că multe dintre informațiile despre cele mai avansate arme nucleare ale Statelor Unite sunt secrete, știința din spatele primelor bombe atomice este veche de 80 de ani.

Coreea de Nord a demonstrat că o țară care este hotărâtă să obțină arme nucleare o poate face și fără ajutorul unui chatbot. 

Marina Favaro, care se ocupă de politica de securitate națională și parteneriate în cadrul companiei Anthropic, a explicat pentru Wired că au testat cea mai avansată versiune a chatbotului Claude într-un mediu extrem de securizat al NNSA pentru a vedea „dacă modelele AI pot crea sau exacerba riscurile nucleare”.

Pericolul ca chatboții să devină un instrument pentru dezvoltarea unui program nuclear

Testele desfășurate le-au permis celor de la Anthropic și cercetătorilor din domeniul nuclear să creeze un fel de filtru sofisticat pentru a împiedica chatbotul să devină un instrument folosit pentru dezvoltarea unui program nuclear.

Acest algoritm pentru filtrarea informației, numit și un clasificator nuclear, a fost dezvoltat folosind o listă creată de NNSA cu indicatori de risc nuclear, subiecte specifice și detalii tehnice care să ajute Anthropic să identifice atunci când o conversație s-ar putea duce într-o direcție potențial dăunătoare, potrivit lui Favaro.

Favaro a spus că a durat luni de zile să modifice și să testeze noul algoritm pentru a filtra „conversații îngrijorătoare fără să semnaleze discuțiile legitime despre energie nucleară sau izotopi medicali”.

Ascensiunea tehnologiilor AI a schimbat profund spațiul securității naționale, a spus și Wendin Smith, administratorul și subsecretarul adjunct pentru combaterea terorismului și a proliferării nucleare din cadrul NNSA.

test-nuclear-sua-pacific
În 1954, o eroare matematică a triplat puterea unei bombe atomice testate de Statele Unite în Oceanul Pacific. Ce s-ar întâmpla dacă un chatbot ar greși calculele din spatele unei arme nucleare? Foto: Profimedia Images

Atât NNSA, cât și Anthropic, au oferit răspunsuri destul de vagi în legătură cu „potențialele riscuri din aceste domenii” și nu este clar cât de mult ar putea Claude sau un alt chatbot să ajute la construirea unei arme nucleare.

„Nu resping aceste îngrijorări, cred că se merită să le tratăm serios”, a spus Oliver Stephenson, expert AI de la Federația Cercetătorilor Americani. „Nu cred că modelele, în versiunea lor actuală, sunt incredibil de îngrijorătoare în cele mai multe cazuri, dar cred că nu știm unde vor fi în cinci ani de acum... și se merită să fii prudent în această privință.”

Stephenson crede că această colaborare între companiile AI și guvern este un lucru bun, dar că „există mereu un pericol cu clasificarea pentru că ai multă încredere în oamenii care determină ce ar trebui să facă parte din acești clasificatori”.

Eroarea de calcul care a triplat puterea unei arme nucleare testate de SUA

Alți specialiști, precum Heidy Khlaaf, cercetător-șef de la Institutul AI Now, nu sunt așa de entuziasmați de parteneriatul dintre guvernul SUA și companiile AI private.

„Vrem ca aceste corporații private care sunt în mare parte nereglementate să aibă acces la informații de securitate națională extrem de importante?”, a spus Khlaaf. „Indiferent dacă vorbim de sisteme militare, arme nucleare sau chiar energie nucleară.”

Apoi, se pune și problema exactității acestor modele lingvistice mari (LLM), despre care se cunoaște faptul că uneori nu sunt capabile să facă nici cele mai simple calcule matematice.

În 1954, o eroare matematică a triplat puterea unei arme nucleare testate de Statele Unite în Oceanul Pacific (Castle Bravo), iar guvernul american încă se confruntă cu contaminarea radioactivă rezultată după acel test.

Ce s-ar întâmpla dacă un chatbot ar greși calculele matematice din spatele unei arme nucleare și un om nu le-ar verifica?

Anthropic a spus că nu își dorește un viitor în care oamenii folosesc chatboții ca să se joace cu știința din spatele armelor nucleare și le-a oferit și altor companii AI algoritmul conceput pentru Claude.

Editor : Raul Nețoiu

Urmărește știrile Digi24.ro și pe Google News

Partenerii noștri
Playtech
Marie Jeanne Ion, jurnalista răpită în Irak, e de nerecunoscut. A trecut prin momente cumplite, cu ce se...
Digi FM
Câți bani a plătit un bărbat pentru un zbor la clasa întâi. A rămas fără cuvinte: „Este o cameră de hotel în...
Descarcă aplicația Digi FM
Pro FM
Adda, primul clip de familie cu soțul și fiul. S-au distrat și au rămas cu amintiri de neuitat
Film Now
Baz Luhrmann, despre mariajul de 29 de ani cu Catherine Martin: „Este absolut real!” Ei duc vieți separate și...
Adevarul
Consilier al guvernatorul BNR: România a pierdut 8 miliarde de euro în două zile înaintea turului doi al...
Newsweek
Înalta Curte, decizie importantă legată de anularea CASS la pensie. Un pensionar a recuperat deja banii
Digi FM
Ce a pățit o femeie după ce a trecut printr-un AVC: "Acum sunt tratată ca o imigrantă. Situația îmi frânge...
Descarcă aplicația Digi FM
Digi World
"Gaura gravitaţională" de sub Antarctica oferă o privire rară asupra interiorului profund al Terrei.Cum este...
Digi Animal World
Momentul când un băiețel de doar trei ani e urmărit de un coiot uriaș, chiar în fața casei: „Nu am crezut...
Film Now
Fiul lui Audrey Hepburn susține că filmul cu Lily Collins nu i-ar fi plăcut celebrei sale mame: „Sper să...
UTV
Mario Fresh este acuzat că a înșelat-o pe Alexia Eram cu Iuliana Beregoi. „Te faci de rușine! Ai grijă că...