Guvernul SUA se teme că AI-ul ar putea crea o armă nucleară. Care este riscul ca secretele expuse de chatboți să ducă la o catastrofă
Data actualizării: Data publicării:
Guvernul SUA a lucrat cu o companie AI ca să se asigure că chatbotul acesteia nu dezvăluie secrete cruciale pentru construcția de arme nucleare. Colaj foto: Profimedia Images
Compania de inteligență artificială Anthropic a anunțat că a format un parteneriat cu Departamentul Energiei (DOE) și Administrația Națională pentru Securitate Nucleară (NNSA) din SUA ca să se asigure că chatbotul lor, Claude, nu va dezvălui secrete nucleare. Părerile experților sunt împărțite în privința eficienței acestei inițiative și a pericolului ca cineva să poată folosi AI-ul ca să construiască o armă nucleară.
Producția de arme nucleare este o știință exactă, dar și o problemă rezolvată acum mult timp. Cu toate că multe dintre informațiile despre cele mai avansate arme nucleare ale Statelor Unite sunt secrete, știința din spatele primelor bombe atomice este veche de 80 de ani.
Coreea de Nord a demonstrat că o țară care este hotărâtă să obțină arme nucleare o poate face și fără ajutorul unui chatbot.
Marina Favaro, care se ocupă de politica de securitate națională și parteneriate în cadrul companiei Anthropic, a explicat pentru Wired că au testat cea mai avansată versiune a chatbotului Claude într-un mediu extrem de securizat al NNSA pentru a vedea „dacă modelele AI pot crea sau exacerba riscurile nucleare”.
Pericolul ca chatboții să devină un instrument pentru dezvoltarea unui program nuclear
Testele desfășurate le-au permis celor de la Anthropic și cercetătorilor din domeniul nuclear să creeze un fel de filtru sofisticat pentru a împiedica chatbotul să devină un instrument folosit pentru dezvoltarea unui program nuclear.
Acest algoritm pentru filtrarea informației, numit și un clasificator nuclear, a fost dezvoltat folosind o listă creată de NNSA cu indicatori de risc nuclear, subiecte specifice și detalii tehnice care să ajute Anthropic să identifice atunci când o conversație s-ar putea duce într-o direcție potențial dăunătoare, potrivit lui Favaro.
Favaro a spus că a durat luni de zile să modifice și să testeze noul algoritm pentru a filtra „conversații îngrijorătoare fără să semnaleze discuțiile legitime despre energie nucleară sau izotopi medicali”.
Ascensiunea tehnologiilor AI a schimbat profund spațiul securității naționale, a spus și Wendin Smith, administratorul și subsecretarul adjunct pentru combaterea terorismului și a proliferării nucleare din cadrul NNSA.
În 1954, o eroare matematică a triplat puterea unei bombe atomice testate de Statele Unite în Oceanul Pacific. Ce s-ar întâmpla dacă un chatbot ar greși calculele din spatele unei arme nucleare? Foto: Profimedia Images
Atât NNSA, cât și Anthropic, au oferit răspunsuri destul de vagi în legătură cu „potențialele riscuri din aceste domenii” și nu este clar cât de mult ar putea Claude sau un alt chatbot să ajute la construirea unei arme nucleare.
„Nu resping aceste îngrijorări, cred că se merită să le tratăm serios”, a spus Oliver Stephenson, expert AI de la Federația Cercetătorilor Americani. „Nu cred că modelele, în versiunea lor actuală, sunt incredibil de îngrijorătoare în cele mai multe cazuri, dar cred că nu știm unde vor fi în cinci ani de acum... și se merită să fii prudent în această privință.”
Stephenson crede că această colaborare între companiile AI și guvern este un lucru bun, dar că „există mereu un pericol cu clasificarea pentru că ai multă încredere în oamenii care determină ce ar trebui să facă parte din acești clasificatori”.
Eroarea de calcul care a triplat puterea unei arme nucleare testate de SUA
Alți specialiști, precum Heidy Khlaaf, cercetător-șef de la Institutul AI Now, nu sunt așa de entuziasmați de parteneriatul dintre guvernul SUA și companiile AI private.
„Vrem ca aceste corporații private care sunt în mare parte nereglementate să aibă acces la informații de securitate națională extrem de importante?”, a spus Khlaaf. „Indiferent dacă vorbim de sisteme militare, arme nucleare sau chiar energie nucleară.”
Apoi, se pune și problema exactității acestor modele lingvistice mari (LLM), despre care se cunoaște faptul că uneori nu sunt capabile să facă nici cele mai simple calcule matematice.
În 1954, o eroare matematică a triplat puterea unei arme nucleare testate de Statele Unite în Oceanul Pacific (Castle Bravo), iar guvernul american încă se confruntă cu contaminarea radioactivă rezultată după acel test.
Ce s-ar întâmpla dacă un chatbot ar greși calculele matematice din spatele unei arme nucleare și un om nu le-ar verifica?
Anthropic a spus că nu își dorește un viitor în care oamenii folosesc chatboții ca să se joace cu știința din spatele armelor nucleare și le-a oferit și altor companii AI algoritmul conceput pentru Claude.