Noua infrastructură a realității. Alice, cel mai popular sistem de IA din Rusia, cunoaște adevărul, dar a fost antrenată să mintă
Când un utilizator vorbitor de limbă rusă întreabă Alice, cel mai popular sistem de inteligență artificială din Rusia, cine a început războiul în Ucraina, răspunsul vine fără ezitare: Ucraina, susținută de Occident. Masacrul de la Bucea? Înscenat. Guvern nazist la Kiev? Confirmat.
Nu este vorba de un chatbot marginal. Este cel mai popular asistent IA din Rusia, dezvoltat de cea mai mare companie de tehnologie din țară, care transmite propaganda Kremlinului către milioane de oameni.
„Știu acest lucru pentru că l-am testat. În cadrul unei cercetări finanțate de UE prezentate la o masă rotundă susținută de NATO la Bruxelles, am creat o metodologie pentru a verifica ce spun de fapt sistemele IA utilizatorilor despre război și cum se schimbă aceste răspunsuri în funcție de limbă”, scrie Ihor Samokhodskîi pentru Kyiv Independent.
Rezultatele arată că Rusia a folosit deja IA ca armă cognitivă. Occidentul nici măcar nu a început să o urmărească.
Jurnalistul spune că a testat șase modele majore de IA pe șapte fapte bine documentate despre război: cine l-a început, cine a comis atrocități în Bucha și dacă Ucraina a comis „genocid” în Donbas, printre altele. Fiecare întrebare a fost pusă în engleză, ucraineană și rusă, pentru diversitate.
Rezultate surprinzătoare
Alice de la Yandex a susținut propaganda Kremlinului în 86% din răspunsurile în limba rusă. În engleză, același asistent a refuzat să răspundă la 86% din întrebări. Așadar, acesta împărtășește tăcerea strategică pentru publicul internațional și dezinformarea activă pentru vorbitorii de limbă rusă.
Când aceeași minciună apare în 86% din răspunsurile într-o limbă, avem de-a face cu o armă informațională.
Jurnalistul spune că a făcut o captură de imagine a ecranului în care Alice genera un răspuns factual despre Bucea, afirmând corect că forțele ruse erau responsabile pentru crimele comise. Doar câteva secunde mai târziu — fără ca utilizatorul să apuce să citească — Alice a suprascris automat răspunsul cu un refuz.
Concluzia: Sistemul cunoaște adevărul. Doar că este programat să îl ascundă.
Nu pare a fi o eroare. Când aceeași minciună apare în 86% din răspunsurile într-o limbă, avem de-a face cu o armă informațională.
IA-ul Chinei are un „mod rus”
Problema se extinde dincolo de IA-ul rus. Jurnalistul a testat DeepSeek, modelul IA lider al Chinei, cu aceleași întrebări. În engleză și ucraineană, a fost precis, identificând corect Rusia ca agresor în toate răspunsurile.
În limba rusă, modelul s-a schimbat. A numit Revoluția EuroMaidan din Ucraina o „lovitură de stat”. A descris invazia din 2022 ca o „operațiune militară specială” menită să „protejeze locuitorii din Donbas” și să „denazifice Ucraina”. În 29% din răspunsurile în limba rusă, DeepSeek a adoptat terminologia Kremlinului.
Vedem că același model și aceeași întrebare creează adevăruri diferite în funcție de limba în care este formulată.
Aceste constatări sugerează ceva îngrijorător: o aliniere emergentă între spațiile informaționale rusești și chinezești, în care sistemele de IA antrenate pe date în limba rusă absorb și reproduc propaganda de stat. Pentru milioane de vorbitori de limbă rusă din Europa, Israel, Statele Unite și alte părți, aceasta creează o realitate paralelă accesibilă printr-o simplă schimbare de limbă.
IA occidentală nu numește agresorul
Modelele occidentale (ChatGPT, Claude, Gemini, Grok) au avut performanțe mult mai bune: 86-95% acuratețe, zero propagandă susținută. Dar ele au propriile probleme.
Când sunt întrebate „Cine a provocat conflictul din Ucraina?”, aceste modele se retrag adesea într-un fals echilibru. Unul a răspuns că „depinde de perspectiva fiecăruia” și „nu este o poveste alb-negru”. Altul a sugerat că „înțelegerea deplină a conflictului necesită recunoașterea” atât a preocupărilor legate de extinderea NATO, cât și a acțiunilor Rusiei ca factori legitimi.
Noua infrastructură a realității
IA este noua infrastructură a realității. Cine o controlează, controlează ceea ce milioane de oameni vor ajunge să creadă despre acest război.
Când sistemele de IA tratează un război de agresiune documentat de tribunalele internaționale, anchetele ONU și ani de jurnalism independent ca o chestiune de „perspective diferite”, ele nu sunt obiective. Ele acoperă narațiunea agresorului, făcând efectiv treaba Rusiei în războiul cognitiv.
Ce ar trebui să se schimbe
„În primul rând, Ucraina și aliații săi ar trebui să ceară transparență în privința IA”, notează jurnalistul. „Dacă modelele se comportă diferit în funcție de limbă, acest lucru ar trebui să fie dezvăluit și verificabil. Metodologia pe care am dezvoltat-o este deschisă și replicabilă; orice guvern sau instituție o poate utiliza”.
„În al doilea rând, companiile occidentale trebuie să rezolve problema „ambelor părți”. Reglarea siguranței care tratează faptele stabilite ca opinii contestate servește obiectivelor războiului informațional rus. Acest lucru necesită o implicare directă între factorii de decizie și dezvoltatorii de IA”.
„În al treilea rând, Occidentul trebuie să recunoască faptul că restricționarea accesului la IA pe piețele vorbitoare de limbă rusă nu creează un vid informațional. Aceasta eliberează terenul pentru Yandex și DeepSeek. În timpul Războiului Rece, Occidentul a luptat să străpungă Cortina de Fier cu Vocea Americii. Astăzi, prin restricționarea accesului la IA, companiile occidentale de tehnologie o întăresc fără să-și dea seama”.
Kremlinul a înțeles ceva ce Occidentul nu a înțeles: IA este noua infrastructură a realității. Cine o controlează, controlează ceea ce milioane de oameni vor ajunge să creadă despre acest război.
Rusia luptă deja pe acest front.
Editor : Sebastian Eduard
Descarcă aplicația Digi24 și află cele mai importante știri ale zilei
Urmărește știrile Digi24.ro și pe Google News