Uniunea Europeană se confruntă cu o nouă provocare în domeniul inteligenței artificiale: autoritățile de la Bruxelles nu au stabilit încă modul în care ChatGPT se încadrează în legislația digitală existentă. Deși utilizarea chatbotului OpenAI crește rapid, aplicarea Legii Serviciilor Digitale ar putea fi amânată până în 2026, în timp ce riscurile asociate AI devin tot mai evidente.
Uniunea Europeană va mai avea nevoie de cel puțin un an pentru a decide cum să aplice puternica sa legislație digitală în scopul limitării riscurilor generate de ChatGPT, scrie Politico.
Utilizarea chatbotului bazat pe inteligență artificială a crescut exponențial în Europa, iar OpenAI a anunțat luna aceasta că a depășit un prag important din perspectiva supravegherii de reglementare. Vestea că peste 120 de milioane de persoane folosesc lunar funcția de căutare a ChatGPT nu a surprins Comisia Europeană, au declarat pentru publicație doi oficiali ai instituției.
Cu toate acestea, autoritățile de reglementare nu au stabilit încă modul în care ChatGPT trebuie încadrat în baza Legii Serviciilor Digitale (Digital Services Act - DSA), în vigoare din 2024, care obligă platformele mari să reducă la minimum riscurile asociate serviciilor lor. O decizie ar urma să fie luată abia la jumătatea anului 2026, potrivit unui oficial al Comisiei.
Inteligența artificială, un test pentru UE
Cazul ChatGPT reprezintă un test pentru capacitatea UE de a gestiona riscurile modelelor lingvistice de mari dimensiuni (LLM), care devin tot mai omniprezente în viața de zi cu zi, la fel ca motoarele de căutare tradiționale.
Întârzierea reflectă faptul că această lege-fanion a fost concepută înainte ca ChatGPT să devină un fenomen global, iar definițiile sale nu acoperă clar chatboții AI, ceea ce riscă să lase Bruxellesul în urma evoluțiilor rapide din domeniu, chiar în timp ce pericolele devin mai evidente.
Recent, OpenAI a recunoscut că 1,2 milioane de persoane pe săptămână poartă conversații cu ChatGPT care sugerează intenții de suicid și că „în unele cazuri rare, modelul poate să nu reacționeze corespunzător în astfel de situații sensibile”.
„Pentru o industrie obișnuită cu cadre voluntare de siguranță AI și standarde autoimpuse, regimul de diligență obligatorie al DSA ar putea fi un duș rece”, a declarat Mathias Vermeulen, director la firma de consultanță și avocatură AWO Agency din Bruxelles.
„OpenAI va trebui să își ridice semnificativ standardele și nu va mai putea continua cu o simplă copiere a ceea ce face acum”, a adăugat el.
Compania nu a răspuns criticilor, trimițând în schimb la paginile sale de asistență online pentru informații privind conformitatea cu DSA. De asemenea, a precizat că cifra de 120 de milioane se referă doar la utilizarea funcției de căutare a ChatGPT, nu la întregul serviciu.
Cât de extinsă va fi reglementarea ChatGPT
ChatGPT este deja reglementat de Legea europeană a inteligenței artificiale (AI Act). Începând din august, OpenAI trebuie să evalueze și să reducă riscurile, riscând amenzi de până la 15 milioane de euro în caz de neconformitate.
Numărul mare de utilizatori îl plasează însă în categoria celor mai mari platforme, depășind pragul de 45 de milioane de utilizatori lunari prevăzut de DSA pentru platformele și motoarele de căutare de tip „foarte mari”. Odată încadrat în DSA, ChatGPT ar putea fi pasibil de amenzi de până la 6% din cifra de afaceri globală anuală a companiei.
„ChatGPT nu a fost prevăzut explicit de DSA, dar se încadrează în limbajul legii”, a explicat Martin Husovec, profesor de drept la London School of Economics.
În baza legii, UE clasifică platformele ca „foarte mari platforme online” (VLOP) sau „foarte mari motoare de căutare online” (VLOSE), ambele fiind supuse celor mai stricte cerințe. „Întrebarea centrală este cât de extinsă va fi desemnarea ChatGPT”, spune Joris Van Hoboken, profesor specializat în guvernanța AI la Vrije Universiteit din Bruxelles.
Suprapuneri și confuzii între AI Act și Legea Serviciilor Digitale
Întrebările majore rămân legate de modul în care se suprapun cele două mari legi europene privind AI și platformele digitale. AI Act și DSA au fost concepute să coexiste în cazurile în care inteligența artificială este integrată în servicii digitale, precum funcția AI Overviews de la Google, explică Quintais. Totuși, ele nu au fost gândite pentru furnizori vertical integrați precum OpenAI. Cele două legi se bazează pe cadre diferite de evaluare a riscurilor.
Conform AI Act, modelele trebuie clasificate în funcție de nivelul de risc: inacceptabil, ridicat, limitat sau minim/inexistent. În baza DSA, platformele trebuie să identifice și să reducă patru tipuri de riscuri sistemice: integritatea civică, alegerile, sănătatea publică și drepturile fundamentale.
Pentru serviciile integrate în platforme foarte mari, precum Google, respectarea DSA este considerată echivalentă cu respectarea AI Act, în anumite condiții. Aceasta înseamnă că unele aspecte, cum ar fi dezinformarea și deepfake-urile, sunt preluate de DSA, în timp ce alte riscuri, cum ar fi utilizarea ChatGPT în procesele de recrutare, rămân în sfera AI Act, precizează Quintais.
Deoarece cele două cadre nu sunt perfect aliniate, pot apărea lacune în modul în care compania evaluează riscurile serviciilor sale. OpenAI ar putea beneficia și de legi privind „safe harbor”, care exonerează platformele și motoarele de căutare de răspunderea pentru conținutul postat de utilizatori, a adăugat acesta.
Editor : M.I.