Un scurt clip dintr-un interviu din 2023 cu Sundar Pichai, CEO al Google, a reapărut online, reaprinzând dezbaterea despre modul în care sistemele moderne de inteligență artificială dezvoltă capacități neașteptate. În clip, directorul executiv al Google descrie un model lingvistic care a fost capabil să traducă din limba bengali cu acuratețe după o solicitare minimă, în ciuda faptului că nu a fost antrenat în mod explicit pentru această sarcină. Pichai a recunoscut, în acel interviu, de asemenea, că anumite părți ale acestor sisteme funcționează ca o „cutie neagră”, ceea ce înseamnă că procesul lor intern de luare a deciziilor nu este întotdeauna pe deplin înțeles, nici măcar de inginerii care le construiesc.
Reapariția clipului a stârnit o nouă discuție despre transparența, controlul și încrederea publicului în IA, scrie Times of India.
Setarile tale privind cookie-urile nu permit afisarea continutul din aceasta sectiune. Poti actualiza setarile modulelor coookie direct din browser sau de aici – e nevoie sa accepti cookie-urile social media
Ce a spus Sundar Pichai în interviul original
Comentariile au fost făcute în timpul unei apariții în 2023 la emisiunea 60 Minutes de la CBS, unde Pichai și alți directori Google au discutat despre progresul rapid al modelelor lingvistice de mari dimensiuni. El a citat exemplul limbii bengali pentru a ilustra modul în care sistemele de IA pot afișa abilități pe care inginerii nu le-au programat sau anticipat în mod direct.
Modelul nu învăța limba bengaleză de la zero în timp real. În schimb, fusese deja antrenat pe seturi de date multilingve vaste în timpul dezvoltării sale inițiale.
Ceea ce i-a surprins pe cercetători a fost rapiditatea cu care a apărut capacitatea de traducere odată ce au fost date instrucțiunile corecte. Acest fenomen, în care noi abilități par să apară brusc pe măsură ce modelele se extind, este denumit în mod obișnuit „comportament emergent” în cercetarea IA.
Aceasta este o „abilitate emergentă”
În modelele lingvistice de mari dimensiuni, anumite capacități nu se îmbunătățesc treptat. În schimb, ele pot apărea brusc odată ce un model atinge o anumită dimensiune sau complexitate. Traducerea, raționamentul și învățarea rapidă sunt printre abilitățile cunoscute care apar în acest mod. Deși cercetătorii pot măsura momentul în care apar aceste abilități, explicarea precisă a motivului pentru care ele apar în acel moment rămâne un domeniu de studiu activ.
Reapariția clipului are loc pe fondul preocupării crescute a publicului cu privire la siguranța, reglementarea și responsabilitatea corporativă în domeniul IA. Pe măsură ce instrumentele IA devin mai vizibile în viața de zi cu zi, declarațiile mai vechi ale liderilor din domeniul tehnologiei sunt revizuite printr-o lentilă mai sceptică. Pentru unii spectatori, clipul confirmă temerile cu privire la sistemele care depășesc înțelegerea umană. Pentru alții, acesta reflectă o caracteristică normală și bine documentată a sistemelor complexe de învățare automată.
Reacții online împărțite
Răspunsurile de pe rețelele sociale la clipul reapărut au fost puternic divizate. Unii utilizatori interpretează remarca lui Pichai ca o dovadă că IA devine incontrolabilă sau autonomă. Alții susțin că spusele sale au fost scoase din context, acuzând criticii că exagerează un concept tehnic pentru a alimenta alarma sau a submina încrederea în dezvoltarea IA.
Atenția reînnoită readuce în prim-plan o dilemă familiară. Sistemele de IA devin din ce în ce mai capabile într-un ritm nemaiîntâlnit până acum în majoritatea industriilor, dar modul în care ajung la concluziile lor rămâne adesea neclar. Această discrepanță între performanță și înțelegere devine din ce în ce mai greu de ignorat pe măsură ce companii precum Google lansează modele din ce în ce mai puternice pentru public.
Editor : B.E.