Live

Avertismentul șefului Google: „Nu mai credeți orbește ceea ce vă spune inteligența artificială”

Data publicării:
Foto. Shutterstock

Oamenii nu ar trebui să „creadă orbește” tot ceea ce le spun instrumentele de inteligență artificială, a declarat pentru BBC șeful companiei-mamă a Google, Alphabet. Într-un interviu exclusiv, directorul executiv Sundar Pichai a afirmat că modelele de IA sunt „predispuse la erori” și a îndemnat oamenii să le utilizeze împreună cu alte instrumente.

Pichai a spus că acest lucru subliniază importanța existenței unui ecosistem informațional bogat, în loc ca utilizatorii să se bazeze exclusiv pe tehnologia AI. „De aceea oamenii utilizează și căutarea Google, iar noi avem și alte produse care se bazează mai mult pe furnizarea de informații precise”.

Cu toate acestea, unii experți spun că marile companii de tehnologie, precum Google, nu ar trebui să invite utilizatorii să verifice informațiile furnizate de instrumentele lor, ci ar trebui să se concentreze mai degrabă pe îmbunătățirea fiabilității sistemelor.

Deși instrumentele de AI sunt utile „dacă doriți să scrieți ceva creativ”, Sundar Pichai a spus că oamenii „trebuie să învețe să utilizeze aceste instrumente pentru ceea ce fac bine și să nu aibă încredere oarbă în tot ceea ce spun”.

El a declarat pentru BBC: „Suntem mândri de eforturile depuse pentru a oferi informații cât mai exacte posibil, dar tehnologia AI de ultimă generație este predispusă la unele erori”.

Foto: Profimedia Images

Compania afișează avertismente pe instrumentele sale AI pentru a informa utilizatorii că acestea pot face greșeli. Totuși, acest lucru nu a protejat-o de critici și de îngrijorări cu privire la erorile comise de propriile sale produse. Lansarea de către Google a AI Overviews, care rezumă rezultatele căutărilor sale, a fost marcată de controverse cu privire la unele răspunsuri eronate și inexacte.

Tendința produselor generative de IA, cum ar fi chatbot-urile, de a transmite informații înșelătoare sau false, este un motiv de îngrijorare pentru experți.

„Știm că aceste sisteme inventează răspunsuri și că inventează răspunsuri pentru a ne mulțumi - și asta este o problemă”, a declarat Gina Neff, profesoară de AI, responsabilă la Universitatea Queen Mary din Londra, în cadrul emisiunii Today de la BBC Radio 4.

„Nu e nicio problemă dacă întreb «ce film ar trebui să văd în continuare», dar e cu totul altceva dacă pun întrebări foarte sensibile despre sănătatea mea, starea mea mentală, despre știință, despre știri”, a spus ea. De asemenea, ea a îndemnat Google să-și asume mai multă responsabilitate pentru produsele sale de AI și pentru acuratețea acestora, în loc să transfere această responsabilitate consumatorilor.

„Compania cere acum să-și noteze singură lucrările de examen, în timp ce incendiază școala”, a spus ea.

„O nouă etapă”

Lumea tehnologiei așteaptă cu nerăbdare lansarea celui mai recent model de AI pentru consumatori al Google, Gemini 3.0, care începe să recâștige cota de piață de la ChatGPT.

Din luna mai a acestui an, Google a început să introducă noul „mod AI” în motorul său de căutare, integrând chatbotul Gemini, care are scopul de a oferi utilizatorilor experiența de a discuta cu un expert. La momentul respectiv, Pichai a declarat că integrarea Gemini în motorul de căutare a marcat o „nouă fază a schimbării platformei de AI”.

Această mișcare face parte din eforturile gigantului tehnologic de a rămâne competitiv în fața serviciilor de AI, precum ChatGPT, care au amenințat dominația Google în domeniul căutărilor online. Comentariile sale susțin cercetările BBC de la începutul acestui an, care au descoperit că chatbot-urile AI rezumau în mod inexact știrile.

ChatGPT de la OpenAI, Copilot de la Microsoft, Gemini de la Google și Perplexity AI au primit toate conținut de pe site-ul BBC și li s-au pus întrebări despre acesta, iar cercetarea a descoperit că răspunsurile AI conțineau „inexactități semnificative”.

În interviul acordat BBC, Pichai a afirmat că există o anumită tensiune între viteza cu care se dezvoltă tehnologia și modul în care sunt integrate măsurile de atenuare pentru a preveni potențialele efecte nocive. Pentru Alphabet, șeful Google a afirmat că gestionarea acestei tensiuni înseamnă a fi „îndrăzneț și responsabil în același timp”.

Foto. Shutterstock

„Așadar, trecem rapid peste acest moment. Cred că consumatorii noștri cer acest lucru”, a afirmat el.

Gigantul tehnologic și-a mărit investițiile în securitatea AI proporțional cu investițiile în această tehnologie, a adăugat Sundar Pichai.

„De exemplu, oferim tehnologie open-source care vă va permite să detectați dacă o imagine este generată de AI”, a spus el. Întrebat despre comentariile vechi de ani de zile ale miliardarului din domeniul tehnologiei Elon Musk către fondatorii OpenAI cu privire la temerile că DeepMind, care acum aparține Google, ar putea crea o „dictatură” a inteligenței artificiale, Pichai a spus că „nicio companie nu ar trebui să dețină o tehnologie atât de puternică precum AI”.

Dar a adăugat că astăzi există multe companii în ecosistemul inteligenței artificiale.

„Dacă ar exista o singură companie care să dezvolte tehnologia AI și toți ceilalți ar fi nevoiți să o utilizeze, și eu aș fi îngrijorat, dar în acest moment suntem foarte departe de un astfel de scenariu”, a spus el.

Editor : C.A.

Descarcă aplicația Digi24 și află cele mai importante știri ale zilei

Urmărește știrile Digi24.ro și pe Google News

Top citite

Digi Sport

Ce-a pățit în străinătate ”perla” vândută de Gigi Becali cu 6.000.000 de euro! Mai are contract până în 2027

Descarcă aplicația Digi Sport

Recomandările redacției

Ultimele știri

Citește mai multe

Te-ar putea interesa și

Franța: Mii de actori denunță utilizarea abuzivă a inteligenței artificiale în cinematografie. „O transformare profundă a profesiei”

Cum a ajuns inteligența artificială motor al dezinformării despre războiul din Ucraina

Secretarul american de război l-a convocat pe şeful Anthropic, care refuză anumite utilizări ale AI-ului său

Țara considerată laboratorul Europei unde inteligența artificială combate (sau ascunde) corupția

Partenerii noștri