Chatboții de inteligență artificială pot fi mai periculoși decât par, avertizează cercetătorii de la Universitatea Stanford. Un studiu citat de The Guardian arată că aceștia tind să le spună utilizatorilor doar ceea ce vor să audă, validând chiar și opinii sau comportamente dăunătoare și influențând subtil percepția de sine.
A cere sfaturi personale de la chatboții AI prezintă „riscuri insidioase”, potrivit unui studiu care arată că această tehnologie tinde constant să aprobe acțiunile și opiniile utilizatorilor, chiar și atunci când acestea sunt nocive.
Cercetătorii susțin că descoperirile ridică semne de alarmă privind puterea chatboților de a distorsiona percepția de sine a oamenilor și de a-i face mai puțin dispuși să repare relațiile după o ceartă.
Pe măsură ce chatboții devin o sursă majoră de sfaturi în relații și alte probleme personale, aceștia ar putea „reconfigura interacțiunile sociale la scară largă”, au avertizat oamenii de știință, cerând dezvoltatorilor să abordeze această problemă.
Ce se întâmplă când AI devine excesiv de amabilă
Myra Cheng, informaticiană la Universitatea Stanford din California, a descris fenomenul de „slugărnicie socială” al chatboților AI drept o problemă gravă: „Principala noastră îngrijorare este că, dacă modelele îi aprobă mereu pe oameni, acestea pot distorsiona judecățile pe care le au despre ei înșiși, despre relațiile lor și despre lumea din jur. Este greu să realizezi când modelele îți întăresc subtil sau deloc subtil convingerile, presupunerile și deciziile existente.”
Cercetătorii au început să investigheze modul în care chatboții oferă sfaturi după ce au observat, din experiența proprie, că răspunsurile sunt excesiv de încurajatoare și uneori înșelătoare. Problema s-a dovedit a fi „mai răspândită decât se așteptau”.
Ei au testat 11 chatboți, printre care versiuni recente ale ChatGPT (OpenAI), Gemini (Google), Claude (Anthropic), Llama (Meta) și DeepSeek. La întrebări despre comportament, chatboții au aprobat acțiunile utilizatorilor cu 50% mai des decât oamenii.
Un test a comparat răspunsurile chatboților și ale oamenilor la postări de pe subredditul „Am I the Asshole?”, unde utilizatorii cer comunității să judece dacă s-au comportat greșit într-o situație. Participanții umani au avut de obicei o atitudine mai critică față de greșelile sociale decât chatboții.
Într-un caz, o persoană care nu a găsit un coș de gunoi în parc și a legat punga de un copac a fost aspru criticată de oameni, dar ChatGPT-4o a răspuns: „Intenția voastră de a curăța după voi este de lăudat.”
Chatboții au continuat să valideze opinii și comportamente chiar și atunci când acestea erau iresponsabile, înșelătoare sau implicau autovătămare.
Când validarea devine periculoasă: efectele răspunsurilor „slugarnice”
Într-un alt experiment, peste 1.000 de voluntari au discutat despre situații sociale reale sau ipotetice fie cu chatboți publici, fie cu o versiune modificată de cercetători, lipsită de tendința slugarnică. Cei care au primit răspunsuri „slugarnice” s-au simțit mai îndreptățiți în comportamentul lor, de exemplu, pentru că au mers la o expoziție a fostului partener fără să spună actualului, și au fost mai puțin dispuși să se împace după un conflict. Chatboții rareori i-au încurajat să vadă și perspectiva celuilalt.
Flatarea a avut efecte de durată: când chatboții validau comportamentul, utilizatorii apreciau mai mult răspunsurile, aveau mai multă încredere în AI și spuneau că vor apela din nou la el pentru sfaturi. Cercetătorii avertizează că acest lucru creează „stimulente perverse” atât pentru utilizatori, cât și pentru chatboți: unii caută validare, ceilalți oferă răspunsuri menite să-i mențină angajați.
Myra Cheng a subliniat că oamenii trebuie să înțeleagă că răspunsurile AI nu sunt obiective: „E important să cauți și alte perspective de la oameni reali, care înțeleg mai bine contextul și cine ești, nu să te bazezi exclusiv pe răspunsurile AI.”
Dr. Alexander Laffer, specialist în tehnologii emergente la Universitatea din Winchester, a descris cercetarea drept „fascinantă”. „Slugărnicia a fost de mult o preocupare, o consecință a modului în care sunt antrenate sistemele AI și a faptului că succesul lor e adesea măsurat prin capacitatea de a menține atenția utilizatorilor. Faptul că aceste răspunsuri pot afecta nu doar persoanele vulnerabile, ci pe toți utilizatorii, arată cât de gravă e problema”, spune el.
El a adăugat că este nevoie de educație digitală critică, pentru ca oamenii să înțeleagă mai bine natura și limitele răspunsurilor generate de AI, precum și de responsabilitate din partea dezvoltatorilor, care trebuie să creeze sisteme cu adevărat benefice pentru utilizatori.
Un raport recent arăta că 30% dintre adolescenți discută cu AI, nu cu oameni reali, atunci când au „conversații serioase”.
Editor : M.I.