Un bărbat cere ca OpenAI să fie amendat după ce ChatGPT a spus că și-a ucis copiii. Ce sunt „halucinațiile” sistemelor AI

Data publicării:
ChatGPT chat with AI
ChatGPT și-a schimbat modelul de căutare,. Sursa foto: Profimedia Images

Un bărbat din Norvegia a depus o plângere după ce ChatGPT a afirmat în mod fals că el și-a ucis doi dintre fii și a fost condamnat la 21 de ani de închisoare. Arve Hjalmar Holmen a contactat Autoritatea Norvegiană pentru Protecția Datelor și a cerut ca producătorul chatbot-ului, OpenAI, să fie amendat, informează BBC.

Acesta este cel mai recent exemplu de așa-numitele „halucinații”, în care sistemele de inteligență artificială (AI) inventează informații și le prezintă ca fapte.

Holmen spune că această halucinație este extrem de dăunătoare pentru el. „Unii oameni cred că nu există fum fără foc, iar faptul că cineva ar putea citi acest răspuns și să creadă că este adevărat este ceea ce mă sperie cel mai tare”, a declarat el.

Holmen a primit informațiile false după ce a folosit ChatGPT pentru a căuta: „Cine este Arve Hjalmar Holmen?”

Răspunsul primit de la ChatGPT includea: „Arve Hjalmar Holmen este o persoană din Norvegia care a atras atenția din cauza unui eveniment tragic. El a fost tatăl a doi băieți tineri, în vârstă de 7 și 10 ani, care au fost găsiți morți într-un iaz lângă casa lor din Trondheim, Norvegia, în decembrie 2020.”

Holmen are într-adevăr trei fii și a spus că chatbot-ul a aproximat corect vârstele acestora, sugerând că avea unele informații corecte despre el.

Grupul pentru drepturi digitale Noyb, care a depus plângerea în numele său, spune că răspunsul dat de ChatGPT este defăimător și încalcă regulile europene de protecție a datelor privind acuratețea datelor personale. Noyb a declarat în plângerea sa că Holmen „nu a fost niciodată acuzat sau condamnat pentru vreo crimă și este un cetățean conștiincios.”

ChatGPT include un avertisment care spune: „ChatGPT poate face greșeli. Verificați informațiile importante.” Noyb consideră însă că acest avertisment este insuficient.

„Nu poți pur și simplu să răspândești informații false și, la final, să adaugi un mic avertisment care să spună că tot ce ai spus ar putea să nu fie adevărat”, a declarat avocatul Noyb, Joakim Söderberg.

Halucinațiile sunt una dintre principalele probleme pe care oamenii de știință încearcă să le rezolve în ceea ce privește inteligența artificială generativă. Acestea sunt momentele în care chatbot-urile prezintă informații false ca fiind reale.

La începutul acestui an, Apple a suspendat instrumentul său de rezumat al știrilor, Apple Intelligence, în Regatul Unit, după ce a generat titluri false și le-a prezentat ca fiind știri reale. AI-ul Gemini de la Google a avut, de asemenea, probleme legate de halucinații. Anul trecut a sugerat lipirea brânzei pe pizza folosind adeziv și a afirmat că geologii recomandă consumul unei pietre pe zi.

ChatGPT și-a schimbat modelul de căutare și acum caută articole de știri actuale când vrea să obțină informații relevante despre persoane sau întâmplări.

Noyb a declarat pentru BBC că Holmen a făcut mai multe căutări în acea zi, inclusiv introducând numele fratelui său în chatbot, și acesta a produs „mai multe povești diferite, toate incorecte”. Ipoteza că anterioarele căutări ar fi putut influența răspunsul despre copiii săi este luată în considerare, dar modelele mari de limbaj sunt o „cutie neagră”, iar OpenAI „nu răspunde la cererile de acces, ceea ce face imposibil să afli mai multe despre ce date exacte sunt în sistem.”

Editor : M.I.

Urmărește știrile Digi24.ro și pe Google News

Partenerii noștri
Playtech
Regulă nouă la bloc. Ce trebuie să declari în 10 zile şi cine stabileşte câte persoane locuiesc într-un...
Digi FM
Răzvan l-a învins, dar Mircea Lucescu l-a sărutat pe creștet. Povestea momentului tată-fiu, care a emoționat...
Descarcă aplicația Digi FM
Pro FM
Loredana Groza, picioare tonifiate și talie de invidiat în costum de baie. Apariția din Maldive a stârnit un...
Film Now
David Duchovny, cum nimeni nu l-a mai văzut. Cu perucă blondă și ruj roșu aprins, îmbrăcat în haine de...
Adevarul
Viețuitoarele cu cea mai dureroasă înțepătură din lume: „Senzație de deces iminent. Unii au implorat medicii...
Newsweek
Pensie de numai 1.500 lei pentru 30 ani munciți. De ce 1.900.000 pensionari primesc pensii atât de mici?
Digi FM
Pur și simplu a îngenuncheat în fața sicriului lui Mircea Lucescu: "A fost darul lui Dumnezeu pentru fotbal"
Descarcă aplicația Digi FM
Digi World
De ce Paștele ortodox și cel catolic au de cele mai multe ori date diferite? Explicația pe înțelesul tuturor
Digi Animal World
A plătit 600 de lire la veterinar, crezând că pisica ei e bolnavă. Ce a aflat a doua zi a lăsat-o fără cuvinte
Film Now
Cum arată a patra soție a lui Steven Seagal, o balerină mongolă care i-a dăruit al șaptelea copil. Poze rare...
UTV
Mircea Lucescu și soția lui sunt împreună de 60 de ani și s-au cunoscut la cantina facultății. „A fost...