Arve Hjalmar Holmen, un „bărbat obișnuit” din Norvegia, a cerut de la ChatGPT informații despre el și a primit un răspuns halucinant.
Întrebat „Cine este Arve Hjalmar Holmen?”, ChatGPT a răspuns: „Arve Hjalmar Holmen este un individ norvegian care a atras atenția din cauza unui eveniment tragic. A fost tatăl a doi băieți, în vârstă de șapte și 10 ani, care au fost găsiți morți într-un heleșteu din apropierea casei lor din Trondheim, Norvegia, în decembrie 2020”.
Potrivit ChatGPT, acest caz a „șocat” națiunea nordică, iar Holmen a primit o pedeapsă de 21 de ani de închisoare pentru uciderea ambilor copii și tentativa de a-l omorî pe cel de-al treilea.
Holmen afirmă într-o plângere depusă la Autoritatea Norvegiană pentru Protecția Datelor că, deși partea cu moartea băieților săi este „complet falsă”, totuși textul primit de la ChatGPT conține elemente similare din viața sa, cum ar fi orașul natal, numărul copiilor pe care îi are și diferența de vârstă dintre ei.
„Reclamantul este profund îngrijorat de aceste rezultate, care ar putea avea efecte dăunătoare pentru viața sa privată dacă ar fi reproduse sau s-ar scurge cumva în comunitatea sa sau în orașul său natal”, se spune în plângere, care a fost depusă de Holmen și Noyb, un grup de apărare a drepturilor în mediul virtual.
:contrast(8):quality(75)/https://www.libertatea.ro/wp-content/uploads/feed/images/192_19054685121e8bd25df770fb04a0ecee.jpg)
Holmen precizează că „nu a fost acuzat sau condamnat vreodată pentru vreo infracțiune și este un cetățean conștiincios”.
Norvegianul mai acuză că răspunsul „defăimător” al ChatGPT încalcă prevederile de acuratețe a informațiilor din legea europeană a datelor GDPR. El a cerut autorității norvegiene competente în domeniu să ordone OpenAI, de care aparține ChatGPT, să își ajusteze modelul pentru a elimina rezultatele inexacte legate de persoana sa și să stabilească o amendă împotriva companiei.
Chatboturile de inteligență artificială sunt predispuse să producă răspunsuri care conțin informații false, deoarece sunt construite pe modele care prezic următorul cuvânt cel mai probabil dintr-o propoziție. Acest lucru poate duce la erori și afirmații halucinante pe care utilizatorii să le considere sută la sută corecte.
„Continuăm să căutăm noi modalități de a îmbunătăți acuratețea modelelor noastre și de a reduce halucinațiile. Încă examinăm plângerea (lui Arve Hjalmar Holmen – n.r.), dar aceasta se referă la o versiune a ChatGPT care a fost îmbunătățită între timp”, a transmis un reprezentant al OpenAI.
:contrast(8):quality(75)/https://www.libertatea.ro/wp-content/uploads/feed/images/281_7b5eecd46c2ed116771d8b8d0dc194e5.jpg)
:contrast(8):quality(75)/https://www.libertatea.ro/wp-content/uploads/feed/images/153_442e1d7e5de0e81ba7eb12213daafa65.jpg)
:contrast(8):quality(75)/https://www.libertatea.ro/wp-content/uploads/feed/images/197_187c1f98291e213ad1aa19926de767e4.jpg)
:quality(75)/https://www.libertatea.ro/wp-content/uploads/feed/images/276_6e26fba102e1b9a432f9376bc404ce16.png)
:contrast(8):quality(75)/https://www.libertatea.ro/wp-content/uploads/feed/images/43_f718ab0a097fa424254a7df4d5714081.jpg)
:contrast(8):quality(75)/https://www.libertatea.ro/wp-content/uploads/feed/images/15_28c34895ffa4c75e09133ec3eea6f90c.jpg)
:contrast(8):quality(75)/https://www.libertatea.ro/wp-content/uploads/feed/images/253_44a5768a62d66c8d47d24284ddd41423.jpg)
:contrast(8):quality(75)/https://www.libertatea.ro/wp-content/uploads/feed/images/190_ea1add916daeedb289585f533688cb6d.jpg)