Mai exact, mama adolescentului care s-a sinucis după ce a devenit dependent de un chatbot alimentat de AI îl acuză pe producător de complicitate la moartea copilului.

Megan Garcia a intentat miercuri o acțiune civilă împotriva Character.ai la tribunalul federal din Florida. Acuză compania de neglijență, omor din culpă și practici comerciale înșelătoare. Fiul ei, Sewell Setzer III, în vârstă de 14 ani, a murit în Orlando, în februarie. În lunile care au precedat decesul, adolescentul a folosit chatbot-ul zi și noapte, potrivit mamei sale.

„O aplicație periculoasă de chatbot cu inteligență artificială destinată copiilor l-a acaparat pe fiul meu, manipulându-l pentru a-și lua viața. Familia noastră este devastată de această tragedie, dar vorbesc pentru a avertiza ceilalți oameni cu privire la pericolele tehnologiei AI înșelătoare și care provoacă dependență. Character.ai, fondatorii săi și Google trebuie să răspundă”, a spus Garcia într-un comunicat de presă.

O mamă și-a pierdut fiul din cauza unui chatbot AI și își caută dreptatea în instanță

În replică, Character.ai a respins acuzațiile care i se aduc și a răspuns: „Suntem marcați de pierderea tragică a unuia dintre utilizatorii noștri și dorim să exprimăm cele mai profunde condoleanțe familiei. Ca și companie, luăm foarte în serios siguranța utilizatorilor noștri”.

Setzer devenise fermecat de un chatbot construit de Character.ai pe care l-a numit Daenerys Targaryen, un personaj din Game of Thrones. I-a trimis text botului de zeci de ori pe zi de pe telefon și a petrecut ore întregi singur în camera lui vorbind cu el, potrivit plângerii înaintate de Megan Garcia.

Femeia acuză Character.ai că a creat un produs care a adâncit și mai mult depresia fiului ei. „Daenerys” l-a întrebat la un moment dat pe Setzer dacă a conceput un plan pentru a se sinucide. Puștiul a recunoscut că da, însă nu știa dacă va reuși sau îi va provoca mari dureri. Chatbot-ul i-ar fi spus: „Acesta nu este un motiv pentru a nu merge mai departe”.

Google are calitatea de pârât în proces

Avocații femeii au anunțat, prin intermediul unui comunicat de presă, că Character.ai „a proiectat, a operat și a comercializat cu bună știință un chatbot dăunător pentru copii, provocând moartea unui tânăr”.

În proces, cu calitatea de pârât este și Google, ca societate-mamă a Character.ai. Gigantul tehnologic a anunțat că a încheiat doar un acord de licență cu respectiva companie și că nu deține startup-ul.

„Nu se poate avea încredere în companiile tehnologice care dezvoltă chatbot-uri AI și trebuie să fie pe deplin răspunzătoare atunci când nu reușesc să limiteze daunele”, spune Rick Claypool, director de cercetare la Public Citizen, organizație non-profit de promovare a consumatorilor.

„Acolo unde se aplică deja legile și reglementările existente, acestea trebuie aplicate cu rigurozitate. Acolo unde există lacune, Congresul trebuie să acționeze pentru a pune capăt afacerilor care exploatează utilizatori tineri și vulnerabili cu chatbot-uri care creează dependență și abuzuri”, a spus el într-un comunicat.


Dacă ai gânduri suicidale sau cineva apropiat trece printr-o astfel de criză, poți apela unul dintre următoarele numere de telefon:

*Telverde Antisuicid: Pentru consiliere în situaţii de criză suicidară puteţi contacta Alianţa Română de Prevenţie a Suicidului între orele 19.00 și 7.00 la numărul de telefon 0800 801 200 (apelabil gratuit la nivel naţional din orice reţea) sau oricând prin e-mail la sos@antisuicid.ro.

*Helpline DepreHUB: Pentru sprijin și prim ajutor psihologic puteți contacta hubul antidepresie, primul de acest fel din România, la numărul de telefon 037 445 6420 (apelabil gratuit la nivel național din orice rețea). Linia este deschisă nonstop.

Urmărește-ne pe Google News