• Anca Drăgan, 35 de ani, este profesoară de informatică la UC Berkeley, într-unul dintre cele mai influente științific locuri din întreaga lume pentru viitorul inteligenței artificiale. Prin munca ei, își propune să ajute roboții să lucreze cu, lângă și pentru oameni. 
  • În prima parte a interviului, cercetătoarea a oferit detalii despre evoluția mașinilor fără șofer, la care a contribuit, colaborând cu compania Waymo.  
  • Interviul e parte a proiectului jurnalistic „Români competenți”, lansat de Libertatea. Într-un moment în care incompetența pare că a copleșit România, prezentăm modelele compatrioților care au ajuns la succes prin muncă intensă. 

Regele Midas și-a dorit ca tot ceea ce atinge să se transforme în aur. S-a dovedit că nu era cea mai bună idee, de fapt. Peștișorii aurii îndeplinesc câte trei dorințe, iar ultima e aproape inevitabil: „te rog să le anulezi pe primele două!”. Mitologia, dar și cultura pop sunt pline de exemple în care îndeplinirea dorințelor oamenilor are efecte secundare pe care nu le-au luat în calcul. Iar inteligența artificială nu face excepție. 

În ultimul an, pe măsură ce progresele AI au fost tot mai de netăgăduit, au apărut și semnale tot mai puternice, chiar din sânul industriei, despre riscurile care vin la pachet. Zicala „Ai grijă ce-ți dorești” e mai relevantă decât a fost vreodată. 

13 români, dați dispăruți în inundațiile din Spania, anunță MAE
Recomandări
13 români, dați dispăruți în inundațiile din Spania, anunță MAE

Cu o lună înainte să purtăm această discuție, Anca semnase o declarație prin care, alături de zeci de cercetători și experți în AI, avertizau că:

Atenuarea riscului de extincție din cauza inteligenței artificiale ar trebui să fie o prioritate globală, alături de alte riscuri la scară socială, cum ar fi pandemiile și războiul nuclear.

O întreb despre asta și îmi spune că încă nu este cazul să ne panicăm, pentru că suntem la distanță mare, de ani buni, de acest risc apocaliptic. E vorba mai degrabă de un risc pe termen lung, dar pe care consideră că toată comunitatea de AI ar trebui să-l ia în calcul. „După estimările mele, e un risc mai mic decât acela de un război nuclear, mai ales în contextul istoric de acum”.

Începem așa o discuție mai amplă despre hazardul AI din prezent, dar și despre cel referitor la viitor. 

EXCLUSIV. Un risc pentru omenire, nu o joacă! Anca Drăgan, cercetătoare română premiată în SUA, explică de ce a semnat scrisoarea despre pericolele inteligenței artificiale, alături de alte zeci de personalități ale științei
Anca Drăgan este profesoară la UC Berkeley (California). Foto: wired.com

„Pe termen scurt, automatizarea multor slujbe va destabiliza societatea”

Guvernul vrea să înlocuiască sobele tradiționale ale românilor cu pompe de căldură. „Costurile sunt enorme”, spun specialiștii
Recomandări
Guvernul vrea să înlocuiască sobele tradiționale ale românilor cu pompe de căldură. „Costurile sunt enorme”, spun specialiștii

Pe termen scurt, prima problemă pe care o pune acum inteligența artificială este „automatizarea rapidă a multor slujbe, ceea ce poate destabiliza societatea”, spune Anca. Iar cealaltă mare problemă actuală pusă de modelele de AI la liber, precum Chat GPT, este aceea că funcționează ca sistemele de recomandări, deci au aceeași hibă ca social media: că amplifică emoții, mai ales furia. 

Toate problemele pe care le avem din social media o să le avem și mai mult din cauza acestor modele. Polarizarea societății va fi accentuată.  

Anca remarcă:

Recent, ea și colegii săi au publicat un studiu în Nature, care arată cum algoritmul nou al Twitter scoate în față conținutul emoțional, în special sentimentul de furie și conținutul care critică partea politică opusă. 

De ce „te minte” ChatGPT

Pe de altă parte, așa cum funcționează în prezent modelele de tipul Chat GPT, e destul de ușor să „te mintă”. Asta deschide potențialul de a fi folosite ca instrumente de manipulare sau chiar să consolideze oarecum accidental prejudecățile oamenilor. Momentan, motivul pentru care nu indică adevărul e unul tehnic. Sunt antrenate pe seturi foarte mari de date, care cel mai probabil conțin răspunsul corect la întrebarea pusă de utilizator. Partea proastă este că modelul nu memorează toate datele. 

Câți bani au cheltuit principalii candidați la președinție pe Facebook și Instagram pentru promovare în precampania electorală
Recomandări
Câți bani au cheltuit principalii candidați la președinție pe Facebook și Instagram pentru promovare în precampania electorală

„Sunt mult prea multe date ca să poți să memorezi absolut tot, așa că modelul își construiește o colecție de cunoștințe”, explică Anca. Dacă îl întrebi ceva ce nu a memorat, atunci el încearcă să prezică ce-ai zice tu în următoarele cuvinte. 

Tânăra cercetătoare oferă un exemplu. „Pot să întreb ChatGPT chestii despre Anca Drăgan și la un moment dat să-mi spună: Anca Drăgan a absolvit în 2010. Nu e adevărat. Am absolvit în 2009. De ce e așa încrezător în 2010? Nu a memorat CV-ul meu, dar are un mic context. Poate știe că am început doctoratul la un moment dat și poate să ghicească. Și, din păcate, de multe ori ghicește. În sensul că nu are informații, ci le extrapolează.

Cel mai bun fotbalist român e bulgar

În exemplul dat, modelul de AI știe că dacă textul de până acum este «Anca Drăgan a absolvit în…», ceea ce urmează ar trebui să fie un an. Nu știe anul, dar încearcă să-l nimerească. Asta îmi amintește de un alt exemplu, când un utilizator a rugat Chat GPT să-i facă un top 10 al celor mai buni fotbaliști români din toate timpurile, iar modelul a returnat o listă care includea și un fotbalist bulgar. Tot o aproximare a cunoașterii din datele pe care le avea. 

Dacă în exemplele date eroarea nu ar avea consecințe mari, atunci când oamenii folosesc Chat GPT ca psihoterapeut (un fenomen documentat deja) sau în loc de a merge la medic, consecințele nocive pot fi grave. 

Apoi, din felul în care creatorii lor antrenează aceste modele rezultă și întrebări mai mari, cele legate de riscul apocaliptic. Modelele de inteligență artificială sunt antrenate în prezent cu text (dar următoarele vor folosi probabil și video, și imagini), astfel încât să prezică ce ar trebui să urmeze într-o conversație cu utilizatorul. 

Ce înseamnă o gândire supraumană?

Ne putem imagina, așadar, un viitor, nu neapărat foarte apropiat, în care un asemenea model să fie antrenat cu capacitate enormă, astfel să învețe «cum gândesc oamenii»”, explică Anca. 

Nu s-a întâmplat încă, dar e posibil să ajungă să învețe procesul de gândire al oamenilor. Și nu numai al unui om, ci al multor oameni. Dacă poți să emulezi ce gândește fiecare om, poți să ai o capacitate superioară de gândire. De-aici pornește pericolul. 

O capacitate de gândire supraumană nu e automat un lucru rău. În teorie, ar putea fi valorificată pentru a rezolva multe probleme ale umanității. Dar, observă Anca, realitatea e complicată. „Chiar și atunci când folosești (această gândire supraumană – n.r.) pentru a genera resurse, pentru care acum trebuie să muncim o groază, sunt pericole. Nu știu dacă din punct de vedere politic suntem pregătiți pentru o lume în care resursele sunt așa ușor de obținut”.

În plus, doar câțiva oameni au control asupra acestor modele de AI, care sunt foarte greu de construit. „Dacă au puțini oameni control asupra acestor modele, înseamnă că puțini oameni ar avea control și asupra resurselor obținute. Ai spera că omenirea se poate ridica, dar mi-e teamă că nu va fi așa”, crede Anca Drăgan, care vede în această posibilitate un risc mare de destabilizare a societății. 

Cum apare riscul de extincție

Riscul de extincție, de care ea și colegii ei vorbesc în declarația amintită, apare dacă această gândire supraumană nu ar fi valorificată bine, „dacă accidental – sau neaccidental – utilizatorii îi dau acestui model un obiectiv care nu este aliniat cu valorile umanității”. De fapt, problematice sunt limitele modului de optimizare a obiectivelor pe care oamenii le setează AI-ului. Concret, măsura în care oamenii ar ști ce „trei dorințe” să ceară AI-ului să îndeplinească.

De pildă, setarea unui obiectiv ca găsirea unui antidot pentru cancer pare inofensivă la prima vedere. „Pare OK, dar sunt multe alte lucruri de care ne pasă în afara cancerului și e greu să listezi tot”.  Iar atunci când un sistem are un obiectiv, un subobiectiv este mereu supraviețuirea și controlarea resurselor. Cu cât controlează mai multe resurse, cu atât își poate atinge mai bine obiectivul. 

Experții se tem de momentul în care am avea o suprainteligență cu un obiectiv care nu este complet aliniat cu valorile noastre, un sistem care e foarte bun în a optimiza acel obiectiv, și pentru a face asta, începe să controleze resursele strânse pe planetă.

Anca spune că, deși acest risc e încă departe și încă foarte mic, el există, iar rolul declarației a fost acela de a atrage atenția în special comunității de inteligență artificială: „acesta este un risc pe care trebuie să-l luăm în serios. Nu e ceva amuzant, nu e ceva cucu, e chiar un risc. Probabilitatea e mică, dar nu e zero.”

Spre o altă paradigmă

Semnatarii declarației, printre care și Anca, nu fluieră pur și simplu în biserică. Printre ei sunt experți care cercetează deja soluții pentru a diminua riscurile unei astfel de apocalipse accidentale. Anca Drăgan e unul dintre ei. 

„Pentru riscul acela apocaliptic, putem încerca să schimbăm modul în care antrenăm aceste modele, în special modul prin care le dăm obiective”, spune ea. 

Alături de Stuart Russell, Peter Abbeel și studenții lor de la UC Berkeley, românca lucrează la o nouă paradigmă pentru a construi inteligența artificială. „Una în care zici că agentul nu are un obiectiv. Agentul are obiectivul să te facă pe tine fericit și nu știe cum, motiv pentru care trebuie să colaboreze cu tine și să învețe de la tine. Dar întotdeauna e un pic nesigur care este exact obiectivul”, explică Drăgan. În această paradigmă, multe din posibilitățile de care se tem o parte din experți, precum controlul tuturor resurselor în numele unui obiectiv, ar dispărea, pentru că obiectivul AI ar fi să-i facă pe oameni fericiți. 

Paradigma de care vorbește Anca e momentan greu de pus în practică. „Din punct de vedere computațional, e dificil, pentru că, în loc să aibă un obiectiv pe care îl estimează, trebuie să se uite la tot ce zic oamenii, tot feedbackul pe care-l dau, să țină cont de întreaga familie de obiective pe care ar putea să le aibă oamenii, care sunt consistente cu ce-au zis, ce-au făcut”. 

Apoi, trebuie să ne amintim că oamenii nu sunt întotdeauna raționali și nu întotdeauna se comportă într-un mod optim pentru obiectivul pe care-l au. „E greu să estimăm ce i-ar face pe oameni fericiți, pentru că nici nu pot să-mi spună și, când ne uităm la acțiunile lor, nu putem să zicem: știu care e obiectivul lor pentru că acțiunile lor sunt optime pentru acel obiectiv”. 

Să reducă marile riscuri

Un exemplu la îndemână e al părinților care aleg să nu își vaccineze copiii împotriva rujeolei și rubeolei. Dacă modelul de AI judecă după această acțiune și având informația că vaccinul protejează împotriva acelor afecțiuni, modelul ar putea să tragă concluzia că părinții vor să-și vadă copiii îmbolnăvindu-se și suferind. Ceea ce ar fi fals. „Fac asta tocmai pentru că se tem de efecte secundare. Dar sistemul de inteligență artificială care crede că vaccinurile sunt OK le va interpreta deciziile prin această lentilă”, explică Anca. 

Așadar, paradigma de care vorbește românca, aceea în care AI-ul încearcă să-i facă pe oameni fericiți, este încă în faza cercetării și nu e folosită pentru a antrena GPT-4 în prezent. Însă este tipul de cercetare care i-ar putea ajuta pe cei din domeniu să reducă marile riscuri în viitor, pentru a putea, în continuare, profita de inteligența artificială. Pentru că, așa cum spune Anca, „multe lucruri bune pot să vină din inteligența artificială. Dacă n-aș crede asta, n-aș lucra în domeniu”.

Foto: wired.com

Urmărește cel mai nou VIDEO

Google News Urmărește-ne pe Google News


Ați sesizat o eroare într-un articol din Libertatea? Ne puteți scrie pe adresa de email eroare@libertatea.ro

Comentarii (21)

piciusz   •   28.07.2023, 15:17

Pana si creatorul chatgpt regreta dezvoltarea produsului sau ai.

Costi80   •   28.07.2023, 06:55

Raspunsul si un copil de 3 ani il stie se numeste sfarsitul rasei umane,exterminarea ei

bituca   •   27.07.2023, 17:46

Ne jucam cu focul.

Vezi toate comentariile (21)
Comentează

Loghează-te în contul tău pentru a adăuga comentarii și a te alătura dialogului.

Descoperirea ciudată făcută de o femeie care se plimba pe plajă. „Nu am mai văzut niciodată așa ceva”. FOTO și VIDEO
Știrileprotv.ro
Descoperirea ciudată făcută de o femeie care se plimba pe plajă. „Nu am mai văzut niciodată așa ceva”. FOTO și VIDEO
Wow! Cum arăta vila de lux a Oanei Zăvoranu, evaluată la peste 1 milion de euro: lumini la wc, televizor în baie, oglinzi peste tot, și asta nu-i nimic! Doar în filme mai vezi așa ceva! IMAGINI UNICE
Viva.ro
Wow! Cum arăta vila de lux a Oanei Zăvoranu, evaluată la peste 1 milion de euro: lumini la wc, televizor în baie, oglinzi peste tot, și asta nu-i nimic! Doar în filme mai vezi așa ceva! IMAGINI UNICE
Singura zodie care nu se înțelege cu nimeni!
Libertateapentrufemei.ro
Singura zodie care nu se înțelege cu nimeni!
Orașul din România în care oamenii sunt sfătuiți să stea cât mai puțin afară. ”Plouă efectiv cu cenușă”
FANATIK.RO
Orașul din România în care oamenii sunt sfătuiți să stea cât mai puțin afară. ”Plouă efectiv cu cenușă”
Valentina Pelinel, după 6 ani de căsnicie cu Cristi Borcea: „Am ajutor, așa este, însă eu sunt cea care se ocupă în cea mai mare parte de tot”
GSP.RO
Valentina Pelinel, după 6 ani de căsnicie cu Cristi Borcea: „Am ajutor, așa este, însă eu sunt cea care se ocupă în cea mai mare parte de tot”
Cinci zodii vor avea parte de cele mai bune două luni din viață. Vor renaște din propria cenușă, perioadă de aur pentru Tauri și Fecioare
FANATIK.RO
Cinci zodii vor avea parte de cele mai bune două luni din viață. Vor renaște din propria cenușă, perioadă de aur pentru Tauri și Fecioare
Filmul de pe Netflix care a înnebunit mapamondul. A fost vizionat de peste 13 milioane de ori, în doar câteva zile. Toată lumea vorbește despre el!
Unica.ro
Filmul de pe Netflix care a înnebunit mapamondul. A fost vizionat de peste 13 milioane de ori, în doar câteva zile. Toată lumea vorbește despre el!
Laurențiu Reghecampf, executat silit. Decizia judecătorilor
Financiarul.ro
Laurențiu Reghecampf, executat silit. Decizia judecătorilor
Un escroc care sărea intenţionat în faţa maşinilor şi le cerea şoferilor 1.000 de lei a ajuns în comă şi cu dosar penal
Observatornews.ro
Un escroc care sărea intenţionat în faţa maşinilor şi le cerea şoferilor 1.000 de lei a ajuns în comă şi cu dosar penal
Horoscop 31 octombrie 2024. Peștii s-ar putea să se simtă luați pe sus de viteza cu care se succed anumite situații și să fie surprinși
HOROSCOP
Horoscop 31 octombrie 2024. Peștii s-ar putea să se simtă luați pe sus de viteza cu care se succed anumite situații și să fie surprinși

Știri mondene

Știri România

RECOMANDĂRI