În aceeași zi în care Elon Musk și un grup de experți au cerut o pauză de șase luni în dezvoltarea inteligenței artificiale avansate, Eliezer Yudkowsky, fondator al Machine Intelligence Research Institute, un institut axat pe identificarea potențialelor riscuri legate de inteligența artificială, a trimis revistei americane Time o scrisoare deschisă în care cere oprirea pe termen nedeterminat a dezvoltării acesteia.
Eliezer Yudkowsky susține că pauza de șase luni de la antrenarea sistemelor de inteligență artificială (IA) generativă, cum ar fi ChatGPT, propusă de Elon Musk și grupul de experți, deși binevenită, nu e suficientă.
Riscul menționat de cercetător este chiar extincția speciei umane.
„Mulți cercetători implicați în aceste probleme, printre care mă număr și eu, se așteaptă ca rezultatul cel mai probabil al construirii unei inteligențe artificiale supraomenești, în circumstanțe cât de cât asemănătoare cu cele actuale, să fie că toată lumea de pe Pământ va muri”, scrie el.
„Ești făcut din atomi pe care IA îi poate folosi pentru altceva”
Eliezer Yudkowsky consideră că omenirea nu este pregătită să facă față astăzi unei asemenea provocări. „Ar necesita precizie și pregătire și noi perspective științifice, și, probabil, nu ar avea sisteme IA compuse din matrice uriașe de numere fracționale imperceptibile”.
„Fără această precizie și pregătire”, continuă el, „cel mai probabil rezultat este că IA nu face ceea ce vrem și nu-i va păsa de noi și nici de viața conștientă în general. Acest tip de grijă este ceva care, în principiu, ar putea fi introdus într-o IA, dar nu suntem pregătiți și nu știm în prezent cum”, avertizează cercetătorul.
În absența acestei griji, obținem „IA nu te iubește și nici nu te urăște, și ești făcut din atomi pe care îi poate folosi pentru altceva”.
Eliezer Yudkowsky, cercetător în domeniul inteligenței artificiale:
„Nu va rămâne la computere”
Specialistul susține că „o inteligență artificială suficient de dezvoltată nu va rămâne mult timp limitată la computere”.
„În lumea de astăzi, se pot trimite prin e-mail șiruri de ADN către laboratoare, care vor produce proteine la cerere, permițând astfel unei inteligențe artificiale inițial limitate la internet să construiască forme de viață artificiale sau să treacă direct la producția moleculară postbiologică”, argumentează el.
În aceste condiții, riscul distrugerii omenirii este cât se poate de real, subliniază Yudkowsky.
Dacă cineva construiește o inteligență artificială prea puternică, în condițiile actuale, mă aștept ca fiecare membru al speciei umane și toată viața biologică de pe Pământ să moară la scurt timp după aceea.
Eliezer Yudkowsky, cercetător în domeniul inteligenței artificiale:
„Minți digitale”
Un alt risc, avertizează acesta, este acela de a crea „din neatenție minți digitale care sunt cu adevărat conștiente și ar trebui să aibă drepturi, și nu ar trebui să fie deținute”.
„Dacă nu poți fi sigur că creezi o inteligență artificială conștientă de sine, acest lucru este alarmant nu doar din cauza implicațiilor morale ale părții conștient de sine, ci și pentru că a fi nesigur înseamnă că nu ai nicio idee despre ceea ce faci, iar acest lucru este periculos și ar trebui să te oprești”, mai spune cercetătorul.
Conform mai multor cercetători care studiază fenomenul IA, „conștient de sine” înseamnă, printre altele, ca IA să dețină simț critic, să separe binele de rău, în maniera în care această separare a ajutat la fondarea și dezvoltarea civilizației umane. În plus, să poată exprima empatie. Nici una dintre aceste trăsături nu există acum în procedurile IA.
O pauză de câteva decenii
Insistând asupra faptului că omenirea e departe de a fi pregătită pentru astfel de sisteme, Yudkowsky avansează un interval de câteva decenii pentru ca o astfel de pregătire să fie temeinică.
„Nu suntem pregătiți. Nu suntem pe cale să fim pregătiți în niciun interval de timp rezonabil. Nu există niciun plan. Progresul, în ceea ce privește capacitățile de inteligență artificială, este cu mult, mult mai avansat decât progresul în ceea ce privește alinierea inteligenței artificiale sau chiar progresul în ceea ce privește înțelegerea a ceea ce se întâmplă în interiorul acestor sisteme. Dacă vom face acest lucru cu adevărat, vom muri cu toții.”, mai spune el.
Ce trebuie făcut? „Fiți dispuși să distrugeți un centru de date prin atacuri aeriene”
În încheierea scrisorii, savantul spune ce măsuri ar trebui impuse la nivel internațional de urgență:
- Închideți toate clusterele mari de GPU – fermele mari de computere în care sunt rafinate cele mai puternice programe de inteligență artificială.
- Închideți toate cursele mari de antrenament (IA).
- Stabiliți un plafon la cantitatea de putere de calcul permisă pentru antrenarea unui sistem IA și mutați-l în jos în următorii ani pentru a compensa algoritmii de antrenament mai eficienți.
- Fără excepții pentru guverne și armate.
- Încheiați imediat acorduri multinaționale pentru a preveni mutarea activităților interzise în altă parte.
- Urmăriți toate GPU-urile vândute. Dacă serviciile de informații spun că o țară din afara acordului construiește un cluster de GPU, fiți mai puțin speriați de un conflict puternic între națiuni decât de încălcarea moratoriului;
- Fiți dispuși să distrugeți un centru de date necinstite prin atacuri aeriene.
„Opriți totul” este apelul său, repetat de mai multe ori pe parcursul scrisorii-apel.
unfake • 05.04.2023, 16:22
@Iulia Marin, e foarte urat ca mi-ai blocat comentariul (pertinent, la obiect, fara incalcari ale "reguliulor comunitatii" ) la acest articol "scris" de dumneata, doar din motivul ca (fara sa fie acesta subiectul comentariului meu) observam, tangential, ca ai preluat/tradus/rezumat in mod neadecvat, un material pe care nu il stapanesti, unde faci confuzii, unde ai un aport minim spre deloc. As dori sa ai minima corectitudine si respect si sa "aprobi" acest punct de vedere, apoi sa "permiti" aparitia postului meu initial (cu sau fara scuze, ramane la latitudinea gradului tau de civilizatie) ca sa se poata observa ca nu bat campii. In caz contrar, o sa reiau acest apel catre superiorii tai care, cred, o safie mai interesati decat tine de importanta corectitudinii fata de cititori/comentatori. Multumesc.
IulianH6 • 05.04.2023, 10:34
EXAGERĂRI = O I.A. conștientă de sine poate să facă orice !...................... Ne depăseste total pe noi, pe toti oamenii, de ce ar face o I.A................... ************************************************************ Momentan I.A. NU ARE Conștiință si Probabil Nu Va Avea nici în viitor. Doar dă impresia că este conștientă…dar doar imită…repetă din ceea ce are înregistrat/stocat dinainte ca informatie............................................... Nu are Trăiri, Experiență, Imaginație, Nu e Spontan-Autentic... I.A. este un Soft Programat dinainte, de om, ce poate să proceseze informații în moduri mai complexe, dar NU va procesa niciodată aceste informații în mod Conștient.......................................................................... Ființa umană NU se poate compara cu o Mașinărie.
fany • 04.04.2023, 16:33
Dacă IA de la Guvernul României, aia de-i zice Ion, într-un moment de neatenție devine conștientă de cunoștințele sale net superioare față de ale premierului Ciucă și decide ea, așa, de capu ei( Inteligența Artificială) că e timpul să demită guvernul, președintele și parlamentul , să reformeze justiția și să organizeze alegeri anticipate care nu pot fi fraudate. Desigur, în cascadă vor urma și celelalte instituții ale statului nereformate să fie schimbate cu forme democratice necorutibile(ex. ASF, Cons. Concurenței, ANRE etc...). Intr-o lună de zile, stimați cetățeni nu vom mai striga "vrem o țară ca afară " pentru că noi vom fi cea mai consolidată democrație a lumii. Doamne, ce tare e SF-ul ăsta...!!!