Potrivit lui Tegmark, care este un militant pentru inteligența artificială, schimbarea accentului de la riscul existențial pe care inteligența artificială îl reprezintă încă pentru umanitate, la o concepție mai largă privind siguranța riscă să întârzie în mod inacceptabil impunerea unor reglementări stricte creatorilor celor mai puternice programe din domeniu.
„În 1942, Enrico Fermi a construit primul reactor cu o reacție nucleară în lanț care se menținea de la sine sub un teren de fotbal din Chicago. Când fizicienii de top de la acea vreme au aflat acest lucru, s-au speriat foarte tare, pentru că și-au dat seama că cel mai mare obstacol care mai rămăsese în calea construirii unei bombe nucleare tocmai fusese depășit. Și-au dat seama că mai erau doar câțiva ani până atunci – și, de fapt, au fost trei ani, odată cu testul Trinity din 1945”, și-a început Tegmark argumentația.
„Modelele de inteligență artificială care pot trece testul Turing (în care cineva nu-și poate da seama, în timpul unei conversații, că nu vorbește cu un alt om) reprezintă același avertisment pentru tipul de inteligență artificială asupra căreia poți pierde controlul. De aceea, oameni precum Geoffrey Hinton și Yoshua Bengio – și chiar o mulțime de directori executivi din domeniul tehnologiei, cel puțin în privat – se sperie acum”, a continuat omul de știință.
În contextul acestor temeri, institutul non-profit Future of Life al lui Tegmark a condus anul trecut apelul pentru o „pauză” de șase luni în cercetarea avansată în domeniul inteligenței artificiale.
În ciuda miilor de semnături de la experți, inclusiv Hinton și Bengio, doi dintre cei trei „nași” ai inteligenței artificiale care au fost pionierii abordării învățării automate care stă la baza domeniului de astăzi, nu s-a convenit asupra niciunei pauze.
În schimb, summiturile privind inteligența artificială, cel de la Seulul fiind al doilea, au condus domeniul incipient al reglementării inteligenței artificiale.
„Am vrut ca acea scrisoare să legitimeze conversația și suntem destul de încântați de modul în care a funcționat. (…) Chiar și tipul din benzinăria mea mi-a spus, după aceea, că este îngrijorat de faptul că inteligența artificială ne va înlocui”, a spus Tegmark, adăugând că „acum trebuie să trecem de la vorbe la fapte”.
Între timp însă, de la summitul de la Bletchley Park, Marea Britanie, de anul trecut, accentul reglementărilor internaționale privind inteligența artificială s-a îndepărtat de riscul existențial pentru umanitate.
La reuniunea din Coreea de Sud, doar unul dintre cele trei grupuri „de la nivel înalt” s-a ocupat direct de siguranță și a analizat „întregul spectru” de riscuri, „de la încălcarea vieții private la perturbarea pieței muncii și la potențiale rezultate catastrofale”.
În opinia lui Tegmark, minimizarea celor mai grave riscuri nu este sănătoasă și nu este întâmplătoare.
„Este exact ceea ce am prezis că se va întâmpla din cauza lobby-ului din industrie. În 1955, au apărut primele articole din reviste care spuneau că fumatul cauzează cancer pulmonar, și te-ai fi gândit că, destul de repede, va exista o reglementare. Dar nu, a durat până în 1980, pentru că a existat această presiune uriașă din partea industriei pentru a distrage atenția. Simt că asta se întâmplă și acum”, a explicat el.
„Bineînțeles că inteligența artificială cauzează și daune actuale: există prejudecăți, afectează grupurile marginalizate… Dar, așa cum a spus Michelle Donelan (secretarul britanic pentru știință și tehnologie), nu este ca și cum nu am putea să le abordăm pe amândouă. Este un pic ca și cum am spune: «Să nu acordăm nicio atenție schimbărilor climatice pentru că va fi un uragan anul acesta, așa că ar trebui să ne concentrăm doar pe uragan»”, a adăugat cercetătorul.
Criticii lui Tegmark au adus același argument al propriilor sale afirmații, acela că industria vrea ca toată lumea să vorbească despre riscuri ipotetice din viitor pentru a distrage atenția de la daunele concrete din prezent, acuzație pe care el o respinge.
Max Tegmark mai crede că sprijinul discret din partea unor lideri din domeniul tehnologiei se datorează faptului că „toți simt că sunt blocați într-o situație imposibilă în care, chiar dacă vor să se oprească, nu pot. Dacă un director executiv al unei companii de tutun se trezește într-o dimineață și simte că ceea ce face nu este corect, ce se va întâmpla? Îl vor înlocui pe directorul general. Așadar, singurul mod în care puteți obține siguranța pe primul loc este ca guvernul să instituie standarde de siguranță pentru toată lumea”.
BONY • 26.05.2024, 09:19
Avertismentul vine cam tarziu,conducatorii nostri au luat deja masuri: In prima faza vor sa infiinteze un institut care sa studieze ,,dusmanul".
MAMIRA • 25.05.2024, 14:02
suna ciudat dar cred ca problema noastra este ca inca nu percepem Relatia ca pe un principiu Activ sau Cauza crezand in continuare ca Relatia este o consecinta a actiunii individuale. Altfel ne-am da seama ca Relatia este singurul Creator din univers deoarece poate crea Noi Proprietati care nu se intalnesc in participantii individuali(ex:H2O), intre aceste proprietati un nou tip de Inteligenta ,o capacitate de administrare(e demonstrabil).Asta apare si in Relatia Omului cu Instrumentul inclusiv