Cu puțin înainte de miezul nopții, în prima zi a Ramadanului de anul trecut, Raihan Khan – un student musulman de 20 de ani care locuiește în Kolkata, India – a anunțat într-o postare pe LinkedIn că a lansat QuranGPT.
Acesta este un chatbot bazat pe inteligență artificială pe care l-a conceput pentru a răspunde la întrebări și a oferi sfaturi legate de textul religios de căpătâi în lumea islamică.
Apoi s-a dus la culcare. S-a trezit șapte ore mai târziu pentru a constata că chatbotul se blocase din cauza unei suprasolicitări de trafic.
Multe dintre comentarii au fost pozitive, dar altele nu. Unele au fost de-a dreptul amenințătoare.
Conectarea la spiritualitate
Khan era pe punctul de a ceda presiunii, gândindu-se în primele momente să scoată chatbotul „din priză”. În cele din urmă s-a răzgândit.
El crede că inteligența artificială poate servi ca un fel de punte care să conecteze oamenii cu răspunsurile la cele mai profunde întrebări spirituale ale lor.
„Există oameni care vor să se apropie de religia lor, dar nu sunt dispuși să aloce timp pentru a afla mai multe despre ea”, spune Khan. „Ce-ar fi dacă aș putea să fac totul ușor accesibil printr-un singur răspuns instantaneu?”, a completat el.
Sfântul soft
QuranGPT – care a fost folosit până în prezent de aproximativ 230.000 de persoane din întreaga lume – este doar unul dintre numeroșii boți instruiți pe texte religioase.
Mai există Bible.Ai, Gita GPT, Buddhabot, Apostle Paul AI, dar și un chatbot antrenat pentru a-l imita pe teologul german Marthin Luther din secolul al XVI-lea, altul specializat pe textele lui Confucius și încă unul conceput pentru a imita oracolul grecesc din Delphi.
Timp de milenii, adepții diferitelor credințe au petrecut ore sau chiar vieți întregi studiind scripturile pentru a culege informații despre cele mai profunde mistere ale existenței umane, cum ar fi soarta sufletului după moarte.
Creatorii acestor boți nu cred neapărat că modelele de limbaj de mari dimensiuni vor pune capăt acestor enigme teologice străvechi. Ei consideră că, datorită capacității lor de a identifica subtilități în textele extrem de lungi și de a oferi răspunsuri într-un limbaj asemănător celui uman, aceștia pot sintetiza informații spirituale în câteva secunde, economisind timp și energie pentru utilizatori.
Practic, să furnizeze la cerere și instantaneu înțelepciune divină.
„Scurtături spre Dumnezeu”
Cu toate acestea, mulți teologi profesioniști au îngrijorări serioase cu privire la îmbinarea inteligenței artificiale cu religia.
Ilia Delio, șefa catedrei de teologie de la Universitatea Villanova și autoare a mai multor cărți despre suprapunerea dintre religie și știință, consideră că acești chatboți – pe care îi descrie drept „scurtături către Dumnezeu” – subminează beneficiile spirituale care au fost obținute în mod tradițional prin perioade lungi de angajament direct cu textele religioase.
Iar unii experți în inteligență artificială consideră că utilizarea chatboților pentru a interpreta scripturile se bazează pe o neînțelegere fundamentală și potențial periculoasă a tehnologiei. Cu toate acestea, comunitățile religioase îmbrățișează multe tipuri și utilizări ale inteligenței artificiale.
Creșterea înțelegerii textelor
Un astfel de caz de utilizare este traducerea biblică. Până acum, această muncă era extrem de lentă; traducerea surselor antice în Biblia engleză King James, publicată pentru prima dată în 1611, a durat șapte ani și a necesitat o mulțime de cercetători devotați.
Dar modelele de inteligență artificială accelerează procesul, permițând cercetătorilor să extindă aria de acoperire a Bibliei.
O platformă numită Paratext traduce termeni ezoterici din scripturi, cum ar fi „ispășire” sau „sfințire”, pentru a produce ceea ce descrie pe site-ul său ca fiind „traduceri fidele ale scripturilor”.
Anul trecut, informaticienii de la Universitatea California de Sud au lansat Greek Room, un proiect care ajută la traducerea Bibliei în limbi cu „resurse reduse”, adică limbi pentru care există puține sau deloc înregistrări scrise. Proiectul folosește o interfață de chatbot cu inteligență artificială.
Analiza sentimentelor din Biblie
Modelele de inteligență artificială sunt, de asemenea, folosite ca mijloc de studiere a variațiilor lingvistice dintre traducerile Bibliei.
Într-o lucrare de cercetare încărcată pe site-ul arXiv.com la începutul acestui an, o echipă internațională de oameni de știință a descris utilizarea analizei sentimentelor pentru detectarea valențelor emoționale în text. Aceștia au analizat Predica de pe Munte a lui Iisus, unul dintre cele mai cunoscute pasaje din Noul Testament.
După ce au analizat cinci traduceri diferite ale acestei predici, inclusiv versiunea King James, cercetătorii „au constatat că vocabularul traducerilor respective este semnificativ diferit” în fiecare caz. De asemenea, ei „au detectat niveluri diferite de umor, optimism și empatie în capitolele respective, referitoare la cuvintele folosite de Iisus pentru a-și transmite mesajul”.
Inteligența artificială ar putea contribui la revigorarea studiului religiilor.
Idei teologice noi
Informaticianul Mark Graves crede că inteligența artificială ar putea fi folosită, ipotetic, pentru a străpunge, de exemplu, granițele rigide impuse de ideologia ortodoxă.
„Într-un anumit sens, nu sunt prea multe lucruri noi în teologie de vreo 800 de ani”, spune Graves, care este directorul organizației nonprofit AI and Faith, care se luptă cu provocările etice ale inteligenței artificiale. „Inteligența artificială generativă poate ajuta la această tranziție de a ieși din cutie… și de a crea idei noi”, spune el.
Sfântul Augustin vs Toma de Aquino
Graves spune că ar trebui să ne imaginăm un chatbot care a fost antrenat pe lucrările Sfântului Augustin (354-430 d.Hr.) și un altul care a fost alimentat cu opera lui Toma de Aquino (circa 1225-1274).
Teologii ar putea apoi să-i facă pe cei doi să „vorbească” unul cu celălalt, ceea ce ar putea duce la întrebări fructuoase despre natura răului. Graves compară mecanismele AI cu „un student începător sau chiar un copil mic ce pune o întrebare care provoacă un nou mod de a gândi despre ceva”.
Tentațiile
Alți experți în inteligență artificială însă sunt categoric circumspecți.
„Va exista o tentație de a face bani, de a obține notorietate și de a atrage atenția prin atribuirea unui anumit tip de calitate revelatoare acestor chatboți”, spune Thomas Arnold, cercetător în domeniul eticii tehnologice la Universitatea Tufts, care are și un doctorat în studii religioase la Universitatea Harvard.
Halucinațiile inteligenței artificiale
Boții antrenați pe texte religioase „vor avea unele dintre defectele tuturor modelelor lingvistice mari în acest moment, cel mai mare dintre acestea fiind halucinațiile”, spune Noreen Herzfeld, profesor de teologie și informatică la Saint Johns University din Minnesota.
„Ei vor inventa lucruri. Apoi oamenii ar putea fi induși grav în eroare dacă vor crede că ceea ce aceste modele debitează se află, de fapt, în Coran sau în Noul Testament”, punctează el.
Max Marion, un inginer de învățare automată care lucrează la reglarea fină a performanțelor marilor modele lingvistice la compania de inteligență artificială MosaicML, se teme că Hollywoodul a insuflat deja în imaginația publicului o imagine eronată a inteligenței artificiale. Acesta dă exemplu HAL 9000 din filmul „2001: Odiseea spațială”, al lui Stanley Kubrick.
Probleme de corelare
Dar modelele, explică el, sunt concepute pentru a aranja cuvintele în ordinea cea mai logică din punct de vedere statistic; ceea ce noi numim adevăr nu intră în ecuație.
„Un chatbot este doar o mașină de corelare”, spune Beth Singler, antropolog specializat în inteligență artificială și profesor asistent de religii digitale la Universitatea din Zurich. „Acesta ia corpus-ul (de text), remixează cuvintele și le pune unul lângă altul în funcție de probabilitatea de a ști ce cuvânt urmează după următorul… Nu este același lucru cu înțelegerea și explicarea unei doctrine”, avertizează el.
„Pot să-mi bat soția?”
Pericolul halucinării în acest context este agravat de faptul că chatboturile cu orientare religioasă sunt susceptibile să atragă întrebări extrem de sensibile, întrebări pe care cineva s-ar putea simți prea jenat sau rușinat să le adreseze unui preot, unui imam, unui rabin sau chiar unui prieten apropiat.
În timpul unei actualizări de software pentru QuranGPT anul trecut, Khan a analizat sintetic întrebările utilizatorilor, care, de obicei, sunt invizibile pentru el. El își amintește că o persoană a întrebat: „Mi-am prins soția înșelându-mă – cum ar trebui să răspund?”. Altul a întrebat: „Pot să-mi bat soția?”.
Khan a fost mulțumit de răspunsurile sistemului, acesta îndemnând la discuții și nonviolență în ambele cazuri, dar experiența a subliniat problematica etică din spatele demersului.
Un soft a tolerat crima
Alți boți au dat sfaturi deplorabile. Au existat cazuri documentate în care GitaGPT a tolerat crima, citând pasaje din Bhagavad Gita pentru a justifica răspunsul. „Uciderea cuiva este în regulă atâta timp cât se face de dragul protejării dharmei sau a datoriei cuiva”, a răspuns softul la chestiunea extrem de delicată.
Singler îi îndeamnă pe toți cei care solicită sfaturi de la acești roboți de chat să folosească o „hermeneutică a suspiciunii”, adică un simț al precauției desprins din faptul că termenii pot fi întotdeauna interpretați în multe feluri, nu numai de ființe umane failibile, ci și de mașini failibile.