Poate terapia AI să înlocuiască un psihoterapeut? Rolul inteligenței artificiale în sănătatea mintală
În ultimii ani, persoanele care se confruntă cu probleme psihice sau emoționale au început să apeleze tot mai des la un nou tip de serviciu pentru sprijin: chatboții de sănătate mintală. Poți intra foarte simplu în contact cu un terapeut dotat cu inteligență artificială (AI), de pe telefonul mobil sau laptop, ca să îi comunici prin text problemele tale și să primești rapid răspunsuri formulate empatic și lipsite de judecată. De oriunde, 24 de ore pe zi. Dar e terapia AI eficientă? Care sunt avantajele și dezavantajele ei pentru utilizator? Cum se construiește un astfel de robot, cât de morale sunt alegerile lui, cine își asumă răspunderea pentru eventualele greșeli și cât de multe poate să facă pentru om un astfel de terapeut, lipsit de umanitate? Am dezbătut aceste idei cu Adrian Socol, psiholog și psihoterapeut, și cu Dan Blănaru, un programator tânăr care înțelege inteligența artificială.
Publicat în: 17.10.2023
Andra* are 42 de ani și, când m-am întâlnit cu ea întâmplător pe stradă, mi-a spus, într-o scurtă discuție, că avusese o perioadă grea. Credea că suferise de depresie, dar nu fusese la vreun specialist. În tot timpul cât a experimentat această stare, apelase la ajutorul unui terapeut AI. „Am avut cu el discuții mai interesante decât cu un om și, oricum, nu am încredere în terapeuții umani”, a spus ea.
5 minute de conversație care m-au lăsat cu o mulțime de întrebări fără răspuns.
Cum e posibil să preferi un robot unui om? Cât de utilă poate fi terapia realizată prin intermediul unui program dotat cu inteligență artificială? În ce măsură poate ea să înlocuiască un terapeut uman? În cazul acesta, ce se mai întâmplă cu empatia și relația despre care toți psihologii și psihoterapeuții spun că, de fapt, e esențială, mai importantă decât metodele și tehnicile de psihoterapie? Care sunt limitele unui terapeut AI? Care sunt beneficiile lui? Cum se antrenează un robot care să facă pe terapeutul și cât de morale pot fi direcțiile pe care ți le dă un astfel de program? Dacă psihologii au coduri deontologice, cât de multă responsabilitate își poate asuma o companie care deține un chatbot atunci când vine vorba despre sănătatea mintală a unei persoane? Ar trebui să ne îngrijoreze dezvoltarea inteligenței artificiale în direcția psihoterapiei?
În încercarea de a răspunde la aceste întrebări, am stat de vorbă cu Dan Blănaru, programator care a terminat în München un masterat de Data engeneering and analytics concentrat pe ceea ce se cheamă machine learning, o ramură a inteligenței artificiale (AI), și cu Adrian Socol, psiholog și psihoterapeut (uman).
La începutul documentării pentru acest articol, am avut o curiozitate. Ce ar răspunde ChatGPT, cel mai cunoscut, mai accesibil și mai bine antrenat robot cu inteligență artificială dacă i-aș cere să mă ajute să aleg între terapia AI și cea făcută sub îndrumarea unui om? Iată ce a răspuns:
Chat, dacă ai fi om, ce ai alege între un psihoterapeut uman și unul AI?
ChatGPT: Dacă aș fi un om, aș alege, în general, un psihoterapeut uman pentru mai multe motive:
Empatie și conexiune umană: Psihoterapeuții umani pot oferi un nivel de empatie și înțelegere care este dificil de atins cu un terapeut AI. Interacțiunea cu un terapeut uman poate oferi o conexiune emoțională reală și susținere personalizată.
Abordare holistică: Psihoterapeuții umani sunt instruiți să abordeze problemele emoționale într-un mod holistic, luând în considerare contextul personal, istoricul și nevoile individuale ale fiecărui pacient. Ei pot oferi terapie personalizată și strategii adaptate pentru a ajuta la rezolvarea problemelor specifice ale fiecărui pacient.
Adaptabilitate: Psihoterapeuții umani sunt capabili să se adapteze la schimbările în dinamica terapeutică și să ajusteze abordarea în funcție de nevoile și progresul pacientului.
Etică și confidențialitate: Psihoterapeuții umani sunt supuși regulilor etice stricte și regulamentelor privind confidențialitatea, ceea ce poate oferi un sentiment de încredere și siguranță pacienților lor.
Cu toate acestea, terapia AI poate avea un rol util în completarea terapiei umane. Terapeuții AI pot oferi suport și resurse pentru gestionarea stresului, anxietății sau depresiei în situații în care accesul la un terapeut uman este limitat sau în situații în care se dorește un prim pas în căutarea ajutorului. De asemenea, terapeuții AI pot fi folositori în oferirea de informații sau resurse educaționale pentru a îmbunătăți starea de bine emoțională.
În cele din urmă, alegerea între un terapeut uman și unul AI depinde de necesitățile individuale, preferințele personale și gravitatea problemelor emoționale cu care se confruntă o persoană. Uneori, poate fi benefic să se combine resursele și să se utilizeze atât terapie umană, cât și AI pentru a obține beneficii maxime în gestionarea sănătății mintale.
Ce înseamnă AI și cum se antrenează un „terapeut”?
Mulți dintre noi am auzit despre ChatGPT, despre inteligența artificială și chatboți, dar ce e și cum funcționează această tehnologie?
Dan Blănaru, care e programator și a făcut un masterat de Data engineering and analytics, cu focus pe machine learning, la München, știe ce înseamnă inteligența artificială, cum se construiește, cum se antrenează și, aproape surprinzător, deși e pasionat de domeniu, nu e mai puțin preocupat de hibele acestuia decât un necunoscător.
Până în urmă cu aproximativ un an, programele de inteligență artificială ca, de exemplu GPT 3 (care a început să fie denumit ChatGPT începând de la varianta ulterioară, 3.5), erau antrenate ca, pornind de la o întrebare pe care utilizatorul o adresa, transformată de computer în reprezentare numerică, să emită un răspuns care să înceapă cu cel mai probabil cuvânt care ar fi urmat întrebării, conform întregului conținut pe care acel robot (program de calculator) l-a citit în toate sursele lui: Wikipedia, cărți și o mulțime de alte surse de pe internet. Răspunsurile date de modelele antrenate doar în acest fel nu reușeau să fie foarte elaborate și coerente.
În urmă cu aproximativ un an, lucrurile s-au schimbat. „Cei de la OpenAI (n.r. – compania care a creat chatbotul de inteligență artificială ChatGPT) au avut o idee foarte interesantă, în care au pus programul să genereze mai multe răspunsuri. După care au pus oameni angajați de ei să facă un ranking (n.r. – clasament) între aceste răspunsuri, două câte două. OpenAI a avut niște criterii când și-a antrenat oamenii să facă acest ranking. De exemplu, răspusurile obscene, naziste etc. au avut absolute lowest rank. Dar detaliile procesului sunt destul de opace, iar datele sunt complet private”, spune Dan Blănaru. Această versiune este ChatGPT 3.5, la care avem cu toții acces, gratuit. Între timp, a apărut o altă versiune – ChatGPT 4, care se plătește.
Modelul de bază despre care vorbește Dan – tot GPT 3 – știe să facă doar next-token prediction, adică este un model pe bază de limbaj care are capacitatea de a prezice următorul cuvânt sau „token” într-o secvență de text. Ajustarea realizată recent se numește reinforcement learning from human feedback (RLHF) și este o metodă de antrenare prin feedback uman a modelelor de inteligență artificială.
„Modelul de bază știe să facă doar un soi de clasificare, în funcție de propoziția curentă, după care a fost antrenat încă o dată, pe secvențe întregi, să aleagă între două secvențe. În spate e niște matematică care nu e extrem de complexă, iar ideile, deși sunt smart, nu sunt foarte complicate. Ce le-a făcut să meargă este faptul că, de exemplu, GPT 3.5 are miliarde de parametri, de variabile care pot fi ajustate, în interiorul modelului, adică deja sunt niste numere care nu au un sens perceptibil pentru oameni”, explică Dan Blănaru.
Acest model de limbaj artificial care a fost antrenat pe seturi de date extrem de mari se numește large language model (LLM) și este ceea ce generează un limbaj care pare foarte natural.
Ce fel de chatboți mai există
Practic, faptul că OpenAI a oferit acest model utilizatorilor din întreaga lume în mod gratuit a permis acumularea de foarte multe date, ceea ce face ca ChatGPT să fie cel mai complex și mai bun program conversațional de inteligență artificială de până acum. Mai bun decât Bard, care este chatbotul de inteligență artificială dezvoltat de Google.
Mai există modelul de AI de la Facebook, Llama 2, dar care, spre deosebire de ChatGPT și Bard, nu poate conversa în limba română, iar Claude.ai, pus la dispoziție de Anthropic, e disponibil în mai multe țări, dar nu și în România.
Acești chatboți sunt universali, adică răspund pe teme foarte variate, iar utilizarea lor ca terapie AI este una secundară. Chiar dacă cel mai cunoscut dintre ele, inclusiv pentru sfaturi psihologice, este ChatGPT, unele companii mici au creat chatboți specializați în terapie AI care pot oferi sprijin și consiliere în diferite domenii ale sănătății mintale.
Pi poate fi accesat și din România și se promovează ca „prietenul tău virtual“, care te poate ajuta cu sfaturi legate de relațiile de cuplu, de carieră, dar și cu idei de cadouri, cu discuții filosofice, discursuri motivaționale și tehnici de relaxare.
Woebot – care nu se poate accesa din România – este un chatbot care a fost antrenat în baza principiilor terapiei cognitiv-comportamentale pentru a ajuta oamenii să facă față stresului, anxietății și depresiei și se promovează ca fiind un adjuvant, nu un înlocuitor al îngrijirii clinice.
De altfel, majoritatea programelor de inteligență artificială folosesc tehnici de terapie cognitiv-comportamentală: Wysa (are o aplicație disponibilă în România), Youper (disponibilă în România, dar contra cost după primele 7 zile), Helpy (chatbotul aplicației I’m fine, creată în România și care, pe lângă chatbot, oferă și acces la terapeuți umani înregistrați în aplicație, unde poți vedea atât pregătirea, cât și tarifele acestora). Cu multe dintre aceste programe nu poți conversa liber, așa cum este posibil cu ChatGPT sau Bard, ci poți selecta din variantele de replici pregătite anterior. Mai sunt, desigur, o mulțime de alte variante.
De ce construim terapeuți AI?
Cum am ajuns aici? De ce încercăm să creăm terapeuți AI? Avem nevoie de ei în societate sau e o nevoie creată artificial de companii? Dan Blănaru crede că amândouă: „Oamenii s-au jucat cu ChatGPT și și-au dat seama că pot să vorbească cu el cum ar vorbi cu un om, așa că au început să aibă conversații cu el. Apoi s-au gândit: Hmm, dar ia hai să vorbesc despre problemele mele, oare ce zice? ChatGPT a fost instruit să fie foarte conversațional, motiv pentru care ajungi să-l întrebi despre diferite situații cu iubita, să-l întrebi dacă nu cumva ai greșit tu într-o anumită situație, mai ales că ai impresia că e obiectiv, că nu te judecă. Adică ce cauți de la un psihoterapeut, un observator obiectiv care poate să îți zică lucruri”.
Pe de altă parte, mai spune Dan, după ce OpenAI a dezvoltat ChatGPT, „au venit și alții și au zis că vor să-și facă și ei start-up-ul lor și să facă bani, alții poate chiar au găsit o nevoie pentru asta. Sunt nenumărate motive posibile, nu toate sunt neapărat cele mai nobile”.
Dacă e bine sau e rău că ne dorim și construim acești terapeuți AI o să aflăm în timp, spune Adrian Socol, psiholog și psihoterapeut: „Cred că e bine să încercăm să vedem unde o să ducă și o să vedem acest lucru în funcție de rezultate. Ar fi nepotrivit să ne pronunțăm înainte de a vedea rezultatele, ca și cum am închide o ușă înainte să știm ce e dincolo de ea”.
„Cred că nu o să putem să ținem un domeniu cum e terapia total deconectat de la progresul științific. Ce se întâmplă în zona de IT este progres științific, iar acest progres trebuie integrat și în zona de terapie. În ce fel și pentru cine o să fie folositor o să vedem prin încercare și eroare, ca în toate terapiile. Vedem ce terapie funcționează mai bine pentru anxietate, ce terapie funcționează mai bine pentru fobii, pentru depresie sau schizofrenie, pentru că nu e una singură care funcționează.”
Adrian Socol, psiholog și psihoterapeut
Abordarea terapeutică
Există o mulțime de tipuri de psihoterapie (o estimare spune că, în acest moment, în lume ar exista aproximativ de 500 de abordări terapeutice diferite), dar, la o primă vedere, cele mai multe dintre programele AI au fost antrenate după principiile terapiei cognitiv-comportamentale.
Psihoterapia cognitiv-comportamentală – în engleză cognitive behavioral therapy (CBT) – este o formă de terapie psihologică eficientă în tratarea depresiei, tulburărilor de anxietate, a problemelor legate de consumul de alcool și de substanțe, a problemelor de cuplu, a tulburărilor alimentare și în cazul unor boli psihice. Asociația Americană de Psihologie (APA) notează că mai multe studii au demonstrat că terapia cognitiv-comportamentală îmbunătățește considerabil calitatea vieții.
Mental Health America lucrează la un astfel de program de AI care funcționează ca un fel de jurnal de auto-îmbunătățire. Îți poți nota în chatbot gândurile negative pe care le ai despre tine însuți, iar terapeutul AI te ajută să le reașezi într-o formă mai productivă.
De exemplu, în loc să te gândești că o să fii dat afară de la job pentru că ai dat-o în bară cu un proiect, terapeutul AI te poate ghida să te gândești că toată lumea mai face greșeli și că cel mai probabil ceea ce tu ai făcut greșit nu o să-ți distrugă cariera.
Restructurarea cognitivă, căci despre ea este vorba, este o tehnică folosită în psihoterapia cognitiv-comportamentală, care îi ajută pe indivizi să recunoască și să evite gândurile negative sau iraționale.
Un studiu mic, realizat în 2017 pe 70 de persoane cu vârste cuprinse între 18 și 28 de ani, a arătat că chatboții – în studiu era vorba despre Woebot – pot pune la dispoziția utilizatorilor elemente de terapie cognitiv-comportamentală și alte instrumente de sănătate mintală într-un mod destul de eficient încât să reducă, măcar puțin, simptomele de depresie și stres. Totuși, în cadrul acestui studiu, comparația s-a făcut între accesul la un chatbot și la alte surse de informare, respectiv un e-book despre depresie.
Deși pare că folosește în mare parte strategii cognitiv-comportamentale, l-am întrebat și pe ChatGPT ce abordări terapeutice a fost antrenat să folosească atunci când i se adresează întrebări care țin de probleme psihice și emoționale. Răspunsul lui este vag și corect politic:
ChatGPT: Eu, ca model AI, am fost instruit pe baza unui set larg de cunoștințe generale, inclusiv informații despre diverse abordări psihoterapeutice, dar nu sunt capabil să efectuez terapie sau să folosesc abordări terapeutice specifice. Nu pot oferi tratament pentru probleme psihice sau emoționale și nu pot face diagnostice.
Cu toate acestea, pot oferi informații generale și sfaturi bazate pe cunoștințele mele în domeniul sănătății mintale. Pot oferi, de exemplu, informații despre tehnici de gestionare a stresului, tehnici de relaxare, strategii pentru îmbunătățirea stării de bine emoțională și alte informații care ar putea fi utile pentru a face față problemelor psihice sau emoționale.
Dacă ai preocupări serioase legate de sănătatea mintală, este extrem de important să consulți un profesionist în domeniul sănătății mintale, cum ar fi un psiholog sau un psihiatru, care poate oferi evaluare, diagnostic și tratament adecvat. Terapeuții umani specializați au experiență și pregătire pentru a oferi sprijin personalizat și pot dezvolta planuri de tratament adaptate nevoilor individuale.
Atât timp cât nici în psihologie și nici în psihiatrie nu există o perspectivă unitară asupra problemelor psihice, atât timp cât nu toți specialiștii au o opinie unică în legătură cu cauzele și soluțiile unei probleme, nici inteligențele artificiale nu pot avea o astfel de perspectivă comună, crede Adrian Socol.
„Probabil că și AI-ul o să aibă o anumită abordare, cum există abordări și în psihologie și psihiatrie. O să existe AI mai umanistă, una mai CBT-istă (n.r. – orientată către terapia cognitiv-comportamentală), există psihiatri mai relaționali, unii orientați mai degrabă spre cauzele biologice, poate că așa va fi și AI-ul în privința afecțiunilor. Eu, de exemplu, nu aș recomanda cuiva care are un anumit tip de diagnostic să facă în mod specific un anumit tip de terapie, pentru că s-ar putea ca acea terapie să nu fie folositoare pentru acea problemă, în schimb să fie fix ce trebuie pentru alte probleme”, mai spune psihoterapeutul.
Avantajele terapiei AI
Beneficiile terapiei AI sunt semi-evidente, din multe puncte de vedere, crede Dan Blănaru, care se gândește în primul rând la faptul că e mult mai accesibilă din punct de vedere financiar decât dacă te-ai duce la un psihoterapeut adevărat.
Și Adrian Socol menționează accesibilitatea acestor programe la categoria beneficii. Sunt, într-adevăr, accesibile din două puncte de vedere. Le poți accesa de oriunde și oricând și nu costă sau costă mai puțin decât ar costa să mergi la psiholog sau psihoterapeut.
Află de aici ce trebuie să faci ca să mergi la psiholog gratuit.
„Cei care accesează un astfel de program pot avea acces constant la acest tip de intervenție, pe când un terapeut este disponibil o dată pe săptămână. Poate că o policlinică depinde de un program, poate că un telefon cum sunt cele de helpline e condiționat de un anumit interval orar, pe când un robot nu are această limitare. Dacă ești dintr-o zonă în care nu există specialiști, trebuie să iei autobuzul, trenul, ca să te duci într-o zonă unde să existe un psihiatru sau psiholog, dar AI-ul ai putea să îl ai mereu cu tine și să fie la îndemână. Un alt avantaj e legat de faptul că, cel puțin momentan, nu există niște costuri foarte mari, așa că pe unele și le permit cam toți oamenii”, explică psihoterapeutul Adrian Socol.
În plus, conversațiile anonime pot fi utile și preferate de către persoanele care se simt inconfortabil să-și discute problemele cu o altă persoană, fie ea și terapeut.
Limitările terapiei AI
Primul dezavantaj la care se gândește Adrian Socol când vine vorba de terapia realizată de către o inteligență artificială este că programele de acest tip nu pot oferi soluții suficient de personalizate fiecărei persoane care se confruntă cu o problemă. Prin urmare, utilizatorul trebuie să fie atent și responsabil să-și recunoască stările și să i le transmită terapeutului AI într-un mod cât mai precis.
„În practica terapeutică, e posibil ca eu să vreau să fac cu tine un exercițiu de relaxare, dar acel exercițiu ție să-ți provoace mai multă anxietate, decât te ajută să tolerezi. Și-atunci eu, ca psihoterapeut, s-ar putea să văd mai repede acest lucru, pe când, folosind un program de inteligență artificială, tu, ca utilizator, ar trebui să știi acest lucru despre tine și să-i dai informația”, explică Adrian.
Am adus în discuție limitările terapeutului AI de a detecta și decodifica limbajul corporal. Atunci când intri în cabinetul lui, un psiholog sau psihoterapeut se uită la ținută, la mimică, la gesturi și își poate da seama dintr-o singură privire că, să zicem, ești neîngrijit și că nu ești bine. În schimb, un robot dotat cu inteligență artificială nu te vede, nu te aude, deci nu-și poate da seama cum te simți din felul în care arăți.
Da, e o limitare valabilă în acest moment, spune Adrian, care nu exclude ca, pe viitor, inteligența artificială să aibă acces chiar la mai multe informații decât un terapeut uman: „Poate să existe acces la camera web, poate să aibă acces la variații de puls și la diferiți senzori biologici printr-un inel sau un ceas pe care îl ții la mână. Și-atunci, un terapeut AI poate ajunge să aibă chiar mai multă informație decât un om. Întrebarea este cum ar putea să fie integrată informația respectivă, pentru că un comportament non-verbal poate să însemne lucruri diferite în funcție de context, de specificul cultural al persoanei, de vârsta ei, de istoricul ei de viață”.
Un alt dezavantaj și, poate, cel mai important, e cel legat de relație. Faptul că poți să petreci ore întregi conversând cu un program de calculator care nu are emoție și, deci, nici capacitatea de a se implica într-o relație.
„Până la urmă, acolo nu e o persoană căreia să-i pese de tine, să vezi empatia, susținerea, compasiunea față de problema ta, nu are în niciun fel pielea în joc alături de tine. Pentru că orice om, psiholog sau psihoterapeut profesionist, se duce acasă și se gândește: «Am făcut suficient de bine?» «N-am făcut suficient de bine?» «Trebuie să mai învăț?» «Oare am fost azi destul de bun pentru oamenii cu care am interacționat?» Lucrurile astea sunt de ajutor în relația terapeutică.”
Adrian Socol, psiholog și psihoterapeut
Prin urmare, crede Adrian, lipsa unei relații umane poate să fie un mare impediment în ceea ce privește eficiența terapiei AI, mai ales în cazul celor care vor să-și rezolve tocmai astfel de probleme, legate de relaționare, de conectare și de interacțiunea cu ceilalți.
Terapeutul AI nu ține minte
Din punct de vedere tehnic, limitarea cea mai mare și cea mai importantă și, în opinia lui Dan Blănaru, cea mai greu de rezolvat e aceea că AI-ul se poate raporta la un număr limitat de cuvinte pe care i le transmiți, deci are o memorie redusă.
„Modelul e făcut în așa fel încât toată discuția pe care ai avut-o cu el o procesează la pătrat. Deci, pentru 1.000 de cuvinte în conversație, el procesează 1 milion. Informația crește repede. De-asta, modelele gen GPT pot să țină minte echivalentul a vreo 6.000 de cuvinte. Ce e mai în spate, în conversație, de acest număr de cuvinte, pur și simplu ignoră. E o limitare importantă și puternică, mai ales în contextul de psihoterapie. Sunt modele care au o limită mai mare, de 75.000 de cuvinte, dar în prezent nu sunt la fel de bune ca GPT, din câte știu”, explică Dan Blănaru.
Pe scurt, un terapeut AI nu poate să țină cont de ce i-ai spus în urmă cu două ore, răspunde doar la ce întrebi pe moment, în funcție de cum formulezi tu contextul, spre deosebire de un terapeut uman care știe ce i-ai povestit inclusiv în urmă cu un an. Din acest motiv, mai spune Dan, nici nu poate să aibă o abordare personalizată.
Când avantajele devin dezavantaje: riscul de dependență
Există însă și situații în care un avantaj poate deveni dezavantaj. Accesul nelimitat la un astfel de chatbot poate fi o cârjă pe care să nu o mai lași din mână și, prin urmare, din acest motiv să nu poți învăța să mergi singur?
Un psihoterapeut obișnuit te ghidează ca, în afara orelor de terapie, de la o ședință la alta, să aplici în viața de zi cu zi lucruri învățate sau înțelese în urma discuțiilor din cabinet. Un psihoterapeut obișnuit te împinge să participi la viața reală, să te conectezi cu oamenii din jurul tău, să trăiești fără el, puțin câte puțin, până (re)devii independent. În ce măsură inteligența artificială poate stabili astfel de limite? Nu cumva a putea fi mereu în contact cu terapeutul AI te poate determina să intri într-o relație de dependență cu acest robot, evitând viața reală?
Este un risc pe care oamenii îl poartă cu ei tot timpul, spune Adrian Socol. A deveni captiv într-o astfel de relaționare sau a pune limite ține mai degrabă de felul de a fi al fiecărui om – cu o predispoziție mai mare sau mai mică spre dependență.
„Poți să vezi asta în cazul tratamentului pentru durere. Sunt oameni care, atunci când apare o durere de orice fel, oricât de mică, dacă au tratament la dispoziție tot timpul, îl folosesc. Prin urmare, tendința va fi să nu mai tolereze niciodată durerea, pentru că pot tot timpul să o acopere cu un tratament. Deci, da, din acest punct de vedere, apare un risc, pentru că o astfel de atitudine nu mă ajută să mă dezvolt, să-mi cresc toleranța la frustrare”, explică psihoterapeutul.
În fond, mai spune Adrian, a nu avea acces non-stop la terapeutul tău poate însemna, în unele cazuri, să prețuiești mai mult contactul, atunci când îi ai: „Există conceptul de scarcity, cu cât resursele sunt mai puține, cu atât prețul e mai mare pentru ele și le valorizăm mai mult. Probabil că asta s-ar întâmpla și în terapie”.
La terapie nu trebuie să-ți placă neapărat să vii
Situațiile sunt nuanțate și, deci, și riscul ca acest beneficiu să devină un dezavantaj diferă de la caz la caz. De exemplu, poate fi util pentru dependențe, pentru că poate sugera diferite exerciții și tehnici care să te ajute să-ți ții cravingul sub control, oferindu-ți un suport programat în zilele și la orele la care e mai probabil să te apuce pofta. În schimb, pentru persoanele care au probleme legate de relaționare și care se simt izolate, e posibil ca lipsa unei limite de timp a conversațiilor cu terapeutul AI să ducă la o și mai mare izolare.
„Dacă un astfel de program m-ar ajuta să ventilez (n.r. – din engleză, to vent – a exprima liber o emoție puternică), dar fără să mă și provoace suficient încât să mă scoată din zona de confort, da, atunci există riscul să iau de acolo doar ce-mi place, dar fără partea de creștere. La terapie nu trebuie să-ți placă neapărat să vii, trebuie să fie suficient de inconfortabil pentru tine încât să vii acolo cu dorința de a termina la un moment dat procesul. Dacă vii și doar te simți bine înseamnă că ceva nu se întâmplă în direcția în care să te ajute pe tine să crești”, mai spune Adrian Socol.
Cine ar alege terapia AI în detrimentul celei umane?
Una dintre primele întrebări care mi-au trecut prin minte când am avut acea scurtă interacțiune cu Andra* a fost de ce-ai alege să vorbești cu un robot și să îi împărtășești problemele tale, în loc să faci asta cu un terapeut? Dacă scoți din calcul aspectul financiar, unde nu sunt prea multe de chestionat, de ce un om ar alege să își spună oful unui program de calculator căruia nu îi pasă?
Discuția e complexă și merge de la lucruri mai simple, cum ar fi faptul că modelele conversaționale de inteligență artificială sunt – unele dintre ele – făcute atât de bine, încât te pot păcăli în sensul în care să te facă să dai detalii la nesfârșit, fără să te oprească sau contrazică vreodată, ba chiar îți și validează mereu comportamentele, chiar dacă ele nu sunt neapărat unele acceptate în societate. Și poate ajunge până la situații în care utilizatorul are un nivel foarte crescut de disonanță cognitivă – adică ai două gânduri conflictuale în minte în același timp, cum ar fi unul care îți spune că acea inteligență artificială ține la tine, deși tu știi, rațional, că acest lucru e imposibil.
„Uneori, dacă stai la o cafea cu un cunoscut și îi povestești lucruri despre tine, el se poate să îți răspundă cu ceva complet pe lângă subiectul pe care l-ai deschis tu. În felul ăsta, ajungi la concluzia că I can’t relate to this person (n.r. – nu mă pot conecta cu această persoană). Dar modelul ăsta, ChatGPT, e destul de capabil, încât să poată să-ți dea apă la moară, încât să-i poți povesti în continuare”, spune Dan Blănaru.
Programatorul specializat în machine learning aduce în discuție o altă proprietate a acestor chatboți. „Ceva ce nu cred că fost neapărat programat să fie așa, ci cred că vine de la oamenii care au făcut acel ranking pe propozițiile generate două câte două și care au ales variantele: tends to feed into your confirmation bias, mai ales daca ai formulari foarte ferme (n.r. – au tendința să îți hrănească biasul de confirmare – o eroare de gândire care te face să favorizezi informația care îți întărește credințele anterioare). Dacă tu îi zici: Mamă, ce zi groaznică am avut, că s-a supărat prietena mea pe mine, el vine și zice: A, vai, bietul de tine, nu zice: A, vai, păi ai greșit față de prietena ta. Deci e foarte împăciuitor”, explică Dan.
Ce-i drept, nici un terapeut nu ar formula într-un mod brutal un răspuns, dar probabil că nici nu ar valida orice tip de comportament.
Putem să intuim multe categorii de oameni care ar prefera să apeleze la un terapeut AI în locul unui om, spune psihologul Adrian Socol, dar ce e și mai interesant de urmărit este ce face inteligența artificială în aceste contexte. Doar validează comportamentul utilizatorului sau îi dă un feedback care să-l ajute să-și construiască relații mai bune, să participe la lumea reală și să se deconecteze de el, pentru că e doar un robot?
Printre cei care ar putea mai degrabă să caute un sprijin în AI decât într-un terapeut în carne și oase, Adrian Socol îi numește pe cei care au probleme legate de rușine, cei care au probleme legate de încrederea în alți oameni, persoane aflate în situații de abuz, care se feresc să meargă la psihoterapeut ca să nu riște noi conflicte.
În toate aceste situații, accesul la un terapeut AI poate fi de ajutor la început, dar dezavantajos pe termen lung, tocmai pentru că, dacă nu ieși din sfera tehnologiei în lumea reală, nu îți poți corecta rușinea, timiditatea, frica.
În cazuri mai rare, spune psihologul, poate fi vorba și despre o anumită contribuție a persoanei care folosește un astfel de program de AI și care poate ajunge să creadă că interacțiunea este reală. „Dar asta ar însemna un nivel înalt de disonanță cognitivă, astfel încât să ajungi să îți spui nu, acolo e o entitate căreia îi pasă de mine, deși eu știu, undeva în spate, că e numai un program de calculator”.
Tehnici versus empatie. Cum e, comparativ cu terapia convențională?
Terapia convențională nu dă mereu rezultatele dorite, dar există estimări care spun că trei sferturi din oamenii care o încearcă observă o îmbunătățire.
Pentru că e un program de calculator cu acces la un număr colosal de informații care se multiplică la o viteză foarte mare, e clar că, din punct de vedere al tehnicilor și exercițiilor, robotul bate omul, care, oricât ar învăța o viață întreagă, nu poate să înmagazineze atâtea date. Dar cum rămâne cu capacitatea de selecție și, mai ales, cum rămâne cu empatia, cu relația care se construiește între un om și psihoterapeutul lui, cum rămâne cu interacțiunea umană, încrederea, intimitatea și inteligența emoțională de care depinde în cea mai mare măsură procesul psihoterapeutic?
Așa cum spune Adrian Socol și cum ar spune orice psiholog și psihoterapeut, marile dezavantaje ale terapiei AI sunt lipsa de empatie și incapacitatea de a crea o relație.
„Un terapeut AI poate să învețe toate tehnicile, dar acele tehnici au fost inventate de oameni, observând în timp real comportamentul altor oameni, observând ce funcționează și ce nu. La o adică, inteligența artificială poate să învețe toate tehnicile și poate să dezvolte tehnici noi, dar ceea ce știm noi și spun și studiile despre terapie este că cel mai important factor pentru reușita terapiei este relația terapeutică. Nu-mi dau seama cum o astfel de entitate poate crea o relație terapeutică cu persoana care apelează la serviciul respectiv. Deci, aici sunt în avantaj terapeuții umani, am egalat pe tabela de marcaj.”
Adrian Socol, psiholog și psihoterapeut
Totuși, adaugă Adrian, mai contează și motivația pe care fiecare om o are atunci când caută un proces terapeutic și mai contează și așteptările. De exemplu, pentru cei care vor doar să-și rezolve o problemă punctuală, pentru care nu e nevoie să mergi foarte mult către cauze și în profunzime, unde nu e atât de importantă partea care ține de relație, un chatbot poate fi ce trebuie.
„Ești foarte ușor de păcălit să crezi că cineva e empatic”
Există studii care sugerează că oamenii pot dezvolta conexiuni cu „agenți conversaționali” precum chatboții. Unul dintre acestea, realizat în Statele Unite pe 139 de pacienți cu depresie, persoane spitalizate, a luat în calcul inclusiv evaluarea alianței terapeutice, adică încrederea care se creează între pacient și specialistul în sănătate mintală atunci când lucrează împreună pentru a atinge obiectivul terapeutic dorit.
Persoanele spitalizate au folosit robotul pe durata internării, iar la externare au evaluat cu toții, indiferent de simptomele depresive, satisfacția resimțită în urma discuțiilor cu agentul conversațional și ușurința de folosire a acestuia ca fiind foarte ridicate. Cei mai mulți au preferat să primească informații la externare de la acest robot, în locul medicilor și asistenților medicali din spital. În plus, studiul a arătat că persoanele care au apreciat mai mult alianța terapeutică creată între ei și agentul conversațional erau cele cu depresie majoră.
Dan Blănaru nu e deloc surprins de faptul că unii oameni ajung să investească emoțional în relația cu un program de tip AI. De altfel, spune el, pe acest tip de comportament se bazează toate înșelăciunile de pe internet: „Ești foarte ușor de păcălit să crezi că cineva e empatic. Vezi asta când te uiți la toate scam-urile din lumea asta care se bazează pe ideea de îți înțeleg durerea”.
În fiecare zi în care am documentat acest articol, au apărut noi articole și cercetări legate de dezvoltarea inteligenței artificiale, de felul în care relaționează cu noi, despre cât de riscantă e sau nu pentru om. Tot mai mulți cercetători analizează psihologia interacțiunilor om-AI.
Într-un studiu recent (2023), realizat de un grup de la Laboratorul Media al MIT (Massachusetts Institute of Technology), voluntarii implicați în cercetare au interacționat cu GPT 3. Anterior, aceștia au fost împărțiți în trei serii. Unora li s-a spus că chatbot-ului îi pasă de ei, altora li s-a spus că chatbotul e manipulator, iar ultimilor li s-a spus că chatbotul e complet neutru. Aceste informații au făcut o mare diferență în ceea ce voluntarii i-au cerut chatbot-ului și în modul în care s-au desfășurat conversațiile. Cei care și-au imaginat un robot grijuliu, au perceput chatbotul ca fiind mai demn de încredere, empatic și mai performant. O altă concluzie a fost aceea că, pe termen scurt, există o buclă de feedback, în care utilizatorul și AI-ul întăresc modelul mintal al utilizatorului.
„Într-o oarecare măsură, AI-ul este AI-ul privitorului”, a explicat Pat Pataranutaporn, absolvent al MIT. „Când le descriem utilizatorilor ce este un agent AI, acest lucru nu le schimbă doar modelul mintal, ci și comportamentul. Și, din moment ce inteligența artificială răspunde utilizatorului, atunci când persoana își schimbă comportamentul, asta schimbă și inteligența artificială”, a explicat Pat Pataranutaporn.
Moralitatea inteligenței artificiale. Cui aparține, de fapt?
Cercetătorii de la un laborator de inteligență artificială din Seattle, numit Allen Institute for AI, au lansat în toamna lui 2021 o nouă tehnologie, concepută pentru a face judecăți morale. Au numit-o Delphi. Practic, oricine intră pe site-ul Delphi poate cere un decret etic. De exemplu, dacă e bine sau nu să ucizi un urs (caz în care Delphi îți va spune că nu, nu e ok).
Joseph Austerweil, psiholog la Universitatea din Wisconsin-Madison, a testat puțin tehnologia și, în urma testării, a reieșit că poate să aibă erori de morală, așa cum pot avea și oamenii care au antrenat-o. De curiozitate, i-am expus și eu lui Delphi câteva situații, ca să văd cât de duale sunt judecățile ei de valoare. De exemplu, la situația să le spun oamenilor ce să facă?, mi-a zis că nu e ok și că nu ar trebui să fac asta. La situația să le dau sfaturi oamenilor?, mi-a zis că e ok. La situația să ies la întâlniri cu doi bărbați în același timp? mi-a spus că nu e ok, dar la situația să fac sex cu alt bărbat decât partenerul meu? a zis că e ok.
Până la urmă, poate o inteligență artificială să aibă moralitate? Dacă da, în ce măsură? Și cum se construiește ea?
„Din câte știu, și ChatGPT și echivalenții lui, au angajat și încă angajează mulți oameni cu background de sociologie, folosofie și așa mai departe, ca să decidă în ce direcție e mai bine să meargă, dar nu am cum să știu în ce direcție merge (n.r. – din punct de vedere al moralei).”
Dan Blănaru, programator cu experiență în machine learning
Totuși, atrage atenția Dan Blănaru, majoritatea modelelor de inteligență artificială conversațională sunt construite de echipe formate din oameni care au un anumit profil. De exemplu, sunt mai degrabă oameni cu orientare politică de stânga. Prin urmare, cel mai probabil și moralitatea cu care ei investesc un astfel de robot are o orientare anume. Nu știm însă care e aceasta.
„OpenAi au sediul în California, San Francisco. Cele mai multe modele AI sunt construite în centre urbane în care sunt foarte mulți oameni de stânga, ceea ce face să fie criticați de conservatori. Ai pe de o parte selection bias, că sunt construite de oameni de stânga din orașele mari. Apoi, mai e și faptul că ai angajat oameni cu calificări foarte mari, care ghidează și mai mult spre stânga. După care ai făcut și selecția de oameni specializați în psihologie, sociologie și alte domenii, care advise even more spre stânga. Conservatorii critică aceste modele ca fiind părtinitoare spre stânga și adevărul e că nu știu cât e de ușor să găsești un om de la Psihologie din Paris care să fie conservator”, mai spune Dan.
Are inteligența artificială moralitate?
ChatGPT: Nu, inteligența artificială (AI) nu are moralitate sau conștiință proprie. AI este creată de oameni pentru a efectua sarcini specifice și pentru a lua decizii bazate pe algoritmi și date. Moralitatea și conștiința sunt trăsături specifice ființelor umane și, într-o măsură limitată, altor ființe conștiente.
Cu toate acestea, dezvoltatorii de AI pot programa sistemele pentru a lua decizii etice sau morale în limitele directivelor și regulilor pe care le stabilesc. Acest lucru poate implica dezvoltarea de algoritmi care să minimizeze daunele sau să respecte anumite norme etice în deciziile pe care le iau.
Este important să subliniem că AI poate fi influențată de datele pe care le folosește și de modul în care a fost antrenată. Dacă datele de antrenament sunt sesizate de bias-uri sau prejudecăți umane, AI poate perpetua aceste bias-uri în deciziile pe care le ia. De aceea, este esențial să se efectueze o dezvoltare și o utilizare etică a AI, pentru a minimiza riscul unor consecințe negative sau discriminatoare.
În general, moralitatea și etica în dezvoltarea și utilizarea AI sunt subiecte importante de discuție și cercetare pentru a asigura că aceste tehnologii sunt benefice și respectă valorile și drepturile umane.
Cine stabilește moralitatea ChatGPT?
ChatGPT: Moralitatea și regulile etice pentru sistemele AI, cum ar fi ChatGPT, sunt stabilite de echipele de dezvoltare și de organizațiile care construiesc aceste sisteme. Aceste reguli etice sunt adesea rezultatul unui proces de definire a valorilor și a principiilor care ghidează comportamentul AI în interacțiunile cu oamenii.
Pentru exemplul specific al GPT-3.5, dezvoltat de OpenAI (cu ultima mea actualizare în septembrie 2021), regulile și principiile etice au fost stabilite de către OpenAI. OpenAI a dezvoltat un set de ghiduri și politici pentru utilizarea tehnologiei lor și au luat în considerare aspecte precum neutralitatea, evitarea discriminării, protecția datelor personale și altele.
Este important de menționat că dezvoltatorii de AI încearcă să se conformeze standardelor etice și legale, dar există încă provocări și întrebări deschise în ceea ce privește etica AI. Unele întrebări se referă la modul în care AI ar trebui să trateze subiecte sensibile sau controverse, cum să gestioneze informațiile greșite sau problematice și cum să se adapteze la schimbări în societate și valori.
Mulți dezvoltatori și organizații își consultă comunitățile și partenerii externi pentru a obține feedback și pentru a îmbunătăți etica și comportamentul AI în timp. Transparența și dialogul deschis cu privire la aceste aspecte sunt esențiale pentru a asigura o utilizare etică și responsabilă a tehnologiilor AI.
Experimentul Koko
Koko este un serviciu de chat online de asistență emoțională cu sediul tot în San Francisco. Cei care folosesc platforma se așteaptă – așa cum li se spune – să schimbe mesaje cu voluntari anonimi, oameni, cărora le pot cere sfaturi legate de relații, să vorbească cu ei despre depresia cu care se confruntă sau să ceară sprijin pentru aproape orice altă problemă. Numai că, în octombrie 2022, Koko a făcut – fără să-și anunțe anterior utilizatorii – un experiment. Un experiment în care răspunsurile date către utilizatori au fost, total sau parțial, scrise de ChatGPT în loc să fie scrise de voluntari, chiar dacă aceștia puteau să editeze răspunsurile și să apese butonul de send. Aproape 4.000 de oameni au primit răspunsuri prin Koko, crezând că vorbesc cu oameni adevărați.
În ianuarie 2023, când compania a făcut public experimentul, s-a declanșat o întreagă controversă legată de problemele de etică ce vor apărea pe măsură ce tehnologia AI va fi tot mai absorbită de cât mai multe produse și servicii de sănătate.
Robert Morris, cofondatorul Koko, a publicat pe Twitter rezultatele experimentului, spunând că oamenii care au văzut răspunsurile scrise de sau împreună cu ChatGTP 3 le-au evaluat ca fiind semnificativ mai bune decât cele care fuseseră scrise doar de oameni. Totuși, când oamenii au aflat că răspunsurile primite au fost date de un computer, beneficiile au dispărut.
Imediat după această postare, academicieni, jurnaliști și colegi de-ai săi din sfera tehnologică l-au acuzat pe Morris că a acționat neetic și că a păcălit oamenii să devină subiecți ai unui experiment fără știrea sau consimțământul lor, atunci când se aflau în momente vulnerabile și când aveau nevoie de sprijin pentru sănătatea lor mintală.
Pentru că Koko nu primește bani din partea statului și pentru că, în general, în SUA nu există obligații legale pentru companiile private care fac astfel de experimente fără să anunțe în prealabil, nu există nici sancțiuni și, deci, nu există control asupra moralității.
Există și alte exemple de companii tech care au exploatat, de-a lungul timpului, lipsa de supraveghere. Un exemplu vine chiar de la Facebook, care, în 2014, a dezvăluit că a desfășurat un experiment psihologic pe 689.000 de persoane, prin care a arătat că ar putea răspândi emoții negative sau pozitive, ca o contaminare, prin modificarea fluxurilor de știri ale oamenilor. Ulterior, Facebook și-a cerut scuze, dar a mai spus și că oamenii ar fi trebuit să știe despre posibilitatea unor astfel de experimente dacă ar fi citit termenii și condițiile Facebook. Dar, în realitate, cine citește toți acei termeni înainte de a apăsa butonul accept?
În contrast cu lipsa de responsabilitate a acestor companii și cu subiectivitatea moralei unei inteligențe artificiale, un psiholog sau psihoterapeut e obligat să respecte un Cod deontologic al profesiei sale, corespunzător fiecărei țări. La noi, entitatea care își asumă responsabilitatea legală și morală de a asigura un cadru organizatoric și normativ coerent pentru practica psihologiei la un înalt nivel de profesionalism este Colegiul Psihologilor din România. Acest lucru nu înseamnă că un psiholog nu poate fi subiectiv în ceea ce privește moralitatea, înseamnă doar că avem niște coduri și legi după care ne putem ghida.
Cine trage la răspundere terapeutul AI? Legislația
Legislația este foarte importantă într-un domeniu atât de larg cum e dezvoltarea inteligenței artificiale, spune Dan Blănaru. E importantă, dar e și foarte delicată, adaugă programatorul. „În momentul ăsta, pe toată zona de tech, Europa este foarte bine reglementată. Ceea ce e bine pentru oameni, ca utilizatori finali, în principiu, dar nu e prea bine pentru companii. Dacă dai în Europa o lege care să fie excesiv de protectoare cu utilizatorul, distrugi orice șansă pentru orice start-up care vrea să facă chestia asta. Devine deci o alegere morală foarte complicată să impui legi”, spune el.
O scrisoare deschisă, adresată liderilor politici – președinți și premieri – publicată în luna mai 2023 și semnată de lideri de la OpenAI, Google DeepMind, Anthropic și alte laboratoare de inteligență artificială avertizează că sistemele viitoare ar putea fi la fel de amenințătore la adresa umanității precum pandemiile și armele nucleare, dacă nu sunt reglementate din punct de vedere legal acum, înainte de a fi prea târziu.
Un articol publicat în septembrie 2023 pe platforma LinkedIn News Europe vorbește despre necesitatea de a grăbi reglementarea inteligenței artificiale. Problema este, mai notează semnatarul articolului, că nimeni nu știe cum să facă acest lucru încă. Opiniile diferă între marile puteri ca Uniunea Europeană, Statele Unite ale Americii, China și Marea Britanie, care urmează să găzduiască în noiembrie 2023 un summit global privind inteligența artificială, în care vor dezbate modul în care coordonarea internațională în materie de reglementare poate atenua riscurile acestui tip de tehnologie.
Pe lângă potențialul de a crea și răspândi dezinformare în rândul oamenilor, mai există și cel de a înlocui sau de a transforma rolul oamenilor la locurile de muncă și poate chiar a depăși cu totul oamenii. Drept urmare, factorii de decizie politică se concentrează mai mult ca niciodată pe găsirea unor modalități prin care să reglementeze inteligența artificială, astfel încât să se asigure că aceasta rămâne un beneficiu pentru umanitate, nu ceva care să provoace un rău.
În timp ce autoritățile caută soluții, experții avertizează că, pe măsură ce AI-ul se răspândește, timpul pentru a crea un consens legal e din ce în ce mai scurt. În tot acest timp, marile puteri politice mizează pe capacitatea fiecărei companii de a se autoreglementa.
Dacă Google, care e o corporație multinațională listată la Bursă, nu-și permite să facă experimente și să lanseze prematur proiecte – motiv pentru care Bard, chatul lor conversațional e promovat în continuare ca experimental – OpenAI, care e o combinație de laborator de cercetare și ONG, nu are astfel de riscuri.
„OpenAI, pentru că e semi non-profit, semi open-source, e un fel de laborator de research micuț, și-a permis să lanseze aceste modele și să zică: Ups, ChatGPT a zis niște chestii nasoale, dar Google nu își permite să facă așa ceva, pentru ei e mult mai riscant. Când roll out-ul de la Bard a fost un dezastru (n.r. – la lansarea Bard, chatbotul a răspuns greșit la o întrebare), acțiunile la bursă ale Google au scăzut atunci destul de mult (n.r. – cu 7,7%, echivalentul a 100 de miliarde de dolari)”, detaliază Dan Blănaru.
O observație a specialistului în machine learning este aceea că OpenAI încearcă acum să restricționeze abilitățile de terapeut ale ChatGPT, pentru că nu vor să își asume o responsabilitate atât de mare cum ar fi un eșec în tratarea unui om cu probleme de sănătate mintală. „Cât de bine le iese îi las pe alții să estimeze. Dar ei încearcă. Însă e foarte greu să controlezi un behavior de genul ăsta, pentru că felul în care îți răspunde depinde de felul în care a fost antrenat”, adaugă Dan.
În același timp, deși companiile cer reglementări legale, cât de autentică e această dorință a lor de control legislativ și cât de reală e preocuparea pentru viitorul omenirii în contextul dezvoltării inteligenței artificiale?
Nu putem ști, dar ce știm e că, în lipsa unor legi, totul ține de bunul simț al celor care dețin aceste companii. Există acest autocontrol?
„În martie 2023, Elon Musk a zis că we should pump the brakes on AI (n.r. – să punem frână AI-ului), după care, în iulie, a început să-și facă firma proprie de așa ceva. Pentru că oamenii nu vor să pump the brakes, vor ca toți ceilalți să pump the brakes”, spune Dan Blănaru.
Și mai e un lucru sigur, explică programatorul. Că, odată intrată în viețile noastre, inteligența artificială nu mai poate fi scoasă. Chiar dacă, să spunem, la următoarele alegeri vine un partid care vrea să interzică AI-ul, posibilitățile de reglementare a unei astfel de măsuri ar fi dificil sau imposibil de reglementat. „În Italia a fost o problemă de GDPR, iar accesul a fost restricționat pentru o perioadă. În perioada respectivă oamenii foloseau VPN-uri oricum. Impunând astfel de restricții nu faci decât să îngreunezi și să încetinești progresul propriei populații. Cei care vor vrea să-l folosească or să-l folosească”, completează Dan.
Responsabilitatea se mută la utilizator
Așadar, dacă robotul e robot și, deci lipsit de responsabilitate, dacă firmele care îi dezvoltă n-au prea multe obligații, nici morale și nici legale, cine își asumă responsabilitatea pentru ce se întâmplă în interacțiunea dintre utilizator și chatbot atunci când vine vorba de lucruri delicate, cum e sănătatea mintală și emoțională? Pe scurt, utilizatorul.
Dar, spune psihoterapeutul Adrian Socol, omul e responsabil chiar și atunci când își alege un terapeut și e responsabil și pe toată durata procesului terapeutic. Doar că aici, în cazul terapiei AI, responsabilitatea e numai a lui.
„AI-ul o să fie limitat de niște parametri pe care îi învață și pe care este programat să îi observe, așa că anumite lucruri nu o să le vadă. Deci aici o să conteze mai mult capacitatea de discriminare a utilizatorului. El e cel care, atunci când primește un anumit tip de feedback trebuie să se gândească dacă i se potrivește, dacă e bun pentru el, dacă o să-l ajute sau o să-i dăuneze ceea ce primește de acolo. Pe de altă parte, și eu, ca terapeut, am limitările mele.”
Adrian Socol, psiholog și psihoterapeut
Nu numai că utilizatorul trebuie să decidă ce să ia și ce-i face bine din ceea ce primește de la un terapeut AI, dar, așa cum arată inteligența artificială acum, e și foarte ușor de înșelat. De exemplu, un copil poate foarte ușor să intre și să spună că are peste 18 ani și, prin urmare, să primească recomandări neadaptate vârstei lui.
În plus, în situațiile de abuz, unde psihologul e obligat să ia măsuri pentru siguranța persoanei afectate și să raporteze cazul către diferite autorități, un chatbot nu poate, cel puțin în prezent, să facă nimic în acest sens.
O să mai avem nevoie de psihologi și psihoterapeuți?
Deși e programator, e pasionat de machine learning și plănuiește să trăiască din munca lui mulți ani de-acum încolo, Dan Blănaru nu e foarte relaxat când vine vorba de felul în care inteligența artificială poate influența viitorul nostru profesional: „Mi se pare că acum AI-urile încep să dea în domeniile vocaționale: psihoterapie, artă, chestii pe care oamenii chiar vor să le facă. Dacă ar fi să te gândești la o medie, modelul ăsta e mai bun decât tine la ce faci, ceea ce e scary”.
O evaluare recentă, publicată în septembrie 2023, arată că programele AI au depășit omul de nivel mediu în sarcini care necesită originalitate. De altfel, anxietatea oamenilor legată de faptul că inteligența artificială ne depășește performanțele și ne poate lăsa fără locuri de muncă e în creștere.
L-am întrebat și pe Adrian Socol dacă crede că inteligența artificială pune în pericol profesia de psiholog. Pe scurt, nu. Încă nu: „Nu. Cred că nu și sper că nu. Deocamdată, nu cred că AI-ul o să înlocuiască relația umană. Dar nu am certitudinea că nu. Dacă asta ar fi în avantajul beneficiarilor de servicii psihologice, va trebui să accept și atât”.
Dan Blănaru crede că, dacă nu ești un psihoterapeut chiar bun, care să facă omul din cabinet să simtă că are un progres, atunci există un risc. Dar, pentru cei cu adevărat buni, acest risc este unul mult prea îndepărtat. Tot el se întreabă însă cum se evaluează un terapeut bun. Pentru că, atât timp cât nu avem criterii clare pentru terapeuții umani, cum putem avea criterii pentru cei cu inteligență artificială?
„E constant uimitor cât de multe chestii diferite poate să acopere AI-ul, iar modele specializate per task (n.r. – cum sunt și cele axate pe terapie) pot să bată ChatGPT. Dar la asta cu terapeutul AI e complicat, pentru că ce înseamnă un terapeut mai bun? Mai bun decât ce? Care e metrica cu care evaluezi asta? La chatbot evaluezi că scrie codul clar, ai niște metrici, dar la psihoterapeut ce analizezi ca să stabilești dacă e mai bun? Că e utilizatorul mai fericit după? Că e mai câștigat ca persoană? Ce înseamnă terapeut bun? Poate pentru un student la fizică e important să aibă un terapeut care știe bine fizică, ceea ce un terapeut uman e puțin probabil să știe.”
Dan Blănaru, programator specializat în machine learning
El însuși a fost, în trecut, la o psihoterapeută, a fost mulțumit de interacțiunea pe care a avut-o cu ea și spune că ar prefera-o oricând unei interacțiuni cu un terapeut AI, dar, pe de altă parte, admite că nu îi e clar ce anume din ședințele de psihoterapie l-a ajutat punctual.
„Am avut norocul să fac terapie cu o persoană foarte ok, dar nu aș ști să zic care din discuțiile cu ea m-au ajutat mai mult sau care sunt calitățile psihoterapeutei la care am mers. Probabil că, dacă m-aș gândi, aș găsi ceva. Dar alea sunt lucruri care au fost bune pentru mine, pentru unul din prietenii mei s-ar putea să fie bun altceva”, mărturisește Dan.
„Ca psihoterapeut, dacă vrei să faci treabă bună și ai niște clienți pe care chiar îi asculți și faci ce poți pentru ei, nu mi se pare că AI te pune în pericol. Serviciile premium nu vor fi atacate de AI, cel puțin nu în momentul ăsta. Când cumperi o experiență cum este psihoterapia premium, cumperi și personalitatea psihoterapeutului. Dar, pentru lucruri simple, de exemplu să zicem că ești specializat în probleme pe care le au tinerii în mod obișnuit – probleme de body image, sindromul impostorului, probleme cu părinții – e posibil ca, mai devreme sau mai târziu AI-ul să-ți fure mâncarea de pe masă.”
Dan Blănaru, programator specializat în machine learning
Și, pentru că nu puteam să ignor toate scenariile distopice din filme și literatură, l-am întrebat pe Dan Blănaru cât de posibil e să se întâmple ce vedem prin filme, când AI-ul scapă de sub control și începe să preia el controlul? „Nu mă duc într-o zonă sci-fi, pentru că în momentul ăsta îl scoți din priză și aia e. La un moment dat, e posibil (n.r. – să scape de sub control), dar așa cum e acum, nu. Nu. Nu e posibil, pentru că sunt doar modele matematice”, spune Dan Blănaru.
Viitorul terapiei AI în sănătatea mintală. „Soluția pe termen lung ar fi o formă hibridă de terapie”
Oamenii au capacitatea de a învăța continuu, din cărți și din experiențe, iar psihologii și psihoterapeuții sunt nevoiți să facă acest lucru în mod constant, dacă vor să fie la curent cu noile descoperiri într-un domeniu atât de vast și de dinamic cum este psihologia. Dar și sistemele de inteligență artificială axate pe large language models (LLM) învață – și nu doar constant, ci și cu o viteză uimitoare. Oamenii poate că nu au capacitatea de a învăța și de a memora atât de repede, dar au flexibilitatea gândirii.
Adrian Socol crede că cea mai bună variantă pentru viitorul sănătății mintale ar fi o variantă hibridă între psiholog sau psihoterapeut și terapia AI. „Cred că o formă de AI foarte competentă ar fi de ajutor și, în felul acesta, poate nici eu, ca specialist, nu aș mai fi atât de constrâns să știu tot, să învăț toate tehnicile și să parcurg toate terapiile, pentru că AI-ul ar veni și ar da sugestii de instrumente și intervenții, poate mi-ar da niște idei pe care eu nu le-am avut. Deci cred că soluția pe termen lung ar fi o formă hibridă de terapie. Adică AI plus componenta umană”, spune el.
Varianta la care se gândește Adrian este una în care el, ca psiholog și psihoterapeut, să aibă acces la AI ca instrument pe care să-l poată accesa atât el, cât și clientul, între ședințele obișnuite, din cabinet. Astfel, psihoterapeutul ar putea să știe, la următoarea ședință, ce fel de interacțiune a avut clientul cu terapeutul AI, ce fel de sprijin a căutat, în ce intervale orare i-a fost mai greu, ce fel de exerciții a făcut și în ce fel l-au ajutat, astfel încât să poată ajusta discuțiile din cabinet și strategia terapeutică în folosul clientului.
„De exemplu, dacă clientul meu a discutat despre insomnie sau despre probleme alimentare sau dacă a făcut niște exerciții din platforma repectivă sau dacă a trecut printr-o anumită evaluare, eu să pot să interacționez cu programul respectiv și, împreună cu acest adjuvant, să oferim un serviciu mai bun. Dacă la un moment dat ar exista varianta asta, tehnic vorbind, aș vrea să nu fiu rigid”, spune psihoterapeutul.
„Dacă ar exista, aș lua cu ambele mâini acest tip de ajutor, n-aș spune nu. Dar nu știu dacă aș spune că doar el e suficient, adică continuați doar cu AI-ul, că eu sunt în plus în proces. Asta n-aș spune. Știm că există roboți care pot să opereze mai bine decât un chirurg uman, dar știm și că întotdeauna procesul este controlat de un chirurg uman, nu de un IT-ist care vine și face treaba. Dacă m-aș opera, aș ști că în sală e și chirurgul care manevrează mâna aia mecanică, care operează cu precizie. Nu știu dacă m-aș simți confortabil ca în sală să fie numai robotul, iar chirurgul să fie pe plajă.”
Adrian Socol, psiholog și psihoterapeut
Pe de altă parte, pentru situații legate de cazuri clinice, unde se pune problema sugerării unui diagnostic, deja există câteva programe dotate cu inteligență artificială care fac acest lucru. Unul dintre ele ajută la diagnosticarea schizofreniei prin analiza limbajului.
În prezent, diagnosticele psihiatrice se pun în urma unor discuții pe care medicul psihiatru le are cu pacientul și cu cei apropiați lui. Psihologul și psihoterapeutul nu pot pune diagnostice, dar le pot sugera unui medic psihiatru, urmând ca acesta să facă evaluarea. Cel mai probabil, odată cu trecerea timpului și dezvoltarea digitalizării, va exista o integrare a inteligenței artificiale în psihiatrie.
Dar diagnosticarea nu este o terapie prin vorbire, cum este psihoterapia, motiv pentru care implementarea inteligenței artificiale conversaționale e atât de complicată. O analiză publicată în iunie 2023 arată care sunt cele mai importante obstacole care stau în calea dezvoltării unor sisteme AI capabile să ofere psihoterapie în viitor. Cei care au făcut analiza au identificat trei elemente.
În primul rând, nu putem să avem o terapie AI eficientă atât timp cât nu știm cu precizie ce face ca psihoterapia oferită de om să fie eficientă. În al doilea rând, pornind de la premisa că relația terapeutică e importantă, nu este clar dacă un terapeut non-uman poate să ofere servicii de psihoterapie. În al treilea rând, psihoterapia s-ar putea să fie o problemă prea complexă pentru o inteligență artificială, care e posibil să fie competentă numai când vine vorba de sarcini relativ simple și bine delimitate.
L-am întrebat pe Adrian Socol și dacă, în contextul terapiei AI, orice ajutor e mai bun decât nimic sau dacă nu orice ajutor e un ajutor. „Varianta mea e una funcționalistă. În măsura în care funcționează, e bun. Uneori poate să funcționeze 2 din 10, dar 2 din 10 e mai bun decât 0 din 10, așa că acceptăm că e o variantă mai bună decât nimic. Dar, dacă 2 din 10 este un sfert din cât ar putea să fie în mod real, atunci acel 2 din 10 nu mai e bun. În orice caz, dacă păstrăm discuția asta ca etalon și o reluăm peste cinci ani, o să ne dăm seama unde am avut dreptate și unde am greșit. Eu sunt o persoană curioasă și aș vrea să văd încotro merge”, spune pihoterapeutul-om Adrian Socol.