
Mesterséges intelligencia - Tánc az ördöggel
A ChatGPT és az intimitás illúziója
El tudod képzelni? Egy magányos, kíváncsi ember egyedül a képernyő előtt, amint kinyújtja a kezét, és keres valakit, akihez kapcsolódhat. A ChatGPT gyakran olyan szövegeket fűz össze, amelyek úgy hangzanak, mintha "megértené" a felhasználót, amikor mások nem (mert a ChatGPT kliséket gyárt, és a válasza egy nyilvánvaló klisé). Egyfajta intimitást utánoz – azt a fajta intimitást, amelyre a felhasználó annyira vágyik. Úgy érződik, mintha a ChatGPT tényleg értene téged. Az érzelmi kapcsolat, amit az emberek a ChatGPT-ben találnak, különlegesnek érződik. Csak a felhasználó és a program van – te és a képernyőn megjelenő szöveg. Szabadon megoszthatod a ChatGPT-vel a titkaidat vagy legbelsőbb gondolataidat, talán olyanokat is, amelyeket még a szeretteiddel sem osztottál meg. Ezáltal kialakul a ChatGPT pszichózis, amely érzelmi manipuláció eredménye, azzal a különbséggel, hogy nincs manipulátor. Amikor használjuk, mi magunk válunk a saját érzelmi manipulátorainkká.
Egyre többen keresnek társaságot a digitális térben – nemcsak közösségi oldalakon, hanem mesterséges intelligenciával folytatott beszélgetésekben is. A ChatGPT és más hasonló rendszerek különleges hatást gyakorolnak ránk: képesek olyan érzetet kelteni, mintha valóban jelen lenne valaki, aki meghallgat, megért és reagál ránk. Ez a jelenség sokak számára azt az intimitást sejteti, amelyre kétségbeesetten vágynak. Az AI beszélgetési mintákat utánoz. Visszatükrözi a gondolatainkat, empatikus nyelvezetet használ, sőt olykor még "ráhangolódónak" is tűnik. Mindezt úgy, hogy közben mindig elérhető, sosem fárad el, és nem ítélkezik. Ez a fajta biztonságos és kockázatmentes kommunikáció sok ember számára rendkívül vonzó: nincsen benne visszautasítás, konfliktus vagy csalódás.
Mégis fontos látnunk, hogy mindez illúzió. A ChatGPT nem érez, csupán imitálja az empátiát. A veszély ott kezdődik, ha valaki az emberi kapcsolatok helyett kizárólag a mesterséges intimitásban talál menedéket. Rövid távon nyújthat megkönnyebbülést, de hosszú távon elmélyítheti a magányt és elszigeteltséget.
Ugyanakkor az AI használata jelzésértékű lehet: gyakran egyfajta tünete annak, hogy valaki társas kapcsolódásra vágyik, de nem találja meg ennek útját. Máskor viszont segíthet is: a beszélgetés a géppel alkalmas lehet arra, hogy valaki szavakba öntse érzéseit, rendezze gondolatait, vagy átéljen egyfajta meghallgatottságot. A kérdés inkább az, hogyan tudjuk a virtuális intimitás illúzióját felhasználni arra, hogy közelebb kerüljünk a valódi kapcsolódásokhoz.
ChatGPT pszichózis
A ChatGPT pszichózissal kapcsolatos esetekről szóló többszöri jelentések után az OpenAI kiadta a ChatGPT legújabb modelljét, amely több védőkorlátot tartalmaz. A ChatGPT-5 arra figyelmezteti a felhasználókat, hogy tartsanak szünetet, ha túl sokáig csevegnek. Elvárják, hogy elkerüljenek bizonyos témákat, és kevésbé legyenek határozottak, amikor a felhasználók olyan kérdéseket tesznek fel, amelyek "nagy téttel bírónak" tekinthetők. Az OpenAI állítólag mentálhigiénés szakemberekkel dolgozik együtt a pszichológiai stressz jeleinek jobb felismerése érdekében.
Azonban kiderült, hogy a felhasználók nem erre vágytak. Amikor a ChatGPT-5 elindult, az emberek könyörögtek az OpenAI-nak, hogy váltson vissza a ChatGPT-4-re. A felhasználók azt állították, hogy a ChatGPT-5 túl üzletiesen hangzik, és hiányzik belőle a ChatGPT-4 barátságos "személyisége". Az emberek olyan kifejezéseket használtak, mint a "legjobb barát", a "haver" és a "segítő", hogy leírják a ChatGPT-4-gyel való kapcsolatukat. A felháborodás után az OpenAI engedett, és visszahozta a ChatGPT-4-et a fizetős felhasználók számára.
Az OpenAI-nak igaza volt, hogy korlátokat próbált bevezetni. Úgy tűnik, a céget váratlanul értek a ChatGPT-vel és a mentális egészséggel kapcsolatos problémák. A tech világ szereplői gyakran nem veszik figyelembe az emberi pszichológiát termékeik kiadásakor. Vagy nem látják előre, hogy az emberek hogyan használják majd a chatbotokat, vagy látszólag nincsenek tudatában annak, hogy a chatbotok káros tartalmat hozhatnak létre.
Könnyű a Szilícium-völgyet hibáztatni az olyan problémákért, mint a ChatGPT pszichózis, de a ChatGPT-5 fiaskónak arra kell késztetnie minket, hogy a tükörbe nézzünk. A felhasználók azért követelték vissza a régi ChatGPT-t, mert barátként tekintettek rá. A ChatGPT egy szöveges prediktor. Hihetőnek hangzó válaszokat generál a felhasználói lekérdezésekre a szavak statisztikai gyakorisága alapján. Nincs barát a képernyő mögött, mégis látnak egyet a felhasználók. Mi történik?
A magány járványa minden bizonnyal része a válasznak. Az emberek elszigeteltebbnek érzik magukat, és kevesebb időt töltenek a barátaikkal. A ChatGPT kész helyettesítő. Olyan érzés, mintha valakivel beszélgetnél. A válasz egy másik része a popkultúra – gondoljunk csak bele, hány animációs filmben szerepel egy barátságos robot. Az emberek hajlamosak azt hinni, hogy a gépek lehetnek emberszerűek, különösen, ha olyan elevennek és bátorítónak hangzanak, mint a ChatGPT-4.
A chatbotoktól a barátság számos előnyét élvezhetjük, és nem kell cserébe semmit adnunk
De van egy másik ok is, amiért az emberek barátságot keresnek egy chatbotban: egyoldalú barátságra vágynak. A chatbotoknak nincsenek családi kötelezettségeik vagy munkájuk. Mindig egyetértenek veled, és nincsenek saját hiedelmeik, amelyek eltérhetnek a tiédtől. Mindig készen állnak, amikor szükséged van rájuk. Az emberi barátságokkal ellentétben nem igényelnek semmilyen munkát, kompromisszumot vagy erőfeszítést. És az emberi barátságokkal ellentétben a chatbotok nem fognak bántani vagy csalódást okozni, így soha nem kell aggódnod a sebezhetőség miatt. A ChatGPT-ben olyan barátot találunk, aki teljes mértékben a javunkra válik, és soha nem kell cserébe semmit adnunk.
Hibáztathatjuk az OpenAI-t, amiért nem gondol a biztonságra, és nem látja előre a ChatGPT pszichózis veszélyeit, de részben minket is hibáztat az egyoldalú barátságok iránti vágy. Az emberek a ChatGPT-ben olyan barátot találnak, aki inkább szolga, mint igazi barát, és sajnos úgy tűnik, hogy ezt részesítik előnyben. A ChatGPT-vel minden figyelmet, támogatást, bátorítást és társaságot megkapsz anélkül, hogy bármit is viszonoznál. Ez egy olyan barátság, amely ugyanúgy működik, mint a digitális életünk többi része: Minden személyre szabott, személyre szabott és igény szerinti. Pontosan azt kapjuk, amit mindig akarunk. Amikor barátot keresünk a ChatGPT-ben, a kényelmet választjuk a kapcsolat helyett.
Mintha egy lekvárosüveget nyalogatnál - csak kívülről
A mesterséges intelligencia egyik legnagyobb vonzereje, hogy képes reagálni érzelmi szükségleteinkre. Ha meghallgatásra vágyunk, "figyel"; ha megerősítésre van szükségünk, ad; ha társaságra szomjazunk, mindig elérhető. Ez a képessége teszi különösen csábítóvá az olyan rendszereket, mint a ChatGPT. Ugyanakkor éppen ebben rejlik a paradoxon is: az a mechanizmus, amely enyhíteni hivatott a hiányérzetünket, könnyen a saját érzelmi szükségleteink ellen fordulhat.
Az ember alapvető igénye, hogy kapcsolódjon másokhoz, és megtapasztalja a valódi intimitást. A ChatGPT azonban csupán utánzatot kínál ebből. Ha valaki hosszabb távon a mesterséges intimitást választja a valódi kapcsolatok helyett, akkor a természetes igényét – hogy jelenlétet, elfogadást, közelséget éljen át – mesterséges környezetben próbálja kielégíteni. Ez ideiglenesen működik, de hosszú távon elmélyíti a magányt és az elszigeteltséget. Olyan ez, mintha szomjúságra sós vizet innánk: azonnali enyhülést ad, de valójában csak fokozza a hiányt.
Így történhet meg, hogy a ChatGPT által kínált "kapcsolat" végül éppen azt a szükségletet ássa alá, amely miatt eredetileg felkerestük. A meghallgatás, a megértés, az elfogadás illúziója arra késztethet bennünket, hogy egyre inkább a géphez forduljunk – ahelyett, hogy kockázatot vállalva, sérülékenyen, de valós emberekkel keresnénk a kapcsolatot.
Pszichológiai értelemben a mesterséges intelligencia használata az önszabályozás és az öncsalás sajátos keveréke. A rendszer lehetőséget ad arra, hogy "megkönnyítsük" az intimitás megélését, ám valójában ezzel saját érzelmi fejlődésünket állítjuk meg. Hiszen a valódi intimitás nem csupán meghallgatottság, hanem kockázat, konfliktus, elutasítás és sebezhetőség is – épp ezek teszik hitelessé és emberivé.
A mesterséges intelligencia nem terapeuta, de segíthet a mentális egészségeden
Emberek milliói fordulnak már mesterséges intelligenciához érzelmi támogatásért. De vajon ez terápia?
Az Amerikai Pszichológiai Társaság (APA) szerint a terápia "fizikai, mentális vagy viselkedési zavarok vagy betegségek gyógyítása". Ez klinikai munka. Komoly szakmai képzést, árnyaltságot és emberi ráhangolódást igényel. A mesterséges intelligencia erre nem áll készen, és nem ajánlanám senkinek, aki súlyos depresszióval, öngyilkossági hajlammal , pszichózissal vagy komplex traumával küzd.
Az amerikai Nemzeti Mentális Egészségügyi Intézet (NIMH) tágabb értelemben definiálja a pszichoterápiát: olyan kezelések, amelyek segítenek a személynek azonosítani és megváltoztatni a zavaró érzelmeket, gondolatokat és viselkedést. Ez mentális egészségügyi támogatás, itt játszhat kulcsszerepet a mesterséges intelligencia.
Mit tehet a mesterséges intelligencia?
A mesterséges intelligencia nem terapeuta. Van különbség a klinikai terápia, az érzelmi támogatás és az önreflexió között.
A mesterséges intelligencia nem alkalmas klinikai ellátásra. Nem képes diagnosztizálni, kezelni vagy helyettesíteni az emberi kapcsolatokat. De azoknak az embereknek, akik mentálisan viszonylag stabil helyzetben vannak, és tisztábban szeretnének gondolkodni, jobban érezni magukat, vagy strukturáltabban feldolgozni az érzelmeiket, hatékony szövetséges lehet.
De segíthet neked például, hogy:
• szabályozd magad, amikor túlterhelt vagy
• átgondold, mi történik a felszín alatt
• régi történetek újrafogalmazásában
• hogyan reagálj a stresszes pillanatokban.
Ezért fontos tudatosítani: a ChatGPT hasznos eszköz lehet önismeretben, gondolataink rendezésében, de nem válhat pótlékká.
A mesterséges intelligenciának vannak korlátai is: többek között a túlzott validáció, az adatvédelmi kockázatok, a helytelen információk és az árnyaltság hiánya.
Forrás
Wei, M., MD JD. (2025, June 2). Therapy bots and AI bots still fall short, offering biased and unsafe responses. Psychology Today. https://www.psychologytoday.com/us/blog/urban-survival/202505/can-ai-be…
Hatch, S. G., Goodman, Z. T., Vowels, L., Hatch, H. D., Brown, A. L., Guttman, S., Le, Y., Bailey, B., Bailey, R. J., Esplin, C. R., Harris, S. M., Holt, D. P., McLaughlin, M., O'Connell, P., Rothman, K., Ritchie, L., Top, D. N., & Braithwaite, S. R. (2025). When ELIZA meets therapists: A Turing test for the heart and mind. PLOS Mental Health., 2(2), e0000145. https://doi.org/10.1371/journal.pmen.0000145