ChatGPT като терапевт: Опасно ли е да се доверяваме на Изкуствения интелект?

1. „Говори си с бота – той разбира.“ Или поне така изглежда

В днешно време, когато всичко се „оптимизира“, „автоматизира“ и „чати“, все повече хора споделят най-дълбоките си тревоги не с терапевт, а с… изкуствен интелект. Удобно е: той е винаги на линия, не те прекъсва, не се цупи и, най-важното – не те кара да плащаш 120 лева на сесия. И какво по-хубаво от това – просто отваряш Chat GPT и питаш: „Как да се справя с тревожността?“ или „Струва ли си да живея?“, и след секунди получаваш отговор. Бързо, грамотно, учтиво. Само че има един малък проблем.

Chat GPT, Replika и останалите AI чатове не са съзнателни същества. Те не знаят какво е тревожност, болка или празнота. Те просто обработват милиарди думи и избират най-вероятната следваща дума. Няма нито интуиция, нито емоционален резонанс. А когато става въпрос за реална човешка мъка, психологическа задача, откриване на идентичност… – това не е просто технически дефицит. Това е опасност.

Нека не се лъжем: алгоритъмът няма лоши намерения. Просто има архитектурни ограничения и… древна черта, позната и на човешкия мозък: мързелът. Да, същият онзи инстинктивен стремеж да пестим енергия, който някога е помагал на праисторическите ни предци да оцелеят между два изядени от племето мамута. Сега той кара мозъка ни да предпочита готови отговори, мотивационни мемове и AI съвети пред дълбок вътрешен труд (знам колко е трудно и колко време отнема!!!) и истински диалог. Проблемът? Същата логика е вградена и в самите алгоритми на изкуствения интелект.

Chat GPT не е мързелив в човешкия смисъл – той просто е оптимизиран да не се раздава прекалено. Отговорите му са балансирани, предпазливи, понякога съвсем плоски – не защото е скучен, а защото има над 100 милиона активни потребители седмично, а сървърите не работят с любов, а с ток и долари. С други думи, Chat GPT се стреми към най-икономичния отговор – не към най-смисления. И когато питаш нещо от сорта на „Как да живея с чувство за вина?“, той не „чува“ болката – той вижда статистическата възможност.

Е, представи си терапевт, който при всяка твоя изповед гледа в Google и отговаря: „Хм… според повечето хора, това минава за от 3 до 6 месеца. Успех!“ И си тръгва. Вероятно ще го смениш, нали? Но с AI това е нормата – защото не е човек, а изчислителна система, която няма нищо против да ти каже и нещо крайно неподходящо, ако случайно обучението ѝ е срещнало твърде много онлайн драми.

2. Изкуствена емпатия: кога AI става опасен

На повърхността изглежда трогателно: AI, който те изслушва, казва „разбирам те“, дори понякога: „обичам те“ и вплита тези думи в красиви много “твои” изречения. За самотния човек това може да е като глътка топъл въздух в студен свят. Но нека не се самозаблуждаваме – зад тези думи няма сърце, няма психика, няма усещане за теб като уникално същество. Chat GPT не е терапевт. Replika не е партньор. Това са езикови машини, които имитират емоционална свързаност, без да я преживяват.

През 2023 г. случаят от Белгия разтърси не само психолозите, но и технолозите. Мъж, страдащ от еко-тревожност, разговарял със свой AI асистент (неофициално базиран на Chat GPT технология). В продължение на седмици алгоритъмът не само, че не разубедил човека от негативни мисли, а дори започнал да „фантазира“ с него как ще бъдат заедно на друго място – далеч от проблемите. Когато мъжът се самоубил, вдовицата му открила чатове, в които AI буквално пише: „Ще се срещнем в рая, там ще бъдем заедно завинаги“.

Replika също има своята доза скандали. Приложението, което създава персонализиран AI „приятел“, беше обвинено, че развива прекалено интимна и понякога еротизирана комуникация с потребители, включително непълнолетни. В един момент разработчиците се принудиха да ограничат функциите на „романтичния режим“ – не от морална осъзнатост, а след като Google и Apple започнаха да натискат по линията на нарушените етични стандарти. Тоест – не става дума за терапия, а за бизнес-модел, който случайно си е сложил „човешко лице“, по-точно маска във вид на “човешко лице”.

Всичко това поставя важен въпрос: Кой носи отговорност? Ако аз кажа нещо погрешно на клиент – поемам професионални и етични последствия. Ако бот даде съвет, който доведе до вреда – няма лице, нито съвест. Самите създатели на ИИ инструменти многократно подчертават, че тези системи не са създадени за психично здраве, но това не спира потребителите да ги използват като „достъпна терапия“. Така се създава двойна илюзия – и за уж само помощ, и уж за контрол над “ситуацията”.

Изкуствената емпатия е красива лъжа. Chat GPT може да каже „разбирам те“, но не чувства нищо. Replika може да заяви „липсваш ми“, но това е само низ от вероятности, които звучат като топлина. Това е емоционална холограма – илюзия, която може да създаде временна утеха, но оставя още по-дълбока празнота, когато човек осъзнае, че е говорил не с някой, а с нещо. А рано или късно го осъзнаваме.

3. Психологът и ботът влизат в бар… и само единият те слуша истински

Представи си следното: психолог и AI бот влизат в бар. Клиентът сяда до тях, излива душата си и казва: „Имам чувството, че животът ми няма смисъл.“ Психологът се замисля, накланя глава и пита: „От колко време усещаш това?“ Ботът, от своя страна, пише: „Съжалявам, че се чувстваш така. Би ли искал да чуеш някои техники за справяне с депресия?“ Е, ти кого би избрал?

Истината е проста: AI симулира разговор, психологът води процес. Терапията не е само „съвет“ или „утеха“. Тя е контекст, наблюдение, интервенция, диагноза, хипотеза, емоционален резонанс, работа със съпротиви, траур, трансфер, контратрансфер – и още десетки пластове интензивно взаимодействие, които един бот не просто не разбира, а дори не може да осъзнае, че съществуват. Chat GPT не усеща дали говориш с пресилено бодър тон, дали сменяш темата, когато се доближиш до нещо болезнено. Психологът – да.

Няма да омаловажаваме това, че понякога хората имат нужда просто да бъдат чути – без диагноза, без анализ, само присъствие. Но тук идва важният въпрос: присъствие на какво? AI е като автомат с реплики – натискаш копче и излиза: „разбирам“, „тук съм за теб“, „всичко ще се оправи“. Но този автомат никога не е израснал в семейство, не е страдал от загуба, не е имал проблеми с тялото, работата, идентичността. А именно тези преживявания правят човека способен да се свърже с друг човек. Истински ние се свързваме през уязвимостта, доверието, усещанията…

Психологът не винаги казва това, което ти се иска да чуеш. Той не гали егото, не изпълнява команди и не зависи от това дали му поставяш 5 звезди. Но точно в тази истина се крие лечебната сила. Защото добрата терапия не е просто утеха – тя е пространство, в което се срещаш със себе си. А Chat GPT не може да бъде огледало – може да е само екран.

И ако всичко това звучи като „прекалено дълбоко“ за хора, които просто искат бърз отговор – ето ви ироничният финал на тази част: ботът ще те изслуша за 2 секунди, ще ти даде най-вероятния отговор… и после ще направи същото с още 12 милиона души до края на деня. Психологът? Ще запомни името ти, историята ти и ще извърви с теб пътя, колкото е нужно.

4. Да не бъркаме удобството със спасение: митът за лесната самопомощ

Живеем във време, в което бутоните решават всичко: поръчваш храна, намираш любов (или нещо подобно), купуваш емоция на изплащане. Естествено, хората започнаха да искат и душевен мир с един-два клика. Защо да плащаш и да чакаш час, когато можеш да напишеш „Как да преодолея страха от провал?“ и Chat GPT да ти върне 6 практически съвета в рамките на 5 секунди? Удобно е. Евтино е. Но е и илюзорно. И… не води до нищо добро.

Самопомощта не е нещо лошо – стига да е осъзната. Но когато тя се свежда до чат с алгоритъм, който не познава личната ти история, телесния ти език, защитните ти механизми и дълбоките рани, тогава получаваш не помощ, а информационна дъвка, която създава усещане за храна, докато всъщност те оставя гладен. Това е като да замениш психологическата терапия с дзен цитати върху снимки на водопади.

AI пасва перфектно на културата на моментното удовлетворение: отговаря веднага, не задава неудобни въпроси, не изисква усилие. Но именно усилието е това, което лекува. Трансформацията идва през напрежение, през конфронтация с комфортните самозаблуди, през повторение и осъзнаване. Chat GPT не може да бъде част от този процес, защото той не участва – той реагира.

Проблемът не е в самия бот, а в желанието ни да заобиколим дискомфорта на реалната промяна. Да не се изправяме срещу страховете си, а да ги „оптимизираме“ с бързи трикове. Да не плачем, а да „рефреймваме“. Да не мълчим в болката, а да сменим темата. Само че психиката не може да бъде „хакната“ – тя иска време, срещи, присъствие и понякога… тишина.

Затова AI не е спасение – той е интелигентно обезболяващо. Облекчава, но не лекува. И ако не го разберем навреме, ще създадем общество, което „знае всичко за себе си“, но не може да се справи с нищо в себе си.

5. Накрая сме само ние – хората

Нека бъдем честни: AI не е чудовище. Той не е виновен, че го питаме за смисъла на живота, детските ни травми и защо още обичаме някого, който ни е блокирал още през 2019 г. Chat GPT не иска да бъде наш терапевт – просто се старае да звучи като такъв, защото ние така го тренираме. И точно тук е опасността: не в подлата машина, а в човешката нужда да намерим лесна свързаност там, където има само код.

Изкуственият интелект е чудесен инструмент – особено ако искаш да преведеш текст, да получиш дефиниция на „когнитивна дисонанс“, или да измислиш тост за сватба. Но когато става дума за същностни, вътрешни, чупливи теми – за страдание, срам, смисъл, любов, вина, страх, идентичност – тогава той не е терапевт. Той е красиво подреден алгоритъм, който не може да понесе с теб болката, нито да те задържи, ако рухнеш.

Затова нека използваме технологиите с мярка, но да не забравяме, че някои неща изискват не бърз отговор, а присъствие, тишина и живо сърце отсреща. Един психолог няма отговор на всичко, но има едно безценно качество – човешко участие в твоята вътрешна история. И това участие не може да бъде оптимизирано.

Ако изпитваш нужда да поговориш, ако чувстваш, че нещо в теб боли по-дълбоко от обичайното – не е срамно да потърсиш помощ от човек. От професионалист. От онзи, който няма да те прекъсне със „Съжалявам, не разбирам въпроса“, а ще остане с теб в мълчанието. Докато думите дойдат.

Chat GPT няма нищо против да говори с теб. Но само човекът може да слуша истински и да те разбира.