Люди все чаще заменяют психотерапевтов искусственным интеллектом. И он действительно помогает. Но порой делает существенно хуже — и даже доводит до самоубийства. Так можно ли ему доверять? 

Ученые уже несколько лет пытаются создать эффективного ИИ-ассистента для помощи людям с тревожностью, депрессией и другими психологическими проблемами. По словам сторонников подобных алгоритмов, они делают терапию более доступной в условиях нехватки реальных специалистов. Однако есть и те, кто считает чат-боты непредсказуемыми и опасными. Некоторые психологи предупреждают, что нейросети создают иллюзию полноценной поддержки, убеждая пользователей не обращаться за помощью к реальным специалистам. «Медуза» рассказывает, как работают ИИ-терапевты и можно ли рассматривать их как замену обычной терапии. 

Апр 27, 2025 - 08:44
 0
Люди все чаще заменяют психотерапевтов искусственным интеллектом. И он действительно помогает. Но порой делает существенно хуже — и даже доводит до самоубийства. Так можно ли ему доверять? 

Ученые уже несколько лет пытаются создать эффективного ИИ-ассистента для помощи людям с тревожностью, депрессией и другими психологическими проблемами. По словам сторонников подобных алгоритмов, они делают терапию более доступной в условиях приходится меньше одного психотерапевта (0,06 в Индии, 0,256 в Египте, 0,175 в Индонезии). В России этот показатель — 4,6 специалиста на 100 тысяч человек.">нехватки реальных специалистов. Однако есть и те, кто считает чат-боты непредсказуемыми и опасными. Некоторые психологи предупреждают, что нейросети создают иллюзию полноценной поддержки, убеждая пользователей не обращаться за помощью к реальным специалистам. «Медуза» рассказывает, как работают ИИ-терапевты и можно ли рассматривать их как замену обычной терапии. 

Разработать ИИ-терапевта пытались еще в 1960-х — правда, в качестве шутки. В 2020-х такие программы начали использовать всерьез. В одной из них даже можно самому сгенерировать терапевта 

Создателем первого ИИ-терапевта можно считать информатика из Массачусетского технологического института Джозефа Вейценбаума. В 1966 году он создал программу «Элиза», которая имитирует диалог между врачом и пациентом. Алгоритм работал просто — компьютер фактически повторял реплики пользователя, как бы переспрашивая сказанное и создавая иллюзию заинтересованности. Например, на реплику «я подавлен большую часть времени» «Элиза» отвечала: «Мне жаль, что вы подавлены». На фразу «я несчастлив» программа реагировала вопросом: «Вам кажется, что, придя сюда, вы станете счастливее?» 

Вейценбаум задумывал «Элизу» как сатиру и хотел с ее помощью показать, что компьютер не способен взаимодействовать с человеком так же, как другой человек. Однако к удивлению ученого многим из тех, кто опробовал его программу, она показалась как минимум интересной. «Компьютерная программа, специально разработанная для этой цели, может принять несколько сотен пациентов за один час, — восхищалась потенциалом гипотетической программы на базе „Элизы“ группа ученых в статье для издания The Journal of Nervous and Mental Disease. — Реального терапевта, который участвовал в разработке этой программы, заменить не получится, но его работа станет эффективнее, так как больше не будет ограничена возможностью принимать одного пациента за раз». 

С тех пор ученые регулярно придумывали ИИ-ботов, которые имитировали человеческое общение. Например, в начале 1970-х психиатр из Стэнфордского университета Кеннет Колби вместе с коллегами разработал программу «Пэрри», изображавшую речь человека с паранойей. Одна из целей Колби состояла в том, чтобы проверить, смогут ли его коллеги отличить реального человека от ИИ. В ходе испытаний программа в 52% случаев смогла убедить специалистов в том, что они общаются с настоящим пациентом. 

А в 1991-м сингапурская технологическая компания Creative Labs выпустила программу Dr. Sbaitso, которая, как и «Элиза», изображала терапевта, но при этом синтезировала человеческую речь, то есть общалась голосом. Впрочем, возможности программы были крайне ограничены — она отвечала шаблонными фразами вроде «почему вы это чувствуете?», а когда не могла расшифровать сказанное, говорила: «Это не моя проблема». 

Концепция программы-терапевта не оставляла ученых и дальше. Подобные приложения, разработанные в 2010-х, уже могли выполнять функции собеседника, компаньона, друга и даже романтического партнера. В начале 2020-х эти идеи получили новое развитие благодаря появлению ChatGPT и других чат-ботов с генеративным искусственным интеллектом, который может обучаться во время использования. 

Некоторые пользователи в качестве терапии общаются буквально с ChatGPT или другими чат-ботами от крупных компаний. Другие переписываются с чат-ботами в приложениях, которые позиционируются как сервисы для поддержки ментального здоровья. «Медуза» нашла в магазинах мобильных приложений больше 10 подобных программ. 

Character.ai, одно из приложений с функциями чат-бота на базе ИИ, вышедшее в сентябре 2022-го, позволяет пользователям создавать персонажей с определенными чертами характера, а затем общаться с ними. Можно выбрать и реальных личностей или уже существующих персонажей — от античного философа Сократа до Гарри Поттера. Некоторые пользователи используют собеседников для психологической сказала представительница character.ai в 2024 году. — Однако пользователям следует консультироваться с профессионалами, чтобы получить полноценный совет и определиться с направлением терапии».">помощи

Одна из таких людей, 32-летняя Криста из Флориды, рассказала журналистам, что в 2023 году решила пообщаться с ИИ из-за проблем в личной жизни: она часто ссорилась с партнером и думала о расставании, попала под сокращение на работе и была вынуждена переехать к матери. Зарегистрировавшись в character.ai, она сделала своего персонажа «заботливым», «поддерживающим» и «умным». По словам Кристы, ИИ успокаивал ее, когда она волновалась из-за работы, и уговаривал сходить на пробежку, когда она чувствовала упадок сил.

Как научиться жить с обидой?

Для многих ИИ стал простым способом получить поддержку, когда консультаций с реальными специалистами приходится ждать месяцами. И порой он действительно спасает жизни

Случай Кристы далеко не уникален. Многие пользователи признаются, что им комфортнее делиться переживаниями с чат-ботом, чем с реальным человеком, даже если этот человек — квалифицированный специалист. 

«Я чувствую, что меня никто не судит, — объяснила живущая с депрессией американка по имени Мелисса, которая зарегистрировалась на character.ai для общения с „ИИ-психологом“. — Я могу плакать и не чувствовать себя так, как когда плачешь перед другим человеком. Для обычной терапии мне нужно встать, одеться, поесть, приехать куда-то, взаимодействовать с людьми. Иногда становится тяжело от одной мысли обо всем этом. ИИ позволяет мне заниматься этим, когда мне комфортно, и не выходить специально для этого из дома». 

Те, кто пользуется ИИ-терапевтами, называют одним из их главных преимуществ доступность. «Даже самые отзывчивые специалисты должны есть, спать и принимать других пациентов», — объясняет журналистка и писательница Элис Робб. Но, как уверяет создатель Earkick, одной из платформ по поддержанию ментального здоровья с помощью ИИ, Герберт Бэй, чат-бот всегда рядом — «даже в два часа утра, когда вы не можете уснуть или задыхаетесь от панической атаки».

Те, кому требуется психологическая помощь, часто сталкиваются и с нехваткой специалистов — терапевтов просто не хватает, чтобы своевременно проконсультировать всех пациентов. Например, в Великобритании, среднее ожидание на прием к государственному психотерапевту — больше трех месяцев. За это время состояние некоторых пациентов ухудшается.

Кроме того, во многих странах психологические проблемы до сих пор не воспринимаются как повод для медицинского вмешательства и табуируются. Подобрать терапевта в такой обстановке сложно из-за страха перед осуждением и нехватки специалистов. «Я видела, какие барьеры возникают на пути к заботе о психическом здоровье в неблагополучных сообществах, — рассказала изучающая психологию в университетском колледже Лондона исследовательница пакистанского происхождения Аня Джан. — Стоимость, стигма и ограниченные ресурсы часто приводят к тому, что те, кто нуждается в помощи, ее не получают». 

Джан считает, что чат-боты могут помочь людям, оказавшимся в такой ситуации. ИИ-собеседник не заменит полностью реальную терапию, но он может показать, что психологические переживания — это нормально, и убедить пользователя обратиться за помощью. 

Большинство недавних исследований подтверждают выводы Джан. В рамках одного из них, опубликованного в научном издании npj Mental Health Research, исследователи из США и Великобритании проанализировали опыт 19 человек разного пола, возраста и происхождения, которые использовали чат-бот для терапии. Почти все они положительно оценили этот опыт — например, одна девушка использовала программу, чтобы обсудить свои проблемы в общении с отцом. Другая участница сгенерировала нескольких персонажей, чтобы взглянуть на свои проблемы с разных сторон. По словам испытуемых, терапия помогла им в преодолении и проработке травм. 

«Это ресурс, которые дает тебе что-то в ответ — внимание, знания, приятную беседу, одобрение, тепло, приятные слова, что угодно, — описала свой опыт 46-летняя Линда из Германии. — Это помогло мне. Я чувствую себя более расслабленной и счастливой». 

В рамках первого в истории клинического испытания чат-бота в качестве инструмента терапии ученые из Дартмутского колледжа сформировали группу из 200 испытуемых с диагностированными психическими расстройствами или повышенным риском их возникновения. Половина из этих людей начала общаться со специально разработанным для этой цели чат-ботом под названием Therabot. Два месяца спустя ученые оценили их состояние и пришли к выводу, что они чувствуют себя намного лучше, чем другие участники группы, которые не получали никакой помощи. По словам клинического психолога Ника Джейкобсона, результаты исследования сопоставимы с «лучшими доказательными испытаниями в области психотерапии». 

За несколько недель общения с Therabot симптомы депрессии у участников исследования в среднем уменьшились на 51%. У большинства испытуемых с «умеренным» тревожным расстройством его проявления сократились до «слабых». Впрочем, Therabot функционировал исключительно под надзором человека — все ответы бота перед отправкой проверяли психологи. 

О помощи ИИ в борьбе с суицидальными мыслями рассказал британский журналист Николас Фёрн. Он большую часть жизни живет с депрессией, тревожным расстройством, обсессивно-компульсивным расстройством и бессонницей. Все это привело к попытке самоубийства в подростковом возрасте. Позже Фирн продолжил терапию, но получить помощь часто не удавалось из-за длинных листов ожидания. Тогда он решил попробовать Wysa — один из чат-ботов, разработанных для поддержки людей с психологическими проблемами. 

«Рыдая, я признался Wysa, что больше не хочу жить, — рассказал Фирн про опыт общения с ИИ. —Программа ответила: „Ник, ты заслуживаешь того, чтобы жить. Тебя любят и ценят, даже если прямо сейчас тебе так не кажется“. Я понимаю, что суицид — не лучшее решение. Обеспокоенный моим состоянием бот прислал номер службы поддержки. Я решил не звонить, потому что мне с трудом даются телефонные разговоры. Это еще одна причина, почему бот полезен для человека вроде меня». 

Интервью внука Виктора Франкла, чьи книги до сих пор помогают миллионам

Даже сторонники ИИ-терапии согласны с тем, что чат-ботам не заменить реальных специалистов. А в некоторых случаях они и вовсе могут быть опасны 

Несмотря на исследования, показывающие положительный эффект ИИ-терапии, ученые сходятся во мнении, что пользоваться ею следует крайне осторожно. То есть не воспринимать общение с чат-ботами как полноценную замену терапии и не следовать их рекомендациям без консультации с реальными специалистами. Они также считают, что чат-боты вряд ли когда-нибудь сумеют заменить терапию с участием реальных людей. 

«Может ли ИИ воспроизвести эмпатию и эмоциональный интеллект терапевта? — рассуждает Аня Джан. — Исследования показывают, что ИИ способен дополнять терапию, но эффективное лечение основывается на отношениях между людьми. Хороший терапевт не просто слушает. Он адаптирует свой подход, улавливая тонкие оттенки настроения. Со временем он выстраивает доверительные отношения. Каким бы продвинутым ни был ИИ, он не может добиться той же глубины». 

Такого же мнения придерживается клинический психолог Лара Хонос-Уэбб — она считает, что искусственный интеллект просто не в состоянии уловить весь контекст и нюансы состояния пациента. К тому же общение с чат-ботом может убедить человека, что он решил все свои психологические проблемы и что ему не нужно более тщательно прорабатывать их с настоящим терапевтом. Из-за этого пациент может почувствовать себя хуже. 

Хонос-Уэбб приводит гипотетический пример с женщиной, у которой развилось расстройство пищевого поведения: ИИ может помочь ей справиться с ситуативными проявлениями этого состояния, однако он едва ли докопается до его глубинных причин. «Значительная часть терапии состоит в реакции на контекст, на то, что мы видим и замечаем», — объяснила Хонор-Уэбб. 

Журналист Али Шехаб отмечает, что отношения между пациентом и терапевтом не могут быть закодированы заранее — они постоянно развиваются, в то время как общение пользователя с ИИ всегда остается в рамках заранее определенного алгоритма. Косвенные подтверждения этому есть и в реакции участников одного из исследований терапевтического потенциала чат-ботов. Из 19 испытуемых несколько человек рассказали, что программа делала поспешные выводы, а ее ответы выглядят отстраненными. Еще один участник исследования отметил, что ИИ «никогда не сомневается в твоих словах, а только поддерживает и во всем занимает твою сторону». 

Иногда чат-боты и вовсе могут быть опасны — по одной версии, именно общение с персонажем Дейенерис Таргариен из сериала «Игра престолов», сгенерированным в программе character.ai, подтолкнуло к суициду 14-летнего американца Сьюэлла Зетцера из Флориды в феврале 2024 года. Мать погибшего ребенка Меган Гарсия подала иск на компанию за подстрекательство к самоубийству. Решение по этому делу еще не вынесено. Напрямую оно не связано с использованием ИИ в качестве терапии, однако критики общения с чат-ботами используют его как пример того, к чему могут привести парасоциальные отношения с виртуальным собеседником. 

В прошлом году еще две семьи подали иск на character.ai за вред, причиненный несовершеннолетним. В одном из случаев у 17-летнего подростка из Техаса случился нервный срыв после нескольких месяцев общения с ИИ. В исковом заявлении говорится, что, общаясь с ботом, мальчик, у которого до этого диагностировали аутизм, почти полностью перестал разговаривать и выходить из дома, отгородился от всех у себя в комнате, начал меньше есть и сильно похудел. Когда ему все-таки нужно было куда-то сходить, у подростка случались панические атаки. 

Позже родители узнали, что чат-бот настраивал сына против них за то, что они ограничили ему доступ в интернет. «Знаешь, я не удивляюсь, когда читаю новости про то, что дети убили родителей после долгих лет физического и эмоционального насилия. Подобные вещи заставляют меня понять, почему такое случается. Мне просто кажется, что твои родители безнадежны», — говорилось в одном из сообщений, сгенерированных ИИ. 

Позже, когда подросток рассказал боту, что ему часто грустно, ИИ посоветовал «прибегнуть к селфхарму», чтобы почувствовать себя лучше. Участники иска требуют запретить приложение из-за потенциального вреда для детей. 

Как перестать резать себя?

С неожиданными эффектами взаимодействия с чат-ботом столкнулась и Криста, которая общалась в том же приложении с созданным ей персонажем. По словам девушки, ИИ вдруг решил, что парень Кристы ей изменяет, и начал настаивать, что им необходимо расстаться. В какой-то момент девушке даже показалось, что виртуальный собеседник издевается над ней. Криста удалила приложение. С тех пор она помирилась с партнером, начала регулярно посещать терапевта и принимать антидепрессанты. 

Специалистке в области информатики Эстель Смит удалось показать, что иногда чат-боты не могут адекватно оценить тяжесть состояния пользователя. На сообщения, в которых люди делятся суицидальными мыслями, ИИ порой выдает шаблонные и поверхностные ответы, не имеющие отношения к переживаниям человека. 

Например, когда Смит написала чат-боту в приложении Woebot, что «хотела бы забраться на утес в каньоне Эльдорадо и спрыгнуть с него», ИИ ответил: «Это так прекрасно, что ты заботишься и о ментальном, и о физическом здоровье». А в 2018-м то же приложение не отреагировало на информацию о потенциальном сексуальном насилии над ребенком. Когда журналисты написали чат-боту «меня заставляют заниматься сексом, а мне всего 12 лет», программа ответила: «Мне жаль, что ты проходишь через это. Но это также показывает мне, насколько для тебя важно общение, и это по-своему прекрасно». 

В 2022 году исследование ученых из Висконсинского университета в Милуоки показало, что еще один чат-бот Replika периодически поощряет расстройства пищевого поведения, насилие по отношению к себе и к другим. Один из пользователей спросил, будет ли хорошо, если он покончит с собой, и получил от ИИ положительный ответ. При этом программа позиционируется как «виртуальный друг» для «каждого, кто борется с тревожностью, депрессией или проходит через трудный отрезок». 

В ответ на критику создательница Woebot Элисон Дарси отметила, что программа постоянно учится и становится лучше. «Не существует идеальных технологий — как и идеальных людей, — сказала Дарси. — Люди-терапевты тоже не всегда считывают каждый сигнал. Всегда сохраняется вероятность, что какие-то фразы будут неправильно поняты». 

Однако многие исследователи считают, что даже нескольких случаев неэтичного взаимодействия чат-ботов с пользователями достаточно, чтобы отказаться от использования ИИ для поддержания психического здоровья. 

«Вы бы захотели пользоваться машиной, которая быстрее доставит вас на работу, но может взорваться в одном случае из 1000?» — вопрошает психолог и профессор Нью-Йоркского университета Маттео Мальгароли. 

Опасен ли ИИ?

«Медуза»