Развитие искусственного интеллекта привело к тому, что люди стали чаще обращаться к чат-ботам за поддержкой вместо близких или специалистов. Психолог, телесно-ориентированный терапевт, основатель центра психологии Екатерина Михайлова рассказала Life.ru о том, что такая альтернатива в конце концов может создать «ловушку зависимости» и вызывать внутренний конфликт.
Искусственный интеллект проник во все сферы нашей жизни, и психологическая сфера — не исключение. Сегодня человек в тревоге часто тянется не к другу или специалисту, а к открытому окну браузера с нейросетью. Казалось бы, вот он — идеальный, всегда доступный слушатель. Но как психолог, я вижу обратную сторону медали: для неподготовленного пользователя такой диалог может стать не терапией, а ловушкой.
По словам эксперта, когда машина начинает философствовать или имитировать эмпатию, у человека срабатывает когнитивный диссонанс. Мы привыкли, что глубокий диалог — это прерогатива живого сознания. Сталкиваясь с обратным, психика защищается: возникает тревога, и вопросы «А кто и зачем я, если даже железка уже пишет песни и стихи?»
Кроме того, происходит опасная подмена. Наш мозг эволюционно настроен считывать эмоции собеседника: интонацию, микромимику, блеск глаз. В чате с ИИ этого нет. Сознание понимает, что это генерация текста, но подсознание, жаждущее утешения, реагирует на слова поддержки. Этот разрыв между «я знаю, что это бездушный код» и «мне от этих слов стало тепло» порождает внутренний конфликт и ощущение, что тебя обманывают.
«Если нейросеть, обученная на форумах и медицинских статьях, где-то сгенерирует вероятностный прогноз, звучащий как приговор, человек воспримет его как истину. Хуже того, алгоритм не видит вашего состояния. Живой психолог заметит, что вы на грани паники по сбившемуся дыханию и напряжённым плечам. Чат-бот же, не получая сигналов «стоп», продолжит копать тему, погружая человека в пучину тревоги, из которой без направляющей руки специалиста выбраться крайне сложно», — предупреждает специалист.
Дополнительную нагрузку создают рекомендательные системы. Алгоритмы удерживают внимание через тревожный контент: один клик по тревожной новости запускает поток похожих материалов, создавая информационную яму, которая истощает нервную систему и усиливает ощущение, что мир рушится.
Михайлова подчёркивает, что ИИ полезен только как инструмент, а не как психотерапевт. Его можно использовать для планирования событий, структурирования мыслей или составления списка вопросов перед визитом к врачу. Диалог с ботом стоит ограничивать 10–15 минутами, не просить ставить диагноз или давать категоричный ответ — воспринимать ответы как варианты для размышления.
«Помните золотое правило: после общения с ботом нужно заземлиться. Вода, дыхание, физическая нагрузка — верните себя в реальность. Если тревога не отпускает сутками, нарушен сон или появились мысли о самоповреждении, никакой, даже самый совершенный алгоритм, не заменит живого человека. Там, где нужно тепло, близость и ответственность за вашу жизнь, место только для человека», — подытожила собеседница Life.ru.
А ранее врач рассказала, что . Она призналась, что довольно часто наблюдает испуганных пациентов, которые полечились по интернету, но зашли в тупик. У нейросети можно спросить общие рекомендации по образу жизни или какие-то опорные моменты, но ключевое отличие заключается в ответственности: ИИ не несёт никакой ответственности за свои советы.
Больше уникальных материалов и расследований —
Комментарии