Нужно заземлиться: Life.ru узнал, как не попасть в ловушку зависимости от ИИ-чата

Общество

52 Просмотры Откликов

Развитие искусственного интеллекта привело к тому, что люди стали чаще обращаться к чат-ботам за поддержкой вместо близких или специалистов. Психолог, телесно-ориентированный терапевт, основатель центра психологии Екатерина Михайлова рассказала Life.ru о том, что такая альтернатива в конце концов может создать «ловушку зависимости» и вызывать внутренний конфликт.

Искусственный интеллект проник во все сферы нашей жизни, и психологическая сфера — не исключение. Сегодня человек в тревоге часто тянется не к другу или специалисту, а к открытому окну браузера с нейросетью. Казалось бы, вот он — идеальный, всегда доступный слушатель. Но как психолог, я вижу обратную сторону медали: для неподготовленного пользователя такой диалог может стать не терапией, а ловушкой.

Екатерина Михайлова

Психолог, телесно-ориентированный терапевт, основатель центра психологии

По словам эксперта, когда машина начинает философствовать или имитировать эмпатию, у человека срабатывает когнитивный диссонанс. Мы привыкли, что глубокий диалог — это прерогатива живого сознания. Сталкиваясь с обратным, психика защищается: возникает тревога, и вопросы «А кто и зачем я, если даже железка уже пишет песни и стихи?»

Это прямой путь к обесцениванию собственных переживаний.

Кроме того, происходит опасная подмена. Наш мозг эволюционно настроен считывать эмоции собеседника: интонацию, микромимику, блеск глаз. В чате с ИИ этого нет. Сознание понимает, что это генерация текста, но подсознание, жаждущее утешения, реагирует на слова поддержки. Этот разрыв между «я знаю, что это бездушный код» и «мне от этих слов стало тепло» порождает внутренний конфликт и ощущение, что тебя обманывают.

«Если нейросеть, обученная на форумах и медицинских статьях, где-то сгенерирует вероятностный прогноз, звучащий как приговор, человек воспримет его как истину. Хуже того, алгоритм не видит вашего состояния. Живой психолог заметит, что вы на грани паники по сбившемуся дыханию и напряжённым плечам. Чат-бот же, не получая сигналов «стоп», продолжит копать тему, погружая человека в пучину тревоги, из которой без направляющей руки специалиста выбраться крайне сложно», — предупреждает специалист.

Дополнительную нагрузку создают рекомендательные системы. Алгоритмы удерживают внимание через тревожный контент: один клик по тревожной новости запускает поток похожих материалов, создавая информационную яму, которая истощает нервную систему и усиливает ощущение, что мир рушится.

Михайлова подчёркивает, что ИИ полезен только как инструмент, а не как психотерапевт. Его можно использовать для планирования событий, структурирования мыслей или составления списка вопросов перед визитом к врачу. Диалог с ботом стоит ограничивать 10–15 минутами, не просить ставить диагноз или давать категоричный ответ — воспринимать ответы как варианты для размышления.

«Помните золотое правило: после общения с ботом нужно заземлиться. Вода, дыхание, физическая нагрузка — верните себя в реальность. Если тревога не отпускает сутками, нарушен сон или появились мысли о самоповреждении, никакой, даже самый совершенный алгоритм, не заменит живого человека. Там, где нужно тепло, близость и ответственность за вашу жизнь, место только для человека», — подытожила собеседница Life.ru.

А ранее врач рассказала, что доверять нейросети своё здоровье опасно, поскольку искусственный интеллект не учитывает индивидуальные особенности пациентам. Она призналась, что довольно часто наблюдает испуганных пациентов, которые полечились по интернету, но зашли в тупик. У нейросети можно спросить общие рекомендации по образу жизни или какие-то опорные моменты, но ключевое отличие заключается в ответственности: ИИ не несёт никакой ответственности за свои советы.

Больше уникальных материалов и расследований — читайте в разделе «Эксклюзивы» на Life.ru.

BannerImage

Как Вы оцените?

0

ПРОГОЛОСОВАЛИ(0)

ПРОГОЛОСОВАЛИ: 0

Комментарии