
Применение чат-ботов в качестве психологов несёт в себе ряд
рисков, связанных с уязвимостью личных данных и неспособностью ИИ
оказать квалифицированную психологическую помощь. Об этомзаявила
психолог, заместитель директора Института клинической психологии и
социальной работы Пироговского Университета Екатерина Орлова в
интервью
«Один из самых тревожных аспектов — уязвимость личных данных пациентов. Так, самые сокровенные переживания, страхи и травматические ситуации человека, доверенные алгоритму, могут оказаться в руках злоумышленников или даже недобросовестных корпораций. Даже обезличенная информация порой может поддаваться деанонимизации, превращаясь в инструмент манипуляции или дискриминации», — отметила Орлова.
Помимо этого, эксперт подчеркнула, что ИИ не способен оценить невербальные проявления и не обладает эмпатией, что может привести к неверной интерпретации эмоционального состояния пациента и, как следствие, к неадекватным советам. Психолог также обратила внимание на возможную предвзятость алгоритмов, основанных на данных, созданных людьми, и, следовательно, подверженных стереотипам и дискриминации.
«Человек может начать воспринимать искусственный интеллект как панацею, откладывая визит к живому специалисту даже в серьёзных случаях… Возможно, оптимальный путь — не противопоставление, а гармоничное сочетание искусственного интеллекта и профессионализма специалистов психологов и психотерапевтов, где технологии служат инструментом, но не заменяют живое участие», — заключила психолог.
Специалисты рекомендуют ответственно подходить к выбору методов психологической помощи и учитывать потенциальные риски, связанные с использованием ИИ.
Комментарии