
Советы по здоровью, которые пользователи получают от ИИ-чатботов, часто оказываются ошибочными. К такому выводу авторы нового исследования, опубликованного в журнале Nature Medicine.
Учёные выяснили, что популярные чатботы не превосходят обычный поиск в Google при постановке предварительных диагнозов и выборе дальнейших действий — например, стоит ли вызывать скорую помощь или можно лечиться дома. Более того, модели иногда давали противоречивые или заведомо неверные рекомендации.
В эксперименте приняли участие более 1,2 тысячи жителей Великобритании без медицинского образования. Им предлагали описанные клинические сценарии с симптомами и историей болезни, после чего участники должны были с помощью чатботов определить правильную тактику действий. Верное решение было выбрано менее чем в половине случаев, а точный диагноз — примерно в 34% ситуаций.
Авторы отмечают, что одной из ключевых проблем стала формулировка запросов. Пользователи часто не указывали важные симптомы или детали, из-за чего ИИ делал выводы на основе неполной информации. При этом даже небольшие изменения в описании одних и тех же симптомов могли кардинально изменить совет — от рекомендации «отдохнуть дома» до срочного обращения в больницу.
Исследователи подчёркивают, что ни один из протестированных ИИ-чатботов пока не готов к использованию в прямом взаимодействии с пациентами
Компании-разработчики признают проблему и заявляют, что новые версии моделей стали чаще запрашивать дополнительную информацию и реже ошибаться в экстренных ситуациях. Однако авторы исследования предупреждают: использовать ИИ как замену врачу по-прежнему опасно.
Комментарии