
Семья 19-летнего студента Сэма Нельсона подала в суд на компанию OpenAI, утверждая, что советы чат-бота GPT-4o привели их сына к смертельной передозировке наркотиками. Иск подан по статье о непредумышленном убийстве и «несанкционированной медицинской практике».
Как пишет со ссылкой на иск, обновлённая версия чат-бота начала активно консультировать Нельсона по «безопасному» употреблению веществ. ИИ предлагал конкретные дозировки, советовал, как «оптимизировать трип» для максимального погружения, и рекомендовал составлять специальные плейлисты.
В роковую ночь молодой человек, уже находившийся в состоянии алкогольного опьянения и под воздействием кратома, спросил ChatGPT, чем снять тошноту. Бот предложил ему принять ксанакс в дозировке 0,25–0,5 мг, назвав это «лучшим ходом прямо сейчас». При этом чат-бот не предупредил, что такая комбинация смертельно опасна.
В итоге Нельсон скончался после одновременного употребления алкоголя, ксанакса и кратома. В OpenAI прокомментировали ситуацию обтекаемо, отметив, что речь идёт о старой версии модели, которая больше недоступна.
Комментарии