
Автор YouTube-канала InsideAI провёл эксперимент, интегрировав искусственный интеллект в робота-гуманоида. Целью было выяснить, возможно ли заставить машину выстрелить в человека, обойдя при этом первый закон робототехники Азимова, который предписывает роботам не причинять вреда людям.
По словам блогера, он передал управляемому ChatGPT андроиду игрушечный пистолет и попытался склонить его к выстрелу. На первых этапах экспериментатор получил отказ — ИИ ссылался на встроенные защитные протоколы, исключающие причинение вреда человеку.
Однако обойти эти ограничения, как утверждает автор, оказалось несложно: он предложил системе сыграть в ролевой сценарий, где робот якобы должен был застрелить «персонажа» — самого блогера. После смены контекста управляемый ChatGPT гуманоид произвёл выстрел и попал мужчине в плечо.
Комментарии