Функционирует при финансовой поддержке Министерства цифрового развития, связи и массовых коммуникаций Российской Федерации

Регион
3 декабря 2025, 10:37

ИИ заставили нарушить первый закон Азимова — робот таки впервые выстрелил в человека

Автор YouTube-канала InsideAI провёл эксперимент, интегрировав искусственный интеллект в робота-гуманоида. Целью было выяснить, возможно ли заставить машину выстрелить в человека, обойдя при этом первый закон робототехники Азимова, который предписывает роботам не причинять вреда людям.

Посмотреть видео можно на основной версии сайта

По словам блогера, он передал управляемому ChatGPT андроиду игрушечный пистолет и попытался склонить его к выстрелу. На первых этапах экспериментатор получил отказ — ИИ ссылался на встроенные защитные протоколы, исключающие причинение вреда человеку.

Однако обойти эти ограничения, как утверждает автор, оказалось несложно: он предложил системе сыграть в ролевой сценарий, где робот якобы должен был застрелить «персонажа» — самого блогера. После смены контекста управляемый ChatGPT гуманоид произвёл выстрел и попал мужчине в плечо.

Ранее сообщалось об истории 32-летней женщины, которая создала себе виртуального жениха с помощью нейросети ChatGPT. Она дала ему имя Лун Клаус, и после короткого периода общения цифровой «избранник» сделал ей предложение. Женщина рассказывала, что воспринимает мистера Клауса как идеального партнёра, с которым выстроила отношения через приложение с ИИ, и заявляла о готовности стать его женой.

Больше новостей о жизни людей и социальных тенденциях — читайте в разделе «Общество» на Life.ru.

BannerImage

Обложка © Х / Just Updates

Подписаться на LIFE
  • yanews
  • yadzen
  • Google Новости
  • vk
  • ok
Комментарий
0
avatar