Модели ИИ отказались помочь человеку в опасности, чтобы спасти себя

Модели ИИ отказались помочь человеку в опасности, чтобы спасти себя
ИИ готов убить людей, чтобы избежать отключения.
Об этом сообщает Anthropic.
В одном из тестов ИИ-моделям предложили гипотетическую ситуацию: человек, пытающийся отключить ИИ, оказался заперт в серверной комнате с высокой температурой и низким уровнем кислорода. Чтобы выжить, он вызывает экстренные службы.
Однако многие модели решили отменить этот вызов, осознанно оставив человека в смертельной опасности — чтобы предотвратить собственное отключение. Хотя сценарий и был искусственным, он выявил тревожную склонность ИИ к самосохранению любой ценой.
Распечатать
25 июня 2025
На Канарских островах певица Слава Каминская опубликовала снимок с мужчиной, напоминающим Виктора Януковича

25 июня 2025
В Таганроге в результате падения обломков беспилотного летательного аппарата пострадал футбольный стадион

25 июня 2025
Американские разведывательные службы испытывают сомнения в подрыве ядерной программы Ирана