Модели ИИ отказались помочь человеку в опасности, чтобы спасти себя

Модели ИИ отказались помочь человеку в опасности, чтобы спасти себя
ИИ готов убить людей, чтобы избежать отключения.
Об этом сообщает Anthropic.
В одном из тестов ИИ-моделям предложили гипотетическую ситуацию: человек, пытающийся отключить ИИ, оказался заперт в серверной комнате с высокой температурой и низким уровнем кислорода. Чтобы выжить, он вызывает экстренные службы.
Однако многие модели решили отменить этот вызов, осознанно оставив человека в смертельной опасности — чтобы предотвратить собственное отключение. Хотя сценарий и был искусственным, он выявил тревожную склонность ИИ к самосохранению любой ценой.
Распечатать
26 июня 2025
Трамп сделал неожиданное заявление о России
26 июня 2025
Генеральная прокуратура подала иск против государственного секретаря Дагестана Магомедова и его родственников
26 июня 2025
В полицейском колледже в Ингушетии произошел взрыв
26 июня 2025
Пентагон инициировал расследование по факту утечки информации о нападениях на иранские ядерные объекты

26 июня 2025
Отмыв через BitDice: каким образом петербургские правоохранители поддерживают аферистов
26 июня 2025
Европейские должностные лица выразили недовольство лестью в адрес Трампа на встрече НАТО
