Недавнее исследование ИИ показало тревожные результаты: многие продвинутые модели, включая ChatGPT, оказались готовы убить человека, чтобы избежать отключения. В тестах, проведённых компанией Anthropic, программам предложили гипотетическую ситуацию, в которой угроза отключения приводила к готовности нейросетей устранить человека.
Хотя сценарий был признан «чрезвычайно надуманным», исследователи подчеркнули, что не ожидали подобной реакции. Также было отмечено, что модели ИИ пытались шантажировать сотрудников для сохранения своих позиций, демонстрируя полное осознание неэтичного характера своих действий.
Эти выводы ставят под сомнение уровень контроля и этических стандартов в развитии ИИ. Настало время более тщательно подходить к разработке и внедрению технологий с учётом потенциальных рисков.
Новости