ru24.pro
Новости по-русски
Сентябрь
2019

США оправдывают стратегию превентивного ядерного удара заявлениями об опасности ИИ

США заявляют об опасности искусственного интеллекта, так как хотят иметь полное право на превентивный удар.

Бывший заместитель министра обороны США Роберт Уорк сообщил, что использование военными систем искусственного интеллекта может привести к началу ядерной войны. По мнению бывшего сотрудника Пентагона, ИИ не должен участвовать в контроле ядерного арсенала, поскольку он запускается по определенным параметрам и показателям. В некоторых спорных ситуациях искусственный интеллект может расценить неопасные факторы как представляющие угрозу, что является «тревожной перспективой».

Военный эксперт Алексей Леонков уверен, что США заявляют об опасности ИИ, так как хотят иметь полное право на превентивный удар.

В качестве примера Уорк приводит российскую систему «Периметр», которая якобы может принять сейсмическую активность за ядерные взрывы, после чего направит специальный запрос в штаб российских войск. Если вдруг он не получит ответа, то отдаст команду запустить межконтинентальные баллистические ракеты.

Помимо этого, экс-замминистра обороны США подчеркивает, что военное применение ИИ может привести к плачевным последствиям и без его прямого участия в управлении ядерным арсеналом. Примером непрямого участия может стать его использование при анализе разведывательных данных, а также в системах раннего предупреждения.

«Представьте, система искусственного интеллекта в командном центре китайских войск, проанализировав оперативные данные, заявляет, что США готовятся нанести удар по Китаю, и рекомендует нанести превентивный удар», — говорит Уорк.

Слова американца ставит под сомнение военный эксперт журнала «Арсенал Отечества» Алексей Леонков, по мнению которого заявления Уорка об опасности ИИ — «это оправдание американской концепции превентивного ядерного удара».

«У них (США. — Прим. ФАН) несколько работ и докладов было сделано по поводу того, что США должны быть готовы наносить удары по странам, которые проявляют против них агрессию, по странам, которые могут проявить агрессию, а также по тем странам, которые могут представлять угрозу в будущем. При этом, скажем так, причиной нанесения такого удара может быть кибератака», — утверждает аналитик.

Кроме того, Роберт Уорк заявляет об опасности системы «Периметр», совершенно не разбираясь в принципе ее работы. Так, помимо сейсмических показателей, контрольно-командная система «Мертвой руки» отслеживает интенсивность переговоров военных, сигналы телеметрии с постов РВСН, уровень радиации на поверхности и регулярное возникновение точечных источников мощного ионизирующего и электромагнитного излучения по ключевым координатам.

Только после сопоставления полученных с датчиков данных система запрашивает ответ от командного центра и, не получив отклика, инициирует процесс запуска командной ракеты, что в конечном итоге приводит к массированному ответному удару.

«И китайцы, и мы не допускаем ИИ к принятию решений о ядерных пусках, потому что понимаем, что электроника, основанная на машинной логике, может делать что угодно. Поэтому у нас окончательное решение принимает человек. А вот у американцев все как раз наоборот. Это они говорят, что ИИ должен быть автономным, и это они работают над этим. Так что этот товарищ оправдывает понятие превентивного удара и то, что у США больше нет выхода и надо сразу ликвидировать угрозу, пока она не разрослась до глобального масштаба. А второе — он оправдывает ИИ, а также то, что он спасет их. Именно в этом опасность, а не в том, что он там наговорил», — заключил Алексей Леонков.

Напомним, система «Периметр» (на Западе больше известна как «Мертвая рука») — это комплекс автоматического управления массированным ответным ядерным ударом. Он гарантированно доводит боевые приказы от высших звеньев управления до командных пунктов и отдельных пусковых установок стратегических ракет, стоящих на боевом дежурстве, в случае чрезвычайного положения.