«Великая Эпоха» (The Epoch Time)
Июнь
2024

Вооружённые силы Китая на учениях возглавил ИИ

Это военные игры, призванные помочь армии Китая в проведении крупномасштабных учений, даже когда высокопоставленных офицеров нельзя оторвать от их обязанностей в другом месте.

Что отличает эти военные игры от десятков других, проводимых ежегодно, так это одно важное отличие: в этих играх верховное командование китайскими вооружёнными силами было предоставлено искусственному интеллекту (ИИ).

Исследователи разработали этого командира с искусственным интеллектом, который во всех отношениях отражает его человеческие аналоги. Он развивает модели мышления и формирует уникальные личности. Он может даже быть «забывчивым», теряя свои виртуальные воспоминания, когда командир-человек вряд ли сохранил бы подобный объём информации.

Существование и подвиги искусственного командира были опубликованы в прошлом месяце в китайскоязычном журнале Common Control and Simulation, и впервые о них сообщила South China Morning Post.

Исследования и создание такого ИИ имеют решающее значение. Хотя Китай годами работал над разработкой программного обеспечения для совместной работы человека и машины для своих военных командиров, это первый известный пример делегирования командных полномочий ИИ во время учебной симуляции.

В крупномасштабных компьютерных военных играх с участием Народно-освободительной армии Китая (НОАК), командующий ИИ извлёк уроки из многочисленных развивающихся виртуальных войн. Даже если такому ИИ никогда не будут предоставлены командные полномочия в реальном мире, информация, почерпнутая из его виртуальных завоеваний, беспрецедентным образом ускорит эволюцию китайской военной стратегии, поскольку офицеры НОАК извлекают уроки из его побед и поражений.

Появление первого в мире виртуального генералиссимуса также знаменует собой поворотный момент для принятия политических и военных решений в целом и поднимает вопросы относительно того, сможет ли ИИ вскоре влиять и, возможно, контролировать ключевые стратегические решения во всём мире.

Подобные события всё чаще проявляются и в Соединённых Штатах.

В прошлом месяце, когда командующий ИИ побеждал своих виртуальных врагов, президент Джо Байден заявил в интервью CNN в мае, что его собственные эксперты-консультанты полностью разделились во мнениях относительно угрозы, исходящей от ИИ, и о том, до какой степени это изменит американское общество.

Президент Байден признал, что, по крайней мере, один эксперт сообщил ему, что ИИ вскоре полностью «вытеснит человеческое мышление».

США не хватает видения политики в области ИИ

Если процессы принятия важнейших военных и политических решений будут переданы ИИ, то как они действуют и, как следствие, как они работают, во многом будет зависеть от политики, существующей в странах, их принимающих.

Хотя ведущие эксперты в этой области могут иметь собственное мнение о том, насколько широкой будет интеграция ИИ и процесс принятия решений на национальном уровне, факт остаётся фактом: практически ни одна страна на земле не разработала надёжной общегосударственной основы политики в области разработки и внедрения ИИ на государственном уровне.

В Соединённых Штатах подобные вопросы были оставлены на усмотрение различных правительственных структур. При этом министерства обороны, энергетики и транспорта разрабатывают собственные отдельные оперативные рекомендации по разработке и внедрению ИИ.

По словам Джона Миллса, бывшего директора по политике, стратегии и международным связям в области кибербезопасности в канцелярии министра обороны, этот специальный подход упускает из виду острую необходимость в общегосударственной политической структуре для руководства разработкой и внедрением ИИ.

«Политика важна, но наши люди пренебрегают политикой, — сказал Миллс в интервью The Epoch Times. — Но у вас всегда должны быть политические рамки. [Вы должны спросить]: “Как мы собираемся что-то использовать?”»

«Вы не хотите, чтобы политики проникали в операционную сферу и принимали операционные решения. Но вы также не хотите, чтобы операторы принимали политические решения».

Безусловно, Конгресс предпринимал некоторые попытки более полно осознать всплеск ИИ, такие как предложение лидера сенатского большинства Чака Шумера Конгрессу изучить и принять руководящие принципы для ИИ.

Однако эти усилия практически не продвинулись вперёд, во многом из-за радикального разделения мнений инсайдеров отрасли о перспективах и опасностях ИИ, а также из-за неспособности Конгресса понять некоторые основные принципы быстроразвивающейся отрасли.

Миллс сказал, что ИИ во многих отношениях является самым последним «пугалом», которого Конгресс ещё не понимает, но отметил, что политические рамки или их отсутствие, тем не менее будут иметь широко идущие последствия.

Одна из таких проблем заключается в том, что до тех пор, пока Соединённые Штаты не смогут реализовать широкомасштабную политику и регулирование в области ИИ, стандарты будут устанавливаться во всём мире, и Соединённые Штаты могут быть вынуждены принять их.

В то время как Соединённые Штаты добились незначительного прогресса в разработке общегосударственной политики в области ИИ, европейские законодатели разработали и внедрили более надёжные правила для ИИ.

Закон ЕС об искусственном интеллекте, принятый в августе прошлого года, устанавливает руководящие принципы для ИИ на различных «уровнях риска» и устанавливает требования прозрачности в отношении контента, созданного с помощью ИИ.

Однако там, где Соединённым Штатам не удалось решить проблему политики в области ИИ, Китай уже приступил к разработке радикальных нормативных актов. Возможно, наиболее примечательным среди них является требование китайского интернет-регулятора о том, чтобы весь контент, генерируемый ИИ, «отражал основные социалистические ценности», поддерживаемые компартией Китая.

Два видения процесса принятия решений в области ИИ

Президент Байден заявил в прошлом месяце, что то, как «контролируется» развитие ИИ, в конечном счёте определит, будет ли это благом или катастрофой для человечества, и этот контроль требует жёстких политических решений.

Сэм Кесслер, советник по геополитике консалтинговой фирмы North Star Support Group по рискам, считает, что вопрос не в том, повлияет ли ИИ на ключевые процессы принятия решений, а в том, как скоро это произойдёт.

Когда наступит этот момент и насколько устойчивы к нему демократические системы, во многом будет зависеть от того, насколько чётко была определена политика и насколько хорошо те, кто находится у власти, были обучены её применению, сообщил Кесслер The Epoch Times по электронной почте.

«ИИ, безусловно, окажет влияние на возможности принятия решений нынешними лидерами, а также менеджерами систем в целом», — написал Кесслер.

«Внедрение ИИ в наши системы управления и политические решения означает, что мы должны оставаться на вершине нашей игры и продолжать становиться умнее, сообразительнее и ориентироваться на общую картину, чтобы лучше понимать растущую сложность нашего мира, наших систем и то, как мы эффективно маневрируем в нём».

Меньшая по масштабам, но не менее насущная, очевидная разница в том, насколько комфортно Соединённым Штатам и Китаю разрешать ИИ принимать решения в условиях, которые Миллс называет «условиями с высокими последствиями».

«Ключевое отличие — это действия, независимые от вмешательства человека», — сказал Миллс.

«Настоящим предметом спора со стороны политиков является свобода, которой мы предоставляем независимое принятие решений отдельно от управления руками на клавиатуре и глазами на экране».

С этой целью Министерство обороны США до сих пор предпочитало использовать только смертоносные системы, которые держат человека «в курсе» принятия решений ИИ, эффективно гарантируя, что человек одобрит любую попытку ИИ нажать на спусковой крючок для совершения смертельного акта.

Однако китайских стратегических разработок по обеспечению того, чтобы люди оставались в курсе событий, очень мало, и Миллс считает, что Пекин боле чем готов разрешить ИИ контролировать критически важные системы, если он считает, что это обеспечит некоторое долгосрочное преимущество перед Соединёнными Штатами.

«Основная проблема в том, что Китай не видит границ и не испытывает проблем с тем, чтобы использовать ИИ с катастрофическими последствиями, такими как ядерная война, — сказал Миллс. — Мы гораздо более нерешительны в этом вопросе».

«ИИ в системах высокого риска, где существует вероятность катастрофы, гибели людей или травм, действительно вызывает серьёзную озабоченность».

Но интеграция ИИ с ядерными или другими системами — это лишь одна область, в которой Китай стремится «доминировать», сказал Миллс. Другие включают биологическую, кибернетическую и космическую войну.

Миллс считает, что ключевой трудностью будет обеспечение интеграции ИИ в надлежащие системы для устранения риска неожиданных катастроф при сохранении контроля человека над важнейшими решениями.

«Мы хотим использовать ИИ, чтобы избежать стратегических неожиданностей, которые могут иметь катастрофические последствия для государства, и то, что мы хотим использовать в наших системах вооружений — это умный ИИ, который сделает их гораздо более точными и эффективными».

Таким образом, Миллс предположил, что Соединённые Штаты могли бы внедрить ИИ таким образом, чтобы сделать военные «действия намного более эффективными и рентабельными», не отказываясь от контроля человека за решениями, касающимися жизни и смерти.

Одним из способов добиться этого является использование пассивных систем, которые также разрабатывает Китай. Миллс привёл пример новой пассивной системы, которую можно увидеть на фотографиях передовых китайских военных кораблей, которая, по-видимому, представляет собой систему инфракрасных камер, предназначенную для постоянного создания изображений окружающей среды, а затем использования ИИ для сравнения изображений для обнаружения изменений в режиме реального времени.

По словам Миллса, такая система может обнаружить приближающуюся гиперзвуковую ракету, которую не заметил радар, и ИИ будет единственной системой, способной вовремя отреагировать.

«Мы не говорим о ядерном оружии, но мы говорим об уничтожении и потере корабля. И именно в эту долю секунды это решение должно быть принято».

Нетрудно провести аналогии с новейшей разработкой Китая в области ИИ. Как быстро можно отреагировать, чтобы противостоять ракете, кораблю или флоту, возглавляемому командиром с ИИ? Если Соединённые Штаты никогда не позволят заменить людей ИИ, смогут ли их вооружённые силы отреагировать вовремя?

Что касается того, как политика могла бы способствовать позитивному использованию ИИ без катастрофических последствий, Миллс сказал, что мир вступает в неизведанные воды.

Хотя большие данные, используемые для обучения ИИ, и аналитика, используемая для принятия решений, были поняты достаточно хорошо, по его словам, выполнение этих действий в реальном времени и в реальном мире — это совершенно другая игра.