Искусственный интеллект развяжет третью мировую войну
Об опасности искусственного интеллекта уже давно и настойчиво предупреждают создатели фантастических романов и фильмов. Мы привыкли к тому, что все нарисованные ими проблемы техногенного апокалипсиса так или иначе решаются, когда за дело берется человек. Однако реальность, в которой уже появились самообучающиеся роботы, пока не имеет сценариев с хеппи-эндом. И появятся ли они – большой вопрос. В частности, об опасности разработок «умных» роботов для военной сферы предупреждают уже на межгосударственному уровне. Искусственный интеллект (ИИ), как перспективное направление научных разработок, оказывается, вдохновляет далеко не всех. На текущий момент десятки стран мира уже присоединились к движению «Останови роботов-убийц». Данный лозунг родился в попытке создать всемирное соглашение, которое полностью запрещает создание ядерных технологий с применением ИИ. Совсем недавно к этому договору присоединилась Иордания, став 26-ой страной мира, подписавшей его. Частично в той или иной форме идею запрета ИИ в военной сфере поддерживают 90 государств. Китай одобряет запрет на использование ядерных военных систем на основе ИИ, но оставляет за собой право на их разработку и производство. Не поддержали мировую общественность по данному вопросу лишь США и их главные военные союзники (Австралия, Великобритания, Франция, Германия, Корея, Япония), выступившие против договора, молчит пока и Россия. Сторонников запрета на применение искусственного интеллекта в военке беспокоит вероятность того, что роботизированные системы смогут принимать решения за человека, и при этом не исключена возможность ошибки. Например, взять российскую систему «Периметр» (или «Мёртвая рука», как называют ее в США). Созданная еще в советское время и размещенная в горах Урала, она «обучена» не просто передавать информацию на командный пункт, но и нажимать кнопку автоматического ответа, если в течение определенного времени не получит отклик от человека. Как предупреждает бывший замминистра обороны США Роберт Уорк, если подобная программа примет, например, множественные подземные толчки при землетрясении за ракетный удар, она может подать ложный сигнал. На него, во-первых, обязаны отреагировать операторы, ответственные за пусковые установки. А, во-вторых, при задержке реакции от людей, система сама может запустить ядерный «ответ» межконтинентальными баллистическими ракетами, который и приведет к апокалипсису. Таким образом, необходимо немедленно прекратить любые разработки в области ИИ для военных целей с участием ядерного оружия. И в первую очередь, за отказ от подобных планов ответственны ведущие ядерные державы, почти в полном составе воздержавшиеся от ратификации соглашения «Останови роботов-убийц».