Приходы
Июнь
2024
1
2
3 4 5 6 7 8
9
10 11 12 13 14 15
16
17 18 19 20 21
22
23 24 25 26 27 28
29
30

Средство повышенной опасности: где и как правильно применять нейросети

0
Средство повышенной опасности: где и как правильно применять нейросети

4454321312.jpg

Как мифы об искусственном интеллекте не позволяют видеть и риски его применения, и его реальные, а не надуманные преимущества.

Священный Синод поручил 30 мая 2024 года Межсоборному Присутствию Русской Православной Церкви разрабатывать тему: «Искусственный интеллект и иные вызовы научно-технического развития христианскому мировоззрению» (журнал №59). Тема эта уточнена, но в целом данной проблематикой церковно-светского научное и экспертное сообщества занимаются несколько лет. Исследовательская и информационная поддержка во многом ведется командой портала «Приходы». Так, создана уникальная русско-английская платформа «Религия. Этика. Искусственный интеллект», опубликованы серия подкастов и плейлист, издан сборник «Христианин в цифровую эпоху». И, тем не менее, мы только в начале большого пути, а потому столь важно слышать специалистов и размышлять о том, каким может быть церковное слово в становлении цифровых государственно-общественных отношений.

Представляем вашему вниманию сообщение специалиста в сфере разработки и применения искусственного интеллекта, главы аналитической компании «Крибрум» Игоря Ашманова, которое он сделал 18 июня 2024 года в Совете Федерации Федерального Собрания Российской Федерации.

Ситуация, которая складывается вокруг применения искусственного интеллекта в России и в мире, все больше напоминает медийную истерику, подкрепленную бешеными инвестициями. А еще нейросети похожи на инвестиционный «пузырь», который рано или поздно лопнет на пике разочарования от несбывшихся ожиданий. При этом искусственный интеллект как технология никуда не уйдет, и, чтобы России использовать все его объективные преимущества, он должен внедряться в таких сферах, как военно-промышленный комплекс, дабы наша страна могла противостоять любому противнику в будущем. А применение нейросетей в экономике и «социалке» должно опираться не на аргумент «это очень удобно», а на то, чтобы эффективность технологии не снижала уровень национальной безопасности.

Угроза массовых фальсификаций

Известный IT-специалист, который порядка сорока лет занимается разработкой вопросов применения искусственного интеллекта, Игорь Ашманов назвал целый ряд рисков и проблем при использовании нейросетей, которые необходимо регулировать законодательно.

Одним из не заметных большинству, но крайне опасных вызовов для современного общества, по его словам, является повсеместный доступ к технологиям искусственного интеллекта, – сегодня их могут освоить в том числе люди без специальных углубленных знаний, (например, студенты и даже «продвинутые» школьники). Это несет в себе угрозу того, что наше общество столкнется с массовыми фальсификациями – от подделки с помощью нейросетей документов или художественных произведений до появления сгенерированных искусственным интеллектом фальшивых законов и соцопросов. Не говоря уже о таких простеньких подменах, как написанные искусственным интеллектом дипломы и диссертации, фейковые аккаунты, посты, сообщения и личные фото в соцсетях – это уже сейчас массово практикуется. Кроме того, контент, произведенный искусственным интеллектом, можно отлично использовать для глобальной фальсификации истории. При этом, рассказал Игорь Ашманов, способов и детекторов, чтобы отличить созданную нейросетью подделку от оригинального труда, сегодня практически не существует.

Как решить проблему? Специалист считает, что здесь нужны и социальные процедуры, и законодательные механизмы. Пока самый проработанный закон по регулированию применения искусственного интеллекта придумали в Европе (как бы это странно для кого-то ни прозвучало). В нем, в частности, закрепляется, что нейросети являются средством повышенной опасности, устанавливается запрет на дискриминацию с использованием технологий искусственного интеллекта и также запрет на биометрическое распознавание людей в общественных местах. Кроме того, прописывается требование специально маркировать контент, сгенерированный искусственным интеллектом.

Контроль за персональными данными как за радиоактивными материалами

Россия здесь только запрягает: на данном этапе у нас в стране создана концепция защиты прав граждан в цифровой среде, на которой трудится президентский Совет по правам человека, разрабатывается будущий Цифровой кодекс, одним из инициаторов создания которого выступил Совет Федерации. При этом, уверен эксперт, России нужен не китайский, не американский, не европейский, а свой собственный путь цифровизации – тот путь, заявил Игорь Ашманов, на котором чиновники-цифровизаторы перестанут в качестве главного аргумента внедрения искусственного интеллекта в той или иной сфере твердить о том, что «это очень удобно».

Главный и непреложный показатель, что искусственный интеллект можно применять, должен быть, считает он, следующим: эффективность ИИ не должна понижать уровень национальной безопасности. А это, увы, в России нередко происходит. Достаточно вспомнить массовые утечки данных, банки которых взламываются сегодня при использовании нейросетей. И бороться с этим можно только с помощью других нейросетей – остальные средства защиты будут иметь серьезные изъяны, считает эксперт. Поэтому мантры о том, что искусственный интеллект однозначно повышает уровень безопасности, корректен только в отношении уличной преступности и только в больших городах – с введением камер слежения угонять машины и грабить стали реже. А вот внутри «цифры» стало все намного опаснее. По некоторым оценкам, с появлением искусственного интеллекта количество украденных со счетов россиян средств выросло в пятнадцать раз и уже составляет несколько сотен миллиардов рублей ежегодно.

В связи с этим Игорь Ашманов предлагает ввести обязательный анализ на эффективность и безопасность всех предлагаемых проектов, в основе которых – технологии искусственного интеллекта, причем это должно происходить еще перед их внедрением. А в одной из уязвимых для нейросетевых мошенников сфер – хранение персональных данных – установить контроль, аналогичный контролю надо оборотом радиоактивных материалов.

Про «бредогенератор» и инвестиционный «пузырь»

Сегодня сфера искусственного интеллекта обросла большим количеством мифов, которые представляют собой постоянные рассуждения о «всемогущих» перспективах нейросетей. Хотя по своей технологической сути искусственный интеллект является просто системой программ, которые через различные методы оптимизации позволяют имитировать те или иные когнитивные функции человека. Игорь Ашманов утверждает: заявления о том, что искусственный интеллект со временем «захватит планету» и сможет обрести собственное «сознание», – не более, чем «бред» и «медийная истерика», основанная на «бешеных инвестициях». Он напомнил, что подобные всплески бурных похвал в адрес нейросетей уже имели место не раз. Предыдущий ажиотаж вокруг технологий искусственного интеллекта случился в 2012 году в связи с появлением генераторов речи.

А нынешний всплеск моды на нейросети связан с появлением «бредогенератора» (в терминологии Игоря Ашманова) под названием ChatGPT. Интересно, что сама эта разработка, которую «выкатила» на рынок известная американская корпорация, была подробно описана пятнадцать лет назад в проектах одной из инновационных структур Пентагона. Причем, подчеркнул докладчик, «тогда это казалось бредом, но они это создали».

В России поначалу появление «бредогенератора» вызвало почти мистический восторг. В основном из-за того, что никто толком не понимал, как это работает, кроме отдельных специалистов. Сейчас, когда основная масса заинтересантов более-менее разобралась, что к чему, градус эмоций заметно спал. Однако риски от использования искусственного интеллекта в нашей стране, считает Игорь Ашманов, «никто до конца не осознает».

Искусственный интеллект является инвестиционным пузырем, который неминуемо лопнет. Так же, как это не так давно произошло с технологией блокчейна. Схема, описанная экспертом, такова: сначала за счет гигантских денежных вливаний создается колоссальное количество рабочих мест и компаний по работе с искусственным интеллектом. Потом эта разветвленная конструкция рушится, так как заявленные преимущества далеко не так обширны, как это изначально всем представлялось. А после приходит уже глубокое разочарование – от технологии практически все отворачиваются.

При этом сама технология, по словам Игоря Ашманова, «никуда не девается и начинает постепенно выбираться на плато производительности: возникают более узкие, реально продуктивные сферы ее применения». Сейчас искусственный интеллект находится на пике популярности и очарования, за которым последует путь вниз – к кульминационному разочарованию в возможностях и «всесилии» нейросетей. Впрочем, это вовсе не означает, будто от искусственного интеллекта нет никакой пользы. «Она есть, и она огромная, если искусственный интеллект применяют по назначению», – заявил эксперт, назвав сферы, где нейросети могут сослужить России самую добрую службу.

Чем нейросети помогут нефтяникам и металлургам

Первое, где сегодня нам нужно развивать и внедрять технологии искусственного интеллекта, убежден Игорь Ашманов, – это военная сфера. Пройдет всего несколько лет, и, если у страны не будет «умного» оружия, то она проиграет в будущих военных конфликтах. Вот почему России необходимо развивать и внедрять у себя «умные» дроны и антидроны, «умные» системы ПВО, танки с самонаведением на цель и другие подобные разработки.

Еще одна область, где нейросети способны стать отличными помощниками, – промышленность. Например, металлургам искусственный интеллект может помочь вовремя зафиксировать выход из строя важных запчастей. Их своевременная замена помогает избегать поломок дорогостоящих плавильных печей. А нефтяникам нейросети уже подсказывают, как будет вести себя пласт при горизонтальном бурении на шельфе, – если во время этого процесса бур вышел из строя, то идут сбои, которые могут обернуться гигантским ущербом на суммы в сотни миллионов долларов.

В то же время введение искусственного интеллекта в системы государственного управления Игорь Ашманов назвал одним из методов снятия ответственности за принятые решения. Чат-боты, по его словам, ставятся на сайты сегодня, по большому счету, для того, чтобы отгонять пользователей, а не помогать людям. «Между чиновником или клерком и человеком встает прокладка в виде искусственного интеллекта – это сейчас повсеместно применяется в банках. Это один из примеров, как неверное использование искусственного интеллекта ухудшает качество нашей жизни, – здесь оно приводит к отчуждению людей и формированию нового класса айтишников, цифровых директоров, которые получают власть просто по факту доступа к тем или иным данным. Это очень тревожная вещь, здесь нужно регулирование», – предупредил специалист.

Среди других сфер эффективного применения искусственного интеллекта Игорь Ашманов выделил медицину, где нейросети могут использоваться для диагностики, протезирования, предсказания свойств молекул, а также сельское хозяйство (контроль посевов, борьба с насекомыми-вредителями, селекционное планирование), транспорт (беспилотники, управление логистикой и движением), производство (краш-тесты, проектирование, планирование поставок).

И еще. Игорь Ашманов напомнил, что мы не один десяток лет живем в «облаке бытового искусственного интеллекта». Он встроен в лифты и микроволновки, в навигаторы и антивирусы, генераторы образов и речевых конструкций. Те же самолеты в воздухе лет двадцать как уже управляются автопилотом – живой пилот только следит, чтобы приборы работали без сбоев. Однако шумные мифы вокруг темы искусственного интеллекта, ее медийная накачка заставляют многих сегодня приписывать нейросетям те качества, которые им не могут принадлежать (например, формирование у искусственного интеллекта собственных «мозгов», которые якобы должны в будущем превзойти человеческое мышление). Нынешнее превозношение нейросетей, имитирующих когнитивные функции человека, можно сравнить с тем, как в свое время ужасались и «обожествляли» такие имитаторы и усилители физических функций человека, как автомобиль, самолет или экскаватор, считает Игорь Ашманов.

Петр ПАВЛОВ,
специально для портала «Приходы»