ИИ создал вирус-убийцу: это начало эволюции или конец контроля?
Сенсацией в научном мире стало изобретение нейросетью нового вируса. Ученые поставили ей задачу: вот тебе бактерия — придумай вирус, который бы ее убил. И нейромозг придумал. Не с первого раза, но придумал и расписал, какие у него должны быть гены. Ученые собрали такой вирус «Франкенштейн», и он действительно работает — убивает бактерии.
Еще на старте ИИ ограничили: мол, этот вирус должен быть безвредным для человека. Но это такие хорошие ученые попались. А что, если попадутся злые? Подробности в репортаже корреспондента «Известий» Павла Кузнецова.
Чудовища из микромира, при виде изображений которых у обывателя кровь стынет в жилах. Они нападают на клетки организма. И прежде единственным сдерживающим фактором для вирусов были законы природы. Но теперь все изменилось. Первый в мире ранее не существовавший вирус-убийца был создан искусственным интеллектом. По сути, впервые неживая нейросеть создала жизнь.
«По своей сути наша нейросеть „Эво“ похожа на обычную языковую нейросеть. Но „Эво“ работает с ДНК растений, микробов и животных», — сказал аспирант Стэндфордского университета Майкл Поли.
Новый вирус-киллер призван охотиться. В прямом смысле слова. Потенциальная жертва пока штамм кишечной палочки. Но в научном сообществе тут же разгорелись споры и опасения. А что, если невидимый убийца мутирует и станет опасным для человека?
«Опыт показывает, что мы как человечество и естественные вирусы не очень-то можем контролировать. И поэтому с искусственным такая же история», — сказал доктор наук, системный биолог, исследователь мемориального онкологического центра имени Слоуна — Кеттеринга (Нью-Йорк) Дмитрий Чебанов.
Чтобы понять, а что, собственно, конкретно изобрели американские ученые, отправляемся в Федеральный исследовательский центр вирусологии и микробиологии. На 60 страницах научного труда множество графиков, которые еще расшифровать для непосвященных нужно.
«Это компьютерное изображение того, как выглядит капсид вируса. То есть здесь вы можете увидеть его капсид вируса, в которую заключена молекула ДНК», — сказал руководитель научно-образовательного центра в Федеральном центре вирусологии и микробиологии Тимофей Севских.
Российские коллеги американских исследователей объясняют на пальцах: для создания нового так называемого бактериофага ученые выбрали шаблонный и уже известный — ФХ174 (да, он обозначается кириллицей и там есть русский след, но об этом позже). А после предложили искусственному интеллекту изменить базовый вирус на более, так сказать, хищный.
«Особенность бактериофага в том, что его можно ввести, он поразит необходимые целевые микроорганизмы, не трогая все остальные микрофлору», — сказал руководитель научно-образовательного центра Федерального исследовательского центра вирусологии и микробиологии Тимофей Севских.
Если говорить совсем уж упрощенно и утрированно, то в лабораторных условиях вирус создается следующим образом: берется реально существующий в природе вирус. Затем туда в определенной последовательности и пропорции начинают добавлять реагенты. Затем пробирку отправляют в специальный инкубатор. Проходят дни, недели или месяцы. И здесь остается тот самый новый организм.
Нейросеть не просто скопировала уже известные решения, а предлагала неожиданные варианты. Шестнадцать из них смогли размножаться, проникать в бактерии и уничтожать их изнутри.
«По сути, бактериофаги — это враги наших врагов. Они атакуют клетки бактерий, которые, например, могут быть болезнетворными для человека. На основании бактерий уже делаются некоторые лекарства, и, в частности, такие лекарства будут в перспективе активно заменять антибиотики», — сказал менеджер программы по искусственному интеллекту в биологии на факультете биоинженерии и биоинформатики МГУ, а также старший преподаватель факультета Арсений Зинкевич.
Чтобы научить алгоритмы работать с ДНК, исследователи загрузили в нейросеть данные двух миллионов вирусных геномов. При этом на всякий случай убрали сведения о патогенах, опасных для человека. То есть сами разработчики не исключают опасности.
«Такое может быть. Безусловно. На самом деле очень многое зависит от того, на каких исходных данных обучался искусственный интеллект или модель. Потому что, если, например, в исходных данных присутствует много каких-то опасных соединений, искусственный интеллект будет генерировать опасные соединения, то есть здесь все закономерно», — сказала аспирантка Центра искусственного интеллекта в химии университета ИТМО Орлова Анастасия.
Любопытная деталь: исходный вирус, который стал шаблоном для нового организма, с названием ФХ-174, как выяснилось, был впервые выделен в 1935 году Николаем Булгаковым. Это не однофамилец — это брат того самого писателя Михаила Булгакова.
«Булгаков стал писателем, Михаил Афанасьевич, а Николай, он был ученым, и, конечно, у него был совершенно какой-то колоссальный авторитет в своей, в своей области, в своей среде», — сказала заведующая научно-просветительского центра музея Михаила Булгакова Елена Михайлова.
Ну и как тут не задуматься о мистике? Писал же знаменитый брат Булгакова-изобретателя Михаил Афанасьевич в своей повести «Роковые яйца» о восстании гигантских змей и крокодилов, угрожающих человечеству в результате медицинских опытов. Это, конечно, не вирусы-убийцы, созданные нейросетью, но кто-то в этом может увидеть и предупреждение.
Предупреждение, что нельзя исключать и банального человеческого фактора. Что, если созданный вирус поведёт себя не так, как ожидалось?
«Конечно, нужно убедиться, что, скажем, синтетически созданный вирус или бактерия не вырвется на свободу, не начнёт непредсказуемо взаимодействовать. Потенциально можно создать очень смертоносные ситуации, типа биологической войны, с которыми будет сложно справиться и которые сложно контролировать», — подполковник армии США в отставке Эрл Расмуссен.
То, что созданный ИИ организм выйдет из-под контроля ученых, звучит, конечно, как фантастика. Но так и искусственный интеллект еще вчера был лишь мечтами. А теперь он создает жизнь.
И тут возникает еще один вопрос: а если обычный пользователь, но со злым умыслом, решит попросить нейросеть, скажем, создать невиданный ранее смертоносный микроорганизм? Почти никто из ученых этого не отрицает.
«Тут надо задавать вопросы не инструменту самому по себе, а людям, у которых в руках этот инструмент будет. Это точно так же, как автомобиль, он приносит добро или зло, или как молоток, он приносит добро или зло. Зависит от того, как его использовать», — сказал член совета Фонда «Онкологика», независимый директор, преподаватель РУДН Михаил Генис.
Тем не менее исследователи в Стэнфорде говорят о необходимости строгого контроля: соблюдения этических норм и международных правил, которые будут определять границы допустимых экспериментов.
«Можно сделать такой вирус специальный, который очень легко контролировать, чтобы у него был какой-то отключатель, например. То есть, например, даешь какое-нибудь вещество. Ну, аспирин, например, даешь. И вирус выключается в ответ на аспирин, там еще на что-нибудь, на ионы цинка. Можно такое сделать», — сказала профессор школы системной биологии университета Джорджа Мейсона в США Анча Баранова.
Это про выключатель. Но с таким же успехом может быть и включатель. Если уж совсем углубиться в фантазию (даже не в фантастику), то вирусы уже сегодня можно в теории запрограммировать на нападение на определенные цели. И нейросеть по идее может упростить решение задачи. Тут важно, чтобы разработчики усиливали защиту.
В любом случае создание вирусов искусственным интеллектом — событие, которое изменит правила игры. Даже с чисто экономической точки зрения.
Вместо десятилетий исследований теперь для создания лекарств будет требоваться в разы меньше времени. Разумеется, крупные корпорации не упустят такой возможности. Но в масштабе человечества вопросы безопасности остаются.
Еще больше новостей — у Пятого канала в мессенджере MAX.