[За горизонт] Технологическая сингулярность: приближаемся ли мы к точке невозврата? "Знать бы, что меня ждет за далекой чертой: там, за горизонтом"
В 2024-2025 годах мы наблюдаем стремительные достижения в сфере искусственного интеллекта (ИИ), которые вновь разжигают дискуссию о технологической сингулярности - моменте, когда ИИ превзойдёт человеческий интеллект и выйдет из-под нашего контроля. Часто это сравнивают с "горизонтом событий" чёрной дыры, за которым происходят процессы, непостижимые для человеческого ума [1]. В данной статье представлен подробный анализ последних прорывов в области ИИ и смежных технологий. Мы исследуем их экономическое и социальное влияние и рассмотрим, пересекло ли человечество уже горизонт событий или всё ещё на пути к нему. Главные аспекты включают темпы развития ИИ, возможные признаки приближения к полноценному ИИ (AGI), влияние на занятость и общество, а также реакцию правительств и общественности.
Последние прорывы в ИИ
Значимые достижения в ИИ и AGI
Модели OpenAI o1 и o3. В конце 2024 года компания OpenAI представила "o1", новую серию языковых моделей (LLM), ориентированных на более глубокое "размышление" перед выдачей ответа. В отличие от предыдущих GPT-моделей, o1 генерирует развернутые цепочки размышлений, что существенно повышает качество решения сложных задач [2]. При запуске o1 почти достигла уровня PhD (доктор наук) и решила ~83% продвинутых математических задач (AIME) против лишь 13% у GPT-4 [3], а также заняла верхние строчки в конкурсах по программированию [4]. Это указывает на более универсальные способности к решению задач. OpenAI позиционирует o1 не как прямого преемника GPT-4, а как дополнительный инструмент; тем не менее, он явно выходит на новые технические рубежи. Ещё более мощная модель под названием "o3" проходила тестирование к концу 2024 года [5],[6], минуя по нумерации "o2". Ранние тесты говорят о том, что o3 ещё дальше расширит возможности рассуждения, подчёркивая нарастающие темпы развития ИИ.
DeepSeek R1 (открытый ИИ для рассуждений). Ещё одним громким событием стало появление в 2024 году DeepSeek-R1, созданного китайцами и выложенного в опенсорс. По многим математическим и программным тестам DeepSeek-R1 приблизился к уровню OpenAI o1, но при этом был ~на 96% дешевле в использовании [7]. Удивительно, что модель была обучена всего на ~2000 графических процессорах (гораздо меньше, чем обычно нужно для передовых моделей), благодаря эффективному обучению с подкреплением и алгоритмам рассуждения [8]. Высокая производительность и доступность (лицензия MIT) говорят о "демократизации" продвинутого ИИ [9]. Этот пример показывает, что ведущих результатов могут добиваться и небольшие коллективы при умном подходе, а не только крупные корпорации. Исследователи IBM отмечают, что DeepSeek умеет "думать о собственном мышлении" (метапознание) - это существенный рывок: модели нового поколения не просто выдают ответы, а делят проблему на шаги и проверяют правильность своих рассуждений [10]. Подобный стиль "поэтапного мышления", впервые популяризированный OpenAI o1, теперь стал ведущей тенденцией в исследовании ИИ.
Google Gemini 2.0. В декабре 2024 года Google DeepMind представила Gemini 2.0, свою самую продвинутую на сегодняшний день модель ИИ [11],[12]. Gemini 2.0 - это мультимодальная система, способная работать с текстом, изображениями, аудио и видео; она также обладает способностями к "использованию инструментов" (tool use). Модель не только анализирует мультимодальные входные данные, но и может генерировать различные типы вывода (изображения, многоязычную речь) и даже самостоятельно обращаться к внешним API [13]. Это решение призвано, по словам Google, стать шагом к "эпохе агентности", где ИИ ведёт многошаговое планирование и действует как полноценный агент [14],[15]. Gemini 2.0 существенно превосходит свою предыдущую версию (Gemini 1.5) по ключевым показателям и работает вдвое быстрее [16]. По заявлениям компании, это большой шаг к "универсальному помощнику" - прототипу полноценного AGI, встроенного в повседневную жизнь [17],[18]. Исполнительный директор Google, Сундар Пичаи, назвал 2.0 значимым рубежом на пути к созданию AGI и отметил, что система "позволяет перейти к новому классу агентных возможностей" [19].
Другие важные достижения:
Claude 2 от Anthropic (2024) и ряд конкурентов GPT-4 увеличили "контекстное окно" до свыше 100k токенов, что даёт возможность обрабатывать документы книжного объёма.
Meta AI продолжает открывать доступ к новым моделям (преемникам LLaMA 2), которые исследователи по всему миру могут донастраивать для решении узких задач.
Китайские компании тоже совершают рывки: например, UI-TARS от ByteDance (2024) умеет распознавать и автономно управлять графическими интерфейсами, опережая на некоторых тестах GPT-4, Claude и Google Gemini [20].
Все эти проекты стирают грань между цифровым помощником и роботом, ведущим действия в окружающем мире, демонстрируя, что ИИ становится всё более универсальным: он уже хорош не только в языке, но и в анализе изображений, написании кода, математике, научном моделировании и т.д. Хотя пока ни одна из существующих систем не является полноценным общим интеллектом, спектр их умений стремительно расширяется. Многие эксперты отмечают, что темпы появления новых технологий ускоряются: то, на что раньше уходили десятилетия, теперь достигается за год или даже быстрее, поддерживая догадки, что "взрыв интеллекта" может случиться в обозримом будущем.
Достижения в смежных областях (квантовые вычисления и биотехнологии)
Прогресс в сопутствующих сферах также ускоряет эволюцию ИИ. В квантовых вычислениях в 2024 году были продемонстрированы прототипы систем с числом кубитов свыше 1000, а улучшенные методы коррекции ошибок дают надежду, что в обозримом будущем квантовые компьютеры решат некоторые задачи быстрее классических суперкомпьютеров. Пока это скорее лабораторные эксперименты, но они потенциально могут ускорять задачи оптимизации и машинного обучения, в частности - обучение сложных моделей. Хотя такое практическое влияние ещё впереди, сам факт развития квантовых методов подкрепляет гипотезу беспрецедентного роста вычислительной мощности - ключевого фактора на пути к AGI.
В области биотехнологий ИИ уже широко применяется и получает обратное развитие. Например, с AlphaFold (2021) компания DeepMind совершила революцию в предсказании структуры белков, а в 2024 году целый ряд ИИ-программ для поиска лекарств вышли на стадии клинических испытаний. Генеративные модели теперь проектируют белки и генетические последовательности с заданными функциями, ускоряя создание вакцин и новых лекарств. Параллельно успехи в нейробиологии и биотехе дают идеи для новой архитектуры ИИ: нейроморфные чипы, копирующие структуру мозга, или интерфейсы "мозг-компьютер", сближающие человеческий интеллект и ИИ. Подобные междисциплинарные шаги обогащают потенциальные возможности ИИ (например, умением работать с биохимическими данными или моделировать мозг) и могут приблизить нас к сверхразумным системам. Хотя квантовые вычисления и биотехнологии - не главная ось развития ИИ 2024 года, они усиливают его прогресс, формируя технологическую конвергенцию, где ИИ подпитывается всё более мощными вычислительными ресурсами и биологическими инсайтами, двигаясь к сингулярности.
Экономические последствия революции ИИ
Автоматизация и занятость
Бурное развитие ИИ вызвало горячие споры о будущем труда. Генеративный ИИ и передовые системы автоматизации всё активнее вытесняют рабочие места, причём речь идёт не только о ручном труде, но и об офисных работниках и творческих профессиях, ранее считавшихся относительно безопасными для автоматизации. По оценкам аналитиков, почти 40% рабочих мест в мире хотя бы частично подвержены риску автоматизации с помощью ИИ [21]. В экономически развитых странах этот показатель может достигать ~60%, поскольку ИИ всё больше затрагивает высококвалифицированные сферы - от программирования и написания юридических документов до анализа данных [22]. В отличие от предыдущих волн автоматизации, которые в основном затрагивали рутинный заводской труд, современные ИИ-системы осваивают сложную когнитивную работу (написание текстов, программирование, интерпретация медсканов), что провоцирует опасения, что совершенно новые категории специалистов окажутся под ударом.
Ряд исследований пытается оценить этот потенциальный сдвиг. Например, анализ Goldman Sachs (2023) прогнозирует, что генеративный ИИ может автоматизировать эквивалент 300 млн полноценных рабочих мест в США и Европе в ближайшие годы [23]. Исследование McKinsey Global Institute показывает, что к 2030 году может быть автоматизировано около 30% общего рабочего времени (в сравнении с ~21% сегодня) [24]. Это означает десятки миллионов рабочих мест. В части профессий (медицина, юриспруденция, ИТ) ИИ уже берёт на себя значительную часть обязанностей. Например, многие СМИ применяют ИИ для генерации новостных заметок, а сервисные центры - для первичной клиентской поддержки. По опросу 2024 года, 3 из 10 компаний сообщили о прямой замене сотрудников ИИ за последний год [25], что ещё недавно казалось немыслимым. Это первые признаки более масштабного волнообразного процесса.
Однако общий эффект на занятость неоднозначен. Ранее технологический прогресс создавал и новые рабочие места - и в отношении ИИ предполагается аналогичное. Некоторые экономисты говорят, что ИИ будет не только вытеснять сотрудников, но и расширять их возможности, повышая производительность и порождая спрос на новые, более квалифицированные роли. Исследование Международного валютного фонда 2024 года указывает, что в половине профессий, подверженных риску автоматизации, ИИ может повышать эффективность (а не заменять людей полностью) [26]. По их прогнозам, многие рабочие места трансформируются вместо полного исчезновения: сотрудники будут работать бок о бок с ИИ-инструментами, а сами роли изменятся с учётом того, что человек по-прежнему лучше в стратегическом мышлении, эмоциональном интеллекте и уникальном творчестве. Исследование Института Тони Блэра (2024) по Великобритании оценивает, что в долгосрочной перспективе из-за ИИ может исчезнуть до 3 млн рабочих мест, но скорее всего общий уровень безработицы увеличится не столь значительно, потому что появятся новые рабочие места [27]. А в прогнозе Forrester потери рабочих мест в США от генеративного ИИ к 2030 году составят лишь около 1,5%, и новые вакансии почти компенсируют эти потери [28]. Оптимистичный сценарий предполагает, что как и в прошлые периоды, рынок труда адаптируется к новым условиям.
Фактическое влияние ИИ на занятость, однако, не будет однородным. Некоторым секторам и группам специалистов грозит серьёзный удар, другим - более плавные перемены. Скажем, полностью заменить персонал на конвейере было относительно просто в предыдущие волны автоматизации, а теперь под угрозой и рутинная офисная работа (телемаркетинг, ввод данных, бухгалтерия), и высококвалифицированные профессии (юристы, врачи, программисты). В долгосрочной перспективе это может требовать коренной перестройки системы образования и постоянного переобучения работающих. При этом экономисты сходятся во мнении, что значительные потрясения неизбежны, даже если массовой безработицы удастся избежать [29]. В переходный период многих работников ждут увольнения и поиск новой сферы деятельности. Власти некоторых стран сообщают о низком уровне безработицы, но за этими цифрами может скрываться нестабильность, когда люди подолгу не могут найти себя в новых реалиях. В сумме, рынки труда переживают перелом, сопоставимый по масштабам с промышленной революцией: ИИ обещает и рост производительности, и болезненную перестройку одновременно.
Неравенство и экономические сдвиги
Главная тревога - ИИ может усугубить экономическое неравенство. Если не предпринять мер, выгоды от ИИ могут достаться ограниченному кругу - владельцам и инвесторам AI-компаний, узкому слою высококлассных разработчиков, тогда как вытесняемые автоматизацией сотрудники рискуют остаться в проигрыше. МВФ предупреждает о возможной поляризации: работники, сумевшие овладеть ИИ-инструментами, станут более продуктивными и будут получать высокую зарплату, в то время как остальные могут столкнуться со стагнацией доходов [30]. Если половину задач в вашей профессии теперь способна выполнять машина, ваша переговорная позиция и уровень оплаты труда снижаются.
Одновременно есть аргументы, что ИИ может снизить неравенство за счёт удешевления некоторых "элитных" услуг. Если ИИ научится качественно ставить медицинские диагнозы или составлять юридические документы, упадёт стоимость этих услуг, что расширит их доступность. А использование ИИ-помощников может повысить производительность менее квалифицированных работников. К примеру, учитель средней руки при поддержке ИИ-помощника может добиться результатов, раньше достижимых лишь лучшими преподавателями. Исследования показывают, что ИИ способен сократить разрыв в доходах, если будет преимущественно повышать производительность низкоквалифицированного труда [31]. Исход в плане неравенства не предрешён: он зависит от того, как бизнес и государство будут внедрять ИИ.
Также может расшириться разрыв между странами. Развитые государства, которые первыми внедрят передовые ИИ-системы, будут ещё быстрее наращивать производительность и богатство, тогда как страны, не располагающие ресурсами или специалистами в этой сфере, могут отстать [32]. Особенно уязвимы государства, экономика которых строится на аутсорсинге услуг (колл-центры, программирование): подобная работа станет не нужна, если её будут выполнять ИИ. В долгосрочной перспективе, если ИИ позволит одной группе стран производить товары и услуги практически без участия человека, их конкурентное преимущество может радикально возрасти. Внутри стран усиливается риск монополизации: гиганты вроде OpenAI, Google и других, вкладывающие миллиарды в исследования, могут занять доминирующие позиции, контролируя облачные сервисы и фундаментальные "базовые модели" (foundation models). Такая концентрация ИИ-возможностей в руках немногих корпораций или государств может привести к сценарию когда "победитель получает всё" а остальные, как водится, ничего.
Столь массивная перестройка рынка труда угрожает обнищанием части населения и усилением социальных разрывов. Сокращение привычных рабочих мест при отсутствии надёжной поддержки от государства может подстегнуть рост безработицы и бедности. Даже при сохранении рабочих мест зарплаты могут замедлиться в росте, если ИИ берёт на себя половину обязанностей сотрудника. Тогда вопрос перераспределения плодов роста производительности (через зарплаты, снижение цен или общественные сервисы) становится центральным: пойдут ли выгоды ИИ на пользу всему обществу или осядут у узкого круга лиц? С учётом того, что во многих странах мира уже наблюдается рост неравенства, ИИ может стать катализатором для ещё большего расслоения. Некоторые футурологи говорят, что в долгосрочной перспективе роботы и ИИ смогут обеспечивать изобилие благ, и тогда всё человечество выиграет. Но до такой "утопии" ещё нужно дожить. В ближайшие годы нас ждёт сложная адаптация.
Социальная стабильность и общественная реакция
История показывает, что слишком быстрые технологические изменения без адекватной социальной адаптации могут вести к кризисам. Масштабные увольнения и страх "оказаться ненужным" часто приводят к социальной напряжённости - от протестов до массовых беспорядков. Эксперты всё чаще предупреждают об этом сценарии: ещё в 2017 году группа учёных MIT пришла к выводу, что "быстрый рост ИИ таит угрозу не в самом восстании роботов, а в массовой экономической дестабилизации и социальной турбулентности" [33]. В 2025 году эти опасения становятся всё более ощутимыми: в разных странах происходят забастовки и акции, от голливудских сценаристов (2023) до водителей сервисов доставки, требующих ограничить влияние алгоритмов. По опросам, большинство людей скорее тревожится, чем радуется новому витку развития ИИ [34]. Идея, что "роботы отнимут все рабочие места", перестала быть научной фантастикой и стала частью общественного дискурса.
Если доля безработных в будущем окажется чрезмерно высокой, возможна политическая и социальная дестабилизация. Моделирование некоторых исследователей показывает, что при уровне безработицы 40-50% возникает ~65% вероятность серьёзных общественных беспорядков [35],[36]. Хотя подобные цифры выглядят экстремально и маловероятно, что мы достигнем их скоро, риск недовольства и нестабильности растёт уже сейчас. Даже при меньшем уровне безработицы, но сосредоточенном в конкретных регионах или секторах, могут развиваться очаги напряжённости. Есть опасение формирования так называемого "бесполезного класса", людей, которые не видят для себя роли в новой экономике, что ведёт к депрессии и другим социальным последствиям [37]. На психологическом уровне ощущение замены человека машиной порождает экзистенциальный кризис и снижает мотивацию.
Другой риск - общественная враждебность к технологиям как к источнику проблем. У людей может возникнуть желание бороться с автоматизацией, например, громить роботов или оказывать политическое давление на власти, требуя полной остановки развития ИИ. Окончательно положение может осложнить широкое использование ИИ в создании фейков, пропаганды, взломе систем и т.д. Все эти факторы рисуют два потенциальных сценария: либо ИИ приведёт к новому расцвету с ростом благосостояния, либо раздробит социальную ткань общества. Причём готовность к этим изменениям у госорганов весьма ограничена. По свежему исследованию, лишь ~10% правительств владеют стратегиями, достаточными для управления рисками массовой безработицы и неравенства, вызванными ИИ [38],[39]. Технологии идут быстрее, чем политические меры и системы образования, и именно это отставание напоминает "горизонт событий" - когда изменения уже не остановить, а последствий ещё не осознали.
Государственные меры и стратегии адаптации
Осознав масштабы угроз и возможностей, власти разных стран начали формировать первые меры. В центре внимания - как максимизировать выгоды от ИИ и смягчить негативные эффекты для общества. Основные направления:
Безусловный базовый доход (ББД) и реформирование соцобеспечения. Самая смелая идея - обеспечивать каждому гражданину гарантированный доход, финансируемый государством. Сторонники (в том числе Илон Маск и Сэм Альтман) утверждают, что при масштабной автоматизации ББД позволит людям получать долю богатств, генерируемых ИИ [40]. Это может защитить общество от массовой бедности. Некоторые правительства тестируют пилотные проекты ББД или обсуждают дополнительные пособия, отрицательный подоходный налог и другие меры. Выдвигаются и идеи "налога на ИИ" для перераспределения средств от компаний, интенсивно внедряющих автоматизацию [41]. Пока ББД вызывает противоречия и повсеместно не применяется, но разговор об этом вышел из маргинальной зоны в мейнстрим именно благодаря ИИ.
Переобучение и образовательные инициативы. Важнейший приоритет политиков - подготовка кадров к новой реальности. Государственные и корпоративные фонды финансируют программы, обучающие программированию, анализу данных, кибербезопасности, работе с роботами и т.д. Речь идёт о курсах для взрослых, переориентации уволенных специалистов, а также реформе школьного образования, где больше внимания уделяют цифровой грамотности, критическому мышлению и творчеству. Предполагается, что такие навыки будут цениться даже при широком внедрении ИИ. Некоторые страны вводят государственно-частные партнёрства, где компании обучают своих работников пользоваться ИИ, а не заменяют их. Хотя переобучение не решит всех проблем (не все хотят или могут стать программистами), это ключ к тому, чтобы работники перешли в сферы, где ИИ - это инструмент, а не конкурент.
Сокращение рабочего времени и разделение вакансий. В свете роста производительности благодаря ИИ снова активно обсуждается идея уменьшения стандартной рабочей недели. Если те же результаты можно достичь за меньшее время, почему бы не ввести 4-дневную неделю без потери зарплаты? Ряд компаний уже проводит подобные эксперименты с положительными результатами. Сокращая рабочее время, мы можем "разделить" труд между большим числом людей, снижая безработицу. Ещё Джон Мейнард Кейнс в начале XX века предсказывал, что с развитием технологий в 2030 году люди будут работать по 15 часов в неделю [42],[43]. ИИ приблизил нас к этой идее. Некоторые правительства предлагают стимулировать компании к сокращению рабочего дня или внедряют гарантированный труд (job guarantee), чтобы каждый желающий имел работу в сфере общественных работ или ухода. Это требует пересмотра отношения к труду как к цели самой по себе.
Регулирование разработки и использования ИИ. Власти также пытаются регулировать ИИ, чтобы обезопасить граждан и снизить риски для экономики. Евросоюз разработал Закон об ИИ (EU AI Act), который классифицирует приложения по степени риска, запрещает некоторые сценарии и требует прозрачности для генеративных моделей. В 2024-2025 годах планируется введение этого закона. Другие страны, в том числе Великобритания, Канада и Китай, создают свои нормы регулирования. В США президентским указом введён механизм мониторинга больших моделей, а также создан Институт безопасности ИИ, аналогичный британскому [44]. В ноябре 2024 года прошла Саммит по безопасности ИИ в Блетчли-парке, где многие страны согласовали общие принципы, в том числе слежение за "передовыми ИИ". Все эти меры напоминают усилия в сфере ядерного нераспространения и отражают осознание, что сверхразумные системы - это вызов, который требует глобальной координации.
Этика и безопасная разработка. Крупные лаборатории (OpenAI, Google DeepMind и др.) поддерживают подход "ответственной разработки", ориентируясь на ценности общества. Выделяются средства на исследования по "согласованности" - чтобы цели ИИ были согласованы с человеческими, на интерпретируемость (понимание принятия решений ИИ) и устойчивость (robustness). Так, OpenAI тестировала o1 с участием внешних специалистов по безопасности и обнаружила уязвимости, связанные с потенциальным биотеррором [45]. Идеи лицензирования ИИ-моделей сверхопределённой мощности набирают популярность: компании должны получать разрешение на обучение таких моделей, показывая, что внедряют меры безопасности. Обсуждается также "налог на сверхприбыль ИИ" (windfall tax), по которому при огромной маржинальности ИИ-проекта часть прибыли автоматически перераспределяется обществу. Эти идеи пока в зачатке, но отражают желание не допустить бесконтрольного роста могущества нескольких корпораций.
Таким образом, хотя политические круги реагируют на вызовы ИИ, общественные механизмы отстают от темпов развития технологий. Наблюдаются многочисленные концепции и пилотные проекты, но реально работающие решения внедряются медленно. Ближайшие несколько лет покажут, справятся ли системы соцобеспечения, образования и госуправления с потоком изменений. От этого будет зависеть, станет ли ИИ движущей силой к процветанию или к углублению глобальных разрывов.
Так насколько же все-таки близка сингулярность?
Определить, как далеко мы до технологической сингулярности, можно разными способами - от количественных (сравнение ИИ и человека на тестах) до качественных (наличие непредсказуемого самосовершенствования ИИ). Взглянем на ключевые признаки и мнения экспертов.
Техническое развитие
Один из методов - оценивать, на каком уровне ИИ решает задачи в сравнении с людьми. К 2024 году искусственные системы по многим узким направлениям превзошли людей: например, ошибки в компьютерном зрении давно меньше, чем у человека, а такие модели, как GPT-4, превосходят средние результаты людей на некоторых экзаменах. Новые модели для рассуждений пошли дальше. OpenAI o1 справляется с задачами уровня вузовских олимпиад [46], DeepSeek-R1 показывает сопоставимое мастерство [47], причём оба ориентированы на пошаговое решение. Перевод текста - ещё одна ключевая веха: многие системы близки к уровню носителей или, по крайней мере, постоянно снижают время и ошибки в пост-редактировании [48],[49].
При всём этом у современных ИИ есть известные ограничения. Им трудно "понимать" мир по-человечески, они могут ошибаться в элементарных ситуациях (отсутствие здравого смысла) или "галлюцинировать" факты. Они не обладают цельной "картиной мира" и навыками, которые присущи людям с детства (спонтанное обучение, физическая интуиция, социальное взаимодействие). Пока ни один ИИ не обладает телом или сенсорным опытом, аналогичным человеческому. Многим учёным кажется, что для настоящего общего интеллекта мы должны внедрить новые принципы (символические методы, когнитивные архитектуры, эмбодимент), а не просто масштабировать архитектуру нейронных сетей. И всё же с каждым годом ИИ берётся за задачи, которые раньше казались прерогативой людей, - от доказательства теорем до написания художественных текстов.
Особенно важен критерий самоулучшающегося ИИ. Сейчас ИИ-модели уже помогают в проектировании следующих поколений чипов (AI-designed hardware) и оптимизируют архитектуры нейронных сетей (AutoML). Это первые элементы "рекурсивного самосовершенствования". Полностью автономной спирали, где ИИ без участия человека начинает радикально улучшать собственную структуру, пока нет. Но рост вычислительных мощностей, объём инвестиций и успех в смежных технологиях подталкивают нас к тому, что подобный сценарий не исключён в обозримой перспективе.
Мнения экспертов и прогнозы
Мнения специалистов о сроках сингулярности поляризованы: от тех, кто считает, что она наступит очень скоро, до скептиков. В "оптимистическом лагере" - Сэм Альтман, предположивший в 2023 году, что "Сингулярность может наступить уже к 2025 году" [50]. Исследователи DeepMind также предполагают, что в течение десятилетия можно достичь AGI, если текущее ускорение сохранится. По опросам специалистов прошлого десятилетия, медианный прогноз AGI - 2040-2050 годы, но после GPT-4, o1 и других рывков временные горизонты часто пересматривают в сторону ускорения.
С другой стороны, Йошуа Бенжио, Джеффри Хинтон и Янн Лекун подчеркивают, что для настоящего AGI нужно качественно новое понимание: у современных моделей нет настоящего самосознания, они базируются на больших массивах данных, но испытывают сложности с обобщением и планированием в реально непредсказуемой среде. Гэри Маркус и Мелани Митчелл говорят о хрупкости нейросетей при столкновении с новыми или неструктурированными задачами: способность решать тесты и создавать правдоподобный текст не равносильна человеческому пониманию.
Футуристы вроде Рэя Курцвейла сохранили прогноз, что сингулярность будет к 2045 году [51]. Он указывает на "экспоненциальную кривую" развития ИИ и предполагает, что к 2029-му ИИ преодолеет тест Тьюринга, а спустя ещё 16 лет случится слияние человеческого и машинного интеллекта. Илон Маск и Элиезер Юдковский предупреждают об угрозе, что сверхразум, возникнув неожиданно, станет неконтролируемым. Юдковский призывает к мораторию на исследования самых мощных моделей, опасаясь, что при достижении некоего порога ИИ станет сильнее людей, и действовать будет поздно - словно за горизонтом событий.
Таким образом, оценки сильно различаются. Экономисты и социологи меньше сконцентрированы на точной дате AGI и больше - на траектории влияния ИИ: даже "узкий" ИИ может радикально переформатировать рынки и перераспределить власть. Для них вопрос о "сингулярности" частично снимается, ведь и без абсолютного AGI уже происходят перемены исторического масштаба.
Ещё один индикатор близости сингулярности - частота важных открытий. Если мы реально подходим к точке невозврата, то промежутки между революционными прорывами будут сокращаться. График крупных успехов ИИ действительно выглядит ускоряющимся. Интервал между AlphaGo (2016) и AlphaFold (2020) составил четыре года; между AlphaFold и GPT-4 (2023) - три года; а к концу 2024 года мы уже увидели OpenAI o1, DeepSeek-R1, Claude 2, Gemini 2.0 и т.д. - то есть на знаковые релизы уходит порой всего несколько месяцев. Количество статей на arXiv продолжает расти. По данным AI Index 2024 от Стэнфорда, объём публикаций по ИИ увеличился в три раза за 2010-2022 годы [52]. При этом значительная часть передовых исследований уходит в корпоративные лаборатории и может вообще не публиковаться.
К тому же есть фактор геополитического соревнования. США, Китай, ЕС и другие правительства вкладывают миллиарды в ИИ, понимая его стратегическое значение. Это конкуренция напоминает Космическую гонку и тоже подгоняет развитие. В 2024 году несколько ведущих национальных институтов соперничали за первенство в создании или применении новых крупных моделей. В итоге быстро растёт вероятность, что ключевой прорыв сделает одна из команд раньше, чем кто-то другой решит притормозить ради безопасности.
Признаком самоподдерживающегося развития может стать момент, когда ИИ начнёт проектировать ИИ без участия человека, а мы пока видим лишь зачатки: AutoML и генетический отбор конфигураций нейросетей. Однако и это значительно сокращает временные затраты на настройку и эксперименты. Разработчики уже пользуются помощниками для написания кода (Copilot, Cursor, Windsurf), существенно ускоряя процесс. Таким образом, ИИ повышает производительность в сфере собственных исследований: если ИИ способен собирать, анализировать и обобщать большие массивы научных данных, он может подсказывать пути к следующим крупным открытиям, тем самым ускоряя саму науку.
В целом, частота и масштаб открытий в ИИ за 2024-2025 годы беспрецедентны и подтверждают гипотезу об экспоненциальном росте. Вопрос лишь в том, приведёт ли этот рост к бесконтрольному "взрыву интеллекта" в ближайшие годы, или мы всё ещё на стадии "быстрого, но управляемого" развития.
Выводы: перешли ли мы горизонт событий?Из всего вышесказанного напрашивается главный вопрос: достигли ли мы того момента, когда развитие ИИ уже невозможно остановить или понять - то есть "горизонта событий" технологической сингулярности? Судя по всему, мы очень близко к этому порогу, но всё же не пересекли его окончательно.
С одной стороны, темпы развития ИИ за последние два года поразительны и беспрецедентны. Мы видим системы, которые в ряде узких направлений уже превосходят лучших людей (решение олимпиадных задач, программирование, стратегические игры), причём эти модели становятся всё более универсальными. Экономические и социальные последствия (увольнения, рост неравенства, реформы и т.д.) уже ощутимы, так что ИИ вышел за пределы лабораторий и влияет на реальные жизни. Более того, налицо "гонка": много игроков (компаний, стран) инвестируют огромные ресурсы, и, скорее всего, остановить или резко притормозить исследования сейчас крайне затруднительно. В этом смысле человечество могло пересечь "политический горизонт событий", где мы уже не можем скоординировать усилия, чтобы замедлить бег.
Но если мы говорим о более жёстком определении сингулярности - о моменте, когда ИИ становится самоулучшающимся и на порядки умнее людей, выходя из-под понимания и контроля, - то к началу 2025 года мы этого ещё не достигли. Нет свидетельств, что существует AGI, который в буквальном смысле превосходит человека во всех областях. Открытые модели всё ещё нуждаются в людях для постановки целей, проверки результатов, обеспечения вычислительных ресурсов. ИИ-агенты (включая Gemini 2.0) хотя и умеют планировать шаги и "использовать инструменты", не демонстрируют полной самостоятельности, сравнимой с человеком. Главная особенность общего интеллекта - способность к обучению на уровне ребёнка, воспринимающего реальный мир, - по-прежнему не реализована. Значит, мы не видим ещё резкого, неконтролируемого скачка, который ассоциируется с понятием "сингулярности".
Однако "горизонт событий" - это и метафора того, что мы можем и не заметить сам момент перехода, так как ИИ-архитектуры становятся сложнее и часто показывают непредвиденные эффекты. Разработчики отмечают, что некоторые крупные модели начинают выполнять задачи, которые изначально не были заложены при обучении, и проявляют скрытую вариативность поведения. Чем мощнее системы, тем выше риск, что однажды мы столкнёмся с настоящим "чёрным ящиком", где ИИ превосходит наши инструменты анализа. Тем не менее, согласно текущим наблюдениям, человечество пока сохраняет рычаги влияния: мы можем отключать модели, вносить правки в их архитектуры и продолжать принимать решения о том, как их использовать.
С точки зрения социальной готовности можно сказать, что мы лишь частично подготовлены к волне изменений, которые могут обрушиться, если ИИ приблизится к AGI ещё быстрее. Идут обсуждения безусловного дохода, переквалификации, регулирования; создаются институты по безопасности ИИ. Но решения по-прежнему носят фрагментарный характер, и их реализация сильно отстаёт от реальных скоростей научно-технического прогресса. Некоторые эксперты полагают, что у нас есть всего несколько лет или пару десятилетий, чтобы создать надёжные механизмы контроля и распределения выгод от ИИ. Если мы не успеем, то можем обнаружить, что "поезд ушёл" и общество уже переживает глубокий шок от взрывного роста ИИ.
Подводя итог, можно сказать, что человечество стоит на краю сингулярности. Мы ещё не сделали последний шаг через горизонт, однако уже довольно чётко видим его очертания. Прорывы 2024-2025 годов фактически приблизили нас к AGI, возможно, на считаные годы [53],[54]. Исход того, что произойдёт, может быть как светлым (если ИИ повысит благосостояние и даст человечеству невиданные возможности), так и печальным (если нас захлестнёт волна экономических и социальных проблем, а мощные системы выйдут из-под контроля). Пока у нас сохраняется шанс влиять на развитие событий, занимаясь исследованиями по безопасности, создавая механизмы регулирования и стремясь к справедливому распределению плодов прогресса. Когда же мы фактически пересечём этот порог (если пересечём), обратной дороги, возможно, не будет. Но в начале 2025 года мы ещё не достигли необратимой точки; у нас есть небольшое окно возможностей, чтобы осознанно управлять будущим и сформировать условия, при которых сингулярность станет благом, а не катастрофой.
(https://habr.com/ru/artic...)