Технология NVIDIA CUDA-Q помогает исследователям сократить количество кубитов в алгоритмах квантовой сборки
- Исследователи из Эдинбургского университета использовали платформу NVIDIA CUDA-Q для моделирования алгоритмов квантовой кластеризации, что значительно сократило количество кубитов, необходимых для больших наборов данных.
- Команда разработала метод с использованием базисных наборов, позволяющий выполнять задачи квантового машинного обучения на современном квантовом оборудовании без использования квантовой оперативной памяти (QRAM).
- Ускорение графического процессора NVIDIA позволило масштабировать моделирование от 10 до 25 кубитов, демонстрируя потенциал суперкомпьютеров с квантовым ускорением в решении сложных задач.
Последние квантовые исследования NVIDIA, проведенные в сотрудничестве с Лабораторией квантового программного обеспечения Эдинбургского университета, пролили свет на будущее квантового машинного обучения (QML) и его потенциал для решения некоторых из самых сложных проблем в науке и промышленности, по словам Блог компании.
Это исследование, проведенное под руководством доцента доктора Петроса Уолдена и его команды, подчеркивает важность решения ресурсоемких задач без использования квантовой оперативной памяти (QRAM), которая до сих пор остается лишь теоретической, но непроверенной технологией.
Согласно публикации, их результаты могут помочь преодолеть разрыв между нынешними возможностями квантовых вычислений и высокими ожиданиями, возлагаемыми на эту технологию.
Исследователи сосредоточили свои усилия на разработке и ускорении методов QML, которые значительно сокращают количество кубитов, необходимых для изучения больших наборов данных. Команда использовала платформу NVIDIA CUDA-Q для эмуляции этих подходов, расширив работу Харроу и его коллег с помощью базисных наборов — классической техники уменьшения размерности — чтобы сделать приложения QML более осуществимыми на квантовых устройствах ближайшего будущего.
Базовый набор — это сокращенная версия полного набора данных, в идеале сопоставленная с меньшим и более тяжелым набором данных, сохраняющая при этом основные свойства исходного набора. Это позволяет исследователям аппроксимировать характеристики всего набора данных без его непосредственной обработки, что делает задачи QML с интенсивным использованием данных более реалистичными и управляемыми в современных квантовых системах.
Исследовательская группа использовала базовые наборы для реализации и тестирования трех алгоритмов количественной кластеризации данных: кластеризации разделов, кластеризации с тремя средними и кластеризации модели смеси Гаусса (GMM). Кластеризация — это метод обучения без присмотра, который группирует схожие точки данных осмысленным образом и применяется в реальных приложениях, начиная от классификации опухолей и заканчивая сегментацией рынка. Они особенно ценны в таких приложениях, как сегментация рынка, распознавание изображений и медицинская диагностика, где понимание естественного сбора данных может помочь принимать решения и прогнозировать.
Используя CUDA-Q, команда смогла смоделировать эти методы компиляции для задач размером до 25 кубитов. Набор инструментов NVIDIA для моделирования сыграл решающую роль в преодолении проблем масштабирования, присущих квантовым вычислениям, позволяя исследователям запускать крупномасштабные симуляции, которые было бы невозможно выполнить только с помощью аппаратного обеспечения ЦП.
«CUDA-Q позволил нам не беспокоиться об ограничениях масштабируемости кубитов и быть готовыми к высокопроизводительным вычислениям с первого дня», — сказал Бонифаций Югендран, ведущий разработчик этого исследования.
Эта возможность была особенно важна, когда команда перешла от моделирования проблем с 10 кубитами в процессорах к проблемам с 25 кубитами в системе графического процессора NVIDIA DGX H100. Бесшовная масштабируемость, обеспечиваемая CUDA-Q, означает, что команда может продолжать свою работу, не внося серьезных изменений в код моделирования.
Еще одной важной особенностью была возможность объединять память для нескольких графических процессоров с помощью серверной части NVIDIA mgpu. Эта особенность позволила исследователям дальше масштабировать свои симуляции, продемонстрировав потенциал суперкомпьютеров с квантовым ускорением для решения крупномасштабных задач.
Исследователи сообщили, что результаты этого моделирования являются многообещающими. Квантовые алгоритмы особенно хорошо зарекомендовали себя при использовании подхода кластеризации GMM (K = 2), и было показано, что подход разделенной кластеризации сопоставим с классическим эвристическим подходом, известным как алгоритм Ллойда. Эти результаты показывают, что квантовые вычисления могут предложить конкурентные преимущества перед классическими методами в конкретных случаях использования.
Как говорится в блоге: «Выполнение моделирования в масштабах, представленных командой Petros в их исследовании приложений для больших данных на небольших квантовых компьютерах, возможно только с использованием ускорения графического процессора, обеспечиваемого CUDA-Q».
Это заявление подчеркивает решающую роль, которую платформа NVIDIA CUDA-Q сыграла в обеспечении возможности квантового моделирования и, следовательно, в продвижении области квантового машинного обучения.
В будущем Петрос и его команда планируют продолжить сотрудничество с NVIDIA для разработки и масштабирования новых приложений для суперкомпьютеров с квантовым ускорением с использованием CUDA-Q. Их текущая работа, вероятно, будет сосредоточена на совершенствовании алгоритмов QML и изучении дополнительных количественных методов, которые можно применить к реальным проблемам.