MLPerf Training 5.0: NVIDIA масштабируется и ставит новые рекорды
Вчера консорциум MLCommons опубликовал результаты очередного раунда бенчмарка MLPerf Training. Как и ожидалось, в гонке за лидерство по абсолютной производительности продолжается противостояние между NVIDIA и AMD — хотя стартовые условия у компаний совершенно разные.
MLCommons — это некоммерческое объединение, отвечающее за разработку и поддержку тестов MLPerf, которые публикуются дважды в год и охватывают задачи обучения и инференса ИИ-моделей. Проект поддерживают более 125 компаний, включая AMD, ARM, Google, Huawei, Intel, NVIDIA, Qualcomm, Samsung и других. Перед публикацией результатов проходит процедура взаимной экспертизы (peer review), что повышает достоверность и прозрачность данных.
В релизе Training 5.0 ключевым сценарием стало предварительное обучение модели Llama 3.1 с 405 миллиардами параметров. Кластер GB200-NVL72 от NVIDIA справился с одной итерацией за примерно 20 минут, установив новый рекорд. Ускорители GB200 показали лучшие результаты и в других ...