Nvidia выпустила Nemotron 3 Super 120B — открытую LLM для ИИ-агентов с пятикратным приростом скорости
0
Компания Nvidia выпустила Nemotron 3 Super — открытую ИИ-модель Mixture-of-Experts (MoE) с поддержкой 120 млрд общих параметров и 12 млрд активных параметров, предназначенную для задач агентного ИИ. Модель использует гибридную архитектуру Mamba-Transformer. Источник изображений: Nvidia
