В НИУ ВШЭ разработали новый метод сжатия больших языковых моделей
В Институте ИИиЦН ФКН НИУ ВШЭ разработали новый метод сжатия больших языковых моделей, таких как GPT и LLaMA, который позволяет уменьшить их объем на 25–36% без дополнительного обучения и значительной потери в точности.
