Bitknauserei: Lassen sich Paramter von Sprachmodellen auf ein Bit reduzieren? (Heise Online)
Forscher von Microsoft und der Chinesischen Akademie der Wissenschaften haben auf arXiv einen neuen Ansatz veröffentlicht, bei dem sie alle Parameter eines Sprachmodells auf die drei Zahlen -1, 0 und 1 reduzieren und damit ein Modell trainieren (und