Трансформеры уже не те: области, в которых нейросетевая архитектура скоро превзойдет человека
Трансформер – архитектура глубоких нейронных сетей, которая появилась в 2017 году. Ее отличия от более привычных RNN-сетей (применяются для моделирования последовательных данных) в том, что они могут воспринимать объект – текст, видео, изображение – целиком, а не по порядку, соответственно, лучше понимать контент и передавать основной смысл.