«Время электроники»
Июль
2025
1 2 3 4 5
6
7 8 9 10 11
12
13 14 15 16 17 18 19
20
21 22 23 24 25 26
27
28 29 30 31

Как графические процессоры прошли путь от аркадной графики до управления самыми умными машинами в мире

Графический процессор, более известный сегодня как GPU, изначально не был основой суперкомпьютеров или движком для чат-ботов с искусственным интеллектом. Его история начинается в задымлённой игровой комнате, где в 1979 году дебютировал игровой автомат Galaxian от Namco. Плата под мерцающей армадой инопланетян доказала, что специализированный кремний может отображать больше цветов, анимировать больше спрайтов и привлекать больше игроков, чем любой компьютер общего назначения того времени.

За следующие пять десятилетий стремление увеличить количество пикселей и повысить плавность работы для большего числа людей привело к четырём отдельным революциям. Потребительские игры, высокопроизводительные научные вычисления, майнинг криптовалют и современный генеративный искусственный интеллект. Если проследить этот путь, то можно увидеть, как чип, созданный для развлечения, стал рабочей лошадкой современных центров обработки данных и может послужить основой для человекоподобных роботов и автономных транспортных средств будущего.

Когда материнская плата Galaxian выдавала на монитор сигнал с разрешением 62 × 128 пикселей, она обрабатывала фоны в виде мозаики и самостоятельно перемещала разноцветные спрайты — и всё это без помощи центрального процессора. Такая автономность оправдывала создание схемы, оптимизированной исключительно для визуальных эффектов, и это принесло свои плоды.

Эта машина была второй по прибыльности аркадной игрой в Японии в 1979 и 1980 годах, а к 1982 году в США было продано около 50 000 таких машин. Её успех напрямую привёл к ещё большему хиту от Namco — игре Galaga (1981) — и убедил всю индустрию в том, что специализированное графическое оборудование может как улучшить, так и испортить интерактивный опыт.

По мере роста популярности игровых автоматов домашние пользователи и профессиональные клиенты стали требовать таких же острых ощущений. Atari 2600 поставлялся с телевизионным интерфейсным адаптером, который обрабатывал видео, простой звук и ввод с контроллера. По сути, это был протографический процессор, размещённый на одном чипе. Военные бюджеты пошли по другому пути, профинансировав в 1981 году авиасимулятор CT5 компании Evans & Sutherland.

Установка, работающая на мини-компьютере DEC PDP‑11, обошлась ВВС США более чем в 20 миллионов долларов. Это яркое напоминание о том, что передовые визуальные технологии обходились дорого, когда специализированного оборудования не хватало.

Компания Nintendo нашла золотую середину. Её 8-битная игровая приставка Famicom, выпущенная в 1983 году и переименованная в Nintendo Entertainment System в 1985 году, опиралась на продуманный игровой дизайн и маркетинг в магазинах игрушек, а не на вычислительную мощность.

Настоящий прорыв в визуальном плане произошел в 1990 году с выходом Super Nintendo: 16-битный процессор, чипы для улучшения графики, такие как Super FX, для работы с полигонами, а также сдвиг перспективы в режиме 7, который позволял Mario Kart имитировать 3D. Однако аркадные игры по-прежнему лидировали: в 1984 году Atari выпустила I, Robot с настоящим 3D, что подчеркнуло, насколько далеко должны были зайти домашние игровые приставки.

В 1996 году компания 3dfx произвела фурор на рынке ПК, выпустив видеокарту Voodoo 1. Вместо того чтобы заменить 2D-плату пользователя, Voodoo дополняла её, беря управление на себя только тогда, когда программное обеспечение переходило в 3D-режим.

При правильной настройке карта обеспечивала частоту кадров в Quake выше 40 в секунду при разрешении 512 × 384, превосходя все остальные карты, представленные на полках магазинов. Конкуренты бросились наверстывать упущенное. Карта ATI 3D Rage Pro с восьмимегабайтной конфигурацией и интерфейсом AGP не уступала Voodoo в скорости, при этом в ней была реализована технология сглаживания ранних границ для более четкого изображения.

31 августа 1999 года NVIDIA представила GeForce 256 и впервые использовала термин «графический процессор». Ранее 3D-ускорители всё ещё полагались на центральный процессор в вопросах геометрии и математики освещения. В GeForce преобразование, освещение, растеризация и затенение пикселей были объединены в одном кремниевом чипе.

Эта интеграция устранила серьёзное узкое место, позволив ПК воспроизводить 32-битный цвет в разрешениях, которые раньше были доступны только в игровых автоматах. Демонстрационные видеоролики Quake III, в которых сравнивались компьютеры с Voodoo и GeForce, демонстрировали более яркие текстуры, стабильную частоту кадров и явный переход на новое поколение.

 

Хотя NVIDIA была лидером на потребительском рынке, её видеокарта FX 5200 занимала около трёх четвертей розничного рынка. ATI одержала важные победы в сфере домашних развлечений. В 2005 году Microsoft выпустила Xbox 360 с графическим процессором ATI «Xenos» — первым массово производимым чипом с унифицированной архитектурой шейдеров.

Вместо того чтобы выделять отдельные конвейеры для работы с вершинами и пикселями, Xenos позволял любому массиву ядер обрабатывать любой тип шейдеров, что обеспечивало максимальную загрузку и позволяло достичь тактовой частоты 500 МГц, которая была недостижима для суперкомпьютеров всего десять лет назад. Та же концепция единства лежит в основе практически всех современных графических процессоров.

Разработчики графических процессоров увеличивали количество ядер и пропускную способность памяти по мере того, как игровые миры становились всё более реалистичными, поддерживая динамическое освещение, симуляцию физических процессов и плотные текстуры. Исследователи заметили, что чип, обрабатывающий миллионы лучей, может с такой же лёгкостью ускорять молекулярную динамику или моделирование атмосферы.

Технология OpenCL от Apple, выпущенная под брендом Khronos Group, позволяла программистам рассматривать объединённые системы CPU‑GPU как один гигантский процессор. Вычисления на графических процессорах общего назначения, или GPGPU, быстро стали незаменимыми в климатологии, медицинской визуализации, квантовой механике и астрофизике.

Параллельная пропускная способность позволяет графическим процессорам решать криптографические задачи, проверяя транзакции в блокчейне. По мере роста стоимости биткоина и особенно эфириума майнеры собирали целые серверные стойки из потребительских видеокарт, и каждая установка решала задачи «доказательства выполнения работы» быстрее, чем когда-либо могли процессоры. К 2017 году геймеры столкнулись с пустыми полками в магазинах и растущими ценами.

Когда из-за COVID-19 был введён карантин, глобальный дефицит полупроводников столкнулся со спросом на оборудование для удалённой работы, что превратило графические процессоры в спекулятивный актив. Розничные продавцы ограничивали закупки, скальперы использовали ботов, а попытка NVIDIA снизить производительность майнинга с помощью обновлений драйверов провалилась.

Только когда Ethereum перешёл на модель Proof-of-Stake, в которой валидация зависит от владения, а не от математических головоломок, спрос наконец нормализовался.

Пока криптовалюты были у всех на слуху, NVIDIA искала более спокойную возможность. В 2017 году компания выпустила архитектуру Volta с тензорными ядрами — специализированными блоками, которые выполняют матричное умножение с невероятной скоростью. Именно этого и ждут нейронные сети глубокого обучения.

Ранняя версия платы GV100 нашла свою нишу, но следующая серия карт для центров обработки данных Tesla стала популярной. Вскоре тензорные ядра появились в потребительском оборудовании в рамках проекта Turing 2018 года в сочетании с ядрами RT, которые ускоряли трассировку лучей в реальном времени.

Вместе они создали DLSS — систему повышения разрешения с помощью искусственного интеллекта, которая позволяет игре работать в разрешении 1440p и при этом отображать чёткие кадры в разрешении 4K, сочетая улучшенную графику с более высокой производительностью.

Публика наконец-то обратила внимание на ИИ на базе графических процессоров, когда OpenAI в конце 2022 года выпустила GPT‑3, более известную благодаря интерфейсу ChatGPT. Для обучения этой модели потребовались тысячи высокопроизводительных видеокарт, подключённых через NVLink от NVIDIA, которая обеспечивает передачу данных между графическими процессорами со скоростью до 900 гигабайт в секунду.

К 2024 финансовому году выручка центров обработки данных NVIDIA выросла до 18,4 миллиарда долларов, что на 400 с лишним процентов больше по сравнению с аналогичным периодом прошлого года, обеспечив ей примерно 65‑процентную долю рынка вычислений с искусственным интеллектом, намного опережая 22 процента Intel и 11 процентов AMD.

Флагманский процессор H100 обеспечивает пропускную способность памяти более трёх терабайт в секунду и может быть разделён на семь изолированных графических процессоров, что позволяет выполнять несколько задач одновременно на одном физическом устройстве.

На выставке CES 2025 компания NVIDIA представила архитектуру Blackwell, которая обещает вдвое повысить производительность по сравнению с предшественницей без удвоения энергопотребления и оптимизировать взаимодействие между графическими процессорами, чтобы сократить время обучения больших языковых моделей.

Компания также заявила о намерении развивать робототехнику, управляемую людьми, и автономные транспортные средства, применяя свои технологии параллельной обработки данных для оперативного восприятия и управления. Пока неясно, смогут ли AMD или Intel изменить этот тренд, но направление очевидно. Графические процессоры больше не являются дополнением к играм. Они стали вычислительным сердцем многих отраслей с оборотом в триллионы долларов.

Следующим шагом может стать использование квантовых процессоров или фотонных межсоединений, но в какой бы форме это ни произошло, почти наверняка будут учтены уроки, полученные при анимации инопланетных захватчиков на фоне неба с разрешением 62 × 128 пикселей. Скромный графический процессор, созданный для развлечения, стал краеугольным камнем современных вычислений, и его история продолжает разворачиваться кадр за кадром.

 

Источник

Сообщение Как графические процессоры прошли путь от аркадной графики до управления самыми умными машинами в мире появились сначала на Время электроники.