Nvidia : un colosse aux pieds d’argile
Nvidia est la surprise de la décennie. L’entreprise conçoit des cartes graphiques, un composant optionnel sur les ordinateurs, nécessaire uniquement pour jouer aux jeux vidéo, faire du montage vidéo ou de la conception 3D. L’entreprise restait depuis des années sur ce gros marché de niche, avec une forte concurrence de la part d’AMD, Gygabyte, ASUS ou autre.
Un gros marché de 3,6 milliards de dollars, mais de niche, comparé à l’électronique grand public comme les ordinateurs portables, smartphones ou TV. On imaginait donc mal Nvidia, la troisième entreprise tech la plus valorisée, passer devant des mastodontes présents sur des marchés plus gros comme Google ou Samsung. Tout le monde possède un produit Apple, Samsung, Google ou Microsoft, mais qui possède une carte graphique Nvidia chez lui ?
Pour comprendre l’ascension du fabricant, il faut comprendre la différence entre les cartes graphiques, appelées Graphical Process Unit (GPU) et les processeurs, appelés Central Process Unit (CPU). Les deux exécutent du code pour réaliser des calculs.
Les tâches comme lire les mails, ouvrir un document ou naviguer sur internet tournent sur CPU qui ont 4, 8, 16 voire 32 cœurs puissants. Or, les rendus graphiques demandent beaucoup de calculs simples en même temps. On les lance donc sur les GPU qui disposent de 10 000 cœurs de faible puissance.
Historiquement dédiées aux calculs graphiques, les GPU s’ouvrent à d’autres domaines, comme les simulations physiques, le minage de cryptomonnaies ou encore le cassage de mot de passe.
Maintenant, c’est autour de l’IA de migrer ses tâches de calcul vers les GPU pour gagner en performance. Cela fait des années que l’on entraîne les IA sur GPU, par exemple une IA type yoloV5 pour détecter des objets demande 4 GPUs pour être entraînée. Puis cette IA peut tourner sur n’importe quel CPU (ordinateur ou smartphone) sans besoin de GPU.
Cependant, les nouvelles IA comme chatGPT ou Midjourney sont des ogres de puissance. Une IA type chatGPT-4 (falcon-180B) nécessite 4096 GPUs pour être entraînée, et 8 GPUs pour être utilisée.
Or, actuellement, seule Nvidia dispose de GPU assez puissants pour l’IA. L’entreprise vend par palette entière son best-seller, le H100 pour 30 000 euros pièce. Rien qu’Elon Musk en a commandé 100 000 pour concevoir sa propre IA.
Les IA n’ont pas besoin de Nvidia
Les briques logiques qu’on assemble pour former une IA ne sont pas liées à des GPU Nvidia. On les construit à travers un framework logiciel open source comme pyTorch de Meta, ou Tensorflow de Google.
Un modèle IA est concrètement une suite d’instructions pour pyTorch ou Tensorflow. Par la suite, le framework va convertir ses instructions en instructions pour CPU ou GPU.
Ces frameworks sont open source, utilisable et modifiable par n’importe qui. Nvidia dispose du meilleur hardware dans l’IA, mais n’est pas « vendor lock ». Si demain une meilleure alternative débarque, on l’intégrera dans les frameworks, et toutes les IA pourront tourner sur le nouveau hardware sans modifications.
Si l’IA était une voiture, Nvidia serait les roues, et le framework le moteur. Changer de framework demande de refaire toute la voiture. Mais passer d’un GPU Nvidia à autre chose revient juste à changer les pneus.
La situation de monopole de Nvidia est moins établie qu’imaginée. Le moindre concurrent peut tout faire basculer, et les concurrents sont déjà là.
Nvidia déjà sous pression
Sans modifier le hardware, on peut déjà optimiser le software. Soit en concevant des IA plus frugales, comme la société Mistral. Son modèle Mistral 7B tourne sur un mac mini M1 d’une valeur de 800 euros. On peut aussi optimiser le framework et ses instructions. Une équipe de chercheurs pense pouvoir contourner un blocage qui réduira le calcul d’une IA au point de réduire par 100 sa consommation d’énergie.
Nvidia peut voir son chiffre d’affaires fondre, avec une seule mise à jour des frameworks apportant des optimisations dans les calculs.
Ensuite, on peut changer de hardware. Des entreprises travaillent sur du hardware dédié à l’IA, appelé Tensor Process Unit (TPU). Google était le pionner dans ce domaine avec sa filiale Coral.ia. Apple semble avoir repris le flambeau en proposant ses TPU (appelés Neuronal Engine) dans ses produits iPhone, iPad ou Mac. L’entreprise souhaite rester dans la course en musclant toujours plus son hardware afin de suivre les IA type chatGPT.
Enfin, une myriade de startups se lancent sur le secteur des TPU tels Hailo, Groq, Tenstorrent ou Sima. Encore une fois, si un seul TPU est plus performant que les GPU Nvidia, toutes les IA pourront tourner sur ce nouveau TPU, laissant Nvidia sur le carreau.
Nvidia peut bien sûr riposter en proposant ses propres TPU ou en rachetant des startup prometteuses. Elle va devoir se battre pour rester au niveau, car il est sûr que de meilleures alternatives que ses GPU arriveront.
L’entreprise fait la course en tête, mais pour combien de temps encore ?