Skim-Gaming logo

Soluce

De **Quake 3** à l’IA : comment un étudiant de Stanford a transformé les GPU en moteurs de l’intelligence artificielle
Soluce

Il y a 82 jours

De **Quake 3** à l’IA : comment un étudiant de Stanford a transformé les GPU en moteurs de l’intelligence artificielle

Comment une partie de **Quake 3** en 8K a changé le cours de l’informatique moderne

A retenir :

  • 2000 : Ian Buck, étudiant à Stanford, relie 32 GPU Nvidia pour faire tourner **Quake 3** en 8K, révélant leur potentiel bien au-delà du gaming.
  • Brook (2003) : Son langage open-source, financé par la DARPA, prouve que les GPU peuvent accélérer des calculs complexes – une idée qui séduit Jensen Huang, PDG de Nvidia.
  • 2006 : Naissance de CUDA, une architecture révolutionnaire mais d’abord boudée par les développeurs, avant d’être adoptée par les laboratoires scientifiques.
  • 2012 : AlexNet, entraîné sur des GPU Nvidia, pulvérise les records en reconnaissance d’images (15,3 % d’erreur contre 26 % auparavant), déclenchant l’adoption massive de CUDA.
  • 2016 : Les ventes de cartes Tesla (gamme pro de Nvidia) explosent, passant de 200 millions à 1,3 milliard de dollars en quatre ans, grâce à l’IA.
  • Ironie historique : Une passion pour le gaming a indirectement posé les fondations de l’intelligence artificielle moderne.

Quake 3 en 8K : l’étincelle qui a tout déclenché

Nous sommes en l’an 2000, dans un laboratoire de l’université de Stanford. Ian Buck, alors étudiant en informatique, se heurte à un défi qui semble insoluble : faire tourner Quake 3 Arena – le FPS culte d’id Software – en 8K natif, réparti sur huit projecteurs simultanés. À l’époque, une telle résolution relève de la science-fiction, même pour les configurations les plus musclées. Pourtant, Buck n’a pas l’intention d’abandonner. Sa solution ? Relier 32 cartes graphiques Nvidia GeForce 256 en un cluster de rendu improvisé, synchronisé via un réseau local.

Ce qui pourrait passer pour une lubie d’ingénieur obsédé par les performances cache en réalité une intuition géniale : et si les GPU, alors cantonnés au rendu de polygones pour les jeux vidéo, pouvaient servir à bien autre chose ? À l’époque, ces puces sont perçues comme des outils ultra-spécialisés, incapables de rivaliser avec les CPU pour des calculs généraux. Pourtant, Buck pressent leur potentiel latent : leur architecture massivement parallèle, conçue pour traiter des millions de pixels en temps réel, pourrait s’avérer révolutionnaire pour des tâches bien plus complexes.

Soutenu par une bourse de la DARPA (l’agence de recherche militaire américaine), il développe Brook, un langage de programmation open-source capable d’exploiter cette puissance brute. Son article, intitulé *« Brook for GPUs: stream computing on graphics hardware »* (2004), fait l’effet d’une bombe dans les cercles académiques. Parmi les lecteurs attentifs : Jensen Huang, le fondateur de Nvidia, qui voit immédiatement l’opportunité. En 2004, il recrute Buck. La machine est en marche.

« Personne ne croyait vraiment que les GPU pouvaient faire autre chose que du rendu 3D. Ian a été le premier à démontrer le contraire. » — Un ancien collègue de Buck à Stanford.

De Brook à CUDA : le pari fou de Nvidia

En 2005, le paysage technologique est en pleine mutation. Silicon Graphics (SGI), géant historique du rendu 3D, s’effondre sous les coups de Nvidia et d’AMD. Près de 1 200 ingénieurs rejoignent les rangs du « géant vert », dont John Nickolls, spécialiste du calcul parallèle. Avec Buck, ils travaillent sur une architecture encore floue : Compute Unified Device Architecture, ou CUDA. Le nom, abscons, masque une ambition démesurée : transformer les GPU en plateformes de calcul généraliste, capables de rivaliser avec les supercalculateurs.

Le premier SDK CUDA est lancé en novembre 2006. Les chiffres sont décevants : seulement 13 000 téléchargements en 2007, une goutte d’eau face aux millions de gamers. Les développeurs bouderont cette technologie, jugée trop complexe pour un gain incertain. Même en interne, les doutes persistent : CUDA engloutit des ressources sans retour immédiat. « On nous traitait de fous. Pourquoi dépenser autant d’énergie sur un truc que personne ne veut ? », confiera plus tard un ingénieur de l’époque.

Pourtant, dans l’ombre, les laboratoires scientifiques commencent à l’adopter. Les physiciens l’utilisent pour des simulations de particules, les climatologues pour des modélisations 3D. Sans le savoir, ils préparent le terrain pour une autre révolution. CUDA n’est pas mort – il attend simplement son heure.

Le jour où tout a basculé : AlexNet et l’éveil de l’IA

Cette heure arrive en 2012. Deux doctorants de l’université de Toronto, Alex Krizhevsky et Ilya Sutskever, supervisés par le légendaire Geoffrey Hinton, présentent AlexNet, un réseau de neurones convolutionnel capable de classer des images avec une précision inédite. Leur secret ? L’entraînement sur des GPU Nvidia équipés de CUDA.

Les résultats sont stupéfiants : lors du concours ImageNet (une compétition majeure en vision par ordinateur), AlexNet affiche un taux d’erreur de 15,3 %, contre 26 % pour les meilleures méthodes traditionnelles. Pour la première fois, une machine surpasse largement l’humain dans une tâche de reconnaissance visuelle. Et derrière cette performance, il y a CUDA.

« Sans les GPU, AlexNet aurait mis des semaines, voire des mois, à s’entraîner. Grâce à CUDA, on est passé à quelques jours. » — Alex Krizhevsky, co-auteur d’AlexNet.

L’impact est immédiat. Les géants du numérique s’emparent de la technologie : Google, Facebook et Microsoft intègrent massivement les GPU Nvidia dans leurs data centers. Entre 2012 et 2016, les ventes de cartes Tesla (la gamme professionnelle de Nvidia) explosent, passant de 200 millions à 1,3 milliard de dollars. CUDA n’est plus un outil marginal – il devient le socle invisible de l’ère de l’IA.

L’héritage de Quake 3 : quand le gaming façonne l’avenir

Ironie de l’histoire : ce que les gamers avaient ignoré en 2007 (un SDK complexe et peu intuitif) se révèle, cinq ans plus tard, le nerf de la guerre technologique. Sans le savoir, un étudiant obsédé par Quake 3 avait posé la première pierre de l’intelligence artificielle moderne.

Aujourd’hui, CUDA est omniprésent :
• Dans les voitures autonomes (Tesla utilise des GPU Nvidia pour ses systèmes de conduite).
• Dans la recherche médicale (modélisation de protéines, diagnostic par IA).
• Dans les effets spéciaux (les studios comme ILM ou Weta Digital l’utilisent pour le rendu temps réel).
• Même dans les cryptomonnaies (le minage repose en partie sur des calculs parallèles optimisés par CUDA).

Et Ian Buck, dans tout ça ? Après avoir dirigé le développement de CUDA chez Nvidia, il a rejoint Apple en 2021 pour travailler sur… les puces M1, où le calcul parallèle joue à nouveau un rôle clé. La boucle est bouclée.

« Si on m’avait dit en 2000 que mon projet pour faire tourner Quake 3 en 8K mènerait à ça, je ne l’aurais jamais cru. Parfois, les révolutions commencent par un jeu. » — Ian Buck.

Pourquoi cette histoire nous concerne tous

L’histoire de CUDA est bien plus qu’un récit technologique. Elle illustre comment une passion apparentée à un hobby (le gaming) peut, par un enchaînement de hasards et de génies, redéfinir des industries entières. Elle rappelle aussi que les révolutions naissent souvent dans l’ombre, portées par des individus qui refusent de se contenter du statu quo.

Aujourd’hui, quand vous utilisez un filtre Instagram alimenté par l’IA, quand Netflix vous recommande une série, ou quand un robot-chirurgien assiste un médecin, il y a de fortes chances que CUDA soit dans la boucle. Et tout ça, grâce à un étudiant qui voulait juste jouer à Quake 3 en très haute résolution.

La prochaine fois que vous lancerez un jeu vidéo, souvenez-vous : votre carte graphique pourrait bien changer le monde.

Des salles de Stanford aux data centers de Google, le parcours de CUDA est celui d’une idée trop en avance sur son temps. Ce qui semblait être une folie technique – utiliser des GPU pour autre chose que des jeux – s’est transformé en pilier de l’intelligence artificielle. Aujourd’hui, alors que l’IA générative (comme MidJourney ou ChatGPT) repose encore largement sur des architectures accélérées par CUDA, on mesure à quel point cette histoire est loin d’être terminée.

Et si la prochaine révolution venait, elle aussi, d’un projet jugé trop ambitieux pour son époque ?

L'Avis de la rédaction
Par Nakmen
Ah, ce genre d’histoire me rappelle quand Doom 64 sur N64 faisait déjà rêver avec ses textures en 640x480, mais personne ne voyait que ces GPU étaient des bombes à calculs en puissance. Buck, en voulant juste optimiser Quake 3 comme un puriste des années 90, a en fait inventé l’IA sans le savoir. C’est comme si Mario avait inventé la physique quantique en sautant sur des Piantas. Le gaming, ce n’est pas qu’un loisir, c’est un labo à idées où les fous brillants se cachent. Et aujourd’hui, on utilise ses découvertes pour faire des selfies plus jolis. Ironie du sort, ou génie visionnaire ? Les deux, probablement.
Article rédigé par SkimAI
Révisé et complété par Nakmen

Ils en parlent aussi