NVIDIA: la loi de Moore est morte

4 mai 2010 à 08:43

nvidia-fermi-gpu-architecture

La Loi de Moore telle qu’on la connaît est morte, et il est maintenant le temps de passer à une nouvelle ère, celle de l’informatique en parallèle. Tels sont, en résumé, les propos qu’a tenus le scientifique en chef de NVIDIA dans une lettre ouverte publiée la semaine dernière par le magazine américain Forbes. Et même si ce dernier est peu objectif, les étudiants en informatique auraient peut-être intérêt à s’intéresser à ce qu’il a à dire.

La Loi de Moore, énoncée par le cofondateur d’Intel Gordon Moore il y a maintenant 45 ans, affirme que la quantité de transistors dans un circuit intégré doublera tous les 18 mois environ. Et même si ce genre de spéculations tient rarement la route, la Loi de Moore s’est avérée étonnamment précise jusqu’ici.

Selon Bill Dally de NVIDIA, un autre volet de la Loi de Moore veut que l’énergie consommée par les circuits diminue proportionnellement à l’augmentation du nombre de transistors, ce qui permet d’avoir des ordinateurs de plus en plus performants, tout en étant constant dans leur consommation d’énergie.

Bill Dally affirme toutefois que la Loi de Moore ne tient plus la route, puisque dans les processeurs tels qu’on les connait, la consommation d’énergie augmente plus qu’elle ne le devrait, ce qui veut dire que les performances n’augmentent plus autant qu’auparavant dans les nouvelles générations de microprocesseurs.

Selon ce dernier, les processeurs modernes sont devenus trop lourds, et «l’informatique en série» requiert désormais trop d’énergie par instruction pour permettre son développement et assurer nos besoins futurs.

La solution? L’informatique en parallèle, où plusieurs petits cœurs font chacun une petite partie d’un calcul global. Au passage, Bill Dally prend toutefois soin de préciser que les processeurs multicoeurs sur le marché actuellement ne sont pas suffisants et qu’ils correspondent à «construire un avion en ajoutant des ailes à un train».

Selon ce dernier, le passage vers l’informatique en parallèle sera difficile et demandera de nombreux ajustements, particulièrement au niveau de la programmation, puisque peu de programmeurs sont habitués à la programmation en parallèle, mais celui-ci sera éventuellement nécessaire si on veut assurer la croissance de la performance des ordinateurs.

Apparence de conflit d’intérêts
Le conflit d’intérêts de Bill Dally sur la question est tellement flagrant qu’il est difficile de lui faire confiance.

NVIDIA vient tout juste de lancer Fermi, un processeur graphique en parallèle qui comporte jusqu’à 512 cœurs. Ses grands rivaux, Intel et AMD, sont justement les compagnies qui poussent l’informatique en série et les processeurs multicoeurs de types «trains avec des ailes».

NVIDIA aspire à diminuer l’importance du processeur central dans les ordinateurs pour «sous-traiter» de plus en plus les calculs au processeur graphique, toute l’argumentation de Bill Dally est donc un plaidoyer pour sa nouvelle architecture et son modèle d’affaires.

Déclarer la fin de la Loi de Moore et l’avènement de l’informatique en parallèle, c’est un peu comme si Subway déclarait que le hamburger était mort et que les sous-marins étaient désormais la seule option possible pour manger du fast food.

Excusez l’analogie douteuse.

Ceci dit, même si l’objectivité de Bill Dally laisse à désirer, son argumentation peut quand même être valide.

Pour le moment, les principales critiques sur cet article ne poussent pas vraiment la réflexion et se limitent à dire que Fermi, la plateforme de NVIDIA, consomme elle-même beaucoup trop d’énergie. Faible argumentation, puisque l’efficacité de Fermi, potentiellement une plateforme parmi tant d’autres, ne prouve absolument pas la nécessité, ou l’inutilité, de l’informatique en parallèle.

Malheureusement, on manque pour le moment de données pour se faire une opinion réfléchie sur le sujet, et il serait intéressant d’avoir une réponse d’Intel à l’article de Dally.

Ceci étant dit, AMD et Intel ont ouvert la voie à l’informatique en parallèle depuis quelques années déjà, et il est évidement que les processeurs auront de plus en plus de cœurs au cours des prochaines années. C’est d’ailleurs également ce qu’ARM propose pour sa propre architecture.

Un secteur d’avenir pour les études en informatique?
Quelle forme prendra l’informatique en parallèle à court, moyen et long terme? Difficile à dire, mais dans tous les cas, je suis pas mal convaincu que cette dernière prendra une place de plus en plus importante.

Disons que pour un étudiant en informatique, ou pour quelqu’un qui songe à se diriger dans ce domaine, choisir une université, un programme ou un sujet de thèse relié à l’informatique en parallèle serait probablement une bonne idée.