Supercomputer
Activity
Lors d'un précédent article
[http://alliancegeostrategique.org/2012/12/04/singularites-et-techno-propheties/
], nous nous interrogions sur l'éventualité d'une singularité
technologique et avions (prudemment) conclu en préconisant une
surveillance exhaustive des « signes et des cygnes » que
le présent nous renvoie.
Nous poursuivons cette réflexion en la
localisant, en espace et en temps, à un concept stratégique
important : celui de calcul intensif ou HPC pour Calcul de Haute
Performance.
Fig1 - Super computer TITAN Cray XK7,
calculateur le plus puissant - novembre 2012
Classement TOP500 [0]
Le calcul intensif,
pour quoi faire ?
Depuis quatre décennies, le calcul
intensif a investi presque tous les domaines d'activité humaine.Il intervient en modélisation, simulation, conception, prévision, décision et contrôle.
C'est par lui qu'il devient possible de créer une représentation virtuelle d'un objet, d'un concept ou d'un phénomène puis de l'analyser et le comprendre.
La modélisation et la simulation s'insèrent, au cœur d'une démarche scientifique, entre la couche expérimentale et la couche théorique et ouvrent une voie vers la prévision du comportement d'un système, vers son évolution future et son contrôle éventuel.
Si je connais l'avenir probable du système et qu'il ne me convient pas, je peux agir au présent, via cette connaissance, dans le but de modifier son évolution.
C'est en quelque sorte, un peu de territoire gagné sur les steppes de l'aléatoire sauvage.
Le calcul intensif autorise également la gestion et l'analyse de très grandes bases de données et fournit une centralisation du traitement de cette masse d'information.
La capacité de simulation liée à l'utilisation d'ordinateurs de pointe constitue alors un élément stratégique au regard de la crédibilité scientifique d'une nation.
Les grands états industriels (en particulier USA, Chine et Japon) ont parfaitement mesuré les enjeux sous-jacents et se livrent aujourd'hui à une « course aux armements » dans les moyens de calculs intensifs.
Les secteurs de la recherche scientifique, de la défense, de l'industrie, de la finance sont impactés.
On retrouve le HPC systématiquement lors d'études numériques de crash tests au sein de l'industrie automobile et aéronautique (Fig2); en génétique avec les multiples séquençages de génomes, en imagerie numérique médicale,en météorologie, en physique des particules (CERN), en astrophysique lors de simulations d'évolution des galaxies, en climatologie afin de valider ou d'infirmer les différentes hypothèses liées au réchauffement global, en finances lors de simulations multi-agents ou de nouveaux développements HFT (High Fréquency Trading).
Le domaine de l'énergie est lui aussi particulièrement gourmand en moyens de calcul intensif ;
EDF modélise numériquement ses réacteurs nucléaires afin d'en étudier le vieillissement.
Le CEA, premier acteur du calcul intensif en France, exploite via la DAM (Direction des Applications Militaires) deux ensembles de calculs distincts :
Un pôle « civil » CCRT (Centre de Calcul de la Recherche Technologique) qui partage ses supercomputers avec des entreprises du secteur industriel en attente de solutions HPC.
Et un pôle militaire, isolé du reste, qui contribue à la crédibilité de notre dissuasion nucléaire,
par la mise en œuvre de simulations d'armement nucléaire.
Il faut souligner que le secteur militaire est historiquement l'un des précurseurs en matière de calcul haute performance et l'un de ses moteurs dans l'escalade numérique actuelle.
Le Département de la défense américain annonçait récemment qu'un dollar investi dans le calcul intensif permettait d'économiser entre 7 et 15 dollars, selon le type d'application numérique envisagé.
Le secteur financier du trading n'est pas en reste en cherchant à développer une ingénierie HFT prédictive intelligente et en exploitant par exemple des résultats issus de simulations multi-agents très voraces en moyen de calcul : ici , le gain n'est plus de 7 à 15 USD pour un dollar investi ; il surpasse largement ce ratio...
Fig2 - Étude et modélisation des
effets indirects de la foudre sur un Airbus A380.
En quoi modéliser ou
simuler requiert-il une grande puissance de calcul ?
L'architecture type d'une modélisation
passe tout d'abord par la construction d'un modèle ou l'adaptation
d'un modèle conceptuel existant ; il s'agit très souvent d'un
ensemble de systèmes équationnels ou équations aux dérivées
partielles (EDP) décrivant au mieux le comportement d'un objet
physique, ou l'évolution d'un système dynamique.Le modèle équationnel est en général complexe, en ce sens que le mathématicien et/ou le physicien sont dans l'incapacité de le résoudre de façon exacte et directe.
Notons ici qu'en classe de terminale scientifique, chacun a le souvenir de la relation fondamentale de la dynamique (la somme des forces appliquées à un système est égale à sa masse multipliée par son accélération, soit vectoriellement :Σ F = ma ) que l'on appliquait à des cas extrêmement simplifiés afin d'aboutir à une petite équation différentielle ; on savait toujours parfaitement la résoudre en exhibant une solution exacte donnant ainsi le vecteur position OM(t) en fonction du temps t dans un certain repère.
La réalité physique de la modélisation d'un objet est très éloignée de ce schéma purement pédagogique.
Nous partons d'un système d'équations aux dérivées partielles (équations liant la fonction f recherchée à ses dérivées première , seconde ou d'ordre supérieure), nous utilisons certains résultats d'analyse fonctionnelle pour confirmer l'existence mathématique d'une solution et préciser le domaine de validité du modèle.
Nous ne recherchons pas la solution exacte du système d'EDP , mais une solution approchée et incomplète ; cette recherche s'effectue en transformant le problème initial de nature continue ( l'équation est valable pour tout x décrivant un intervalle continu) en un problème discret ne prenant en compte qu'un nombre fini de points de la structure initiale étudiée.
On a donc laissé tomber une infinité continue de points pour restreindre le domaine d'application de l'équation à un ensemble fini plus simple à manipuler, c'est la phase de maillage ou de discrétisation par la méthode des différences finies ou des éléments finis.
La figure ci-dessous illustre l'opération sur une pièce mécanique en fibre de carbone utilisée dans la conception d'une automobile F1.
Phase 1 : conception
numérique d'une pièce en fibre carbone de F1
Phase 2: maillage de la pièce
par éléments finis.
Phase 3 : établissement
des conditions aux limites de la pièce ; elles sont fixées par
l'ensemble des contraintes mécaniques, thermodynamiques subies par
la pièce dans sa future utilisation.
L'opération suivante consiste à
ré-écrire le système d'EDP en chaque point du maillage (
désormais, il n'y a plus que ces points qui interviennent dans notre
calcul).
Lors de cette ré-écriture, on
effectue une nouvelle simplification en remplaçant les dérivées
partielles successives par de simples différences entre certaines
valeurs de la fonction f recherchée prise en des points du maillage
(on utilise pour cela les vieilles formules de Taylor qui donnent une
valeur approchée des dérivées).L'EDP se réduit alors à un
système linéaire de N équations à N inconnues ; N étant
directement lié à la finesse du maillage : plus le maillage
est fin, plus la distance entre les points de discrétisation est
petite , et meilleure sera la précision mais avec un N qui devient
vite très grand ; la précision est obtenue au prix d'un N
grand et donc d'un lourd système linéaire à résoudre...En classe de troisième, nous apprenons à résoudre un système linéaire de deux équations à deux inconnues par une méthode directe de type méthode de Gauss, cette méthode directe est totalement inapplicable dès que N augmente un peu ; il faut là encore accepter de n'obtenir qu'une approximation de la solution recherchée du système en construisant une suite de matrices de grand format, bien choisie, qui va converger vers cette solution.
C'est précisément ce traitement matriciel qui est vorace en puissance de calcul et c'est à ce stade que l'on justifie le besoin de HPC.
Le calcul peut durer plusieurs heures, plusieurs jours, et parfois plus d'un an...sa durée est directement liée au nombre d'éléments du maillage et donc à sa finesse.
Lorsque le calcul est terminé, il faut analyser les résultats obtenus puis corriger la forme initiale de la pièce, par exemple en ajoutant ou retranchant de la matière là où le calcul a démontré une faiblesse.Une nouvelle phase de calculs peut s’avérer nécessaire avant la découpe définitive de la pièce.
Plus le système dynamique étudié est
complexe (une cellule orageuse en météorologie par exemple) plus sa
modélisation, si l'on veut qu'elle soit efficace, demande de la
puissance de calcul comptée en nombre d'opérations par seconde et
en espace de stockage et traitement des données.
L'unité de mesure utilisée est le
FLOPS et ses puissances ; on le définit comme le nombre
d'opérations à virgule flottante effectuées en une seconde par un
système informatique.En 1964, le supercalculateur américain Control Data 6600 atteint la barre du mégaflops (10 puissance 6 flops, donc un million d'opérations élémentaires par seconde)
En 1985, Le Gigaflops (10 puissance 9 flops) est atteint par le calculateur Cray-2
En 1997, Le Teraflops (10 puissance 12 flops) est dépassé par ASCI RED, super calculateur américain.
En 2008, Roadrunner (USA) atteint le Petaflops (10 puissance 15 flops).
En novembre 2012, c'est la firme américaine Cray qui est classée en première position avec son supercalculateur TITAN (Fig1) affichant une puissance de calcul de 20 Petaflops.
La barre de l'exaflops (10 puissance 18 flops) devrait être atteinte en 2020.
En parallèle, la puissance de nos machines personnelles évolue également rapidement selon la loi empirique de Gordon Moore, si bien qu'une machine standard de type PC de 2013 possède aujourd'hui une puissance de calcul équivalente à celle d'un supercalculateur des années 1992-1993.
Le site internet TOP500 [0] propose un classement mondial, quasiment en temps réel, des supercalculateurs, de leurs caractéristiques techniques, de l'identité de leur propriétaires, de leur affectation (quand celle-ci n'est pas confidentielle) ; il met également à disposition un grand nombre de statistiques liées à ce classement.
Dans la section suivante, nous
utilisons le dernier classement Top500 (novembre 2012) afin de
proposer un panorama du HPC mondial et un focus sur la position
française.
La stratégie HPC en
France
En mars 2005, Emmanuel Sartorius et
Michel Héon [4] ont publié un rapport destiné au ministre de
l'enseignement supérieur et de la recherche, sur « La
politique Française dans le domaine du calcul scientifique ».Les auteurs préconisaient un certain nombre d'actions : la mise en place d'un comité stratégique du calcul scientifique, la structuration des acteurs du calcul intensif, le renforcement de la coopération européenne, le développement des synergies en matière de logiciels, l'accroissement et la pérennisation des moyens financiers du calcul intensif afin de combler le retard français constaté.
Les conclusions de cette étude ont entraîné la création du GENCI ( Grand Équipement National du Calcul Intensif) [1] dont la vocation première est de « rattraper » notre retard.
L'association Teratec s'est constituée autour d'un pôle européen de compétence en simulation numérique haute performance.
Enfin, le projet Numinnov (le numérique pour l'innovation) initié par Bull et la Caisse des Dépôts à hauteur de 28 millions d'euros, vise à la création d'une entreprise indépendante qui doit contribuer à la généralisation du calcul intensif et au développement de nouveaux usages en offrant des services HPC en mode Cloud sécurisé.
Ces initiatives démontrent une réelle prise de conscience des enjeux stratégiques du HPC tant du côté des pouvoirs publics que celui des acteurs industriels.
Que disent les chiffres en novembre
2012 ?
On constate immédiatement la
suprématie américaine sur le Top500 :Les USA occupent les deux premières places puis 5 places sur les 10 premières machines et enfin 251 sur les 500 machines classées, soit 50.2% de la puissance de calcul mondiale.
Le continent asiatique totalise 22.2% de la puissance mondiale contre 9.2% pour l’Europe de l'ouest.
La France apparaît pour la première fois en 11ième position avec la machine Bull Curie thin nodes
détenue par le CEA -TGCC -GENCI qui est dix fois moins puissante que Titan XK7.
Notre nation classe 21 machines dans le Top500 soit 4.2% de la puissance de calcul mondiale.
La France se situe entre la Grande Bretagne qui classe 24 machines et l'Allemagne qui en classe 19.
Le tableau suivant donne la liste
des 11 premières machines du classement mondial.
La colonne Cores précise le nombre de
cœurs processeurs composant le supercalculateur :
(essentiellement des processeurs Xeon 5600 series (39.4%) ou Intel
Xeon E5 (26.8%) ou Opteron)Rmax indique la performance maximale atteinte en Teraflops.
Rpeak désigne la performance maximale théorique en Teraflops.
Le tableau suivant présente la
liste des 21 machines françaises classées dans le Top500
On constate que le CEA est très
présent dans cette liste.
Le tableau suivant propose le
classement cumulé HPC par pays.
Il souligne la puissance de calcul des
USA avec 251 machines classées au Top500, soit 50.2% de la puissance
mondiale.On constate par ailleurs que la Chine occupe la seconde place avec 72 machines classées et s'inscrit dans une volonté de rattraper rapidement son retard sur les USA ; la course est lancée depuis quelques années et la progression chinoise est remarquable.
Countries |
Count |
System Share (%) |
Rmax (GFlops) |
Rpeak (GFlops) |
Cores |
United States |
251 |
50.2 |
89105145 |
129223344 |
8203546 |
China |
72 |
14.4 |
12349895 |
22757659 |
1604920 |
Japan |
32 |
6.4 |
19448399 |
23362194 |
1389142 |
United Kingdom |
24 |
4.8 |
7260688 |
9393792 |
567152 |
France |
21 |
4.2 |
6413594 |
7887715 |
620348 |
Germany |
19 |
3.8 |
10178296 |
12404695 |
875038 |
Canada |
11 |
2.2 |
1858446 |
2429518 |
196744 |
India |
8 |
1.6 |
1167758 |
1757794 |
84148 |
Russia |
8 |
1.6 |
1990634 |
3405775 |
179200 |
Australia |
7 |
1.4 |
2196914 |
2689831 |
165828 |
Italy |
7 |
1.4 |
2424814 |
3129931 |
222480 |
Sweden |
6 |
1.2 |
993202 |
1295399 |
106080 |
Korea, South |
4 |
0.8 |
1014400 |
1291919 |
124536 |
Switzerland |
4 |
0.8 |
978980 |
1254714 |
84416 |
Poland |
4 |
0.8 |
589563 |
947091 |
66690 |
Norway |
3 |
0.6 |
735400 |
873164 |
54400 |
Finland |
3 |
0.6 |
437691 |
527981 |
31344 |
Saudi Arabia |
3 |
0.6 |
719300 |
1464275 |
116176 |
Taiwan |
3 |
0.6 |
356625 |
556484 |
38520 |
Spain |
2 |
0.4 |
740085 |
883092 |
39208 |
Brazil |
2 |
0.4 |
465700 |
824638 |
48512 |
Denmark |
1 |
0.2 |
162098 |
183676 |
15672 |
Belgium |
1 |
0.2 |
152348 |
175718 |
8448 |
Israel |
1 |
0.2 |
77696 |
161595 |
13788 |
Austria |
1 |
0.2 |
152900 |
182829 |
20776 |
Mexico |
1 |
0.2 |
92282 |
116813 |
5616 |
Slovak Republic |
1 |
0.2 |
76533 |
94274 |
3072 |
Le tableau suivant classe les 10
premiers constructeurs de supercalculateurs.
On notera que IBM, HP, et CRAY
détiennent à eux seuls près de 74% du marché mondial des systèmes
HPC.83.8 % de ces machines fonctionnent sous environnement Linux ou Cray-Linux.
Vendors |
Count |
System Share (%) |
Rmax (GFlops) |
Rpeak (GFlops) |
Cores |
IBM |
193 |
38.6 |
66216230 |
89070758 |
6769140 |
HP |
146 |
29.2 |
18133778 |
32189810 |
2300904 |
Cray Inc. |
31 |
6.2 |
28189811 |
40380860 |
1908880 |
Appro |
24 |
4.8 |
5105350 |
6934803 |
373200 |
SGI |
19 |
3.8 |
5137603 |
6449416 |
434406 |
Bull |
18 |
3.6 |
6113556 |
7585005 |
467916 |
Dell |
11 |
2.2 |
3990399 |
5645902 |
332618 |
Fujitsu |
10 |
2 |
13760040 |
14866751 |
921048 |
Oracle |
6 |
1.2 |
1424410 |
1700533 |
158880 |
Hitachi |
5 |
1 |
820841 |
1078839 |
57408 |
Les domaines d'utilisation des
moyens HPC sont listés dans le classement suivant.
Il existe vraisemblablement une part
d'incertitude sur la destination de certaines machines
destinées aux programmes de défense, par nature sensibles et confidentiels.
Segments |
Count |
System Share (%) |
Rmax (GFlops) |
Rpeak (GFlops) |
Cores |
Industry |
247 |
49.4 |
28475391 |
52321101 |
3933385 |
Research |
121 |
24.2 |
96156016 |
127558595 |
7837116 |
Academic |
97 |
19.4 |
29485077 |
39215636 |
2507471 |
Government |
18 |
3.6 |
3412813 |
4509189 |
299860 |
Vendor |
13 |
2.6 |
3723490 |
4576071 |
229632 |
Classified |
4 |
0.8 |
886600 |
1095320 |
78336 |
Quels enseignements
peut-on extraire de ces chiffres ?
Il est tout d'abord raisonnable de
souhaiter un ré-équilibrage de la puissance de calcul vers la
Chine, l'Europe et certains pays émergents.Une répartition plus uniforme des moyens HPC (au niveau constructeurs et utilisateurs) et une moindre dépendance face aux capacités américaines peut induire une accélération mondiale dans le déploiement de solutions de modélisations et l'émergence d'innovations algorithmiques.
Les USA eux-mêmes tireront profit ,par simple rétro-action, de cette meilleure répartition.
L’Europe quant à elle doit fédérer ses initiatives en mutualisant chacune de ses forces afin de conserver une visibilité à l'échelle mondiale.
Cette démarche passe nécessairement par une alliance Grande Bretagne-France-Allemagne, via une politique commune de développement de grands programmes de modélisation, en liaison avec de solides partenariats entre les laboratoires européens.
La France doit consolider la position de Bull sur le marché des constructeurs HPC.
Elle doit faire émerger, au sein de la sphère industrielle, une culture de modélisation et de simulation, en particulier en œuvrant à la baisse des coûts des technologies HPC.
La formation des ingénieurs et techniciens français doit intégrer systématiquement les enseignements liés aux méthodes de modélisation.
Les PME-PMI doivent être accompagnées efficacement vers des solutions HPC souples, simples et bon marché ; c'est aussi à ce niveau que se joue notre compétitivité et notre survie industrielle...
Références :
[0] TOP500 :
http://www.top500.org/
[1]
GENCI : http://www.genci.fr/
[2]
TERATEC : http://www.teratec.eu/rs
industriel
[3] NUMINNOV :
http://news.bull.com/bulldirectfr/2012/07/03/bull-et-le-fonds-national-pour-la-societe-numerique-annoncent-28-millions-d-euros-d-investissement-dans-le-calcul-intensif-a-la-demande/
[4] Rapport Sartorius Héon :
http://calcul.math.cnrs.fr/Documents/DocOfficiels/rapport_heon-sartorius_2005.pdf