dimanche 27 janvier 2013


Supercomputer Activity



Lors d'un précédent article [http://alliancegeostrategique.org/2012/12/04/singularites-et-techno-propheties/ ], nous nous interrogions sur l'éventualité d'une singularité technologique et avions (prudemment) conclu en préconisant une surveillance exhaustive des « signes et des cygnes » que le présent nous renvoie.
Nous poursuivons cette réflexion en la localisant, en espace et en temps, à un concept stratégique important : celui de calcul intensif ou HPC pour Calcul de Haute Performance.




 
 
 
 
 



Fig1 - Super computer TITAN Cray XK7, calculateur le plus puissant - novembre 2012
Classement TOP500 [0]



Le calcul intensif, pour quoi faire ?
Depuis quatre décennies, le calcul intensif a investi presque tous les domaines d'activité humaine.
Il intervient en modélisation, simulation, conception, prévision, décision et contrôle.
C'est par lui qu'il devient possible de créer une représentation virtuelle d'un objet, d'un concept ou d'un phénomène puis de l'analyser et le comprendre.
La modélisation et la simulation s'insèrent, au cœur d'une démarche scientifique, entre la couche expérimentale et la couche théorique et ouvrent une voie vers la prévision du comportement d'un système, vers son évolution future et son contrôle éventuel.
Si je connais l'avenir probable du système et qu'il ne me convient pas, je peux agir au présent, via cette connaissance, dans le but de modifier son évolution.
C'est en quelque sorte, un peu de territoire gagné sur les steppes de l'aléatoire sauvage.
Le calcul intensif autorise également la gestion et l'analyse de très grandes bases de données et fournit une centralisation du traitement de cette masse d'information.
La capacité de simulation liée à l'utilisation d'ordinateurs de pointe constitue alors un élément stratégique au regard de la crédibilité scientifique d'une nation.
Les grands états industriels (en particulier USA, Chine et Japon) ont parfaitement mesuré les enjeux sous-jacents et se livrent aujourd'hui à une « course aux armements » dans les moyens de calculs intensifs.
Les secteurs de la recherche scientifique, de la défense, de l'industrie, de la finance sont impactés.
On retrouve le HPC systématiquement lors d'études numériques de crash tests au sein de l'industrie automobile et aéronautique (Fig2); en génétique avec les multiples séquençages de génomes, en imagerie numérique médicale,en météorologie, en physique des particules (CERN), en astrophysique lors de simulations d'évolution des galaxies, en climatologie afin de valider ou d'infirmer les différentes hypothèses liées au réchauffement global, en finances lors de simulations multi-agents ou de nouveaux développements HFT (High Fréquency Trading).
Le domaine de l'énergie est lui aussi particulièrement gourmand en moyens de calcul intensif ;
EDF modélise numériquement ses réacteurs nucléaires afin d'en étudier le vieillissement.
Le CEA, premier acteur du calcul intensif en France, exploite via la DAM (Direction des Applications Militaires) deux ensembles de calculs distincts :
Un pôle « civil » CCRT (Centre de Calcul de la Recherche Technologique) qui partage ses supercomputers avec des entreprises du secteur industriel en attente de solutions HPC.
Et un pôle militaire, isolé du reste, qui contribue à la crédibilité de notre dissuasion nucléaire,
par la mise en œuvre de simulations d'armement nucléaire.
Il faut souligner que le secteur militaire est historiquement l'un des précurseurs en matière de calcul haute performance et l'un de ses moteurs dans l'escalade numérique actuelle.
Le Département de la défense américain annonçait récemment qu'un dollar investi dans le calcul intensif permettait d'économiser entre 7 et 15 dollars, selon le type d'application numérique envisagé.
Le secteur financier du trading n'est pas en reste en cherchant à développer une ingénierie HFT prédictive intelligente et en exploitant par exemple des résultats issus de simulations multi-agents très voraces en moyen de calcul : ici , le gain n'est plus de 7 à 15 USD pour un dollar investi ; il surpasse largement ce ratio...

 









Fig2 - Étude et modélisation des effets indirects de la foudre sur un Airbus A380.


En quoi modéliser ou simuler requiert-il une grande puissance de calcul ?
L'architecture type d'une modélisation passe tout d'abord par la construction d'un modèle ou l'adaptation d'un modèle conceptuel existant ; il s'agit très souvent d'un ensemble de systèmes équationnels ou équations aux dérivées partielles (EDP) décrivant au mieux le comportement d'un objet physique, ou l'évolution d'un système dynamique.
Le modèle équationnel est en général complexe, en ce sens que le mathématicien et/ou le physicien sont dans l'incapacité de le résoudre de façon exacte et directe.
Notons ici qu'en classe de terminale scientifique, chacun a le souvenir de la relation fondamentale de la dynamique (la somme des forces appliquées à un système est égale à sa masse multipliée par son accélération, soit vectoriellement :Σ F = ma ) que l'on appliquait à des cas extrêmement simplifiés afin d'aboutir à une petite équation différentielle ; on savait toujours parfaitement la résoudre en exhibant une solution exacte donnant ainsi le vecteur position OM(t) en fonction du temps t dans un certain repère.
La réalité physique de la modélisation d'un objet est très éloignée de ce schéma purement pédagogique.
Nous partons d'un système d'équations aux dérivées partielles (équations liant la fonction f recherchée à ses dérivées première , seconde ou d'ordre supérieure), nous utilisons certains résultats d'analyse fonctionnelle pour confirmer l'existence mathématique d'une solution et préciser le domaine de validité du modèle.
Nous ne recherchons pas la solution exacte du système d'EDP , mais une solution approchée et incomplète ; cette recherche s'effectue en transformant le problème initial de nature continue ( l'équation est valable pour tout x décrivant un intervalle continu) en un problème discret ne prenant en compte qu'un nombre fini de points de la structure initiale étudiée.
On a donc laissé tomber une infinité continue de points pour restreindre le domaine d'application de l'équation à un ensemble fini plus simple à manipuler, c'est la phase de maillage ou de discrétisation par la méthode des différences finies ou des éléments finis.
La figure ci-dessous illustre l'opération sur une pièce mécanique en fibre de carbone utilisée dans la conception d'une automobile F1.


Phase 1 : conception numérique d'une pièce en fibre carbone de F1





 
 
 
 
 
 
 
 
 
 
 
 

Phase 2: maillage de la pièce par éléments finis.








 
 
 
 
 
 
 
 
 
 

Phase 3 : établissement des conditions aux limites de la pièce ; elles sont fixées par l'ensemble des contraintes mécaniques, thermodynamiques subies par la pièce dans sa future utilisation.

 
 
 
 
 
 
 

 
 
 
 
 
 
 
 
 
 
 
 
 

L'opération suivante consiste à ré-écrire le système d'EDP en chaque point du maillage ( désormais, il n'y a plus que ces points qui interviennent dans notre calcul).
Lors de cette ré-écriture, on effectue une nouvelle simplification en remplaçant les dérivées partielles successives par de simples différences entre certaines valeurs de la fonction f recherchée prise en des points du maillage (on utilise pour cela les vieilles formules de Taylor qui donnent une valeur approchée des dérivées).L'EDP se réduit alors à un système linéaire de N équations à N inconnues ; N étant directement lié à la finesse du maillage : plus le maillage est fin, plus la distance entre les points de discrétisation est petite , et meilleure sera la précision mais avec un N qui devient vite très grand ; la précision est obtenue au prix d'un N grand et donc d'un lourd système linéaire à résoudre...
En classe de troisième, nous apprenons à résoudre un système linéaire de deux équations à deux inconnues par une méthode directe de type méthode de Gauss, cette méthode directe est totalement inapplicable dès que N augmente un peu ; il faut là encore accepter de n'obtenir qu'une approximation de la solution recherchée du système en construisant une suite de matrices de grand format, bien choisie, qui va converger vers cette solution.
C'est précisément ce traitement matriciel qui est vorace en puissance de calcul et c'est à ce stade que l'on justifie le besoin de HPC.
Le calcul peut durer plusieurs heures, plusieurs jours, et parfois plus d'un an...sa durée est directement liée au nombre d'éléments du maillage et donc à sa finesse.
Lorsque le calcul est terminé, il faut analyser les résultats obtenus puis corriger la forme initiale de la pièce, par exemple en ajoutant ou retranchant de la matière là où le calcul a démontré une faiblesse.Une nouvelle phase de calculs peut s’avérer nécessaire avant la découpe définitive de la pièce.

 
Plus le système dynamique étudié est complexe (une cellule orageuse en météorologie par exemple) plus sa modélisation, si l'on veut qu'elle soit efficace, demande de la puissance de calcul comptée en nombre d'opérations par seconde et en espace de stockage et traitement des données.
L'unité de mesure utilisée est le FLOPS et ses puissances ; on le définit comme le nombre d'opérations à virgule flottante effectuées en une seconde par un système informatique.
En 1964, le supercalculateur américain Control Data 6600 atteint la barre du mégaflops (10 puissance 6 flops, donc un million d'opérations élémentaires par seconde)
En 1985, Le Gigaflops (10 puissance 9 flops) est atteint par le calculateur Cray-2
En 1997, Le Teraflops (10 puissance 12 flops) est dépassé par ASCI RED, super calculateur américain.
En 2008, Roadrunner (USA) atteint le Petaflops (10 puissance 15 flops).
En novembre 2012, c'est la firme américaine Cray qui est classée en première position avec son supercalculateur TITAN (Fig1) affichant une puissance de calcul de 20 Petaflops.
La barre de l'exaflops (10 puissance 18 flops) devrait être atteinte en 2020.
En parallèle, la puissance de nos machines personnelles évolue également rapidement selon la loi empirique de Gordon Moore, si bien qu'une machine standard de type PC de 2013 possède aujourd'hui une puissance de calcul équivalente à celle d'un supercalculateur des années 1992-1993.
Le site internet TOP500 [0] propose un classement mondial, quasiment en temps réel, des supercalculateurs, de leurs caractéristiques techniques, de l'identité de leur propriétaires, de leur affectation (quand celle-ci n'est pas confidentielle) ; il met également à disposition un grand nombre de statistiques liées à ce classement.

Dans la section suivante, nous utilisons le dernier classement Top500 (novembre 2012) afin de proposer un panorama du HPC mondial et un focus sur la position française.


La stratégie HPC en France
En mars 2005, Emmanuel Sartorius et Michel Héon [4] ont publié un rapport destiné au ministre de l'enseignement supérieur et de la recherche, sur « La politique Française dans le domaine du calcul scientifique ».
Les auteurs préconisaient un certain nombre d'actions : la mise en place d'un comité stratégique du calcul scientifique, la structuration des acteurs du calcul intensif, le renforcement de la coopération européenne, le développement des synergies en matière de logiciels, l'accroissement et la pérennisation des moyens financiers du calcul intensif afin de combler le retard français constaté.
Les conclusions de cette étude ont entraîné la création du GENCI ( Grand Équipement National du Calcul Intensif) [1] dont la vocation première est de « rattraper » notre retard.
L'association Teratec s'est constituée autour d'un pôle européen de compétence en simulation numérique haute performance.
Enfin, le projet Numinnov (le numérique pour l'innovation) initié par Bull et la Caisse des Dépôts à hauteur de 28 millions d'euros, vise à la création d'une entreprise indépendante qui doit contribuer à la généralisation du calcul intensif et au développement de nouveaux usages en offrant des services HPC en mode Cloud sécurisé.
Ces initiatives démontrent une réelle prise de conscience des enjeux stratégiques du HPC tant du côté des pouvoirs publics que celui des acteurs industriels.


Que disent les chiffres en novembre 2012 ?
On constate immédiatement la suprématie américaine sur le Top500 :
Les USA occupent les deux premières places puis 5 places sur les 10 premières machines et enfin 251 sur les 500 machines classées, soit 50.2% de la puissance de calcul mondiale.
Le continent asiatique totalise 22.2% de la puissance mondiale contre 9.2% pour l’Europe de l'ouest.
La France apparaît pour la première fois en 11ième position avec la machine Bull Curie thin nodes
détenue par le CEA -TGCC -GENCI qui est dix fois moins puissante que Titan XK7.
Notre nation classe 21 machines dans le Top500 soit 4.2% de la puissance de calcul mondiale.
La France se situe entre la Grande Bretagne qui classe 24 machines et l'Allemagne qui en classe 19.


Le tableau suivant donne la liste des 11 premières machines du classement mondial.
La colonne Cores précise le nombre de cœurs processeurs composant le supercalculateur : (essentiellement des processeurs Xeon 5600 series (39.4%) ou Intel Xeon E5 (26.8%) ou Opteron)
Rmax indique la performance maximale atteinte en Teraflops.
Rpeak désigne la performance maximale théorique en Teraflops.



Rank
Site
System
Cores
Rmax (TFlop/s)
Rpeak (TFlop/s)
Power (kW)
1
DOE/SC/Oak Ridge National Laboratory
United States

Titan - Cray XK7 , Opteron 6274 16C 2.200GHz, Cray Gemini interconnect, NVIDIA K20x
Cray Inc.

560640
17590.0
27112.5
8209
2
DOE/NNSA/LLNL
United States

Sequoia - BlueGene/Q, Power BQC 16C 1.60 GHz, Custom
IBM

1572864
16324.8
20132.7
7890
3
RIKEN Advanced Institute for Computational Science (AICS)
Japan

K computer, SPARC64 VIIIfx 2.0GHz, Tofu interconnect
Fujitsu

705024
10510.0
11280.4
12660
4
DOE/SC/Argonne National Laboratory
United States

Mira - BlueGene/Q, Power BQC 16C 1.60GHz, Custom
IBM

786432
8162.4
10066.3
3945
5
Forschungszentrum Juelich (FZJ)
Germany

JUQUEEN - BlueGene/Q, Power BQC 16C 1.600GHz, Custom Interconnect
IBM

393216
4141.2
5033.2
1970
6
Leibniz Rechenzentrum
Germany

SuperMUC - iDataPlex DX360M4, Xeon E5-2680 8C 2.70GHz, Infiniband FDR
IBM

147456
2897.0
3185.1
3423
7
Texas Advanced Computing Center/Univ. of Texas
United States

Stampede - PowerEdge C8220, Xeon E5-2680 8C 2.700GHz, Infiniband FDR, Intel Xeon Phi
Dell

204900
2660.3
3959.0


8
National Supercomputing Center in Tianjin
China

Tianhe-1A - NUDT YH MPP, Xeon X5670 6C 2.93 GHz, NVIDIA 2050
NUDT

186368
2566.0
4701.0
4040
9
CINECA
Italy

Fermi - BlueGene/Q, Power BQC 16C 1.60GHz, Custom
IBM

163840
1725.5
2097.2
822
10
IBM Development Engineering
United States

DARPA Trial Subset - Power 775, POWER7 8C 3.836GHz, Custom Interconnect
IBM

63360
1515.0
1944.4
3576
11
CEA/TGCC-GENCI
France

Curie thin nodes - Bullx B510, Xeon E5-2680 8C 2.700GHz, Infiniband QDR
Bull SA

77184
1359.0
1667.2
2251





Le tableau suivant présente la liste des 21 machines françaises classées dans le Top500
On constate que le CEA est très présent dans cette liste.



Rank
Site
System
Cores
Rmax (TFlop/s)
Rpeak (TFlop/s)
Power (kW)
11
CEA/TGCC-GENCI
France

Curie thin nodes - Bullx B510, Xeon E5-2680 8C 2.700GHz, Infiniband QDR
Bull SA

77184
1359.0
1667.2
2251
20
Commissariat a l'Energie Atomique (CEA)
France

Tera-100 - Bull bullx super-node S6010/S6030
Bull SA

138368
1050.0
1254.5
4590
31
CNRS/IDRIS-GENCI
France

BlueGene/Q, Power BQC 16C 1.60GHz, Custom
IBM

65536
690.2
838.9
328.8
32
EDF R&D
France

Zumbrota - BlueGene/Q, Power BQC 16C 1.60GHz, Custom
IBM

65536
690.2
838.9
328.8
61
Bull
France

Bull Benchmarks SuperComputer II - Bullx B510, Xeon E5 (Sandy Bridge - EP) 8C 2.70GHz, Infiniband QDR
Bull SA

20480
360.9
442.4


99
Airbus
France

HP POD - Cluster Platform 3000 BL260c G6, X5675 3.06 GHz, Infiniband
Hewlett-Packard

24192
243.9
296.1


104
Grand Equipement National de Calcul Intensif - Centre Informatique National de l'Enseignement Suprieur (GENCI-CINES)
France

Jade - SGI ICE 8200EX, Xeon E5450 4C 3.000GHz, Infiniband
SGI

23040
237.8
267.9
1064
123
CNRS/IDRIS-GENCI
France

Ada - xSeries x3750 Cluster, Xeon E5-2680 8C 2.700GHz, Infiniband FDR
IBM

10624
191.9
229.5
243.7
133
Government
France

Cluster Platform 3000 BL2x220, L54xx 2.5 Ghz, Infiniband
Hewlett-Packard

24704
179.6
247.0


137
Commissariat a l'Energie Atomique (CEA)/CCRT
France

airain - Bullx B510, Xeon E5-2680 8C 2.700GHz, Infiniband QDR
Bull SA

9440
177.5
203.9
260
149
EDF R&D
France

Ivanhoe - iDataPlex, Xeon X56xx 6C 2.93 GHz, Infiniband
IBM

16320
168.8
191.3
510
161
Commissariat a l'Energie Atomique (CEA)
France

Tera-100 Hybrid - Bullx B505, Xeon E56xx (Westmere-EP) 2.40 GHz, Infiniband QDR
Bull SA

7020
154.0
274.6


225
IDRIS
France

Blue Gene/P Solution
IBM

40960
119.3
139.3
315
261
CEA/TGCC-GENCI
France

Curie hybrid - Bullx B505, Xeon E5640 2.67 GHz, Infiniband QDR
Bull SA

5040
109.9
198.2


270
Commissariat a l'Energie Atomique (CEA)/CCRT
France

GENCI-CCRT-Titane - BULL Novascale R422-E2
Bull SA

11520
108.5
130.0
477
276
Bull
France

Bull Benchmarks SuperComputer I - Bullx B510, Xeon E5 (Sandy Bridge - EP) 8C 2.70GHz, Infiniband QDR
Bull SA

5760
107.0
124.4


279
Total Exploration Production
France

SGI Altix ICE 8200EX, Xeon quad core 3.0 GHz
SGI

10240
106.1
122.9
442
328
EDF R&D
France

Frontier2 BG/L - Blue Gene/P Solution
IBM

32768
95.5
111.4
252
385
Manufacturing Company
France

Cluster Platform 3000 BL460c G6, Xeon X5570 2.93 GHz, Infiniband
Hewlett-Packard

8576
88.5
100.5


391
Bull
France

Layon - Bull bullx super-node S6010/S6030
Bull SA

11520
87.5
104.6


392
CEA/TGCC-GENCI
France

Curie fat nodes - Bullx S6010 Cluster, Xeon 2.26 Ghz 8-core, QDR Infiniband
Bull SA

11520
87.5
104.4
108.8





Le tableau suivant propose le classement cumulé HPC par pays.
Il souligne la puissance de calcul des USA avec 251 machines classées au Top500, soit 50.2% de la puissance mondiale.
On constate par ailleurs que la Chine occupe la seconde place avec 72 machines classées et s'inscrit dans une volonté de rattraper rapidement son retard sur les USA ; la course est lancée depuis quelques années et la progression chinoise est remarquable.



Countries 
Count 
System Share (%) 
Rmax (GFlops) 
Rpeak (GFlops) 
Cores 
United States
251
50.2
89105145
129223344
8203546
China
72
14.4
12349895
22757659
1604920
Japan
32
6.4
19448399
23362194
1389142
United Kingdom
24
4.8
7260688
9393792
567152
France
21
4.2
6413594
7887715
620348
Germany
19
3.8
10178296
12404695
875038
Canada
11
2.2
1858446
2429518
196744
India
8
1.6
1167758
1757794
84148
Russia
8
1.6
1990634
3405775
179200
Australia
7
1.4
2196914
2689831
165828
Italy
7
1.4
2424814
3129931
222480
Sweden
6
1.2
993202
1295399
106080
Korea, South
4
0.8
1014400
1291919
124536
Switzerland
4
0.8
978980
1254714
84416
Poland
4
0.8
589563
947091
66690
Norway
3
0.6
735400
873164
54400
Finland
3
0.6
437691
527981
31344
Saudi Arabia
3
0.6
719300
1464275
116176
Taiwan
3
0.6
356625
556484
38520
Spain
2
0.4
740085
883092
39208
Brazil
2
0.4
465700
824638
48512
Denmark
1
0.2
162098
183676
15672
Belgium
1
0.2
152348
175718
8448
Israel
1
0.2
77696
161595
13788
Austria
1
0.2
152900
182829
20776
Mexico
1
0.2
92282
116813
5616
Slovak Republic
1
0.2
76533
94274
3072




Le tableau suivant classe les 10 premiers constructeurs de supercalculateurs.
On notera que IBM, HP, et CRAY détiennent à eux seuls près de 74% du marché mondial des systèmes HPC.
83.8 % de ces machines fonctionnent sous environnement Linux ou Cray-Linux.



Vendors 
Count 
System Share (%) 
Rmax (GFlops) 
Rpeak (GFlops) 
Cores 
IBM
193
38.6
66216230
89070758
6769140
HP
146
29.2
18133778
32189810
2300904
Cray Inc.
31
6.2
28189811
40380860
1908880
Appro
24
4.8
5105350
6934803
373200
SGI
19
3.8
5137603
6449416
434406
Bull
18
3.6
6113556
7585005
467916
Dell
11
2.2
3990399
5645902
332618
Fujitsu
10
2
13760040
14866751
921048
Oracle
6
1.2
1424410
1700533
158880
Hitachi
5
1
820841
1078839
57408


Les domaines d'utilisation des moyens HPC sont listés dans le classement suivant.
Il existe vraisemblablement une part d'incertitude sur la destination de certaines machines
destinées aux programmes de défense, par nature sensibles et confidentiels.

 
Segments 
Count 
System Share (%) 
Rmax (GFlops) 
Rpeak (GFlops) 
Cores 
Industry
247
49.4
28475391
52321101
3933385
Research
121
24.2
96156016
127558595
7837116
Academic
97
19.4
29485077
39215636
2507471
Government
18
3.6
3412813
4509189
299860
Vendor
13
2.6
3723490
4576071
229632
Classified
4
0.8
886600
1095320
78336



Quels enseignements peut-on extraire de ces chiffres ?
Il est tout d'abord raisonnable de souhaiter un ré-équilibrage de la puissance de calcul vers la Chine, l'Europe et certains pays émergents.
Une répartition plus uniforme des moyens HPC (au niveau constructeurs et utilisateurs) et une moindre dépendance face aux capacités américaines peut induire une accélération mondiale dans le déploiement de solutions de modélisations et l'émergence d'innovations algorithmiques.
Les USA eux-mêmes tireront profit ,par simple rétro-action, de cette meilleure répartition.
L’Europe quant à elle doit fédérer ses initiatives en mutualisant chacune de ses forces afin de conserver une visibilité à l'échelle mondiale.
Cette démarche passe nécessairement par une alliance Grande Bretagne-France-Allemagne, via une politique commune de développement de grands programmes de modélisation, en liaison avec de solides partenariats entre les laboratoires européens.
La France doit consolider la position de Bull sur le marché des constructeurs HPC.
Elle doit faire émerger, au sein de la sphère industrielle, une culture de modélisation et de simulation, en particulier en œuvrant à la baisse des coûts des technologies HPC.
La formation des ingénieurs et techniciens français doit intégrer systématiquement les enseignements liés aux méthodes de modélisation.
Les PME-PMI doivent être accompagnées efficacement vers des solutions HPC souples, simples et bon marché ; c'est aussi à ce niveau que se joue notre compétitivité et notre survie industrielle...


Références :

[0] TOP500 : http://www.top500.org/


[2] TERATEC : http://www.teratec.eu/rs industriel

[3] NUMINNOV :
http://news.bull.com/bulldirectfr/2012/07/03/bull-et-le-fonds-national-pour-la-societe-numerique-annoncent-28-millions-d-euros-d-investissement-dans-le-calcul-intensif-a-la-demande/

[4] Rapport Sartorius Héon :
http://calcul.math.cnrs.fr/Documents/DocOfficiels/rapport_heon-sartorius_2005.pdf


Article publié le 04 décembre 2012 sur le site AGS - Alliance Géostratégique
http://alliancegeostrategique.org/2012/12/04/singularites-et-techno-propheties/


Technoprophéties et Singularité
 
 



 
 
 
 

 
questionnement transhumaniste - camynow

Le développement exponentiel des nouvelles technologies (information, nano-, quanto-, bio-,..) et leur rapide convergence, réactivent les concepts profonds et anciens de transhumanisme[1] ou posthumanisme et nous interrogent sur nos capacités d'accès à un événement essentiel que l'on nomme « Singularité Technologique »
Qu'entend-t-on par singularité ?
Ce terme fait clairement référence à la singularité gravitationnelle engendrée par un trou noir en cosmologie et à la notion connexe de déformation puis de discontinuité de l'espace-temps aux abords immédiats de ce trou noir.
Le concept de singularité technologique décrit un instant précis, inscrit dans l'histoire de l'humanité,
qui marquera une rupture d'échelle dans l'évolution de notre progrès technologique.
A compter de cette date ou de cet événement, notre croissance technologique changera brusquement d'échelle, de plusieurs ordres vers le haut, le progrès, les découvertes scientifiques, seront le fruit de forces et d'énergies non humaines ou posthumaines, issues de l'intelligence artificielle (IA).
Cette notion de singularité a été introduite au début des annés 1950 par le mathématicien John Von Neumann[2] puis développée durant les années 1960 par Alan Turing[3] et Irving John Good[4].
Elle a inspiré de nombreux scientifiques comme Carl Sagan[5] et de nombreux auteurs de science fiction durant ces trentes dernières années.
Elle se réactive régulièrement lors d'annonces d'innovations technologiques majeures (robotiques, biotechnologiques ou autres).
Aujourd'hui, cette notion de singularité alimente débats, fantasmes sectaires et projets, des plus insensés aux plus sérieux.
En 2008, une Université de la Singularité[7] a été crée en Californie par Ray Kurzweil[6] et Peter Diamantis avec le soutien massif de Google, Nokia, Cisco, Autodesk, de la NASA, et de l'administration américaine.
L'esprit de cette université tient en un tweet : «  Be prepared to learn how the growth of exponential and disruptive technologies will impact your industry, your company, your career, and your life »
Ses moyens financiers sont presque sans limite, à l'image de la puissance des lobbies qui agissent à l'origine de cette création...

Deux questions pricipales s'imposent alors :
1 - La singularité surviendra-t-elle un jour ?
2 -Si oui, en sommes-nous loin, ou au contraire tout proche ?

La première question est évidemment la plus profonde des deux.
Elle se reformule, tantôt comme une prophétie positive et argumentée, tantôt comme une interrogation formelle indécidable par nature.
Pour l'aborder sereinement, il faut en premier lieu évoquer une nouvelle singularité, symétrique de la première qui pourrait s'appeler « singularité d'extinction » ou régressive en terme de progrès :
Elle représente l'instant potentiel à partir duquel notre civilisation effectue un bond en arrière majeur à l'échelle planétaire : ce brusque saut peut se produire par exemple à la suite d'un impact météoritique avec un géocroiseur massif (non détourné par l'homme et sa technique) de l'orbite terrestre.
Au-delà d'une certaine masse, il est prouvé que cet impact serait totalement destructeur pour la vie humaine et animale , nous ramenant ainsi quelques millions d'années en arrière.... et repoussant d'autant la date de notre seconde singularité ; le « nous » employé étant celui des bactéries ou insectes survivants.
Il est illusoire de discuter d'une singularité sans évoquer sa forte dépendance à la réalisation ou non de sa symétrique.
(Ceci revient d'ailleurs à ne pas oublier le septième terme dans l'équation de Drake[8] : celui indiquant la durée de vie moyenne d'une civilisation.)
Un argument classique pouvant être objecté ici, consiste à penser qu'au-delà d'un certain niveau de maturité technologique, les risques d'extinction de l'espèce s'éloignent, sachant que l'IA saura mettre en oeuvre les contre-mesures appropriées et efficaces pour dissiper les menaces futures.
Je pense qu'il s'agit plus d'un optimisme béat que d'une bienveillance naturelle du système...
L'homme, depuis sa naissance, baigne dans « l'aléatoire sauvage » et de ce fait subit constamment l'assaut des événements rares, imprévisibles et surpuissants :
Ces évènements rares, imprévisibles, inédits et surpuissants sont appelés « cygnes noirs » par Nassim Nicholas Taleb[9] , écrivain et philosophe des sciences du hasard ( très lu par les financiers en quête de modèles nouveaux et distincts de l'obsolète standard gaussien).
Une des idées phares de Taleb est que l'expérience passée n'apporte malheureusement aucune information exploitable concernant la réalisation ou non d'événements inédits à priori très peu probables mais d'impact majeur sur l'évolution du système.
Taleb a construit et calibré sa théorie à partir de son expérience de trader des marchés financiers durant les années 1980-90 et de son enfance puis adolescence marquée par la guerre du Liban.
Les crachs boursiers (celui de 1929, de 1987, puis la crise que l'on connaît aujourd'hui) sont ses premiers cygnes noirs, les conflits armés, insurrections, révoltes, attentats en sont d'autres à ses yeux, obéissant aux mêmes fluctuations du hasard. Cette vision de la force de l'aléatoire est un frein considérable à la construction de prévisions ou de prédictions fondées.
Les cygnes noirs de Taleb nous mettent en garde contre toute arrogance prédictive et nous réduisent de fait aux simples techno-prophéties...
On comprend alors que pour étudier l'éventualité de l'émergence d'une singularité technologique, il est nécessaire d'y inclure l'aléa des cygnes noirs : cette dose d'aléatoire présente à toute échelle, imprégnant chacune des strates poreuses de notre évolution technologique.
C'est elle qui est à l'origine des bonds et discontinuités ou des périodes de pause constatées tout au long de notre marche vers le progrès.
Enfin, c'est peut-être elle qui constituera l'amorce ou le germe de notre singularité vue à son tour comme le cygne noir essentiel de notre évolution.


Maintenant que le paysage aléatoire est en place, il est possible « d'empiler » certains arguments en faveur de l'avènement d'une singularité technologique :

- Le caractère exponentiel de l'évolution technologique est un premier indicateur d'accélération systémique : il suffit de mesurer et comparer les acquis humains à l'échelle du millénaire, du siècle, puis sur dix ans et de constater le gradient !

- La convergence rapide de grands territoires de la pensée humaine : mécanique quantique, théories de l'information et de la complexité, intelligence artificielle, astrophysique, sciences cognitives, biologie, philosophie, sociologie , économie et finance.
La partition initiale n'existe plus : les savoirs spécifiques circulent et se diffusent, d'un domaine vers un autre ,interagissant et modifiant sans cesse les lignes de perception des thématiques classiques.

- Le web en tant qu'émergence d'une structure globale issue d'une multitude d'interactions locales :
Internet peut être vu comme un graphe dynamique[10] dont les sommets sont les pages web
et les arêtes , les liens html liant ces pages.
Ce graphe planétaire évolue en temps réel ; à chaque instant, des pages disparraissent, d'autres sont crées, des liens apparraisent, d'autres s'effacent, des topologies se forment et se transforment à l'image d'une entité biologique et des cellules qui la composent.
Le transfert massif de l'information humaine vers internet, son stockage, son traitement , sa hiérarchisation via les moteurs de recherche constituent certainement les premiers pas vers notre singularité, si elle doit avoir lieu.

- La fusion homme-machine ou le concept de trans-humanisme (qui a débuté dès 1958 avec le premier pacemaker implanté) modifie profondément notre rapport au corps [11]
Que ce soit dans un but de simple remplacement de l'organe malade ou dans celui d'augmentation des capacité de l'organe sain, la manipulation nous interroge sur notre propre identité: à partir de quel niveau de transformation passe-t-on du statut d'homme à celui de trans-humain ?
Est-il légitime de retarder notre vieillissement et notre mort ?
Peut-on « s'augmenter sans se perdre ? »
Là encore, cette thématique renforce au premier rang le concept de singularité.

Imaginons maintenant la convergence et l'évolution des quatre arguments que l'on vient de déployer Nous nous situons bien sûr dans un futur qu'il n'est pas possible de préciser davantage :

L'homme a maîtrisé depuis longtemps la mécanique atomique, il sait construire des bio-calculateurs à l'échelle moléculaire, il sait les connecter en réseaux multi-couche, les activer chimiquement ou physiquement afin de constituer un ordinateur optimal à cette échelle atomique.
L'architecture du cerveau humain est également bien explorée : des programmes de simulation cérébrale[12] ( utilisant les mêmes échelles de connexions que celles de l'homme) permettent de créer une entité de calcul équivalente en nombre d'instruction par unité de temps et en espace mémoire[13] à celle de notre machinerie cérébrale.
Les sentiments humains ( joie, bien-être, douleur, peur, tristesse, envie, ...) sont représentés par un magma algorithmique efficace.
Le test de Turing[14] a été passé avec succès depuis longtemps par différents types d'algorithmes.
La créativité est un caractère que l'on parvient à faire émerger de codes évolutifs intégrant l'aléatoire (on retrouve ici les cygnes noirs de Taleb).
La totalité de l'information humaine est stockée et accessible sur le descendant de l'internet.
La connexion « homme-machine » a été optimisée et autorise des transferts massifs d'informations dans les deux sens.
Enfin, l'ensemble de ces évolutions technologiques a modifié et guidé l'esprit humain vers une « sagesse d'évolution » , ceci via une modération des instincts primitifs et nuisibles à la communauté humaine. (dans cet exercice, on est autorisé à rêver...)
L'instant de la singularité semble alors établi : une entité de calcul globale intégrant l'humanité et ses représentations externes produit des « connaissances trans-humaines » et accélère de façon exponentielle la vitesse du progrès.
L'homme , dépassé par l'IA qu'il a su engendrer, se contente de comprendre et de capitaliser les découvertes produites. Il doit veiller à conserver le pouvoir sur cette production et son emprise sur le monde.


La seconde question évoquait la proximité dans le temps de cette singularité :
Entre trente et cinquante ans !, répondent en coeur certains scientifiques, technoprophètes ou philosophes des sciences cognitives.
«Nous en sommes si proches que l'on peut en ressentir aujourd'hui les manifestations préliminaires » avancent les chercheurs de l'université de la singularité.
Cette forme d'arrogance intellectuelle motive et justifie les investissements importants engagés mais elle transgresse aussi totalement le principe du hasard sauvage et sous-estime la longueur du chemin à parcourir.
Qui peut raisonnablement prédir que, proche du but (construire un code doué d'un pouvoir de création et de découverte surpassant l'inventivité humaine), nous ne serons pas confrontés à une obstruction de type Indécidabilité mathématique de Gödel[15] ?
Ce théorème, ultime dans le sens qu'il contient, nous force à la mesure et à la prudence lors de toute prédiction : il fixe des limites dont l'au-delà nous échappe irrémédiablement.


Objectivement, personne ne peut apporter une réponse acceptable en terme de date.
Il faut juste laisser le temps se déployer, faire son oeuvre et se tenir à l'écoute des signes et des cygnes que l'information nous renvoie.


Références et renvois:

[1] Association Française Transhumaniste :
http://www.transhumanistes.com/index.php
http://humanityplus.org/

[2] John von Neumann,1903-1957, mathématicien – physicien américain à l'origine de nombreux résultats en analyse fonctionnelle, informatique théorique, mécanique quatique, armement atomique.

[3] Alan Turing,1912-1954, père fondateur de l'informatique, mathématicien britannnique.

[4] Irving John Good, 1916-2009, statisticien britannique, père des méthodes bayésiennes en probabilités.

[5] Carl Sagan, 1934-1996, scientifique, astronome américain, père du programme Seti.

[6] Ray Kurzweil, 1948- , informaticien américain, précurseur dans le développement de la reconnaissance optique de caractères, fondateur du courant transhumaniste.

[7] Université de la singularité : http://singularityu.org/

[8] Equation de Drake : équation proposée par Franck Drake en 1961 estimant le nombre de civilisations extraterrestres de notre galaxie; le septième terme de cette équation est la durée de vie moyenne d'une civilisation technologique.
http://fr.wikipedia.org/wiki/%C3%89quation_de_Drake

[9] Nassim Nicholas Taleb, 1960- , écrivain, philosophe des sciences du hasard.
Le cygne noir, La puissance de l'imprévisible, Les belles lettres, 2008
Le hasard sauvage, Des marchés boursiers à notre vie : le rôle caché de la chance,
Les belles lettres 2005.


[11] L'homme 2.0, réparé, transformé, augmenté, jusqu'où ? Pour La Science – Décembre 2012

[12] Un modèle constructible de système psychique , 2011 – Alain Cardon – ouvrage sous licence créative commons.
http://www.admiroutes.asso.fr/larevue/2011/114/livrecardon.pdf

[13] Automates Intelligents -
http://www.automatesintelligents.com/actu/index.html

[14] Le test de Turing : En 1950, Alan Turing a proposé le jeu de l'imitation appelé « test de Turing » La règle de ce jeu est la suivante :
Un juge dialogue par écrit avec un interlocuteur , à l'issu de ce dialogue, il doit reconnaître si celui-ci est une machine ou un être humain.
Le juge ne voit pas son interlocuteur qui doit quant à lui toujours répondre aux questions du juge.
La machine (lorsque c'est elle !) essaie de se faire passer pour un être humain et l'être humain tente de se faire reconnaitre comme humain.
Lorsque le juge se trompe dans 50% des cas ou plus, alors on considère que la machine présente une forme d' intelligence, qu'elle pense , à sa façon, et que le test de Turing est réussi.
A titre d'illustration, on pourra aller discuter avec Alice ici :
http://www.pandorabots.com/pandora/talk?botid=f5d922d97e345aa1
et ici http://alicebot.blogspot.fr/

[15] Kurt Gödel, 1906-1978, mathématicien-logicien austro-américain est à l'origine du théorème d'incomplétude que l'on peut résumer par la phrase suivante : Dans n'importe quelle théorie récursivement axiomatisable, cohérente et capable de « formaliser l'arithmétique », on peut construire un énoncé arithmétique qui ne peut être ni prouvé ni réfuté dans cette théorie.