La Fibre

Datacenter et équipements réseaux => Datacenter => hébergement Énergie => Discussion démarrée par: Marco POLO le 16 avril 2016 à 01:27:46

Titre: Supercalculateurs "prêts pour l’exascale"...
Posté par: Marco POLO le 16 avril 2016 à 01:27:46
N'ayant pas trouvé de section plus adéquate, j'ai posté ce sujet ici: ai-je eu tort ? (https://lafibre.info/images/smileys/@GregLand/cs.gif)

Une gamme de supercalculateurs "prêts pour l’exascale" débarque en vrai !

Un milliard de milliards d’opérations à la seconde ! Pour atteindre cette performance à l’horizon 2020, Atos a annoncé une nouvelle génération de supercalculateurs nommés Bull sequana qui seront capables d'effectuer une telle prouesse. En Europe, au moins 3 organisations ont déjà commencé à travailler sur une telle 'big machine' qui sera capable de franchir à terme ce seuil de l'"exascale". Entretien avec Pascal Barbolosi.

"Il est temps de passer à la nouvelle ère en anticipant  l’"exascale"" avec Bull sequana, lance, tout de go, Pascal Barbolosi, patron HPC (high performance computing) chez Atos.

"En 2017, en coopération avec le CEA, l'un des premiers centres de recherche en France et dans le monde, nous atteindrons le seuil des 25 péta-flops, sur un système de production qui embarquera la future génération de processeurs "many cores Xeon Phy" d’Intel. Et à l’horizon 2020, nous atteindrons la barre de l'exa-flops. L’architecture Sequana permettant d'embarquer et de combiner différents types de processeurs", explique le responsable de la ligne supercalculateurs Bull du groupe Atos.

L'exaflops ? C'est mille fois plus de performances applicatives que celle des configurations existantes au seuil des années 2010 (qui était d'un pétaflops). "Ce sera d’un point de vue puissance de calcul, l’équivalent de 20 millions de PC d’aujourd’hui".

Retour en 2010...

La nouvelle génération de supercalculateurs Bull sequana a été officiellement annoncée au célèbre congrès Supercomputing à Austin (Texas) en novembre dernier et un prototype sera présenté cette semaine à Paris. Elle ne tombe pas du ciel…

Dès 2010, Bull avait conçu des supercalculateurs permettant d'atteindre le seuil des 64 teraflops (floating point per second, soit 64 milliards d'opérations à la seconde, en virgule flottante). Ce qui était une performance à l’époque. Ceci avait été rendu possible avec la génération des processeurs Intel Xeon "généralistes", intégrés dans de larges configurations de type cluster "En 2010, Bull a été le premier constructeur de HPC à dépasser le seuil du petaflops en Europe (soit + 1000 teraflops). C'était l'équivalent de 140.000 PC".

Bull Sequana, est un petit bijou de technologie avec plus de 100 brevets déposés.

Un réseau de communication spécifique: BXI

Pour atteindre de tels niveaux de performance applicative dans les supercalculateurs, l’interconnexion entre les processeurs est d’une importance capitale. "C'est pourquoi nous avons développé un système d’interconnexion extrêmement performant, BXI [Bull eXascale Interconnect] qui, en déchargeant complètement les processeurs de la gestion des communications, leur permet de libérer toute leur puissance pour le calcul".

La consommation d'énergie, enjeu majeur

Face à de telles méga-configurations, le critère de consommation globale d'énergie est devenu crucial. En 2010 un système d’un petaflop consommait plusieurs Megawatt (le coût du megawatt est de 1 million par an). L’efficacité énergétique est donc clé, grâce aux innovations apportées dans Sequana, le coût énergétique rapporté à la puissance de calcul a été amélioré par un facteur 20.

Refroidissement à eau et récupération de chaleur

Le refroidissement des mainframes à eau froide de jadis était très couteux et peu efficace, cela a bien évolué. Bull Sequana utilise un système de refroidissement eau chaude très innovant qui va permettre d’extraire la chaleur des composants (processeurs mais aussi mémoires et réseaux d’interconnexion et - c'est une première - le système de distribution électrique).

"Nous nous rapprochons d'un coefficient PUE [Power usage effectiveness] de 1.0 et visons même descendre en dessous grâce à la récupération de la chaleur...".

Un volume très dense

Il n'y a plus de ventilateur, ce qui permet d'économiser de l'énergie et du volume. Une "cellule" Sequana mesure 2,10m par 1,30m sur 2m de hauteur. Pour obtenir une capacité de 25 petaflops, il suffira de quelques dizaines cellules.
 
Les applications se diversifient

La cible des acheteurs peut aller d'un centre de recherche régionaux à internationaux et d’une PME  à de très grands comptes. "Nous avons choisi de concevoir une offre très modulaire qui permet de dimensionner le supercalculateur en fonction du besoin du client", souligne Pascal Barbolosi.

Les applications HPC se diversifient, à commencer dans l'aéronautique, l'automobile, lorsqu'il s'agit de faire de calculs de réduction du poids, par exemple ; ou dans la recherche pharmaceutique ou cosmétique, pour valider des nouvelles molécules. Et bien sûr dans tous les systèmes de simulation qui évitent des expérimentations en réel "in vivo" ou encore dans la construction de maquettes très coûteuses.

En matière de prévisions météo, grâce aux supercalculateurs, les prédictions météo deviennent plus fines ou se risquent sur de plus longues périodes.

Le Calcul de Haute Performance est devenu un élèment essentiel pour la compétitivité des économies, principalement comme soutien de l'innovation industrielle et scientifique. Que ce soit dans l'industrie, dans les services ou dans la recherche, dans les secteurs public et privé, les ressources de la simulation et du calcul intensif sont fondamentales pour le développement de produits et services innovants comme par exemple:

Concurrencer Watson d’IBM

Les applications de Big data s'inscrivent aussi sur la liste, car on assiste à un déluge de données dont les résultats, en simulation ou calculs prévisionnels génèrent eux-mêmes encore plus de données. Le HPC s'applique aussi aux transactions boursières réalisables à la milliseconde avec le 'THF trading' (trading à très haute fréquence), par exemple, ou dans les applications d’acquisitions ou "deep learning" où l'on vérifie des hypothèses parmi des millions voire des milliards de combinaisons.

Pas étonnant que depuis 3 ans, Atos recrute des 'datascientists' chargés de définir des cas d'application ou de valider des algorithmes.

Pour en savoir plus: Document sur les performances du HPC Sequana et sur des applications concrètes dans divers secteurs d’activité (http://www.zdnet.fr/livre-blanc/vivre-l-innovation-sans-limite-63843622.htm).[/color]

Source: ZDNet.fr (http://www.zdnet.fr/actualites/une-gamme-de-supercalculateurs-prets-pour-l-exascale-debarque-en-vrai-39835406.htm) (http://www.zdnet.fr/i/edit/ne/2016/03/sponsor-atos.jpg)  | Jeudi 14 Avril 2016 (https://lafibre.info/images/smileys/@GregLand/ca.gif)
Titre: Supercalculateurs "prêts pour l’exascale"...
Posté par: Marin le 16 avril 2016 à 07:24:32
Pourquoi spammer du publi-rédactionnel sur le forum ?
Titre: Supercalculateurs "prêts pour l’exascale"...
Posté par: mattmatt73 le 16 avril 2016 à 07:48:45
(http://www.zdnet.fr/i/edit/ne/2016/03/sponsor-atos.jpg)

effectivement, on pourrait s'en passer, mais zdnet pourrait s'en passer aussi....
Titre: Supercalculateurs "prêts pour l’exascale"...
Posté par: xFlo le 16 avril 2016 à 07:55:43
Pourquoi spammer du publi-rédactionnel sur le forum ?
C'est pas la première fois... Enfin perso pour moi c'est pas le bon endroit pour faire ça
Titre: Supercalculateurs "prêts pour l’exascale"...
Posté par: underground78 le 16 avril 2016 à 10:31:57
La meilleure façon de faire prendre conscience aux gens que c'est du publi-rédactionnel c'est encore qu'ils en parlent et qu'on leur signale. ;)

Pour ceux que ça intéresse, la majorité de la puissance crête des nouveaux supercalculateurs Bull provient des accélérateurs Xeon Phy d'Intel. Si on simplifie il s'agit en gros d'un processeur comportant de multiples (une cinquantaine) cœurs d'exécution relativement peu puissants. Toute la problématique va être de voir si on arrive réellement à tirer parti efficacement de cette puissance sans passer des semaines à tout redévelopper. Je connais bien le domaine et pour l'instant je suis quasiment sûr qu'il y a peu de monde qui a pu tester ça en pratique donc ça reste une grosse inconnue.
Titre: Supercalculateurs "prêts pour l’exascale"...
Posté par: mattmatt73 le 16 avril 2016 à 10:49:10
Tu oses critiquer la fierté nationale qu'est bull?

Tes impôts les aiment pourtant
Titre: Supercalculateurs "prêts pour l’exascale"...
Posté par: underground78 le 16 avril 2016 à 10:55:12
A leur décharge, tous les constructeurs font pareils... La prochaine génération de supercalculateurs va posséder des accélérateurs (Xeon Phy d'Intel ou cartes graphiques), c'est la seule solution pour réussir à aller à l'exascale.

Là où je suis encore un peu plus dubitatif c'est sur l'intérêt de concevoir encore un nouveau réseau d'interconnexion mais bon on va bien voir.
Titre: Supercalculateurs "prêts pour l’exascale"...
Posté par: Phach le 16 avril 2016 à 11:21:04
Y avait le PDG de Atos/Bull l'autre soir sur BFM Business, c'est quand même impressionant en terme de densité cette machine.
A puissance équivalente, en quelques années, on est passé de 600m² au sol contre 2.5m² aujourd'hui !

L'exaflop c'est pas avant 2020, donc ils survendent un peu mais bon, ca fait plaisir de voir des machines dans la partie haute du top 500 conçu par un groupe français qui a failli disparaître tout de même.

Après, la mise en oeuvre est une autre paire de manche, comme disait un ingénieur de chez Safran, ce sont des machines qui demandent des compétences extremement pointu, c'est d'ailleurs pour ça qu'ils s'associent avec le CEA qui a une vraie expertise dans les super calculateur.
L'ingénieur de chez Safran disait qu'avec la puissance actuelle, ils sont incapable de modéliser le fonctionnement d'un moteur d'avion au complet, ils sont obligé de le découper en sous structures.

Donc ca laisse de la marge...

le replay :
http://bfmbusiness.bfmtv.com/mediaplayer/video/qui-gagnera-la-bataille-des-supercalculateurs-1204-793626.html
Titre: Supercalculateurs "prêts pour l’exascale"...
Posté par: underground78 le 16 avril 2016 à 11:30:45
Après, la mise en oeuvre est une autre paire de manche, comme disait un ingénieur de chez Safran, ce sont des machines qui demandent des compétences extremement pointu, c'est d'ailleurs pour ça qu'ils s'associent avec le CEA qui a une vraie expertise dans les super calculateur.
Ouais enfin c'est bien le problème quand même, il faut voir la majorité des codes utilisés sur les supercalculateurs sont développés par des gens dont le métier n'est pas l'informatique. Il est très difficile de leur demander de savoir utiliser ce type d'architecture...
Titre: Supercalculateurs "prêts pour l’exascale"...
Posté par: Marco POLO le 16 avril 2016 à 18:48:11
Pourquoi spammer du publi-rédactionnel sur le forum ?

...Parce qu'une telle bécane, publi-rédactionnel ou pas, ça ne te fait pas rêver, toi ?
...Un milliard de milliards d’opérations à la seconde !...

..."En 2017, en coopération avec le CEA, l'un des premiers centres de recherche en France et dans le monde, nous atteindrons le seuil des 25 péta-flops,... Et à l’horizon 2020, nous atteindrons la barre de l'exa-flops....

L'exaflops ? C'est mille fois plus de performances applicatives que celle des configurations existantes au seuil des années 2010 (qui était d'un pétaflops). "Ce sera d’un point de vue puissance de calcul, l’équivalent de 20 millions de PC d’aujourd’hui"...

...etc, etc, etc !
(https://lafibre.info/images/smileys/Confus/Confus_55.gif)
Titre: Supercalculateurs "prêts pour l’exascale"...
Posté par: mattmatt73 le 16 avril 2016 à 18:56:01
...Parce qu'une telle bécane, publi-rédactionnel ou pas, ça ne te fait pas rêver, toi ? (https://lafibre.info/images/smileys/Confus/Confus_55.gif)

Non, qu'on commence à virer les machines qui ont 10 ans dans les labos des facs et qu'on arrête de se branler sur un proto quasi inutilisable en l'ėtat payé sur nos impots
Titre: Supercalculateurs "prêts pour l’exascale"...
Posté par: mirtouf le 16 avril 2016 à 20:07:02
Ah... Y'a 8 ans j'étais encore obligé de me coltiner une 386SX pour piloter une machine RX. Que de souvenirs.  :D
Titre: Supercalculateurs "prêts pour l’exascale"...
Posté par: underground78 le 16 avril 2016 à 22:39:33
Non, qu'on commence à virer les machines qui ont 10 ans dans les labos des facs et qu'on arrête de se branler sur un proto quasi inutilisable en l'ėtat payé sur nos impots
J'ai pas l'impression que la recherche française soit trop mal lotie en matière d'accès à des ressources de calcul haute performance. Les heures sont "gratuites" dans les grands centres de calcul et beaucoup de labos disposent de machines de calcul un peu puissantes.
Titre: Supercalculateurs "prêts pour l’exascale"...
Posté par: jack le 16 avril 2016 à 23:55:07
Deux questions sur les HPC :
- est-ce que un programme peut utiliser l'ensemble des cores, ou est-ce qu'il est nécessaire d'avoir plusieurs programmes, chacun avec un nombre de core réduit ?
- dans le premier cas, est-ce l'utilisation que les gens en font ?
Titre: Supercalculateurs "prêts pour l’exascale"...
Posté par: underground78 le 17 avril 2016 à 00:05:06
Tu veux dire l'ensemble des cœurs d'un supercalculateur (typiquement au moins 10000 pour un supercalculateur national) ? Les programmes capables de le faire sont très peu nombreux (voir inexistant pour les plus gros supercalculateurs).

Ce n'est de toute façon pas de cette façon que les supercalculateurs sont utilisés au quotidien puisqu'il s'agit d'une ressource partagée. En général il y a un gestionnaire de travaux qui s'occupe d'orchestrer les différents programmes. Un utilisateur fait une demande d'exécution pour un certain programme sur un certain nombre de cœurs, le gestionnaire de travaux centralise tous les travaux, s'occupe de donner les ressources de calcul à chacun (avec une file d'attente) et lance les exécutions.

Là j'ai un petit doute mais il me semble que chez nous la quantité de cores la plus souvent demandée est 512 coeurs. Si c'est pas la plus demandée alors il doit s'agir de celle qui correspond à la plus grande quantité d'heures de calcul consommées.
Titre: Supercalculateurs "prêts pour l’exascale"...
Posté par: jack le 17 avril 2016 à 00:19:02
C'est bien ce dont je me souvenais
La course au gros HPC n'est donc qu'une affaire de phallus, entendu que la majorité (l'ensemble ?) des tâches peuvent être résolu sur un cluster de machines plus simples, me tromperai-je ?
Titre: Supercalculateurs "prêts pour l’exascale"...
Posté par: underground78 le 17 avril 2016 à 00:36:46
Il y a évidemment une histoire de compétition entre pays mais il faut bien voir que les gros supercalculateurs ont quand même des raisons d'être qui sont objectives :
 - moins d'inégalités entre labos
 - possibilité de lisser l'utilisation de la machine sur un grand nombre d'utilisateurs avec des usages assez variés
 - possibilité d'aller au delà de ce que peuvent s'offrir les labo
 - possibilité d'affecter des ressources humaines dédiées qui ne seraient pas rentables si elles n'étaient pas partagées
 - etc.

En pratique, sauf gros ratage, les supercalculateurs sont remplis donc le besoin est là.
Titre: Supercalculateurs "prêts pour l’exascale"...
Posté par: BadMax le 17 avril 2016 à 17:38:40
Airbus a 2 supercalculateurs, l'un à Toulouse, l'autre à Hambourg, ils tournent à 100% toute l'année. Ils sont dans le top500.
Titre: Supercalculateurs "prêts pour l’exascale"...
Posté par: kgersen le 17 avril 2016 à 18:25:37
Depuis l'arrivé des CPGPU  (https://fr.wikipedia.org/wiki/General-purpose_processing_on_graphics_processing_units) certains besoins en HPC ont basculé complètement sur du matériel de type PC. Des équipes peuvent maintenant s'acheter eux-meme leur matériel plutôt que de dépendre des gros supercalculateurs partagés  (contrainte tranche horaire, quota mémoire, io, cpu, etc).
Cela a redistribuer pas mal les choses dans ce domaine et dans les labos, de nos jours, on voit maintenant souvent des gros PC avec plein de GPU dedans.

Le dernier DXG-1 de NVidia (http://www.nvidia.com/object/deep-learning-system.html) permet 170 TFlops pour $130k..autant qu'un supercalculateur des années 2005.

Ma petite box TV NVidia Shield a la maison peut faire 1TFlops pour moins de 200€ ...autant qu'un supercalculateur des années 1990.

Il est sur qu'un Flops d'un GPU et un Flops d'un CPU traditionnel ne sont pas comparables directement.
Ce n'est pas du toute la meme façon de programmer: il faut repenser ses algorithmes , changer son code existant, avoir des programmeurs compétents, etc.
Certaines grosses boites ou équipes ne font pas (encore) cet effort, simplement par qu'ils ont les moyens (finance, pétrole, etc) d'acheter toujours plus de puissance hardware plutôt que de changer ou optimiser leur code.

J'ai vécu le cas avec des géologues, dans le secteur pétrolier, qui faisait eux meme leur programmes de simulation en Fortran pour exécuter sur un supercalculateur (un Cray)... code pas optimisé, mal structuré, mal conçu niveau I/O mais pas grave on peut dépenser sans compter niveau hardware c'est de toute façon moins cher de simuler comme ca que d'aller faire un vrai forage par exemple... économiquement ca se tient meme si d'un point de vue technique c'est horrible de voir cela. Le meme code bien écrit tournant sur une pauvre workstation battait leur code pourri tournant sur un Cray...sigh.

Enfin c'était a une autre époque, j’espère que de nos jours, les scientifiques utilisateurs travaillent en tandem avec de bons informaticiens programmeurs pour utiliser au mieux le hardware des supercalculateurs ...(surtout les supercalculateurs payés par nos impôts ...)

Les Cloud providers se mettent aussi au HPC. Pour des besoins ponctuels, on peut louer 10000 cores de CPU ou plus chez Amazon ou Google par exemple. Avec les évolutions des algorithmes et des méthodes de programmation, ces 2 mondes vont se faire concurrence de plus en plus.
Titre: Supercalculateurs "prêts pour l’exascale"...
Posté par: mattmatt73 le 17 avril 2016 à 18:37:42
+1 avec ton analyse.

Avoir le supercalculateur qui se la pète, c'est beau.

Mais si tu n'as que 2 fois par an des programmes optimisés, tirant vraiment possibilité du bouzin.

Autant acheter des palettes de GPU...
Titre: Supercalculateurs "prêts pour l’exascale"...
Posté par: underground78 le 17 avril 2016 à 22:31:10
Ben les GPU c'est pas facile à utiliser justement.

Enfin c'était a une autre époque, j’espère que de nos jours, les scientifiques utilisateurs travaillent en tandem avec de bons informaticiens programmeurs pour utiliser au mieux le hardware des supercalculateurs ...(surtout les supercalculateurs payés par nos impôts ...)
Au niveau des labos ça reste dur d'avoir des postes d'informaticien, m'enfin il y a des gros efforts de fait au niveau des supercalculateurs pour proposer du support.