Depuis l'arrivé des
CPGPU certains besoins en HPC ont basculé complètement sur du matériel de type PC. Des équipes peuvent maintenant s'acheter eux-meme leur matériel plutôt que de dépendre des gros supercalculateurs partagés (contrainte tranche horaire, quota mémoire, io, cpu, etc).
Cela a redistribuer pas mal les choses dans ce domaine et dans les labos, de nos jours, on voit maintenant souvent des gros PC avec plein de GPU dedans.
Le dernier
DXG-1 de NVidia permet 170 TFlops pour $130k..autant qu'un supercalculateur des années 2005.
Ma petite box TV NVidia Shield a la maison peut faire 1TFlops pour moins de 200€ ...autant qu'un supercalculateur des années 1990.
Il est sur qu'un Flops d'un GPU et un Flops d'un CPU traditionnel ne sont pas comparables directement.
Ce n'est pas du toute la meme façon de programmer: il faut repenser ses algorithmes , changer son code existant, avoir des programmeurs compétents, etc.
Certaines grosses boites ou équipes ne font pas (encore) cet effort, simplement par qu'ils ont les moyens (finance, pétrole, etc) d'acheter toujours plus de puissance hardware plutôt que de changer ou optimiser leur code.
J'ai vécu le cas avec des géologues, dans le secteur pétrolier, qui faisait eux meme leur programmes de simulation en Fortran pour exécuter sur un supercalculateur (un Cray)... code pas optimisé, mal structuré, mal conçu niveau I/O mais pas grave on peut dépenser sans compter niveau hardware c'est de toute façon moins cher de simuler comme ca que d'aller faire un vrai forage par exemple... économiquement ca se tient meme si d'un point de vue technique c'est horrible de voir cela. Le meme code bien écrit tournant sur une pauvre workstation battait leur code pourri tournant sur un Cray...sigh.
Enfin c'était a une autre époque, j’espère que de nos jours, les scientifiques utilisateurs travaillent en tandem avec de bons informaticiens programmeurs pour utiliser au mieux le hardware des supercalculateurs ...(surtout les supercalculateurs payés par nos impôts ...)
Les Cloud providers se mettent aussi au HPC. Pour des besoins ponctuels, on peut louer 10000 cores de CPU ou plus chez Amazon ou Google par exemple. Avec les évolutions des algorithmes et des méthodes de programmation, ces 2 mondes vont se faire concurrence de plus en plus.