Atelier Aristote : vers Exascale !

HPC
Écrit par Lilia Ziane Khodja, le 03 juin 2019

 

Quels sont les défis et les opportunités offerts par l'Exascale Computing ?

ARISTOTE [1], la société philotechnique indépendante qui regroupe des utilisateurs de technologies numériques issus d'organisations publiques et privées, d'écoles de commerce, de PME et d'associations, a organisé le 23 mai 2019 un atelier scientifique dédié à l'exascale computing à l'École polytechnique de Palaiseau, France [2].

Partage d'expérience

L'atelier a été organisé pour promouvoir l'échange d'expériences sur les applications scientifiques de calcul intensif et d'intelligence artificielle. Cette année a été consacrée à la nouvelle génération de systèmes de calcul vers l'exascale. Aujourd'hui, les nouveaux défis du calcul haute performance sont d'atteindre au moins un quintillion (un milliard de milliards), que ce soit en termes d'opérations en virgule flottante par seconde (exaFLOPS) ou en termes de capacité de stockage, tout en améliorant l'efficacité énergétique de l'équipement technique.

Lors de la séance d'ouverture, des déclarations ont été faites par M. Laurent CROUZET, Chef de projet au Ministère de l'Enseignement Supérieur et de la Recherche, au sujet de l'Entreprise Commune Européenne de Calcul Haute Performance - EuroHPC. Ensuite, différents sujets ont été présentés par différents membres des communautés scientifiques et industrielles : CNRS, CEA, GENCI, IRISA, LABRI, CERFACS, X/IPSL et ONERA. Les sujets généraux portaient sur les systèmes de calcul exascale (matériel et logiciel) et les applications HPC & AI comme la compréhension scientifique de la qualité de l'air [3], la modélisation numérique du climat [5], la simulation des écoulements diphasiques, la combustion et la modélisation de la turbulence [4].

Développer les superordinateurs HPC à l'intérieur et à l'extérieur de l'Europe

Actuellement, la plupart des machines puissantes sont disponibles en dehors de l'Europe, aux États-Unis, au Japon et en Chine. En outre, les superordinateurs existants de l'UE dépendent de technologies non européennes. Par conséquent, les applications et les données HPC européennes sont de plus en plus traitées en dehors de l'UE. Cette situation peut créer des problèmes liés à la vie privée, à la protection des données, aux secrets commerciaux et à la propriété des données. C'est pourquoi l'entreprise commune EuroHPC [6] a été financée pour coordonner les stratégies et les investissements des pays européens en vue de développer des superordinateurs HPC dans l'UE.

Chaque pays ou consortium de pays dans le monde est en concurrence pour construire les supercalculateurs exascales haut de gamme. Les premiers superordinateurs exascale sont annoncés pour les années à venir. Intel Corporation, en partenariat avec Cray Inc. et le laboratoire Aragonne, livrera Aurora, le premier supercalculateur des États-Unis, qui sera opérationnel à la fin de 2021 [7]. La Chine a construit trois prototypes de supercalculateurs exascales : Sugon, TIANHE-3 et Sunway. Le premier supercalculateur exaflopique sera TIANHE-3, dont le démarrage est prévu en 2020 [8]. Fujitsu et l'institut de recherche japonais Riken ont également pour objectif de livrer un supercalculateur exascale Post-K qui devrait être exploité publiquement en 2021 [9]. En outre, l'Union européenne franchit également le seuil de l'exascale. L'objectif est de disposer d'au moins deux ordinateurs pré-exascale d'ici 2020 et d'atteindre la pleine performance exascale d'ici 2023 [10].

Les besoins croissants en supercalculateurs exascales

Aujourd'hui, l'informatique de haute performance a atteint (environ 200 petaFLOPS). Et ce chiffre pourrait encore augmenter en raison de l'évolution rapide de la puissance et de la complexité des microarchitectures informatiques. La loi de Moore prévoit que le nombre de transistors dans un circuit intégré dense (c'est-à-dire la puissance de traitement globale) double tous les deux ans environ. Cependant, cette loi s'essouffle aujourd'hui. Pourquoi ? À cause du mur de la puissance, qui est l'un des principaux obstacles auxquels l'industrie des puces est confrontée, et de la grande quantité de données à traiter, qui est une activité à forte consommation d'énergie.

Pour surmonter ce problème de montée en puissance et préserver l'augmentation des performances, les nouvelles technologies matérielles sont de plus en plus hétérogènes. Elles sont basées sur : plus de cœurs de calcul et d'accélérateurs (GPU, FPGA, MPPA, Xeon Phi, TPU, ...) et sont plus économes en énergie.

En outre, les défis de la productivité logicielle et de la portabilité des performances deviennent nécessaires pour tirer parti des supercalculateurs exascales émergents. Les nouveaux algorithmes parallèles et évolutifs. Ils utilisent différents paradigmes de parallélisation à chaque niveau du matériel (inter/intra nœuds, offload, vectorisation et parallélisme au niveau des instructions). Ils introduisent des langages, des API et des bibliothèques (DSL) portables et spécifiques à un domaine, utilisent des temps d'exécution pour programmer efficacement les tâches parallèles, appliquent l'intelligence artificielle au calcul à haute performance et vice-versa, et utilisent des outils de débogage et de profilage pour les applications de calcul à haute performance.

L'avenir d'Exascale

En conclusion, les futurs superordinateurs exascales seront économes en énergie et de plus en plus hétérogènes, y compris les multi/many-cores, le matériel dédié à des applications spécifiques. Ils disposeront de nouveaux niveaux de mémoires persistantes et de circuits et réseaux optiques.

En outre, un effort doit être fait sur les pratiques de programmation et l'exploitation du parallélisme à chaque niveau du matériel. Il est à noter que parmi tous les outils de programmation parallèle, il est annoncé que MPI [11] et OpenMP [12] resteront, avec leur évolution, les outils les plus efficaces et les plus portables sur les architectures hétérogènes.

Enfin, le modèle d'exploitation des supercalculateurs évolue et passe de CPU.Hour à Watt.Hour.

Références