X
Supercalculateurs
Alain Clapaud / mercredi 17 juillet 2019 / Thèmes: Dossier, Infra

Supercalculateurs

L’Europe contre-attaque !

En perte de vitesse depuis plusieurs années dans les classements mondiaux, l’Europe a pris conscience de son retard dans un domaine stratégique pour sa recherche et ses industriels. Avec EuroHPC, l’Union Européenne investit enfin dans des infrastructures mais aussi des technologies pour donner à l’Europe une souveraineté numérique.

Trois consortiums de pays européens se sont formés pour accueillir les deux calculateurs pre-Exascale qui seront cofinancés par l’Europe. Le processus n’est pas encore initié pour les calculateurs exaflopiques mais la France et l’Allemagne semblent les candidats potentiellement les mieux placés pour réunir les fonds.Trois consortiums de pays européens se sont formés pour accueillir les deux calculateurs pre-Exascale qui seront cofinancés par l’Europe. Le processus n’est pas encore initié pour les calculateurs exaflopiques mais la France et l’Allemagne semblent les candidats potentiellement les mieux placés pour réunir les fonds.

Il était une époque où la puissance d’un pays se mesurait à son nombre de cuirassés, de hauts fourneaux… mais à l’heure du digital, ce qui permettent de jauger les capacités d’une économie, ce sont les supercalculateurs. Ce n’est pas un hasard si la Chine s’est donnée comme objectif d’être la première nation à faire entrer en production un supercalculateur de classe Exascale, c’est-à-dire passer la barre du milliard de milliards de calculs par seconde. L’empire du Milieu veut atteindre cet objectif dès 2020 sachant que son grand rival américain vise une entrée en service d’Aurora et de Frontier en 2021. Le premier, conçu par Cray Computer et Intel devrait passer la barre de l’exaflops tandis que le second, basé sur des microprocesseurs AMD, pourrait atteindre 1,5 exaflops. De leur côté, les Japonais doivent éteindre leur K computer cet été, ancien fleuron du calcul japonais, à la tête du classement mondial à sa mise en production en 2011 mais qui n’est aujourd’hui plus que 18e. Fujitsu travaille depuis 2018 sur le prototype de post-K, le successeur exaflopique de K, mais celui-ci ne devrait entrer en production qu’en 2021.

La roadmap du processeur européen EPI (European Processeur Initiative) devrait voir une première génération de composants apparaître dans le courant de cette année puis la génération qui équipera le supercalculateur exaflopique “Made in Europe” en 2023… si tout va bien.

L’Europe est partie en retard dans la course à l’Exaflop

Dans ce combat de titans, l’Europe semblait quelque peu en retrait, voire en perte de vitesse avec seulement cinq machines dans le Top 20 mondial. Ce déclin a été acté et l’Union Européenne veut replacer le Vieux Contient dans la course, tant en cofinançant de nouvelles infrastructures qu’en cherchant à reconstruire une « supply chain » européenne des supercalculateurs. 

Si Atos (ex-Bull) est l’un des rares industriels européens à pouvoir construire des supercalculateurs, son partenariat étroit avec Intel apparaît aujourd’hui comme une faiblesse pour la souveraineté européenne. C’est bien un embargo de Washington sur les Xeon E5 devant équiper les supercalculateurs chinois qui a poussé Beijing à lancer en 2014 un plan d’investissement de 150 Md$ sur dix ans pour être capable de maîtriser le design et la fabrication de microprocesseurs. Avec son projet EPI (European Processor Initiative), l’Europe a alloué un budget de 120 millions d’euros pour concevoir un microprocesseur et un accélérateur de calcul Made in Europe et ce projet devrait connaître une accélération significative en 2020. Deux pistes technologiques sont suivies, avec une puce basée sur un design ARM et une autre basée sur le design open source RISC-V, avec une fusion de ces architectures attendue au-delà de 2024. En outre, le marché HPC restant une niche, EPI va décliner son processeur pour le secteur automobile, dont les volumes permettront théoriquement de pérenniser l’investissement.

En termes d’infrastructure, le plan élaboré à Bruxelles passe par la construction de plusieurs machines Petascale, de deux supercalculateurs pre-Exascale (quelques centaines de peta-flops) en 2020 et de deux machines Exascale pour 2022/2023. L’Europe finance 50 % de la construction et de l’exploitation de ces machines pour un budget total actuellement de 500 millions d’euros. Si la France et l’Allemagne seront a priori candidates pour accueillir les machines Exascale, des consortiums se sont mis en place dans toute l’Europe afin d’héberger les deux machines pre-Exascale. La date de mise en production des systèmes pre-Exascale visée par l’Europe est le début de l’année 2021 puis 2023 pour les machines Exascale. L’Allemagne, qui dispose déjà de plusieurs supercalculateurs, sera probablement candidate de même que le Genci (Grand équipement national de calcul intensif) devrait être le candidat français pour héberger la seconde machine Exascale européenne. L’enjeu est important pour chaque pays, car ces machines vont représenter un surcroît d’heures de calcul extrêmement important pour les scientifiques du ou des pays qui vont cofinancer le supercalculateur avec l’Europe. Qui aura la machine Made in Europe ? Il est encore bien trop tôt pour le dire.

Le Genci, qui héberge déjà les supercalculateurs du Très Grand Centre de Calcul du CEA, de l’IDRISS/CNRS et du CINES (Centre informatique national de l’enseignement supérieur), est le candidat naturel pour accueillir le premier calculateur exaflopique en France. Reste encore à rassembler les budgets nécessaires à la construction et l’exploitation de la machine car, même si l’Europe prend en charge 50 % du montant, il s’agit d’un investissement de plusieurs centaines de millions d’euros.


Définitions

Flops : Floating-point operation per second  (opération en virgule flottante par seconde)

mégaFLOPS : 106 FLOPS

gigaFLOPS : 109 FLOPS

téraFLOPS : 1012 FLOPS

pétaFLOPS : 1015 FLOPS

exaFLOPS : 1018 FLOPS


« Avec EuroHPC, l’Europe passe  la vitesse supérieure » 

Laurent Crouzet, Expert auprès des représentants français au Governing Board EuroHPC

« La stratégie EuroHPC est bâtie sur deux piliers avec, d’une part, le volet infrastructures qui prévoit d’acheter des supercalculateurs et, d’autre part, un volet dédié aux développements technologiques et applicatifs. L’idée est de reconquérir une certaine souveraineté technologique pour l’Europe, et regagner des places dans le Top 500 mondial où l’Europe a du mal à tenir son rang, notamment depuis l’arrivée massive de la Chine dans ce classement. C’est la première fois que l’Europe elle-même va réaliser l’acquisition de machines et cette politique va lui permettre de se replacer dans la course mondiale à la puissance de calcul avec des machines pre-Exascale qui seront installées dans des sites dont la sélection est en cours et qui seront annoncés en juin. EuroHPC va également cofinancer avec des pays européens une série de calculateurs de plus petite taille. Enfin, à l’horizon 2022/2023, EuroHPC achètera deux supercalculateurs Exascale dont au moins un sera bâti à partir de technologies européennes. La France ambitionne de se porter candidate pour héberger un de ces calculateurs. »


« L’Exascale n’est pas uniquement une course au “ flops ”, à la puissance » 

Arnaud Bertrand, directeur de la stratégie et de l’innovation de la division Big Data & Cybersécurité chez Atos

« L’un des défis posés par l’Exascale consiste à contenir l’augmentation de la consommation électrique dans une enveloppe modérée – de l’ordre de 2 à 5 MW – tout en fournissant des performances applicatives 10 à 100 fois supérieures à ce que l’on connaît aujourd’hui. Dès lors, le défi ne consiste pas à développer une machine exaflopique, mais une machine plus efficace ; or cette efficacité est répartie entre puissance de calcul, dispatch des jobs sur les bons composants, amélioration de la consommation électrique au niveau du calculateur dans son ensemble et pas uniquement au niveau de chaque composant. Les fabricants de composants avancent bien, tant au niveau des CPU de nouvelle génération que des GPU, mais aussi sur le stockage ou sur la mémoire. Mais ces technologies prises individuellement ne seront pas suffisantes pour réussir à mettre en œuvre un système Exascale dans le temps visé par l’Europe. »


2706

x
Rechercher dans les dossiers

Actuellement à la Une...
Après Oodrive en janvier, c’est au tour de Outscale d’obtenir la précieuse qualification SecNumCloud, délivrée par l’Anssi. Outre la reconnaissance des engagements de la filiale de Dassault Systèmes en matière de sécurité, ce « visa de sécurité » est surtout un argument dont Outscale pourra se targuer auprès de ses clients.

Big Blue est réputée pour ses avancées technologiques développées dans ses laboratoires. IBM Research a encore frappé avec un nouvel algorithme capable de synthétiser les réseaux de neurones profonds.

Le Cloud pour les grandes entreprises de Dell Technologies se rénove pour apporter une meilleure gestion du stockage et une meilleure visibilité sur les coûts.

Compuware vient de rendre publique une étude réalisée pour son compte par Vanson Bourne auprès de 400 responsables informatiques dans le monde. Le principal résultat est que seulement 7 % des entreprises ont automatisé leurs tests d’applications sur mainframe.

Pour beaucoup d’applications, un faible temps de latence reste un critère essentiel. Aussi le Cloud Amazon va multiplier ses implantations de petits datacentres au plus près de ses clients.

Sous la contrainte de la norme DSP2, le secteur bancaire est contraint d’évoluer vers des opérations plus ouvertes vers l’extérieur en suivant un concept relativement nouveau, l’Open Banking. HSBC s’appuie sur la plate-forme de Mulesoft pour créer de nouveaux services et mieux servir ses 38 millions de clients.

Si financièrement le temps n’est pas au beau fixe pour l’équipementier, il tente de rassurer à l’occasion de son évènement londonien, et mise sur l’intelligence artificielle, avec Mist sur la partie WLAN, pour renouer avec la croissance.

C’est une première : un outil développé dans le cadre du « Data Transfer Project » va être mis à disposition du public pour transférer des fichiers personnels entre deux grandes plates-formes, directement, sans téléchargement intermédiaire. Une pratique qui devrait se généraliser rapidement.

GitHub a sorti une nouvelle version en bêta de son service Actions. Publié pour la première fois en 2018, il est voué à l’organisation de workflows en liaison avec des événements. Sa principale nouveauté est le support de l’intégration et du déploiement en continu (CI/CD). La version finalisée était attendue pour la mi-novembre 2019. Article paru dans L'Informaticien n°181.

L’emblématique constructeur de voitures de sport certifie ses véhicules à la revente avec la blockchain de Salesforce. Celle-ci avait déjà servi à certifier une Lamborghini Aventador S comme une œuvre d’art.

Toutes les News
LIVRES BLANCS
Les entreprises et les organismes publics se focalisent aujourd’hui sur la transformation numérique. En conséquence, les DevOps et l’agilité sont au premier plan des discussions autour des stratégies informatiques. Pour offrir ces deux avantages, les entreprises travaillent de plus en plus avec les fournisseurs de services de cloud public et développent désormais des clouds sur site à partir d’une infrastructure qui répond à trois exigences de base:
1. Agilité sans friction des ressources physiques
2. Systèmes de contrôle optimisant l'utilisation des ressources physiques et offrant un retour sur investissement maximal
3. Intégration des divers composants de l'infrastructure pour un provisionnement et une gestion des ressources automatisés.


Pour fonctionner, votre entreprise doit pouvoir compter sur une solution de sauvegarde efficace, essentielle dans un monde marqué par une croissance exponentielle des données. Vous devez à la fois accélérer vos sauvegardes et pouvoir y accéder plus rapidement pour satisfaire les exigences actuelles de continuité d’activité, disponibilité, protection des données et conformité réglementaire. Dans cette ère de croissance effrénée, les cibles sur bande hors site et autres approches traditionnelles sont simplement dépassées.


L’Intelligence Artificielle promet de révolutionner la perception de la cybersécurité au coeur des entreprises, mais pas uniquement. Ce changement de paradigme engage, en effet, une redéfinition complète des règles du jeu pour les DSI et les RSSI, ainsi que l’ensemble des acteurs de la sécurité.


Lorsque l'on déploie des postes de travail, ils ont généralement tous la même configuration matérielle et logicielle (avec certaines spécificités selon les services). Mais on ne peut pas toujours tout prévoir et il arrive par exemple que de nouveaux programmes doivent être installés ou n’aient pas été prévus. L’accumulation de logiciels « lourds » est susceptible de provoquer des lenteurs significatives sur un PC allant jusqu’à l’extinction nette de l’application. Ce livre blanc explique comment optimiser les performances au travers de 5 conseils rapides à mettre en place.


Ce guide est conçu pour aider les entreprises à évaluer les solutions de sécurité des terminaux. Il peut être utilisé par les membres de l'équipe de réponse aux incidents et des opérations de sécurité travaillant avec des outils de sécurité des points finaux sur une base quotidienne. Il peut également être utilisé par les responsables informatiques, les professionnels de la sécurité, les responsables de la conformité et d’autres personnes pour évaluer leurs performances. les capacités de l’entreprise en matière de cybersécurité, identifier les lacunes dans la sécurité des terminaux et sélectionner les bons produits pour combler ces lacunes.


Tous les Livres Blancs