X
Gen-Z
Alain Clapaud / mardi 20 novembre 2018 / Thèmes: Dossier

Gen-Z

Le serveur du futur commence à se dessiner

Face à l’augmentation du nombre de cœurs CPU, de la puissance électrique consommée, des besoins en mémoire vive et en stockage, l’architecture des serveurs actuels arrive à ses limites. Avec le consortium Gen-Z, constructeurs et équipementiers travaillent de concert sur les concepts de l’ordinateur du futur. Les prémices de ce futur apparaissent dans les nouvelles machines.

Le MX6000, nouveau châssis composable commercialisé par Dell EMC, pourra évoluer vers Gen-Z lorsque les modules compatibles seront commercialisés.

Dans le courant de l’été, Dell a annoncé le lancement d’un nouveau châssis pour ses serveurs blade, le MX7000. A priori, rien de très révolutionnaire. Ce châssis vient remplacer le M1000e, un modèle qui est resté quasiment douze ans au catalogue Dell, une machine qui a accueilli quatre générations de serveurs mais qui arrivait en bout de course du fait de l’accroissement constant du TDP des CPU multicœurs. « Avec ce MX7000, nous faisons évoluer le “ form factor ” de notre châssis pour pouvoir faire face à ce problème de dissipation thermique. La hausse du TDP ne va pas s’arrêter », confie Jean-Sébastien Volte, chef de produit chez Dell. « Du côté d’Intel, on en est à 205W, côté AMD 180W mais on discute avec eux et on s’attend à des TDP de l’ordre de 280W, 300W et 350W dans le futur. »

En parallèle, Dell et ses concurrents font face à l’augmentation inéluctable de l’espace mémoire requis par ces processeurs : « C’est aussi directement lié à l’augmentation de la puissance de ces processeurs », ajoute le chef de produit. « Qui dit augmentation du nombre de cœurs CPU, dit augmentation de la capacité mémoire du serveur afin de “ nourrir ” tous ces cœurs. « Le “ Storage Class Memory ” vient répondre à ce besoin, de même que l’accroissement de la capacité des barrettes mémoire, mais le meilleur moyen à court terme d’augmenter l’espace mémoire reste d’augmenter le nombre de DIMM. » Cette augmentation de taille des serveurs lames va aussi permettre d’accroître l’espace alloué dans la machine aux bancs mémoire, mais aussi celui alloué aux disques, ce qui est depuis longtemps une barrière à l’adoption des serveurs lames.

La notion de serveur composable monte en puissance

Le marketing de Dell pousse ce châssis comme un serveur composable car ce MX7000 aura des lames de « compute », mais également des lames dédiées au stockage. Un certain nombre de disques seront vus comme des disques locaux SAS à la demande, qu’il s’agisse de disques mécaniques ou des SSD et il sera possible de composer un serveur à la demande, en fonction du besoin, en piochant dans ces disques SAS. Jean-Sébastien Volte détaille cette approche : « Dans un avenir proche, on pourra aussi le faire en sortant du châssis, avec par exemple un châssis complet de baie de stockage à côté d’un châssis dédié au compute qui va adresser les disques dont il a besoin dans le châssis. Ce process de provisioning de ressources peut être automatisé au travers d’une API. »

L’architecture Gen-Z pourra accueillir une grande diversité de modules, depuis les CPU x86, ARM et autres, des accélérateurs, des modules mémoire, des modules d’entrée/sortie, des modules mixtes.

Dans l’architecture Gen-Z, chaque module est capable d’échanger des données avec un autre module via un protocole léger Store/Load. Modèle ouvert, n’importe quel constructeur pourra intégrer ce protocole à ses produits, contre versement de faibles royalties.

Cette approche permet de désagréger le volet stockage du serveur : le nombre de disques ne dépend plus directement du nombre de blades, une contrainte importante du serveur lame. À l’avenir, il sera possible d’aller bien plus loin dans cette désagrégation. « Ce châssis est conçu pour être commercialisé une bonne dizaine d’années. Son architecture composable Kinetic assure l’interconnexion entre le compute à l’avant, et les I/O modules (switch Ethernet, Fibre Channel et demain GenZ) à l’arrière sans midplane. Le jour où Gen-Z arrivera, on pourra reconnecter une lame à un switch directement grâce à ce que l’on nomme un connecteur orthogonal. »

Gen-Z, c’est l’architecture du futur, une architecture de machine à laquelle tous les constructeurs de serveurs se préparent aujourd’hui car celle-ci ouvrira la voie à la désagrégation de chaque composant d’un serveur, qu’il s’agisse du stockage, mais aussi de la mémoire, des cartes I/O et même des processeurs. Il deviendra alors possible de composer de A à Z le serveur le plus adapté à une application en puisant les ressources nécessaires non pas seulement dans un châssis, mais au niveau d’un datacenter entier.

La bande passante offerte par l’architecture Gen-Z varie en fonction du besoin des nœuds, par agrégation de 1, 2, 4, 8, 16 liaisons série pour un débit de 16, 25, 28, 56 et 112 GT/s (milliards de transferts par seconde).

Gen-Z, la voie pour la désagrégation complète des serveurs

 Gen-Z, c’est un consortium qui est en train d’inventer le serveur du futur. À l’origine de Gen-Z, The Machine, un projet de recherche de HP Entreprise ; ce nouveau concept de serveur a été validé en simulation puis a donné lieu à la construction d’un unique prototype dévoilé en 2016. « Pour faire de ce concept une réalité sur le marché, il nous fallait atteindre une masse critique », explique Patrick Demichel, architecte des systèmes stratégiques chez HP. « C’est pour cela qu’avec nos partenaires nous sommes allés voir les constructeurs, éditeurs pour créer un consortium afin de développer ensemble cette vision. Ce sera un changement profond dans la façon de concevoir les grands systèmes comme les toutes petites machines. » Mené par Dell EMC, HPE, AMD, ARM, Cray ou encore Huawei, le consortium compte une soixantaine de membres, avec l’essentiel des fournisseurs de technologies IT, à l’exception de quelques acteurs de poids, à commencer par Intel et Nvidia qui ont leurs propres architectures de bus de données à défendre. Stan Skelton, architecte en chef et directeur du business développement de NetApp explique pourquoi le spécialiste du stockage a pris le train Gen-Z : « En 2016, nous avons mené une recherche interne sur les nouvelles technologies de mémoire et de calcul et sur l’évolution des architectures informatiques. Gen-Z semblait correspondre à certaines des tendances et des concepts que nous avions identifiés. Depuis, NetApp a fait l’acquisition de Plexistor, un spécialiste du stockage en mémoire permanente. Le premier produit issu de cette acquisition sera commercialisé cette année sous la marque MaxData et bien que ne dépendant pas directement de Gen-Z, nous pouvons voir où MaxData pourrait bénéficier des concepts Gen-Z et des architectures associées. » Pour Sébastien Volte, chez Dell, « Gen-Z est la promesse d’une intercompatibilité totale où chaque composant d’un serveur pourra échanger avec les autres composants au moyen d’une sémantique simple de type Store/Load, comme un CPU communique avec la mémoire sur un mode peer-to-peer, sans les pénalités en termes de performances d’une architecture basée sur un bus de données classique. » Chaque module pourra échanger directement avec un autre via un switch Gen-Z grâce à ce protocole via un contrôleur ou directement lorsque le protocole sera implanté dans le processeur, dans l’accélérateur GPU ou un FPGA. « Ce que les serveurs composables d’aujourd’hui réalisent en désagrégeant le stockage du compute, Gen-Z le fera aussi avec la mémoire », ajoute Sébastien Volte. « Cela permettra de partager la mémoire à tous les serveurs d’un châssis comme on commence à le faire aujourd’hui avec les disques attachés. Cela fera voler en éclats la barrière de ces barrettes mémoires aux supports soudés au serveur, une architecture qui arrive aujourd’hui à ses limites. »

Avec The Machine , HP a imaginé le futur de l’informatique, un projet de laboratoire précurseur qui va trouver sa concrétisation dans ces prochains mois sur le marché via les partenaires du consortium Gen-Z.

Vers un ordinateur photonique dans les 5 ans ?

En termes d’implantation de ce protocole Gen-Z, la migration s’annonce progressive. Lorsque HP a évoqué pour la première fois son projet The Machine en 2014, ce super ordinateur s’appuyait à 100 % sur des mémoires de type memristors, des connexions optiques et un nouveau système d’exploitation. Depuis, HPE a quelque peu revu ses ambitions à la baisse. Les premières machines ne devraient pas mettre en œuvre de liens photoniques, mais fonctionner de manière plus classique, sur du cuivre, voire sur des cartes PCI. « Gen-Z est un protocole et on peut très bien faire du Gen-z sur du cuivre ou de la photonique », explique Patrick Demichel. « Au début, on aura très certainement des solutions Gen-Z sur cuivre, car il est aujourd’hui moins cher de faire un bus en cuivre : mais on ne se posera plus la question d’ici 3 à 5 ans, le photonique sera moins coûteux ».

Chez Dell, on se montre prudent sur la question du photonique, en anticipant une évolution progressive du marché vers Gen-Z avec ce châssis MX7000 avant de concevoir des machines plus en rupture. Le consortium a été formé en octobre 2016 et a publié en début d’année la version 1.0 de ses spécifications de base. Les formats physiques des modules sont définis et désormais les industriels ont toutes les cartes en main pour implémenter ces spécifications dans des composants FPGA puis dans des ASIC et les lancer sur le marché. Les experts estiment qu’entre la publication d’une spécification et la disponibilité effective des premiers produits, il s’écoule généralement deux ans, si bien qu’on pourrait voir arriver les premiers produits Gen-Z dès la fin 2019.

Depuis la publication des spécifications, Gen-Z est passé de la R & D au stade du développement et les industriels communiquent beaucoup moins sur leur roadmap Gen-Z. Modules ARM, x86, SOC complets, accélérateurs plus exotiques et modules de stockage, nul ne sait qui dégainera le premier. « Tous les constructeurs cachent aujourd’hui leur jeu », estime Patrick Demichel. « L’architecture Gen-Z ouvre la voie à des innovations dans de multiples domaines et il va y avoir moyen pour les fournisseurs de se différencier. C’est le jeu dans un modèle ouvert tel que celui de Gen-Z ! »

Quand on voit l’intense activité de la Chine dans le domaine des supercalculateurs ces dernières années, un acteur comme Huawei qui est membre du consortium Gen-Z pourrait très bien surprendre tout le monde et sortir une machine le premier. Gen-Z s’annonce comme une opportunité pour l’ensemble de l’industrie de s’affranchir de la domination sans partage de l’architecture x86/Intel. La révolution qui s’annonce va-t-elle redistribuer les cartes ? Rendez-vous en 2020 pour voir les premiers équipements compatibles Gen-Z arriver sur le marché.


« G en-Z va provoquer une véritable explosion cambrienne dans l’informatique »

Patrick Demichel, architecte des systèmes critiques chez HP Enterprise.

« Gen-Z va permettre de réduire la complexité des applications et accroître de manière très significative leur vitesse. Avec The Machine nous avons pu atteindre une accélération multipliée par 100 sur certains algorithmes Big Data tout simplement parce qu’on peut stocker une HTable de 1 To en mémoire alors qu’aujourd’hui on est obligé de prendre un cluster pour faire cela. L’énorme bande passante entre pools de mémoire non volatile à très faible latence va provoquer une véritable explosion cambrienne dans l’informatique. Nous allons changer l’industrie ! De multiples nouveaux types d’appliance, nouveaux types de processeurs spécialisés vont pouvoir émerger car il y aura à la fois une énorme bande passante disponible et il n’y aura plus la contrainte de dépendre du bus processeur. Sachant que l’Internet des objets va générer 100 000 fois plus de données qu’aujourd’hui et qu’il faudra les stocker et les traiter avec la même quantité d’énergie qu’aujourd’hui, Gen-Z va permettre cela et Intel n’aura pas trop le choix que de se rallier à Gen-Z tout simplement parce qu’il n’y aura pas d’alternative. »


« L’adoption de Gen-Z se fera par étapes »

Jean-Sébastien Volte, chef de produit serveurs et réseaux chez Dell EMC.

« Gen-Z dissocie la partie protocolaire de la couche physique et c’est l’une des grandes forces de Gen-Z. Le futur pourra être photonique ou rester cuivre. La plupart des innovations de rupture qui étaient trop coûteuses ont fini par disparaître. Beaucoup d’avancées sont encore possible côté cuivre et nous préférons donner accès à ces technologies à tous avec des solutions évolutives, plutôt que de miser sur une révolution, c’est la meilleure approche à notre sens. » « Rome ne s’est pas faite en un jour. Cette interconnexion passera dans un premier temps par des ports PCI, donc on aura des cartes Gen-Z PCI connectées à un switch mais l’idée sera de bridger sur les ports UPI des processeurs Intel dans le futur et, à terme, de disposer de la couche logique Gen-Z intégrée aux processeurs et n’avoir plus que des liaisons logiques. Cette adoption se fera étape par étape. »

Print
4462
Tags:Gen-Z

x
Rechercher dans les dossiers
Actuellement à la Une...
Samsung a présenté son Galaxy S10 hier soir et a profité de l’évènement pour dévoiler son smartphone pliable. Baptisé Galaxy Fold, ce terminal de 7,3 pouces déplié et 4,6 pouces plié affiche des caractéristiques techniques et un prix à faire pâlir respectivement la concurrence et les portefeuilles.

Le projet de loi annoncé mercredi soir par Emmanuel Macron pour mieux lutter contre les propos racistes et antisémites publiés en ligne prévoira des amendes pour les plateformes internet qui ne les suppriment pas, a indiqué jeudi le secrétaire d'État en charge du numérique, Mounir Mahjoubi.

Le repository des repositories célèbre le cinquième anniversaire de son programme de chasse aux bugs. Après avoir versé un total de 250 000 dollars en 2018, GitHub augmente cette année ses primes et ajoute une protection juridique à l’endroit des chercheurs.

L’offreur d’espace de location a inauguré Lundi dernier un nouveau centre de données, PA8, sur son campus de Pantin. Le centre a reçu à cette occasion Bruno Le Maire, ministre de l’Économie qui a tenu à cette occasion un discours très offensif.

En inaugurant le centre de Pantin IBX PA8, le ministre de l'Economie, Bruno Le Maire a revisité et mis à jour la notion de cloud souverain. 


L’éditeur français spécialisé en cybersécurité annonce avoir bouclé une levée de fonds à laquelle a participé la Scopelec, qui tisse en parallèle un partenariat avec ITrust. L’entreprise compte utiliser ces fonds afin d’étoffer ses équipes R&D et commerciales.

Il est rare d’avoir pareille réaction de la Cnil. Le gendarme des données personnelles s’est fendu de plusieurs tweets visant à recadrer Christian Estrosi, alors que celui-ci affirmait avoir obtenu l’autorisation de la Cnil pour tester la reconnaissance faciale à Nice… sauf que, depuis l’entrée en vigueur du RGPD, le régulateur ne délivre plus d’autorisation préalable à la mise en place de dispositifs biométriques.

Le géant de Mountain View met la main sur une startup israélienne, Alooma. Cette jeune enterprise est spécialisée dans l’intégration de données de sources multiples vers un seul et unique entrepôt.

Apple a corrigé le bug permettant à un utilisateur d’entendre son interlocuteur avant que celui-ci ne décroche. Toutefois, le correctif semble apporter son lot de problèmes, dont des restrictions vraisemblablement volontaires de la part de la marque à la pomme.

L’éditeur britannique s’empare d’une société spécialisée dans la détection de menaces, ou ...

Toutes les News

LIVRES BLANCS

Au cours de l'année 2018, VansonBourne a mené une enquête pour le compte de Nutanix afin de connaître les intentions des entreprises en matière d'adoption de clouds privés, hybrides et publics.

 


Pour gérer le risque informationnel et permettre à l'entreprise d'aller de l'avant, vous avez besoin d'une stratégie solide et d'un plan d'ordre en marche. RSA a développé ce livre blanc comme aide sur ces deux besoins. Il vous guide pas à pas pour mettre en place un programme de gestion des risques, basé sur des principes GRC éprouvés.


Plus facile à déployer et plus économique, découvrez le meilleur de la virtualisation et du PC dans un poste de travail de nouvelle génération.


Plus l'entreprise se numérise, plus le risque d'interruption s'accroît. Plus les architectures informatiques se complexifient (services de clouds publics et plateformes hybrides, mondialisation, personnalisation des TI...), plus les reprises après sinistre deviennent difficiles et coûteuses. Face à de tels enjeux, il est essentiel de se demander si l'approche traditionnelle, basée sur les reprises après sinistre, est encore véritablement appropriée.

Ce livre blanc passe en revue toutes les composantes et propose une approche originale pour ne plus subir d'interruption de services.


Avez-vous le contrôle de vos données Office 365 ? Avez-vous accès à tous les éléments dont vous avez besoin ? À première vue, la réponse est en général « Bien sûr » ou « Microsoft s’en occupe ». Mais à bien y réfléchir, en êtes-vous sûr ?


Tous les Livres Blancs