X
Gen-Z
Alain Clapaud / mardi 20 novembre 2018 / Thèmes: Dossier

Gen-Z

Le serveur du futur commence à se dessiner

Face à l’augmentation du nombre de cœurs CPU, de la puissance électrique consommée, des besoins en mémoire vive et en stockage, l’architecture des serveurs actuels arrive à ses limites. Avec le consortium Gen-Z, constructeurs et équipementiers travaillent de concert sur les concepts de l’ordinateur du futur. Les prémices de ce futur apparaissent dans les nouvelles machines.

Le MX6000, nouveau châssis composable commercialisé par Dell EMC, pourra évoluer vers Gen-Z lorsque les modules compatibles seront commercialisés.

Dans le courant de l’été, Dell a annoncé le lancement d’un nouveau châssis pour ses serveurs blade, le MX7000. A priori, rien de très révolutionnaire. Ce châssis vient remplacer le M1000e, un modèle qui est resté quasiment douze ans au catalogue Dell, une machine qui a accueilli quatre générations de serveurs mais qui arrivait en bout de course du fait de l’accroissement constant du TDP des CPU multicœurs. « Avec ce MX7000, nous faisons évoluer le “ form factor ” de notre châssis pour pouvoir faire face à ce problème de dissipation thermique. La hausse du TDP ne va pas s’arrêter », confie Jean-Sébastien Volte, chef de produit chez Dell. « Du côté d’Intel, on en est à 205W, côté AMD 180W mais on discute avec eux et on s’attend à des TDP de l’ordre de 280W, 300W et 350W dans le futur. »

En parallèle, Dell et ses concurrents font face à l’augmentation inéluctable de l’espace mémoire requis par ces processeurs : « C’est aussi directement lié à l’augmentation de la puissance de ces processeurs », ajoute le chef de produit. « Qui dit augmentation du nombre de cœurs CPU, dit augmentation de la capacité mémoire du serveur afin de “ nourrir ” tous ces cœurs. « Le “ Storage Class Memory ” vient répondre à ce besoin, de même que l’accroissement de la capacité des barrettes mémoire, mais le meilleur moyen à court terme d’augmenter l’espace mémoire reste d’augmenter le nombre de DIMM. » Cette augmentation de taille des serveurs lames va aussi permettre d’accroître l’espace alloué dans la machine aux bancs mémoire, mais aussi celui alloué aux disques, ce qui est depuis longtemps une barrière à l’adoption des serveurs lames.

La notion de serveur composable monte en puissance

Le marketing de Dell pousse ce châssis comme un serveur composable car ce MX7000 aura des lames de « compute », mais également des lames dédiées au stockage. Un certain nombre de disques seront vus comme des disques locaux SAS à la demande, qu’il s’agisse de disques mécaniques ou des SSD et il sera possible de composer un serveur à la demande, en fonction du besoin, en piochant dans ces disques SAS. Jean-Sébastien Volte détaille cette approche : « Dans un avenir proche, on pourra aussi le faire en sortant du châssis, avec par exemple un châssis complet de baie de stockage à côté d’un châssis dédié au compute qui va adresser les disques dont il a besoin dans le châssis. Ce process de provisioning de ressources peut être automatisé au travers d’une API. »

L’architecture Gen-Z pourra accueillir une grande diversité de modules, depuis les CPU x86, ARM et autres, des accélérateurs, des modules mémoire, des modules d’entrée/sortie, des modules mixtes.

Dans l’architecture Gen-Z, chaque module est capable d’échanger des données avec un autre module via un protocole léger Store/Load. Modèle ouvert, n’importe quel constructeur pourra intégrer ce protocole à ses produits, contre versement de faibles royalties.

Cette approche permet de désagréger le volet stockage du serveur : le nombre de disques ne dépend plus directement du nombre de blades, une contrainte importante du serveur lame. À l’avenir, il sera possible d’aller bien plus loin dans cette désagrégation. « Ce châssis est conçu pour être commercialisé une bonne dizaine d’années. Son architecture composable Kinetic assure l’interconnexion entre le compute à l’avant, et les I/O modules (switch Ethernet, Fibre Channel et demain GenZ) à l’arrière sans midplane. Le jour où Gen-Z arrivera, on pourra reconnecter une lame à un switch directement grâce à ce que l’on nomme un connecteur orthogonal. »

Gen-Z, c’est l’architecture du futur, une architecture de machine à laquelle tous les constructeurs de serveurs se préparent aujourd’hui car celle-ci ouvrira la voie à la désagrégation de chaque composant d’un serveur, qu’il s’agisse du stockage, mais aussi de la mémoire, des cartes I/O et même des processeurs. Il deviendra alors possible de composer de A à Z le serveur le plus adapté à une application en puisant les ressources nécessaires non pas seulement dans un châssis, mais au niveau d’un datacenter entier.

La bande passante offerte par l’architecture Gen-Z varie en fonction du besoin des nœuds, par agrégation de 1, 2, 4, 8, 16 liaisons série pour un débit de 16, 25, 28, 56 et 112 GT/s (milliards de transferts par seconde).

Gen-Z, la voie pour la désagrégation complète des serveurs

 Gen-Z, c’est un consortium qui est en train d’inventer le serveur du futur. À l’origine de Gen-Z, The Machine, un projet de recherche de HP Entreprise ; ce nouveau concept de serveur a été validé en simulation puis a donné lieu à la construction d’un unique prototype dévoilé en 2016. « Pour faire de ce concept une réalité sur le marché, il nous fallait atteindre une masse critique », explique Patrick Demichel, architecte des systèmes stratégiques chez HP. « C’est pour cela qu’avec nos partenaires nous sommes allés voir les constructeurs, éditeurs pour créer un consortium afin de développer ensemble cette vision. Ce sera un changement profond dans la façon de concevoir les grands systèmes comme les toutes petites machines. » Mené par Dell EMC, HPE, AMD, ARM, Cray ou encore Huawei, le consortium compte une soixantaine de membres, avec l’essentiel des fournisseurs de technologies IT, à l’exception de quelques acteurs de poids, à commencer par Intel et Nvidia qui ont leurs propres architectures de bus de données à défendre. Stan Skelton, architecte en chef et directeur du business développement de NetApp explique pourquoi le spécialiste du stockage a pris le train Gen-Z : « En 2016, nous avons mené une recherche interne sur les nouvelles technologies de mémoire et de calcul et sur l’évolution des architectures informatiques. Gen-Z semblait correspondre à certaines des tendances et des concepts que nous avions identifiés. Depuis, NetApp a fait l’acquisition de Plexistor, un spécialiste du stockage en mémoire permanente. Le premier produit issu de cette acquisition sera commercialisé cette année sous la marque MaxData et bien que ne dépendant pas directement de Gen-Z, nous pouvons voir où MaxData pourrait bénéficier des concepts Gen-Z et des architectures associées. » Pour Sébastien Volte, chez Dell, « Gen-Z est la promesse d’une intercompatibilité totale où chaque composant d’un serveur pourra échanger avec les autres composants au moyen d’une sémantique simple de type Store/Load, comme un CPU communique avec la mémoire sur un mode peer-to-peer, sans les pénalités en termes de performances d’une architecture basée sur un bus de données classique. » Chaque module pourra échanger directement avec un autre via un switch Gen-Z grâce à ce protocole via un contrôleur ou directement lorsque le protocole sera implanté dans le processeur, dans l’accélérateur GPU ou un FPGA. « Ce que les serveurs composables d’aujourd’hui réalisent en désagrégeant le stockage du compute, Gen-Z le fera aussi avec la mémoire », ajoute Sébastien Volte. « Cela permettra de partager la mémoire à tous les serveurs d’un châssis comme on commence à le faire aujourd’hui avec les disques attachés. Cela fera voler en éclats la barrière de ces barrettes mémoires aux supports soudés au serveur, une architecture qui arrive aujourd’hui à ses limites. »

Avec The Machine , HP a imaginé le futur de l’informatique, un projet de laboratoire précurseur qui va trouver sa concrétisation dans ces prochains mois sur le marché via les partenaires du consortium Gen-Z.

Vers un ordinateur photonique dans les 5 ans ?

En termes d’implantation de ce protocole Gen-Z, la migration s’annonce progressive. Lorsque HP a évoqué pour la première fois son projet The Machine en 2014, ce super ordinateur s’appuyait à 100 % sur des mémoires de type memristors, des connexions optiques et un nouveau système d’exploitation. Depuis, HPE a quelque peu revu ses ambitions à la baisse. Les premières machines ne devraient pas mettre en œuvre de liens photoniques, mais fonctionner de manière plus classique, sur du cuivre, voire sur des cartes PCI. « Gen-Z est un protocole et on peut très bien faire du Gen-z sur du cuivre ou de la photonique », explique Patrick Demichel. « Au début, on aura très certainement des solutions Gen-Z sur cuivre, car il est aujourd’hui moins cher de faire un bus en cuivre : mais on ne se posera plus la question d’ici 3 à 5 ans, le photonique sera moins coûteux ».

Chez Dell, on se montre prudent sur la question du photonique, en anticipant une évolution progressive du marché vers Gen-Z avec ce châssis MX7000 avant de concevoir des machines plus en rupture. Le consortium a été formé en octobre 2016 et a publié en début d’année la version 1.0 de ses spécifications de base. Les formats physiques des modules sont définis et désormais les industriels ont toutes les cartes en main pour implémenter ces spécifications dans des composants FPGA puis dans des ASIC et les lancer sur le marché. Les experts estiment qu’entre la publication d’une spécification et la disponibilité effective des premiers produits, il s’écoule généralement deux ans, si bien qu’on pourrait voir arriver les premiers produits Gen-Z dès la fin 2019.

Depuis la publication des spécifications, Gen-Z est passé de la R & D au stade du développement et les industriels communiquent beaucoup moins sur leur roadmap Gen-Z. Modules ARM, x86, SOC complets, accélérateurs plus exotiques et modules de stockage, nul ne sait qui dégainera le premier. « Tous les constructeurs cachent aujourd’hui leur jeu », estime Patrick Demichel. « L’architecture Gen-Z ouvre la voie à des innovations dans de multiples domaines et il va y avoir moyen pour les fournisseurs de se différencier. C’est le jeu dans un modèle ouvert tel que celui de Gen-Z ! »

Quand on voit l’intense activité de la Chine dans le domaine des supercalculateurs ces dernières années, un acteur comme Huawei qui est membre du consortium Gen-Z pourrait très bien surprendre tout le monde et sortir une machine le premier. Gen-Z s’annonce comme une opportunité pour l’ensemble de l’industrie de s’affranchir de la domination sans partage de l’architecture x86/Intel. La révolution qui s’annonce va-t-elle redistribuer les cartes ? Rendez-vous en 2020 pour voir les premiers équipements compatibles Gen-Z arriver sur le marché.


« G en-Z va provoquer une véritable explosion cambrienne dans l’informatique »

Patrick Demichel, architecte des systèmes critiques chez HP Enterprise.

« Gen-Z va permettre de réduire la complexité des applications et accroître de manière très significative leur vitesse. Avec The Machine nous avons pu atteindre une accélération multipliée par 100 sur certains algorithmes Big Data tout simplement parce qu’on peut stocker une HTable de 1 To en mémoire alors qu’aujourd’hui on est obligé de prendre un cluster pour faire cela. L’énorme bande passante entre pools de mémoire non volatile à très faible latence va provoquer une véritable explosion cambrienne dans l’informatique. Nous allons changer l’industrie ! De multiples nouveaux types d’appliance, nouveaux types de processeurs spécialisés vont pouvoir émerger car il y aura à la fois une énorme bande passante disponible et il n’y aura plus la contrainte de dépendre du bus processeur. Sachant que l’Internet des objets va générer 100 000 fois plus de données qu’aujourd’hui et qu’il faudra les stocker et les traiter avec la même quantité d’énergie qu’aujourd’hui, Gen-Z va permettre cela et Intel n’aura pas trop le choix que de se rallier à Gen-Z tout simplement parce qu’il n’y aura pas d’alternative. »


« L’adoption de Gen-Z se fera par étapes »

Jean-Sébastien Volte, chef de produit serveurs et réseaux chez Dell EMC.

« Gen-Z dissocie la partie protocolaire de la couche physique et c’est l’une des grandes forces de Gen-Z. Le futur pourra être photonique ou rester cuivre. La plupart des innovations de rupture qui étaient trop coûteuses ont fini par disparaître. Beaucoup d’avancées sont encore possible côté cuivre et nous préférons donner accès à ces technologies à tous avec des solutions évolutives, plutôt que de miser sur une révolution, c’est la meilleure approche à notre sens. » « Rome ne s’est pas faite en un jour. Cette interconnexion passera dans un premier temps par des ports PCI, donc on aura des cartes Gen-Z PCI connectées à un switch mais l’idée sera de bridger sur les ports UPI des processeurs Intel dans le futur et, à terme, de disposer de la couche logique Gen-Z intégrée aux processeurs et n’avoir plus que des liaisons logiques. Cette adoption se fera étape par étape. »

Print
1795
Tags:Gen-Z

x
Rechercher dans les dossiers
Actuellement à la Une...
Pour avoir enfreint deux brevets de Qualcomm, Apple risque d’être malmené en Chine. Un tribunal a en effet donné raison au géant des semi-conducteurs, interdisant à l’importation et à la vente en Chine des iPhones 6S Plus, 7, 7 Plus, 8, 8 Plus et X.

Le Syntec Numérique a publié ses prévisions pour 2019 et les chiffres de 2018. La croissance des services et conseils IT et de l’édition de logiciels en France a été dynamique cette année et le restera l’an prochain. Et, question recrutement, tout va bien aussi. Un changement de ton qui n’est pas sans surprendre.

Prendre appui sur sa position dominante dans les médias et les services de vidéos pour s’étendre vers les flux ayant les mêmes caractéristiques quitte à bousculer son offre devient la nouvelle stratégie portée par Quantum. Annonces de produits à l’appui.


La messagerie disparaîtra en mars prochain, moins de trois ans après son lancement. En avril dernier, Google annonçait déjà mettre en pause le développement d’Allo, lui préférant l’application Android Messages, présente sur la quasi-totalité des smartphones Android, et le standard Rich Text Communication qui reprend l’essentiel des fonctionnalités d’Allo.

La plateforme collaborative aurait engagé Goldman Sachs en vue de préparer une probable IPO en 2019. La jeune pousse, valorisée 7...

Big Blue continue le dégraissage de ses vieilles solutions. Il vend Appscan, Notes&Domino, Portal et quatre autres logiciels à l’Indien HCL Technologies pour 1,8 milliard de dollars.

Après la rumeur, l’annonce officielle. Microsoft a dévoilé ses intentions d’adopter Chromium en lieu et place d’EdgeHTML pour Edge. Un choix motivé par la contribution à l’open source et l’interopérabilité… qui ne ravit pas forcément les éditeurs de navigateurs ne fonctionnant pas sous Chromium, Firefox en tête.

Le service de VTC vient de déposer sa déclaration d’enregistrement auprès de la SEC, préalable à son introduction en bourse que l’on estime pouvoir intervenir au premier semestre 2019. Soit dans la même fenêtre que l’IPO de son pire ennemi, Uber.

La nouvelle offre Freebox contient une nouvelle fonctionnalité modeste en apparence mais qui est une étape importante dans le domaine de l'IoT. C'est la "zéro G" le très bas débit permanent. Et c'est Sigfox qui a été choisi pour équiper le boîtier serveur et pour fonctionner avec le player Delta. Essentiellement la zéro G va permettre d'assurer les fonctions de sécurité et de surveillance.

La société FireEye annonce avoir détecté plusieurs cyberattaques dirigées contre des sites institutionnels, à l’instar de celui de l’Urssaf et du ministère de la Justice, de la part d’activistes se revendiquant du mouvement des gilets jaunes.

Toutes les News

LIVRES BLANCS

Tous les secteurs industriels dans le monde sont confrontés à des défis informatiques spécifiques qui conditionnent le succès ou l’échec de l’entreprise.


Au cours de la dernière année, les données volées et vulnérables se sont révélées des armes précieuses pour les adversaires de tous les horizons, dans toutes les régions, et pour toutes les motivations.


Au fur et à mesure que votre exposition à d’autres entreprises augmente, votre exposition au risque augmente également. Il ne s’agit pas uniquement de vos propres fournisseurs mais également les leurs. Comment pouvez-vous suivre toutes ces relations afin de gérer vos risques?


Pour répondre aux exigences de rapidité du modèle DevOps en conservant une cybersécurité efficace, de nouvelles approches doivent être adoptées en matière de sécurité de l'information, comme la sécurité intégrée, l’automatisation et la prévention proactive.


PROTECTION ENDPOINT NEXT-GEN : ÉVOLUTION OU RÉVOLUTION ?, un Livre Blanc SOPHOS.

Après la révolution Next-Gen Firewall de ces dernières années, une nouvelle révolution Next-Gen est cours dans le domaine de la sécurité des systèmes Endpoint. Au-delà du débat pour savoir s’il s’agit d’une révolution ou d’une simple évolution, il est certain qu’une série de nouvelles technologies est en train de rapidement émerger, en apportant une contribution significative à la lutte contre les menaces avancées.


Tous les Livres Blancs