X
Gen-Z
Alain Clapaud / mardi 20 novembre 2018 / Thèmes: Dossier

Gen-Z

Le serveur du futur commence à se dessiner

Face à l’augmentation du nombre de cœurs CPU, de la puissance électrique consommée, des besoins en mémoire vive et en stockage, l’architecture des serveurs actuels arrive à ses limites. Avec le consortium Gen-Z, constructeurs et équipementiers travaillent de concert sur les concepts de l’ordinateur du futur. Les prémices de ce futur apparaissent dans les nouvelles machines.

Le MX6000, nouveau châssis composable commercialisé par Dell EMC, pourra évoluer vers Gen-Z lorsque les modules compatibles seront commercialisés.

Dans le courant de l’été, Dell a annoncé le lancement d’un nouveau châssis pour ses serveurs blade, le MX7000. A priori, rien de très révolutionnaire. Ce châssis vient remplacer le M1000e, un modèle qui est resté quasiment douze ans au catalogue Dell, une machine qui a accueilli quatre générations de serveurs mais qui arrivait en bout de course du fait de l’accroissement constant du TDP des CPU multicœurs. « Avec ce MX7000, nous faisons évoluer le “ form factor ” de notre châssis pour pouvoir faire face à ce problème de dissipation thermique. La hausse du TDP ne va pas s’arrêter », confie Jean-Sébastien Volte, chef de produit chez Dell. « Du côté d’Intel, on en est à 205W, côté AMD 180W mais on discute avec eux et on s’attend à des TDP de l’ordre de 280W, 300W et 350W dans le futur. »

En parallèle, Dell et ses concurrents font face à l’augmentation inéluctable de l’espace mémoire requis par ces processeurs : « C’est aussi directement lié à l’augmentation de la puissance de ces processeurs », ajoute le chef de produit. « Qui dit augmentation du nombre de cœurs CPU, dit augmentation de la capacité mémoire du serveur afin de “ nourrir ” tous ces cœurs. « Le “ Storage Class Memory ” vient répondre à ce besoin, de même que l’accroissement de la capacité des barrettes mémoire, mais le meilleur moyen à court terme d’augmenter l’espace mémoire reste d’augmenter le nombre de DIMM. » Cette augmentation de taille des serveurs lames va aussi permettre d’accroître l’espace alloué dans la machine aux bancs mémoire, mais aussi celui alloué aux disques, ce qui est depuis longtemps une barrière à l’adoption des serveurs lames.

La notion de serveur composable monte en puissance

Le marketing de Dell pousse ce châssis comme un serveur composable car ce MX7000 aura des lames de « compute », mais également des lames dédiées au stockage. Un certain nombre de disques seront vus comme des disques locaux SAS à la demande, qu’il s’agisse de disques mécaniques ou des SSD et il sera possible de composer un serveur à la demande, en fonction du besoin, en piochant dans ces disques SAS. Jean-Sébastien Volte détaille cette approche : « Dans un avenir proche, on pourra aussi le faire en sortant du châssis, avec par exemple un châssis complet de baie de stockage à côté d’un châssis dédié au compute qui va adresser les disques dont il a besoin dans le châssis. Ce process de provisioning de ressources peut être automatisé au travers d’une API. »

L’architecture Gen-Z pourra accueillir une grande diversité de modules, depuis les CPU x86, ARM et autres, des accélérateurs, des modules mémoire, des modules d’entrée/sortie, des modules mixtes.

Dans l’architecture Gen-Z, chaque module est capable d’échanger des données avec un autre module via un protocole léger Store/Load. Modèle ouvert, n’importe quel constructeur pourra intégrer ce protocole à ses produits, contre versement de faibles royalties.

Cette approche permet de désagréger le volet stockage du serveur : le nombre de disques ne dépend plus directement du nombre de blades, une contrainte importante du serveur lame. À l’avenir, il sera possible d’aller bien plus loin dans cette désagrégation. « Ce châssis est conçu pour être commercialisé une bonne dizaine d’années. Son architecture composable Kinetic assure l’interconnexion entre le compute à l’avant, et les I/O modules (switch Ethernet, Fibre Channel et demain GenZ) à l’arrière sans midplane. Le jour où Gen-Z arrivera, on pourra reconnecter une lame à un switch directement grâce à ce que l’on nomme un connecteur orthogonal. »

Gen-Z, c’est l’architecture du futur, une architecture de machine à laquelle tous les constructeurs de serveurs se préparent aujourd’hui car celle-ci ouvrira la voie à la désagrégation de chaque composant d’un serveur, qu’il s’agisse du stockage, mais aussi de la mémoire, des cartes I/O et même des processeurs. Il deviendra alors possible de composer de A à Z le serveur le plus adapté à une application en puisant les ressources nécessaires non pas seulement dans un châssis, mais au niveau d’un datacenter entier.

La bande passante offerte par l’architecture Gen-Z varie en fonction du besoin des nœuds, par agrégation de 1, 2, 4, 8, 16 liaisons série pour un débit de 16, 25, 28, 56 et 112 GT/s (milliards de transferts par seconde).

Gen-Z, la voie pour la désagrégation complète des serveurs

 Gen-Z, c’est un consortium qui est en train d’inventer le serveur du futur. À l’origine de Gen-Z, The Machine, un projet de recherche de HP Entreprise ; ce nouveau concept de serveur a été validé en simulation puis a donné lieu à la construction d’un unique prototype dévoilé en 2016. « Pour faire de ce concept une réalité sur le marché, il nous fallait atteindre une masse critique », explique Patrick Demichel, architecte des systèmes stratégiques chez HP. « C’est pour cela qu’avec nos partenaires nous sommes allés voir les constructeurs, éditeurs pour créer un consortium afin de développer ensemble cette vision. Ce sera un changement profond dans la façon de concevoir les grands systèmes comme les toutes petites machines. » Mené par Dell EMC, HPE, AMD, ARM, Cray ou encore Huawei, le consortium compte une soixantaine de membres, avec l’essentiel des fournisseurs de technologies IT, à l’exception de quelques acteurs de poids, à commencer par Intel et Nvidia qui ont leurs propres architectures de bus de données à défendre. Stan Skelton, architecte en chef et directeur du business développement de NetApp explique pourquoi le spécialiste du stockage a pris le train Gen-Z : « En 2016, nous avons mené une recherche interne sur les nouvelles technologies de mémoire et de calcul et sur l’évolution des architectures informatiques. Gen-Z semblait correspondre à certaines des tendances et des concepts que nous avions identifiés. Depuis, NetApp a fait l’acquisition de Plexistor, un spécialiste du stockage en mémoire permanente. Le premier produit issu de cette acquisition sera commercialisé cette année sous la marque MaxData et bien que ne dépendant pas directement de Gen-Z, nous pouvons voir où MaxData pourrait bénéficier des concepts Gen-Z et des architectures associées. » Pour Sébastien Volte, chez Dell, « Gen-Z est la promesse d’une intercompatibilité totale où chaque composant d’un serveur pourra échanger avec les autres composants au moyen d’une sémantique simple de type Store/Load, comme un CPU communique avec la mémoire sur un mode peer-to-peer, sans les pénalités en termes de performances d’une architecture basée sur un bus de données classique. » Chaque module pourra échanger directement avec un autre via un switch Gen-Z grâce à ce protocole via un contrôleur ou directement lorsque le protocole sera implanté dans le processeur, dans l’accélérateur GPU ou un FPGA. « Ce que les serveurs composables d’aujourd’hui réalisent en désagrégeant le stockage du compute, Gen-Z le fera aussi avec la mémoire », ajoute Sébastien Volte. « Cela permettra de partager la mémoire à tous les serveurs d’un châssis comme on commence à le faire aujourd’hui avec les disques attachés. Cela fera voler en éclats la barrière de ces barrettes mémoires aux supports soudés au serveur, une architecture qui arrive aujourd’hui à ses limites. »

Avec The Machine , HP a imaginé le futur de l’informatique, un projet de laboratoire précurseur qui va trouver sa concrétisation dans ces prochains mois sur le marché via les partenaires du consortium Gen-Z.

Vers un ordinateur photonique dans les 5 ans ?

En termes d’implantation de ce protocole Gen-Z, la migration s’annonce progressive. Lorsque HP a évoqué pour la première fois son projet The Machine en 2014, ce super ordinateur s’appuyait à 100 % sur des mémoires de type memristors, des connexions optiques et un nouveau système d’exploitation. Depuis, HPE a quelque peu revu ses ambitions à la baisse. Les premières machines ne devraient pas mettre en œuvre de liens photoniques, mais fonctionner de manière plus classique, sur du cuivre, voire sur des cartes PCI. « Gen-Z est un protocole et on peut très bien faire du Gen-z sur du cuivre ou de la photonique », explique Patrick Demichel. « Au début, on aura très certainement des solutions Gen-Z sur cuivre, car il est aujourd’hui moins cher de faire un bus en cuivre : mais on ne se posera plus la question d’ici 3 à 5 ans, le photonique sera moins coûteux ».

Chez Dell, on se montre prudent sur la question du photonique, en anticipant une évolution progressive du marché vers Gen-Z avec ce châssis MX7000 avant de concevoir des machines plus en rupture. Le consortium a été formé en octobre 2016 et a publié en début d’année la version 1.0 de ses spécifications de base. Les formats physiques des modules sont définis et désormais les industriels ont toutes les cartes en main pour implémenter ces spécifications dans des composants FPGA puis dans des ASIC et les lancer sur le marché. Les experts estiment qu’entre la publication d’une spécification et la disponibilité effective des premiers produits, il s’écoule généralement deux ans, si bien qu’on pourrait voir arriver les premiers produits Gen-Z dès la fin 2019.

Depuis la publication des spécifications, Gen-Z est passé de la R & D au stade du développement et les industriels communiquent beaucoup moins sur leur roadmap Gen-Z. Modules ARM, x86, SOC complets, accélérateurs plus exotiques et modules de stockage, nul ne sait qui dégainera le premier. « Tous les constructeurs cachent aujourd’hui leur jeu », estime Patrick Demichel. « L’architecture Gen-Z ouvre la voie à des innovations dans de multiples domaines et il va y avoir moyen pour les fournisseurs de se différencier. C’est le jeu dans un modèle ouvert tel que celui de Gen-Z ! »

Quand on voit l’intense activité de la Chine dans le domaine des supercalculateurs ces dernières années, un acteur comme Huawei qui est membre du consortium Gen-Z pourrait très bien surprendre tout le monde et sortir une machine le premier. Gen-Z s’annonce comme une opportunité pour l’ensemble de l’industrie de s’affranchir de la domination sans partage de l’architecture x86/Intel. La révolution qui s’annonce va-t-elle redistribuer les cartes ? Rendez-vous en 2020 pour voir les premiers équipements compatibles Gen-Z arriver sur le marché.


« G en-Z va provoquer une véritable explosion cambrienne dans l’informatique »

Patrick Demichel, architecte des systèmes critiques chez HP Enterprise.

« Gen-Z va permettre de réduire la complexité des applications et accroître de manière très significative leur vitesse. Avec The Machine nous avons pu atteindre une accélération multipliée par 100 sur certains algorithmes Big Data tout simplement parce qu’on peut stocker une HTable de 1 To en mémoire alors qu’aujourd’hui on est obligé de prendre un cluster pour faire cela. L’énorme bande passante entre pools de mémoire non volatile à très faible latence va provoquer une véritable explosion cambrienne dans l’informatique. Nous allons changer l’industrie ! De multiples nouveaux types d’appliance, nouveaux types de processeurs spécialisés vont pouvoir émerger car il y aura à la fois une énorme bande passante disponible et il n’y aura plus la contrainte de dépendre du bus processeur. Sachant que l’Internet des objets va générer 100 000 fois plus de données qu’aujourd’hui et qu’il faudra les stocker et les traiter avec la même quantité d’énergie qu’aujourd’hui, Gen-Z va permettre cela et Intel n’aura pas trop le choix que de se rallier à Gen-Z tout simplement parce qu’il n’y aura pas d’alternative. »


« L’adoption de Gen-Z se fera par étapes »

Jean-Sébastien Volte, chef de produit serveurs et réseaux chez Dell EMC.

« Gen-Z dissocie la partie protocolaire de la couche physique et c’est l’une des grandes forces de Gen-Z. Le futur pourra être photonique ou rester cuivre. La plupart des innovations de rupture qui étaient trop coûteuses ont fini par disparaître. Beaucoup d’avancées sont encore possible côté cuivre et nous préférons donner accès à ces technologies à tous avec des solutions évolutives, plutôt que de miser sur une révolution, c’est la meilleure approche à notre sens. » « Rome ne s’est pas faite en un jour. Cette interconnexion passera dans un premier temps par des ports PCI, donc on aura des cartes Gen-Z PCI connectées à un switch mais l’idée sera de bridger sur les ports UPI des processeurs Intel dans le futur et, à terme, de disposer de la couche logique Gen-Z intégrée aux processeurs et n’avoir plus que des liaisons logiques. Cette adoption se fera étape par étape. »

Print
4737
Tags:Gen-Z

x
Rechercher dans les dossiers
Actuellement à la Une...
Pour s’inscrire sur le réseau social, il arrive depuis trois ans que Facebook demande l’adresse mail, mais aussi le mot de passe du compte mail de l’utilisateur. Et qu’il en profite pour collecter les adresses des contacts. Mais cela était purement « involontaire » plaide l’entreprise.

Selon un rapport réalisé par Alibaba Cloud Intelligence, l’unité Cloud Computing du groupe Alibaba, l’ampleur des attaques DDoS est en augmentation flagrante dans la période entre juin et novembre 2018.

L’ESN de la région de Bordeaux va regarder à 2 fois avant de renouveler son partenariat avec Oracle et propose à ses clients une offre de migration d’Oracle DB vers Postgre SQL en s’appuyant sur les travaux de sa Direction de Modernisation Technologique (DMT) et d’un partenariat avec une ESN tourangelle, Dalibo.

L’application de messagerie des pouvoirs publics contient au moins une faille, très rapidement découverte par un chercheur en sécurité et corrigée tout aussi promptement. La vulnérabilité permettait de contourner l’authentification des adresses mails .gouv.fr ou .elysee.fr.

Plusieurs testeurs du smartphone pliable de Samsung rapportent que l’écran du Fold se casse au bout de quelques jours. Une malfaçon ? Non, répond le Sud-Coréen, c’est la couche protectrice de l’écran qui a été enlevée par les utilisateurs.

Destinée à remplacer WhatsApp et Telegram dans les administrations, Tchap est disponible sur mobile et en client Web. Messagerie chiffrée, l’application n’est accessible qu’aux possesseurs d’une adresse mail gouv.fr.

Si seuls nos quatre opérateurs télécoms nationaux pourront enchérir à l'automne pour obtenir les précieux blocs de fréquences 5G, Orange assure ce matin que les entreprises participeront elles aussi à la nouvelle génération de technologie cellulaire, dans une démarche de co-construction chère à Stéphane Richard.

Nutanix met en disponibilité générale sa distribution certifiée de Kubernetes sous le nom de Karbon.

L’entreprise franco-américaine vient de finaliser un tour de table de 41 M$ auprès de divers investisseurs. Elle vise à faire migrer les grandes entreprises qui sont ses clients vers un nouveau modèle, celui de l’organisation apprenante.

Surprise ! Alors qu’un nouveau procès s’ouvrait aux Etats-Unis, Qualcomm et Apple enterrent la hache de guerre. Le règlement à l’amiable, dont les modalités financières ne sont pas connues, comporte un accord de licences sur six ans et la fourniture de puces. La récente décision d’Intel de ne pas produire de modems 5G pour les smartphones n’est certainement pas étrangère à ce dénouement.

Toutes les News

LIVRES BLANCS

L’Intelligence Artificielle promet de révolutionner la perception de la cybersécurité au coeur des entreprises, mais pas uniquement. Ce changement de paradigme engage, en effet, une redéfinition complète des règles du jeu pour les DSI et les RSSI, ainsi que l’ensemble des acteurs de la sécurité.


Lorsque l'on déploie des postes de travail, ils ont généralement tous la même configuration matérielle et logicielle (avec certaines spécificités selon les services). Mais on ne peut pas toujours tout prévoir et il arrive par exemple que de nouveaux programmes doivent être installés ou n’aient pas été prévus. L’accumulation de logiciels « lourds » est susceptible de provoquer des lenteurs significatives sur un PC allant jusqu’à l’extinction nette de l’application. Ce livre blanc explique comment optimiser les performances au travers de 5 conseils rapides à mettre en place.


Ce guide est conçu pour aider les entreprises à évaluer les solutions de sécurité des terminaux. Il peut être utilisé par les membres de l'équipe de réponse aux incidents et des opérations de sécurité travaillant avec des outils de sécurité des points finaux sur une base quotidienne. Il peut également être utilisé par les responsables informatiques, les professionnels de la sécurité, les responsables de la conformité et d’autres personnes pour évaluer leurs performances. les capacités de l’entreprise en matière de cybersécurité, identifier les lacunes dans la sécurité des terminaux et sélectionner les bons produits pour combler ces lacunes.


Au cours de l'année 2018, VansonBourne a mené une enquête pour le compte de Nutanix afin de connaître les intentions des entreprises en matière d'adoption de clouds privés, hybrides et publics.

 


Pour gérer le risque informationnel et permettre à l'entreprise d'aller de l'avant, vous avez besoin d'une stratégie solide et d'un plan d'ordre en marche. RSA a développé ce livre blanc comme aide sur ces deux besoins. Il vous guide pas à pas pour mettre en place un programme de gestion des risques, basé sur des principes GRC éprouvés.


Tous les Livres Blancs