X
Alain Clapaud / jeudi 24 octobre 2019 / Thèmes: Dossier, Cloud, Infra

Processeurs

L’AMD Epyc peut-il détrôner le Xeon dans les Datacenters ?

Avec la promesse d’une performance multipliée par deux,  la nouvelle génération de microprocesseurs AMD pour serveurs  a de quoi faire bouger les lignes, notamment auprès d’opérateurs  de services Cloud et constructeurs de serveurs.  Une concurrence jugée bienvenue par tous les acteurs du marché.

L’Epyc génération 2 est le premier microprocesseur pour serveurs à bénéficier d’une gravure en 7 nm, de quoi remettre en cause l’hégémonie d’Intel sur ce marché.

C’est au cœur de l’été que AMD a fait le choix de lancer la nouvelle génération de processeurs pour les serveurs, l’AMD Epyc nom de code « Rome ». La gamme se compose de pas moins de 19 références, depuis la puce 8 mono-socket au gros 64 cœurs / 128 threads double socket, de quoi satisfaire tous les segments de marché de serveurs, depuis les petits serveurs TPE/PME jusqu’aux supercalculateurs.

La présence de représentants de Google et de Twitter aux côtés de Lisa Su, présidente et CEO d’AMD lors de ce lancement a fait bondir le cours de l’action AMD, preuve que ces nouveaux micro-processeurs semblent bien adaptés aux exigences des grands datacenters. Et si AMD était enfin en mesure de briser le monopole d’Intel sur les puces haut de gamme ?

Finesse de gravure : AMD prend l’avantage sur Intel

La nouveauté numéro 1 introduite par cette deuxième génération, c’est le passage à la gravure 7 nm par AMD. Alors que Intel est englué dans ses difficultés de production en grande quantité de puces en 10 nm, AMD a fait le choix de se tourner vers TMSC en 2018 pour produire ses CPU et GPU. TMSC qui produit notamment des puces pour smartphone pour MediaTek et Qualcomm est l’un des rares à pouvoir produire, ce qui donne un avantage certain à AMD face à son rival. « La seconde génération d’Epyc est le plus puissant processeur x86 au monde. Nous avons presque doublé cette performance et c’est ce que nous appelons “changing the game” ! », clamait ainsi Lisa Su, présidente et CEO d’AMD lors du lancement de Epyc génération 2.

 

Avec cette génération 2, AMD est allé plus loin dans son approche multi-chips sur un même socket, avec un composant gérant les I/O autour duquel plusieurs CPU viennent communiquer.

Ce passage au 7 nm permet à AMD de tenir sa promesse de doubler la performance de sa puce, mais cela ne se fait pas par un accroissement des fréquences de fonctionnement. Cette finesse de gravure a permis au fondeur de passer d’une architecture composée de quatre SOC interconnectés à une architecture hybride composée de 8 CPU gravés en 7 nm interconnectés via un « chiplet » d’entrées/ sorties gravé en 14 nm. Cette nouvelle approche permet selon ses concepteurs d’améliorer les traitements, de mieux contrôler la distribution tout en optimisant latence, consommation électrique et en offrant une plus grande flexibilité. La mémoire cache de niveau 3 atteint de 32 à 256 Mo et on estime chez AMD avoir refait le retard en termes de puissance par cœur sur les Xeon, une faiblesse notoire de Naples par rapport aux dernières générations de Xeon.

Le fondeur revendique un accroissement de 15 % du nombre moyen d’instructions traitées par cycle d’horloge et un doublement du nombre de calcul en virgule flottante AVX2 par cycle. Les entrées/ sorties et la mémoire sont les points forts d’Epyc Saison 2. Le processeur supporte jusqu’à 4 To de mémoire DDR4-3200 et offre 128 lignes PCIe 3 et 4, une version qui permet d’espérer un débit de 16 Gbit/s avec les unités de stockages NVMe. Pour Patrick Demichel, directeur technique d’HPE à Grenoble, c’est bien dans la bande passante mémoire offerte par cette puce que se trouve l’atout numéro 1 d’Epyc génération 2 : « L’intérêt principal réside dans les huit canaux mémoire qui donnent aujourd’hui 1/3 de bandwith de plus aux applications gourmandes en bandwidth par rapport à Skylake ; ce qui est le cas pour beaucoup d’applications HPC. » L’expert estime que cette bande passante est l’atout numéro 1 de cette nouvelle architecture qui résout les effets NUMA connus avec l’architecture Naples. Disposer d’un grand nombre de cœurs et de threads sera très utile pour les applications très multithreadées comme l’hébergement web, tandis que ces huit canaux mémoires devraient intéresser les spécialistes du Data crunching : « Le nombre de canaux I/O devrait permettre de fabriquer de serveurs avec beaucoup d’I/O, notamment pour faire des serveurs de Machine Learning disposant de beaucoup de GPU et de beaucoup de disques SSD à haut débit. » Cet expert du monde HPC pointe toutefois l’absence du jeu d’instructions AVX512 512 bits introduit par Intel sur ses accélérateurs Xeon Phi et la génération Skylake, mais pour Patrick Demichel, le principal écueil auquel AMD devra faire face notamment dans le monde du HPC et de la haute performance réside dans la chaîne de compilation… et un compilateur Intel très fortement optimisé.

Les constructeurs de serveurs se frottent les mains d’une réelle concurrence AMD/Intel

Du côté des constructeurs de serveurs, ce retour aux affaires d’AMD est une bénédiction. Celui-ci va ranimer un peu la concurrence sur un marché des puces serveurs haut de gamme ultra dominé par Intel et son Xeon. AMD vient challenger Intel avec des configurations mono et bi-sockets avec des performances supérieures à ses Xeon, y compris sa gamme Platinum. Ne plus être la référence absolue pourrait bien contraindre ce dernier à rogner ses marges et baisser ses prix pour maintenir ses volumes. Ainsi, l’AMD Epyc 7601 32 cœurs est proposé à 4 200 $, un prix à comparer aux plus de 10 000 $ qu’il faut débourser pour un Intel Xeon Platinum 8180 à 28 cœurs. Pour les gros consommateurs de processeurs, à savoir les opérateurs de datacenters, opérateurs de services web, c’est bien l’équation prix aux volumes/consommation électrique et puissance qui fera pencher la balance vers une puce ou une autre. HPE a profité de l’événement pour annoncer la disponibilité de ses ProLiant DL325, ProLiant DL385 et Apollo 35, avec la volonté de monter à 12 modèles optimisés pour l’AMD Epyc à son catalogue. Le constructeur revendiquant avoir déjà établi 37 nouveaux records sur ces platesformes. Même réactivité chez Lenovo avec les ThinkSystem SR655 et SR635, des machines. « Ces plates-formes ont été créées sur un nouveau design qui va tirer avantage des capacités d’Epyc, dont PCIe 4, des capacités de stockage denses, 32 emplacements de stockage NVMe pour fournir les données aussi rapidement que possible aux processeurs », a ainsi expliqué Doug Fisher, COO et Senior Vice-President de l’offre Data Center de Lenovo. « Nous avons pensé ces plates-formes pour Epyc gen 2 et pour répondre aux problématiques de nos clients. » Avec ces machines, Lenovo revendique 16 records sur des workloads très différents, notamment le SPECpower, un benchmark qui se veut représentatif de l’efficacité énergétique de la machine. Partenaire de lancement d’AMD, Dell n’a pourtant pas dévoilé de machines lors de l’événement du mois d’août, mais des annonces sont prévues prochainement.

Autres partenaires à avoir accueilli l’arrivée de Rome avec bienveillance, les constructeurs de supercalculateurs. AMD a déjà fait une percée dans ce secteur avec la première génération d’Epyc et la génération 2 résout l’effet NUMA qui grevait l’efficacité de Naples. Le constructeur emblématique du monde HPC, Cray met en avant Shasa, un supercalculateur de classe Exascale qui mettra en œuvre Epyc génération 2, notamment dans le modèle qui va être prochainement livré à l’US Air Force ou encore, Frontier, le futur supercalculateur Exascale convergé (HPC + IA) de l’ORNL (Oak Ridge National Laboratory) qui sera composé de nœuds de calcul intégrant à la fois des processeurs AMD Epyc Genoa couplés avec une mémoire cohérente via InfinityFabric à 4 GPU AMD Radeon Instinct. De son côté, Atos a intégré l’AMD Epyc a ses solutions de calcul haute performance BullSequana qui est elle-aussi une plate-forme hybride comme l’explique Damien Déclat, Head of HPC, AI & Quantum Business Operations chez Atos : « La plate-forme BullSequana XH2000 permet d’intégrer les processeurs Intel Xeon, AMD Epyc de nouvelle génération ou encore ARM Marvell – tout comme les accélérateurs Nvidia GPU. Forts de cette capacité, sur la base de l’analyse des charges applicatives, les experts Atos définissent les choix technologiques adaptés. »

Girish Bablani, CVP Microsoft Azure Compute, a expliqué lors du lancement de l’AMD Epyc gen2 que Microsoft positionne notamment cette puce sur des instances HPC.

Le Cloud, plus court chemin vers Rome ?

Si les constructeurs de serveurs ont tout intérêt à mettre des serveurs Epyc génération 2 à leurs catalogues et attiser une saine concurrence entre Intel et AMD, d’autres acteurs s’intéressent de près aux puces AMD, notamment les fournisseurs de services cloud qui achètent serveurs et processeurs par wagons entiers. Précisant que Google a été le premier à déployer Rome en production pour ses propres besoins, Lisa Su a invité sur scène Bart Sano, vice-président Engineering de Google qui a commenté l’arrivée des puces Epyc dans ses datacenter : « Nous avons déjà pu constater des améliorations de performances sur nos workloads, améliorations que j’attribue à plusieurs caractéristiques. Il y a d’une part le nombre de cœurs et de threads, l’architecture mémoire haute performance, de même que le support de PCIe 4, ce qui nous aide à monter en puissance. Il y a aussi la capacité à intégrer nos propres accélérateurs de manière efficace. » Si le responsable a confirmé le déploiement prochain d’Epyc sur la Google Cloud Platform, il n’a pas précisé quelle serait l’ampleur de la migration ni les instances et services qui seraient concernés.

Sur ce plan, Microsoft semble avoir pris une longueur d’avance, proposant déjà l’AMD Epyc Naples pour deux classes de machines virtuelles : les instances Lv2 et HBv1 d’Azure. Girish Bablani, CVP Microsoft Azure Compute a souligné : « Avec Rome, nous avons constaté un accroissement de 100 % des performances sur les workloads HPC par rapport à Naples, c’est deux fois mieux, ce qui signifie que nos clients pourront exécuter des workloads plus importants lorsque nous migrerons vers ces systèmes. »

Google utilise déjà des puces AMD Epyc dans ses datacenters de production et les clients de la Google Cloud Platform devraient en bénéficier prochainement sans toutefois que Bart Sano, vice-président Engineering de Google, ne précise quelles instances ou quels services en bénéficieraient les premiers.

Le marché entreprise, l’autre défi d’AMD

Si beaucoup d’entreprises risquent d’utiliser des puces AMD sans le savoir via des instances Cloud, percer le marché des serveurs d’entreprise risque d’être plus long pour l’Américain. En mars 2019, Spiceworks dévoilait une étude montrant que AMD représentait désormais 16 % du parc de serveurs déployés. Près de deux ans après l’annonce de la première version d’AMD Epyc, cela pèse peu face au 93 % d’Intel mais les puces AMD ont incontestablement la cote auprès des responsables informatiques. Ils sont 77 % à considérer « en avoir pour leur argent » avec AMD, contre seulement 43 % pour les acheteurs d’Intel. L’Epyc a néanmoins encore quelques handicaps à surmonter, notamment l’absence de support par certains éditeurs au premier rang desquels SAP, de même que l’absence de serveurs disposant d’un grand nombre de processeurs pour supporter les grosses bases Oracle ou HANA.

Avec cette deuxième génération, AMD a su tenir sa promesse de performance de sa puce et présente une roadmap d’évolution d’Epyc sur le long terme propre à rassurer les analystes et les DSI. Le design de la version suivante – nom de code Milan – est désormais validé et le fondeur a prévu le lancement de la génération 4 – nom de code Genoa – à l’horizon 2022. « Le message est très clair : nous sommes ici pour célébrer le lancement de Rome et nous sommes très excités par cela, mais ce n’est qu’un nouveau départ pour AMD ! », concluait la présidente d’AMD.


>

« La densité de l’Epyc Gen2 permet de disposer d’un bien plus grand nombre de cœurs opérant  à des fréquences  à plus de 2 GHz »

Damien Déclat, vice-président, directeur des activités HPC, IA et Quantique chez Atos

« Les principaux avantages du processeur AMD Epyc Gen2 résident dans la densité, puisqu’il peut offrir jusqu’à 64 cœurs pour une consommation énergétique mesurée (225 W pour les processeurs les plus consommateurs), mais aussi un accès à la mémoire plus importante avec l’utilisation de 8 canaux mémoire et une mémoire cadencée à 3 200 MHz. Bien que le nombre d’opérations par cycle soit de 16 pour le processeur AMD Rome, contre 32 pour les processeurs Intel Xeon, l’efficacité applicative de ce processeur est proche de la génération actuelle Intel Xeon pour une comparaison cœur à cœur. Cette densité permet pour un même nombre de nœuds de disposer d’un bien plus grand nombre de cœurs opérant à des fréquences à plus de 2 GHz et donc de tourner des charges applicatives conséquentes, quelle que soit la nature des applications considérées. Les solutions de calcul haute performance BullSequana d’Atos sont pensées afin de permettre l’intégration des meilleures technologies du marché. Ainsi, la plate-forme BullSequana XH2000 permet d’intégrer les processeurs Intel Xeon, AMD Rome ou encore ARM Marvell – tout comme les accélérateurs Nvidia GPUs. Dès le deuxième semestre 2019, Atos fournira à différents clients des solutions AMD Epyc Rome. »


Des puces Epyc gen 2 pour le supercalculateur Joliot-Curie

Dans le cadre de l’extension de Joliot-Curie, le tout dernier supercalculateur du Genci (Grand équipement national de calcul intensif), une tranche de 4 500 processeurs AMD Rome 64 cœurs va être installée à la rentrée pour soutenir la recherche ouverte académique et industrielle française. Stéphane Requena, directeur Innovation & Technology du Genci explique ce choix : « Rome est un processeur très intéressant pour le domaine du HPC – le calcul intensif –, mais aussi pour le traitement de gros volumes de données de par le nombre de lignes PCIe Gen4 qui permet le raccord de beaucoup d’unités d’entrées-sorties. » Le scientifique souligne que ce choix résulte du meilleur compromis entre performance soutenue sur des applications scientifiques pertinentes, bande passante mémoire, coût total de possession – incluant aussi la consommation énergétique –, densité/intégration et disponibilité à fin 2019. « Nous ne sommes pas les seuls à avoir choisi ce processeur pour des besoins HPC/HPDA en Europe récemment, on peut citer par exemple le centre allemand HLRS, à Stuttgart, avec une machine HPE de 10 000 processeurs AMD Rome ou la seconde phase du supercalculateur Atos en Finlande pour le compte de CSC. »

1104

x
Rechercher dans les dossiers
Les derniers dossiers...
Réduire

Actuellement à la Une...
Le rachat de Docker Enterprise par Mirantis n’est que la partie émergée de la restructuration en cours au sein du spécialiste des conteneurs. Docker change à nouveau de CEO, lève des fonds à des fins de recapitalisation et annonce se concentrer de nouveau sur les développeurs.

Créée en 2018 après 24 mois de travail en mode secret, ShieldIO propose une nouvelle approche du chiffrement pour protéger les données.

Créée par d’anciens du DoE (Department of Energy) aux USA, Corelight est une nouvelle entreprise qui propose une suite de monitoring du trafic réseau s’appuyant sur Zeek, un projet open source.

Le streaming illégal de séries et films peu rapporter gros. Mais lorsque l’ALPA s’en mêle et que les services de police alertés remontent jusqu’au webmaster cela se termine assez rapidement en correctionnelle.

Après l'infrastructure sous-jacente, c'est au tour des systèmes de paiement des applications de Facebook d'être unifiés. Le géant annonce le lancement de Facebook Pay, une solution de paiement mobile pour le réseau social, Messenger, Instagram et WhatsApp.

L’éditeur du système de fichiers de stockage pour les environnements de haute performance a revisité PANFS, le système de fichiers maison, et l’installe sur ses appliances haut de gamme ActiveStore Ultra.

L’éditeur de solutions de monitoring et de sécurité des environnements en container annonce la version 3 de Sysdig Secure.

Aucun détail n’a été donné sur la transaction de rachat de CloudSploit par Aqua Security, un éditeur de solutions de sécurité pour les environnements clouds natifs (serverless, containers).

Cemex, un des plus grands cimentiers dans le monde, a opté pour la technologie d’une jeune start-up pour accélérer la transformation de ses cimenteries et les faire entrer dans l’ère de l’industrie 4.0.

Si longtemps la réputation d’un centre de données s’est limitée au seul critère de continuité de service, de nouvelles caractéristiques ont aujourd’hui pris de l’importance, à l’instar de la consommation énergétique, de la performance environnementale ou encore de la sécurité des systèmes d’informations. De nombreux référentiels sont donc venus s’ajouter afin d’apporter non seulement une garantie de sérieux, mais aussi une meilleure lisibilité du marché. Article publié dans L'Informaticien n°181.

Toutes les News
LIVRES BLANCS
Les entreprises et les organismes publics se focalisent aujourd’hui sur la transformation numérique. En conséquence, les DevOps et l’agilité sont au premier plan des discussions autour des stratégies informatiques. Pour offrir ces deux avantages, les entreprises travaillent de plus en plus avec les fournisseurs de services de cloud public et développent désormais des clouds sur site à partir d’une infrastructure qui répond à trois exigences de base:
1. Agilité sans friction des ressources physiques
2. Systèmes de contrôle optimisant l'utilisation des ressources physiques et offrant un retour sur investissement maximal
3. Intégration des divers composants de l'infrastructure pour un provisionnement et une gestion des ressources automatisés.


Pour fonctionner, votre entreprise doit pouvoir compter sur une solution de sauvegarde efficace, essentielle dans un monde marqué par une croissance exponentielle des données. Vous devez à la fois accélérer vos sauvegardes et pouvoir y accéder plus rapidement pour satisfaire les exigences actuelles de continuité d’activité, disponibilité, protection des données et conformité réglementaire. Dans cette ère de croissance effrénée, les cibles sur bande hors site et autres approches traditionnelles sont simplement dépassées.


L’Intelligence Artificielle promet de révolutionner la perception de la cybersécurité au coeur des entreprises, mais pas uniquement. Ce changement de paradigme engage, en effet, une redéfinition complète des règles du jeu pour les DSI et les RSSI, ainsi que l’ensemble des acteurs de la sécurité.


Lorsque l'on déploie des postes de travail, ils ont généralement tous la même configuration matérielle et logicielle (avec certaines spécificités selon les services). Mais on ne peut pas toujours tout prévoir et il arrive par exemple que de nouveaux programmes doivent être installés ou n’aient pas été prévus. L’accumulation de logiciels « lourds » est susceptible de provoquer des lenteurs significatives sur un PC allant jusqu’à l’extinction nette de l’application. Ce livre blanc explique comment optimiser les performances au travers de 5 conseils rapides à mettre en place.


Ce guide est conçu pour aider les entreprises à évaluer les solutions de sécurité des terminaux. Il peut être utilisé par les membres de l'équipe de réponse aux incidents et des opérations de sécurité travaillant avec des outils de sécurité des points finaux sur une base quotidienne. Il peut également être utilisé par les responsables informatiques, les professionnels de la sécurité, les responsables de la conformité et d’autres personnes pour évaluer leurs performances. les capacités de l’entreprise en matière de cybersécurité, identifier les lacunes dans la sécurité des terminaux et sélectionner les bons produits pour combler ces lacunes.


Tous les Livres Blancs