Le stockage s'unifie : Défini par logiciel + edge

Object Engine de Pure Storage apporte aux entreprises une possibilité d'évoluer vers le stockage objet S3. Jusqu’à présent, on marquait la différence entre stockage primaire, stockage secondaire et archivage. Les baies et les logiciels étaient spécifiques. Ce n’est plus le cas et les variations d’usages entre stockage, sauvegarde et archivage s’estompent pour des matériels polyvalents avec des fonctions logicielles pour chaque cas d’usage. Plusieurs éditeurs de solutions de gestion de données, car désormais nous ne parlons plus stockage, ont sorti de nouvelles offres polyvalentes couvrant l’ensemble des besoins en termes de conservation et récupération de données. Plus orientées vers des cas d’usage suivant le besoin, ces nouvelles offres proposent de trouver de nouveaux différenciateurs sur le marché. Les différenciateurs habituels de performance et de latence ne sont plus suffisants pour véritablement marquer les écarts entre les solutions. Avec la baisse du prix des technologies Flash et des mémoires, l’ensemble des constructeurs et fournisseurs de stockage peuvent fournir les performances désirées par le client, et les plus hautes. Un constructeur propose même une baie pouvant traiter 24 millions d’IOPS. Largement de quoi répondre aux nécessités de la plupart des entreprises en France. Le même phénomène de baisse des prix a accompagné l’extension large des technologies NVMe. Et comme pour la performance, la latence n’est plus le problème premier des solutions de stockage. La bande passante n’est plus le goulet d’étranglement tel que nous le connaissions il y a encore deux ans. Cela ne veut pas dire que la configuration fine des baies ne soit pas nécessaire mais il est moins important et les contrats de service autour de la latence sont plus faciles à atteindre qu’auparavant. Suivant l’adage de qui peut le plus peut le moins, les fournisseurs de solutions de stockage ont saisi l’opportunité de proposer leurs matériels et logiciels pour des usages multiples et non plus seulement dans la case où ils étaient cantonnés auparavant.

Un stockage multi usage

Datacore a été le premier à s’engager dans cette voie avec son offre One Vision. L’idée est de fournir une solution couvrant l’ensemble des besoins de stockage, primaire et secondaire, en profitant de la visibilité que lui apporte sa couche de contrôle (Control Plane) pour proposer, en SaaS, des prédictions sur les opérations de stockage, des optimisations s’appuyant sur des règles. Tout cela se combine avec des éléments d’Intelligence artificielle pour offrir une solution de stockage assez versatile pour l’ensemble des environnements (blocs, fichiers, objets) et sur l’ensemble des configurations (Bare Metal, virtualisation, containers et micro-services). Ces éléments sont la base de Datacore One, la vision unifiée du stockage de l’éditeur. Une vision ambitieuse loin du discret développement que l’on connaissait auparavant. Il est à noter que la console peut ainsi gérer des équipements ne provenant pas de Datacore dans les pools de ressources virtualisés. Il est ainsi possible de déployer le logiciel de Datacore sur à peu près n’importe quel serveur x86, même si certains partenaires comme Lenovo, Intel ou Western Digital proposent des optimisations pour le fonctionnement de Datacore HCI Flex, le logiciel de stockage de l’éditeur. La solution est annoncée à moins de 25 000 $. Il suffit de deux nœuds pour mettre en œuvre une solution de haute disponibilité. Les appliances ont deux tailles. La première propose sous 1U de 3 To à 6 To avec 64 Go/128 Go pour des prix allant de 24 950 $ à 40 895 $. Une autre appliance 2U propose elle de 15 To à 25 To avec 192 Go à 384 Go de mémoire pour des prix s’étalant de 68 745 $ à 79 950 $. Les deux gammes d’appliances fonctionnent sous disques SSD ou en mode hybride avec des disques durs classiques pour la capacité. Les solutions supportent les hyperviseurs de VMware et de Microsoft. Le modèle classique du simple backup des données a totalement changé et pour des besoins de réutilisation des données pour des analyses ou des tests et des développements, les entreprises restaurent de plus en plus souvent des données dans ou à l’extérieur de l’entreprise. La plupart des solutions traditionnelles de sauvegarde ne permettent pas d’atteindre les performances nécessaires pour autoriser des restaurations fréquentes.

Flash to Flash to Cloud

Pure Storage propose donc un duo de solutions pour répondre à ces nouveaux besoins des entreprises avec Object Engine et DirectFlash Fabric. Issu du rachat de StorReduce, Object Engine apporte aux entreprises la possibilité de faire évoluer leur système de sauvegarde classique des disques vers des bandes à un modèle où le Cloud, en particulier le stockage objet S3 peut devenir un tiers de stockage ou de sauvegarde rapide. Ce modèle est appelé F2F2C – ou Flash to Flash to Cloud. Le lien se réalise par une appliance Object Engine A270. Elle se présente sous forme d’un bloc 3U qui contient quatre nœuds, un sur disque SSD pour les métadonnées, deux nœuds pour toutes les données et un autre pour la copie des métadonnées avec alors la possibilité d’utiliser sur site une baie Flash Blade comme backend ou S3 d’AWS. La solution repose sur des processeurs Skylake d’Intel et évolue horizontalement. La caractéristique de l’ensemble est d’autoriser des restaurations très rapides de l’ordre de 10 à 15 To/heure sur site et de 1 To en provenance d’AWS. Commvault, un acteur historique du backup, a annoncé récemment lors de sa conférence Commvault Go qui s’est tenue récemment à Denver (Colorado) de nouvelles fonctions d’automatisation sur le logiciel de Hedvig, une start-up acquise récemment par l’entreprise et spécialisée dans le stockage. Avec cette acquisition Commvault sort de son marché traditionnel du backup et prend pied sur le marché du stockage d’entreprise avec une solution unifiée sur son offre traditionnelle. De plus, avec cette nouvelle offre, l’éditeur s’ouvre aux nouvelles architectures dites « cloud native » s’appuyant sur les containers et le Cloud. L’unification du stockage va désormais plus loin que la simple combinaison du stockage fichiers et blocs. Les offreurs de stockage débordent de leur domaine premier pour marcher sur les plates-bandes des concurrents du stockage primaire au secondaire, du secondaire au primaire en mettant l’accent sur le logiciel pour répondre au cas d’usage requis. L’unification répond aussi à un souci de cohérence des utilisateurs qui souhaitent le plus souvent retrouver le même système de stockage quel que soit l’environnement où il est déployé.

Le logiciel a la main dans le stockage

Un des éléments qui œuvre pour l’unification du stockage est le logiciel et plus particulièrement le stockage défini par logiciel. Phénomène ancien, il permet de bénéficier des fonctions du stockage sans liens avec le matériel. Il est possible désormais pour les clients des fournisseurs de stockage de retrouver le même environnement de stockage quel que soit l’environnement où il est déployé. Le stockage défini par logiciel n’est pas nouveau en soi et ses débuts datent de la virtualisation du stockage, au début des années 2000, avec Datacore et FalconStor. Le stockage n’a cessé depuis de s’imposer pour devenir aujourd’hui la règle. On dénombre désormais plus d’une centaine d’acteurs se réclamant du software defined storage groupant les acteurs fichiers, blocs, objets, passerelle cloud ou HCI (Hyper Converge Infrastructure). Au départ, la fonction première de ce stockage par le logiciel était de donner la possibilité de faire fonctionner le logiciel de stockage sur des matériels de “ commodités ”, en particulier des serveurs x86 à bas prix. La couche logicielle, à l’instar de la virtualisation des serveurs, décorrélait le matériel du logiciel. Cela a permis des réductions de coûts importantes. Faire fonctionner le logiciel de stockage sur des matériels de “commodités ”, en particulier des serveurs x86 à bas prix.

Stockage à la demande

Désormais les fournisseurs de stockage vont plus loin que cette simple décorrélation du matériel et du logiciel. Ils permettent une agilité plus grande en autorisant des déploiements du même logiciel de stockage et de ses fonctions là où le client le demande et sous la forme qu’il souhaite. Il peut ainsi faire fonctionner son logiciel de stockage à l’intérieur d’une machine virtuelle, d’un container ou, plus classiquement, directement sur un serveur en bare metal. De la même manière, il peut le déployer dans le Cloud public ou privé. L’offre sur le marché est riche et couvre tout le spectre du stockage : objets, fichiers, blocs, passerelles cloud ou environnements hyperconvergés. Certains, comme Hedvig, racheté récemment par Commvault, sont multi-protocole et couvrent l’ensemble. La définition par le logiciel a principalement ouvert la porte aux services de stockage et grâce à cette portabilité les fournisseurs de stockage ont multiplié les offres de stockage primaire, de sauvegarde sous forme de service en ligne, de plan de reprise ou de continuation après incident sous forme de service et d’archivage dynamique. En dehors de l’agilité, le SDS (Software Defined Storage) apporte dans la plupart des cas (véritable scale out) la possibilité d’évoluer simplement et linéairement par ajout de nœuds. De plus, l’administration est simplifiée avec la possibilité de suivre des matériels d’origines diverses à partir d’une seule console centralisée. L’utilisateur évite ainsi le lock-in propriétaire et peut ainsi allonger la durée de vie de son stockage. Si les données sont gérées comme dans un pool virtuel unique, la gestion des données est simplifiée et permet d’éviter la fragmentation en silos des données tout en rendant plus simple la gestion de ces données.

Extension vers le Cloud

Certaines solutions SDS ont par exemple intégré des capacités cognitives qui améliorent la flexibilité grâce à l’automatisation intelligente basée sur la connaissance des données stockées. Cela permet aux clients d’indexer automatiquement et de définir des stratégies de métadonnées provenant de plusieurs sources de données, constituant un socle qui facilite la conformité à la réglementation. Les clients économisent en déplaçant automatiquement les données d’archives vers des médias de faible coût. L’analyse prédictive intégrée alloue automatiquement de l’espace sur la base des habitudes d’utilisation passées et peut déplacer des données de manière fluide et en toute transparence entre des infrastructures sur site et Cloud. La possibilité de déployer le logiciel de stockage dans n’importe quel environnement redistribue les cartes et permet aux entreprises d’utiliser le Cloud comme un véritable tiers de stockage. Les fournisseurs répondent à ce besoin avec la possibilité d’étendre leur stockage vers le Cloud public et d’offrir ainsi un système cohérent avec le même logiciel et la même console pour l’ensemble du stockage de l’entreprise. Tintri propose un service Flash qui s’intègre par un logiciel, Cloud Connector, à l’environnement AWS ou IBM Cloud du client. Pure Storage propose ce type d’architecture pour la sauvegarde et la reprise après incident en s’appuyant sur l’environnement flash sur site du client pour réaliser des snapshots dans le Cloud. Les reprises après incidents et la sauvegarde sont plus rapides et moins chères tout en apportant une plus grande flexibilité. Western Digital proposait encore il y a peu un service similaire en s’appuyant sur les logiciels de Veeam ou de Rubrik. Tintri, racheté récemment par DDN, propose un service Flash qui s’intègre par un logiciel, Cloud Connector, à l’environnement AWS ou IBM Cloud du client. L’éditeur isole chaque flux applicatif pour éliminer les risques de conflits et établit des niveaux de service par machine virtuelle ou automatiquement à l’aide de profils créés par un algorithme d’apprentissage machine. Il est ensuite possible d’automatiser certaines actions sur le stockage.

Des passerelles vers les Clouds publics

GSa d’Infortrend embarque en option des passerelles vers la plupart des Clouds publics et se gère à partir d’EonOne, une console centralisée pour proposer le même type d ’architecture. Qumulo, un éditeur d’un système de fichiers nativement cloud, autorise la migration d’applications ou de tâches reposant sur des fichiers vers les Clouds publics d’AWS et de Google. Le logiciel s’intègre dans les environnements de workflows ou de réseau pour des réplications en continu entre le centre de données et le Cloud du client. L’ensemble est programmable par API. Ces différents exemples montrent la diversité des possibilités dans le domaine d’utiliser le Cloud comme un tiers de stockage primaire ou secondaire et les entreprises ne s’en privent pas. Leur maturité vis-à-vis du Cloud et des procédures de stockage font qu’elles souhaitent pouvoir retrouver une véritable cohérence sur leur pile de stockage en évitant de multiplier les interfaces et logiciels tout en conservant de la flexibilité et de l’agilité pour une équation économique intéressante comparativement à l’équivalent en interne.

L'Edge change la donne

L’edge et le “ fog computing ”, ainsi que l’utilisation de l’Intelligence artificielle et de l’apprentissage machine, changent la donne dans le stockage.  Car ils nécessitent de stocker localement des données issues des bureaux distribués ou des capteurs de l’IoT (Internet of Things). Tout le monde nous le promet : l’Internet du futur ne sera plus humain. La plupart des paquets échangés sur le réseau des réseaux proviendront de terminaux ou de machines. On connaît d’ailleurs une inflation dans le nombre de ces capteurs et autres terminaux connectés et de valser les milliards de ceux-ci ! Dell propose une gamme de matériels, PowerEdge et des passerelles qui s’appuient sur un large écosystème pour l’intégration avec le monde de l’Internet des Objets. Ces nouveaux terminaux sont le plus souvent embarqués dans des installations industrielles ou dans des voitures autonomes. Les données qu’ils procurent ne peuvent être envoyés dans le Cloud. Le temps de réaction lorsqu’un problème survient serait trop long. Il faut pouvoir traiter ces données instantanément en les conservant au plus près des terminaux avant de les répliquer, plus tard, dans le Vloud aux fins d’analyse ou de rétention longue. Le traitement de ce type de données nécessite des caractéristiques particulières de performance, de latence et de disponibilité. La performance doit être forte et la latence le plus faible possible. La disponibilité doit être totale. Il n’est pas question que les machines s’arrêtent sur un site de production ou qu’un véhicule autonome puisse rouler sans pouvoir être monitoré en temps réel. Le stockage se doit de suivre et de pouvoir ingérer les données rapidement tout en ayant des capacités en volume pour conserver les données le temps nécessaire. En outre, le plus fréquemment, le stockage se réalise sous forme de blocs ou de fichiers de petites tailles correspondant aux signaux envoyés par les capteurs mais aussi sur des fichiers plus longs dans les environnements d’entreprise distribués. Le Fog Computing est une variante qui évite d’envoyer les données répliquées dans le Cloud en utilisant le centre de données central de l’entreprise. Cela ne change pas les contraintes que pose le stockage des données en périphérie de réseau. Il peut se présenter aussi comme un ensemble de nœuds de traitement en amont du Cloud.

Un marché au potentiel énorme

Selon les différentes études sur l’Edge Computing, il représente une formidable opportunité pour les acteurs de l’industrie informatique et en particulier pour les fournisseurs de stockage. Le marché devrait s’étalonner à 19,4 milliards de dollars en 2023, selon Market Research. Certains pensent même qu’il a un potentiel supérieur à celui du Cloud. Quelles que soient les prévisions de marché, qui débutent au moins à 6 milliards en 2024, le secteur connaît une progression explosive avec une croissance moyenne pondérée par an de plus de 34 %. Satya Nadella, président de Microsoft, voit dans l’Edge Computing l’avenir de l’informatique. Thierry Breton, jusqu’à présent patron d’Atos, partage le même avis. Devant le potentiel du marché, l’ensemble de l’industrie informatique s’est engouffré sur ce nouveau segment de marché. Les solutions se multiplient proposant des traitements distribués et du stockage sur des réseaux optimisés. Les premiers à avoir vu le danger ont été les offreurs de Cloud publics comme AWS, Azure ou Google. Ils ont rapidement mis en place des offres pour autoriser un continuum de la périphérie du réseau jusqu’à leur Cloud. AWS Snowball est une solution de transport de données reposant sur des appareils sécurisés. Elle peut prendre en charge le transfert de volumes de données de l’ordre de plusieurs pétaoctets, depuis et vers le Cloud AWS. Snowball Edge Storage Optimized fournit un stockage par bloc et un stockage d’objets compatibles avec Amazon S3 et 24 vCPU. Il convient au stockage local et au transfert de données à grande échelle. Snowball Edge Compute Optimized fournit 52 vCPU, le stockage par bloc et d’objets et une unité GPU en option pour divers cas d’utilisation tels que le Machine Learning avancé et l’analyse Full Motion Video dans des environnements déconnectés. Microsoft propose sa solution Azure IoT Edge. Ce service propose de déployer des workloads cloud pour les exécuter sur des matériels IoT Edge via des conteneurs standard (compatibles Docker des services Azure). Clearsky, une entreprise qui propose des services de stockage en ligne, a étendu son offre vers l’Edge avec un partenariat avec Packet, en fournissant la couche de données sur l’infrastructure Bare Metal de Packet, un fournisseur de IaaS. AWS Snowball est une solution de transport de données reposant sur des appareils sécurisés.

Déporter des charges de travail

HPE et Dell ont été assez en avance pour proposer des appliances Edge s’appuyant sur des cartes EGX de NVidia pour déporter en périphérie de réseau des charges de travail prenant en charge le traitement des données de l’Internet des Objets ou des traitements analytiques d’Intelligence artificielle ou d’apprentissage machine. HPE a une ligne dédiée : les matériels Edgeline. Dell propose une gamme de matériels, PowerEdge et des passerelles qui s’appuient sur un large écosystème pour l’intégration avec le monde de l’Internet des Objets (Orange, ATT, Cumulocity). Atos profite de son acquisition de Bull et présente une version Edge de son serveur Sequana. L’appliance est optimisée pour le traitement des données pour réaliser des analyses avec de l’Intelligence artificielle ou en temps réel sur de gros volumes. Sécurisée, l’appliance optimise la bande passante et peut supporter jusque 2 GPU NVidia Tesla T4 ou FGPA en options, offrant un bon niveau de performance même aux modèles d’Intelligence artificielle les plus complexes. L’appliance est équipée d’une CPU Intel Xeon 16 cœurs pour répondre aux applications d’apprentissage machine les plus exigeantes en puissance de calcul. Riverbed propose une architecture qui fait du Edge une extension du Cloud. La solution se compose d’une appliance, SteelFusion Edge, installée sur des serveurs tiers prescrits, intégrant le serveur, le stockage, le réseau et la virtualisation pour exécuter les applications locales des environnements ROBO, et un contrôleur de stockage, SteelFusion Core, qui assure l’interface avec les baies de stockage SAN ou NAS dans le data center, ou le stockage dans le Cloud public pour plus de flexibilité. On pourrait aussi continuer pendant longtemps cette litanie d’offres pour ce nouveau paradigme informatique. Il reste cependant que les architectures et le stockage des données vont à l’avenir évoluer pour revenir vers la périphérie des réseaux. Un changement notable.