X
Gérer le cloud hybride
Jacques Cheminat / vendredi 27 juillet 2018 / Thèmes: Dossier, Cloud

Gérer le cloud hybride

Les offres du marché restent très hétérogènes

De plus en plus d’entreprises envisagent leur stratégie cloud en mode hybride. Face à la complexité de la tâche, elles sont à la recherche d’outils de gestion complets et intégrés. Les offres du marché sont aujourd’hui très hétérogènes, mais tendent à se rapprocher pour répondre aux besoins du client

Selon une étude de Forrester Research, 65 % des entreprises s’orientent vers une approche hybride du Cloud : 56 % des entreprises interrogées par IDC utilisent le Cloud privé et le Cloud public pour la même charge de travail. Pour Gartner, 50 % des workloads adopteront le Cloud hybride d’ici à 2020, elles représentent pour l’heure 20 %. Mais concrètement qu’est-ce que ce fameux Cloud hybride qui fascine tant les organisations ? La définition la plus commune est un environnement cloud faisant appel à une combinaison de services en Cloud privé sur site et en Cloud public, avec une capacité d’orchestration entre les deux plates-formes.

 

CloudForms de Red Hat a vocation à devenir composable.

Mais il suffit de demander la définition à un panel de responsables informatiques pour avoir autant de réponses que d’entreprises. Erwan Maréchal, expert cloud hybride chez IBM, le confirme, « le Cloud hybride est un faux ami. » Alors que le premier usage apparu était le débordement vers le Cloud public d’un pic de charge ou d’activité, « l’hybridation est maintenant portée par l’application en combinant plusieurs Cloud », poursuit le spécialiste d’IBM. Même approche pour Charles Henry, service line manager chez HPE France, qui constate : « Nous sommes plutôt dans une logique de catalogue de services à destination des métiers et ces services gérés par la DSI sont dans le Cloud public ou privé en fonction de critères d’éligibilité fixés, coût, conformité, etc. »

Si le niveau applicatif devient important dans la notion de Cloud hybride, il ne faut pas oublier « la prépondérance du legacy IT des clients, ce qui apporte une complexité forte », rappelle Yannick Tricaud, responsable des infrastructures et data management chez Atos.

 

Face à la difficulté de définir le Cloud hybride, sa gestion l’est tout autant et devient un enjeu important. En effet, les outils de gestion du Cloud hybride répondent à un manque de compétences et de visibilité des entreprises sur la complexité de ces environnements en pleine évolution (conteneurs, micro-services, serverless). Confrontées à un écosystème hétérogène, les entreprises sont à la recherche de solutions complètes et friandes de systèmes automatisés. C’est donc tout naturellement que l’on assiste à un enrichissement des solutions et la signature d’alliances entre les différents acteurs IT autour de services de management plus intégrés. De quoi séduire les entreprises qui pour la plupart s’interrogent encore sur leur stratégie de Cloud hybride.

 

OneSphere de HPE intègre du Machine learning pour la maintenance prédictive.

Maîtriser la complexité du Cloud hybride

Sur le papier, basculer dans un environnement cloud hybride serait simple. Les bénéfices sont connus : un déploiement plus rapide des applications, une meilleure agilité et des coûts réduits. Mais dans le détail, l’exercice s’avère plus compliqué qu’attendu. Dans un rapport intitulé Le kit de survie du Cloud hybride, KPMG dresse, en infographie, le tableau de l’ensemble des outils et des processus nécessaires pour gérer le Cloud hybride.

La complexité est plus ou moins importante selon le degré de maturité de l’infrastructure IT. Une start-up dans les nouvelles technologies est nativement cloud en misant sur des infrastructures hyperconvergées et une méthode agile de développement des applications en mode DevOps. Mais pour les entreprises disposant d’un héritage informatique important, le chemin vers le Cloud hybride est plus compliqué. La complexité est avec la performance, les deux défis soulevés par les DSI. Pour autant, qu’est ce qui se cache derrière cette complexité ?

Elle est de plusieurs natures. Sur l’infrastructure, la question de l’évolution du stockage et du réseau est primordiale. La question de la modernisation des équipements se pose avec la possibilité d’aller vers des solutions de convergence ou d’hyperconvergence orientées vers le Cloud. Sur le stockage, les interrogations portent sur les moyens de migrer les données d’une infrastructure SAN ou NAS traditionnelle vers le Cloud public. Sur le réseau, les problématiques de latence et de bande passante sont cruciales pour accéder à l’application et bénéficier de la performance du Cloud.

 

Sur la partie applicative, les réflexions dépendent de la capacité à l’application d’être adaptée au Cloud. Est-ce que l’application est transposable directement dans le Cloud (modèle lift and shift) ? Faut-il réécrire l’application (replatforming) ou repartir de zéro ? Doit-on passer par des conteneurs ou des micro-services pour moderniser son patrimoine applicatif ?

Sur les couches d’intégration, la gestion des API est un point à regarder pour qualifier les connecteurs nécessaires. Pour la partie management, le périmètre d’intervention est à réfléchir. Sur quels partenaires s’appuyer, éditeurs ou intégrateurs ? Sur la partie sécurité, la gestion des identités et de la conformité est devenue incontournable. Quelles solutions choisir ? Autant d’interrogations auxquelles les gestionnaires de Cloud hybride doivent répondre de manière globale et intégrée.

Un panel d’outils très variés

Dans le monde de la gestion du Cloud hybride, l’hétérogénéité est la règle. Chaque acteur intervenant dans la chaîne de valeurs s’est employé à proposer sa solution de management : les spécialistes de la virtualisation, les fournisseurs de stockage et de réseau, les Cloud Providers et les experts du datacenter, les éditeurs, le monde de l’Open Source, ainsi que les intégrateurs. Pendant quelques années, chacun a joué sa partition alors que les DSI attendaient des solutions homogènes et intégrées. Une requête qui commence à être entendue à travers des partenariats entre les acteurs pour simplifier la tâche des responsables informatiques.

Des suites en quête de collaboration

En première ligne, les acteurs de la virtualisation ont très tôt compris l’intérêt de s’impliquer dans la gestion du Cloud hybride pour accompagner les entreprises souhaitant migrer des instances de leur datacenter vers un Cloud public. Pour le spécialiste de la virtualisation, VMware, l’aventure commence il y a quelques années en orientant les sociétés vers le software defined datacenter (SDDC), avec plusieurs éléments pour le pilotage, vSphere (pour la partie serveur), vSan (pour la partie stockage) et NSX (pour la partie réseau), la gestion est assurée par la suite vRealize. Aujourd’hui, cette brique logicielle se nomme Cloud Foundation, intégrant vSphere, VSAN, NSX, vCenter 6.5, la suite vRealize (Log Insight, Automation et Operation), ainsi que SDDC Manager.

Beaucoup d’entreprises disposent d’environnements informatiques sous VMware. Il semblait logique que ce dernier noue des partenariats avec des acteurs du Cloud public pour que les administrateurs se trouvent en terrain connu. VMware l’a donc fait avec IBM (depuis 2016) et AWS en 2017 afin de connecter les deux mondes, on premise et Cloud public. Dans l’accord avec Big Blue, la solution HCX a été mise en place pour manager et automatiser l’ensemble des processus du Cloud hybride. Dans le cadre d’AWS, les clients retrouvent les éléments de Cloud Foundation pour accompagner la migration des workloads. Enfin, VMware a passé dernièrement un accord avec Microsoft pour apporter à Azure les bénéfices des dernières avancées de la virtualisation du réseau autour de NSX Cloud Network.

 

Microsoft est également un acteur important dans le Cloud hybride à travers son offre de virtualisation (Hyper-V) et de Cloud public Azure. La gestion du Cloud hybride est d’abord adressée dans le cadre « de la modernisation du datacenter à travers des outils comme System Center et Windows Server », avoue Frédéric Aatz, directeur de la stratégie interopérabilité et Open Source & Responsable des offre Infrastructures et Cloud Hybride chez Microsoft France. Il ajoute que la prochaine version de « Windows Server 19 sera très orientée vers le déploiement du Cloud hybride à travers le projet Honolulu qui jette un pont entre le on premise et le Cloud ». Présenté à Ignite en 2017, ce projet, connu maintenant sous le vocable Admin Center, est une application de gestion basée sur le navigateur où les administrateurs peuvent gérer les instances Windows 10 et Windows Server dans un environnement classique, virtuel ou cloud. Il prend en compte certaines fonctionnalités comme Azure Site Recovery pour protéger les machines virtuelles ou Azure Active Directory pour le contrôle d’accès via des authentifications multi-facteurs.

Pour autant, comme pour VMware, le marché est en attente de solutions plus intégrées. « Au fur et à mesure que la maturité des entreprises se construit sur l’infrastructure, il y a un travail de modernisation du patrimoine applicatif », constate Frédéric Aatz. C’est dans ce cadre que Microsoft pousse Azure Stack, un package logiciel à destination des entreprises pour déployer Azure sur leur propre infrastructure. Il s’adresse à ceux qui veulent « ouvrir les applications au Cloud, mais souhaitent les garder chez eux pour des questions de conformité », poursuit le responsable. Par ailleurs, pour accompagner les nouvelles méthodes de développement autour des conteneurs et des micro-services, Microsoft s’est associé avec Red Hat pour porter OpenShift sur Azure et Azure Stack. Il s’agit d’une version managée du PaaS de Red Hat pour créer des applications conteneurisées facilement portables. De son côté, Microsoft prévoit de placer en conteneur sa base de données relationnelle SQL Server et de la gérer avec OpenShift.

Cette solution de PaaS est clairement « la pierre philosophale » pour Red Hat, confie Hervé Lemaitre, CTO de Red Hat France. « Les clients veulent s’émanciper des infrastructures qui sont devenues immatérielles, ils sont donc dans une approche applicative indépendante », poursuit-il. Et le futur du Cloud se décline clairement autour des conteneurs et OpenShift à travers l’implémentation de Kubernetes en est le chef d’orchestre. Une offre qui évolue à travers le rachat de CoreOS, spécialiste des conteneurs. Lors de la KubeCon/CloudNativeCon, Red Hat a poussé auprès de la communauté le framework Kubernetes Operator, une extension de la gestion de Kubernetes, une sorte de super manager d’OpenShift. Pour la gestion du Cloud hybride, Red Hat dispose d’un outil spécifique, CloudForms. L’offre de Cloud Management Platform est née en 2012 et elle a évolué depuis, « le Cloud est né sur le on premise et le Cloud public a fortement innové, même le management s’est transformé en mode SaaS », constate Hervé Lemaitre. Le futur, selon lui, est de rendre Cloudforms « composable en activant différents éléments, télémétrie, ressources, les coûts... ».

 

Après le projet Honolulu, Windows Admin Center devient le gestionnaire du Cloud de Microsoft.

Les constructeurs IT à l’assaut du Cloud hybride

En dehors des spécialistes de la virtualisation ou des fournisseurs de Cloud, les acteurs de l’infrastructure entendent bien s’inviter dans le potentiel du Cloud hybride. Ils ont parfois la double casquette en étant fournisseur de Cloud public et offrant des solutions pour créer un Cloud privé. IBM est dans ce cas-là. En ce qui concerne la gestion du Cloud hybride, Big Blue s’en remet à la solution Cloud Orchestrator utilisant des modèles prêts à l’emploi pour accélérer la configuration, le provisionnement et le déploiement. Mais pour Erwan Maréchal, expert en Cloud hybride chez IBM, « Il faut dépasser la gestion du Cloud hybride par le prisme de l’infrastructure, pour aller sur la problématique de la modernisation des applications. » Dans ce cadre, il est essentiel de s’intéresser « au patrimoine applicatif et à leur exposition au Cloud via les API », en épousant les méthodes du Cloud, « résilience, une mise sur le marché plus rapide… », constate le spécialiste. Il n’écarte pas la brique infrastructure, mais s’en remet « aux solutions d’automatisation via Cloud Automation Manager qui s’appuie sur des services open source comme Terraform, Chef, Puppet, etc. »

 

Sur la partie applicative, la tendance est clairement vers les technologies de conteneurs et IBM a noué des partenariats en ce sens. Récemment, Big Blue s’est associé à Red Hat sur l’intégration d’OpenShift aux solutions de Cloud privé d’IBM. Ce type d’accord s’inscrit « dans la volonté de simplifier et d’aider les clients à travers des standards interopérables », explique Erwan Maréchal, en précisant, « Nous sommes dans une démarche de coopétition plutôt que de rapprochement ». L’hétérogénéité des solutions demeurent.

 

Pour HPE, le Cloud hybride s’entend plus comme une problématique d’« IT hybride », avoue Charles Henry, service line manager chez HPE France avec « une démarche de catalogue de services ». Pour jouer le rôle du chef d’orchestre, HPE a présenté à la fin 2017, OneSphere, qui permet « de découvrir et agréger l’ensemble des services IT dans un environnement multi-cloud, ainsi que les éléments techniques – infrastructure, middleware, orchestration, facturation. Le Machine Learning d’Infosight peut être ajouté pour apporter la maintenance prédictive des équipements en datacenter », explique le responsable.

Les spécialistes du stockage et de l’hyperconvergence ne sont pas en reste en s’invitant dans le bal de la gestion du Cloud hybride. Les premiers profitent de la problématique de la migration des données et de leur stockage dans le Cloud pour promouvoir leur solution, les seconds, après avoir poussé leurs appliances, veulent monter dans la chaîne de la valeur. Par exemple, un acteur comme NetApp conçoit le pilotage du Cloud hybride à plusieurs niveaux. Sur le plan technique, la société met en avant sa solution OnTap Cloud, capable de gérer le stockage cloud sur n’importe quel fournisseur. La bonne gestion du Cloud hybride se prépare et se planifie, NetApp a lancé une offre de conseil, Cloud Value Management. Enfin, le spécialiste du stockage mise sur les partenariats avec les fournisseurs de cloud public, AWS, Azure et très récemment Google Cloud Platform, pour faciliter l’exécution des workloads.

Dans le domaine de l’hyperconvergence, la stratégie sur le Cloud hybride d’un acteur comme Nutanix se nomme Xi, une plate-forme permettant d’étendre les services du datacenter vers le Cloud de façon transparente au travers du logiciel d’infrastructures Prism. S’appuyant sur des instances bare metal sur Google Cloud Platform, Xi devrait lancer un service de reprise d’activité après sinistre.

Pure Players et Open Source deviennent incontournables

Indépendamment des différentes offres des grands éditeurs et constructeurs IT, il existe tout un écosystème de services fournissant de services de management du Cloud hybride. Connu sous le vocable CMP, Gartner les définit comme « combinant a minima une interface de pilotage en self-service, un système de provisioning, une console de suivi de la consommation des Clouds et de la facturation associée, ainsi qu’un moteur pour optimiser les traitements informatiques – ou workloads – et in fine les coûts ». Parmi les pure players, on peut citer des sociétés comme Scalr, Cloudcheckr, RightScale, Turbonomic, Morpheus, Divvy Cloud, Cloudbolt ou Embotics vCommander. Elles proposent toutes de faciliter et d’automatiser la migration des applications du Cloud privé vers le Cloud public. Les responsables informatiques peuvent miser sur ces solutions pour avoir une vision globale et maîtrisée de leur consommation du cCloud, tout en ayant peu d’adhérence avec les fournisseurs et les éditeurs.

Le monde de l’Open Source a pris une forte option dans le domaine du Cloud et en particulier dans le domaine de l’orchestration et l’automatisation. Sur la modernisation des applications, la technologie des conteneurs est devenue incontournable avec Docker. Pour gérer les clusters de conteneurs, Kubernetes (lire pages suivantes) promu par Google apparaît comme un standard et la majorité des acteurs IT l’ont intégré dans leur solution de gestion du Cloud hybride. La plupart des opérateurs du Cloud l’ont compris comme AWS qui vient de lancer une offre Kubernetes as a service. IBM et Microsoft ont également adopté Kubernetes à travers leur partenariat avec Red Hat et son PaaS OpenShift.

Dans les outils d’orchestration et d’automatisation open source, on trouve également Chef, Puppet, Anssible mais aussi un service en pleine croissance : Terraform. C’est un outil développé pour créer facilement des infrastructures complexes dans le Cloud. Il abstrait de nombreux concepts, donne un moyen de décrire une infrastructure dans un fichier texte et de déployer cette infrastructure grâce à ce fichier. Plusieurs acteurs intègrent Terraform dans leur portefeuille : OVH au sein de l’offre cloud public, Skyloop, division en charge du Cloud de l’intégrateur Newlode l’intègre dans son outillage à destination des DevOps. De l’ancien monde à la modernisation des applications et du datacenter, la gestion du Cloud hybride a eu du mal à se transformer en chef d’orchestre unique. Conteneurs, micro-services, infrastructure hyper-convergente, serverless, les évolutions technologiques à coup d’automatisation et dans un futur proche d’Intelligence artificielle devraient effacer progressivement les frontières du Cloud hybride. La gestion s’orientera alors vers le multi-cloud avec d’autres préoccupations : API, coût, sécurité, conformité, compétence. Mais ceci est une autre histoire.

 


Sécurité transversale, conformité optimale

Impossible de parler de gestion du Cloud hybride sans évoquer la sécurité et d’un axe de plus en plus sollicité, la conformité. Sur la sécurité, les récentes affaires du vol des données de Uber et de Tesla ont mis en exergue la problématique des mauvaises configurations des buckets S3 sur AWS. Selon une étude de Redlock, le constat est alarmant avec 51 % des entreprises ayant connu une fuite de données dans le Cloud en 2017. Les solutions de gestion de Cloud doivent donc prendre en compte ces éléments de sécurité : gestion des accès, des identités, chiffrement des données, détection d’intrusion, etc. « La sécurité est intrinsèque à la topologie du Cloud, elle s’inscrit dans un débat philosophique sur le souhait de rester dans un modèle maître-esclave ou d’aller vers un mode collaboratif avec une vue globale du cycle de vie des différents éléments », constate François Baranger, CTO de T-Systems France. Pour Erwan Maréchal, chez IBM, « Il faut mettre en place un système immunitaire capable de se protéger et de se défendre. Il ne faut pas être naïf, le cCloud n’est pas plus fragile, en revanche la nature des menaces cible plus les applicatifs. » Il faut donc concevoir sa protection en termes de « sécurité by design », c’est-à-dire dès la conception de l’application en prenant en compte la sécurité, conteneurs, dépôt GitHub, mise à jour de correctifs, etc. Pour rassurer encore un peu plus, les fournisseurs de Cloud travaillent pour rendre les instances les plus sensibles confidentielles, Azure Confidential de Microsoft ou le projet Asylo de Google.

Avec le RGPD, le Cloud Act, les évolutions de réglementation dans le domaine bancaire via Bâle 3, être conforme n’a jamais été aussi important. Surtout que les sanctions financières sont à la clé en cas de manquement. Le Cloud ne peut donc pas s’extraire de ces contraintes. Ces dernières peuvent être adresser de différentes façons, « l’automatisation est un moyen pour vérifier la conformité », explique Yann Guernion, de CA Technologies et de poursuivre, « dans le cas du RGPD, le texte touche beaucoup de métiers. Il y a une forte demande sur les environnements de tests qui ont besoin de copies de données de production comprenant des données personnelles. Il faut donc être capable d’anonymiser les données, cela passe par de l’automatisation ». Les fournisseurs de Cloud public intègrent de plus en plus cette brique de conformité comme par exemple Virtustream, spécialiste de la migration des applications critiques dans le Cloud. Il vient d’ajouter à son offre de management des fonctionnalités de gestion du risque et de la conformité.

 


Les 5 commandements d’une bonne gestion du Cloud hybride

Lancer un programme pilote pour tester les outils de gestion. Au même titre que la stratégie de migration vers le Cloud hybride, l’entreprise doit se préparer à utiliser des solutions de management du Cloud hybride. Une occasion pour éprouver les différents services du marché, voir comment réagissent les workload, former les équipes IT et dialoguer avec les développeurs. Ce pilote doit être l’occasion d’explorer les différentes facettes du management : gestion et intégration des API, de la qualité de service (QoS), création d’un catalogue de services pour l’allocation des ressources, etc. Les retours sont intéressants et il ne faut pas hésiter à solliciter ses pairs pour échanger sur leurs expériences.

Penser sécurité dès le départ. Il s’agit souvent du frein majeur au Cloud cité par les responsables informatiques, surtout dans la bascule vers le Cloud public. De récentes affaires ont montré que des mauvaises configurations des buckets S3 sur AWS ouvraient la voie à des fuites massives de données. La gestion des identités et des risques n’est donc pas à prendre à la légère et les règles de sécurité liées au passage au Cloud public doivent être pensées en amont. Idem pour la localisation des données, la migration de certaines applications sensibles peut être soumise à des impératifs de conformité imposant que les données soient placées dans un pays ou une région du monde en particulier.

Ne pas sous-estimer les coûts. Dans les projets de Cloud hybride, un des arguments avancés est la réduction des coûts par rapport à une solution classique. Bien souvent, la réalité est tout autre en oubliant d’intégrer les coûts induits, liés à la complexité, à un usage mal maîtrisé, à des besoins non calculés, voire à du gaspillage de ressources. Une bonne gestion du cycle de vie du projet de Cloud hybride peut atténuer ce sentiment de dérapage des coûts et maîtriser un budget. Plusieurs projets ont été bloqués ou arrêtés pour des questions financières. Le passage au modèle d’abonnement est également une gymnastique à adopter pour les responsables informatiques habitués au régime de licence.

Penser conteneurs et microservices. Le passage au Cloud hybride n’est pas qu’une problématique d’infrastructure, elle est aussi un modèle de livraison des applications. Or de plus en plus, le développement des applications se tourne vers les technologies de conteneurisation et de microservices. La première, popularisée par Docker, vise à remplacer les machines virtuelles en étant plus légère, modulaire et évolutive. Les microservices sont des process indépendants utilisés en combinaison avec les conteneurs pour créer des applications complexes. Les deux sont nativement cloud et facilitent la migration du Cloud privé au Cloud public. Cette évolution est inévitable, car la moitié des workload a vocation à être portée sur le Cloud public d’ici à 2020, selon une étude de Morgan Stanley.

Un accompagnement au changement impératif. L’aventure du Cloud hybride engendre une gestion du changement. Elle peut provoquer un choc des cultures, notamment au sein de l’IT avec des postes dont les rôles évoluent. Les nouvelles technologies, architectures et modèles de livraison nécessitent de nouvelles compétences et peuvent à terme supprimer des postes. Par exemple, le rôle d’administrateur système est en déclin pour devenir « développeur d’infrastructure » capable de jongler avec les API et l’infrastructure as a code. Les développeurs sont aussi amenés à évoluer en s’intéressant à la fois à la mise en production des applications, ainsi qu’à la sécurité de leur programme. D’autres compétences sont en train de naître comme le FinOps en charge de rationaliser et d’optimiser les coûts de migration et d’usage du Cloud. Formation et recrutement sont donc à prévoir.

 


Le serverless, la prochaine révolution du Cloud

Et si le serverless(1) était le fossoyeur de la gestion du Cloud ? Cette architecture est relativement simple :  le développeur place le code de son application au sein  de la plate-forme de son fournisseur de Cloud.  Ce dernier se charge de paramétrer et exécuter les instances nécessaires. On dit alors que les développeurs font appel à des fonctions à la demande, Function  as a Service (FaaS), ainsi qu’à des services de Back end à la demande (comme les bases de données, la gestion d’identité, les bus de messagerie…). Les applications sont alors guidées par des événements (event driven).  Ce modèle apporte une simplification de gestion évidente : le provisioning des instances, la scalabilité, la haute disponibilité, la sécurité sont gérés de façon transparente par la plate-forme. Werner Vogels, CTO d’AWS avait résumé les avantages du serverless par  une phrase énigmatique, « No Server is easier to manage than no server ». De même, la facturation ne se fait plus au temps d’utilisation des instances mais au nombre d’événements. Tous les acteurs IT se sont lancés dans l’aventure du serverless. AWS a été le premier à dégainer avec son offre Lambda. Microsoft a suivi en 2016 avec Azure Functions tout comme Google avec Cloud Functions encore en version bêta. Red Hat épouse cette démarche en associant OpenShift et Cloud Functions, mais aussi à travers le projet OpenWhisk avec IBM. Entouré de louanges, le serverless interroge dans le meilleur des cas, voire inquiète. Pour François Baranger, CTO de T-Systems France, « Il y a un intérêt pour les développeurs et pour la gestion, mais cela signifie un déport de la souveraineté de l’entreprise auprès du fournisseur de Cloud et donc une dépendance supplémentaire à celui-ci. » Cette architecture bouleverse aussi la façon de construire les applications, « Elle peut rentrer en conflit avec le modèle de continuous delivery où on ne sait plus quelle est la différence entre la production et la pré-production », analyse Yann Guernion, responsable marketing produit, dans la division Automation de CA Technologies. Cette architecture inquiète aussi les intégrateurs sur leur rôle à partir du moment où les activités sont complètement déportées dans le Cloud. Certes aujourd’hui le serverless est d’un usage confidentiel pour des cas d’usage comme l’Internet des objets (IoT) ou le Machine learning, mais il pourrait se développer rapidement dans une logique de multicloud.

(1) : Lire à ce sujet l’article « Serverless : le calcul sans serveur prêt pour la production ? » dans L’Informaticien n°166.


De la gestion des coûts au FinOps

Une des promesses du Cloud hybride est la réduction des coûts. La plupart des outils de gestion comprennent des services de facturation et d’analyse des coûts. Les risques de dépassement de budget existent et sont même souvent monnaie courante. « Il peut y avoir de grosses surprises sur les coûts. À la première facture, les clients découvrent les coûts induits du Cloud », explique Arnaud Cassagne chez Skyloop, branche cloud de l’intégrateur Newlode. Il ajoute : « Aucune entreprise ne fait d’analyse économique de A à Z sur le Cloud ». Pourtant certains risques sont maintenant connus tel que l’explosion du trafic sortant, la persistance d’instances non utilisées, les besoins en réseaux (fibre, express route, etc.). Pour Régis Castagné, directeur général d’Equinix, « Le vrai TCO d’une migration dans le Cloud peut être supérieur de 30 à 50 % par rapport à une solution on premise. » Récemment le cabinet Canalys a interrogé 146 fournisseurs de Cloud. Seuls 16 % des sondés estiment que leurs clients utilisent toutes les ressources cloud qui leur sont facturées. Ils sont 30 % à admettre que le gaspillage est évalué entre 10 à 20 %. Si on ajoute les 13 % portant cette perte entre 20 et 40 %. Face à ces dérapages, une profession commence à poindre son nez au sein des grandes entreprises : le FinOps. Charles Henry chez HPE explique que « pour éviter les coûts cachés du Cloud et avoir une bonne connaissance du coût d’un service en interne, il est utile d’avoir des profils FinOps au sein de la DSI, qui connaissent les structures des services dans le Cloud, savent gérer la refacturation, comparer les coûts d’une application dans un Cloud privé modernisé ou dans un Cloud public ». Reste à trouver le bon profil pour cet argentier du Cloud, ingénieur, développeur, consultant, ayant une bonne connaissance des métiers. Dans l’avenir et avec le multi-cloud, le FinOps devrait voir sa capacité de gestion des cordons de la bourse renforcée.

Print
5475
Tags:cloud

x
Rechercher dans les dossiers
Actuellement à la Une...
Une semaine après que Donald Trump ait signé l’interdiction de vente de produits américains à Huawei, le Commerce Department a accordé au géant chinois une licence de trois mois afin de maintenir les réseaux existants et fournir des mises à jour logicielles aux terminaux déjà sur le marché.

Un chercheur a découvert une base de données sur AWS contenant les informations de plusieurs millions d’influenceurs et autres célébrités d’Instagram. La base, appartenant à une société indienne spécialisée dans le marketing, était en libre accès.

En passant sur Chromium, Microsoft ne cachait pas son intention d’exporter son navigateur vers des plateformes autres que le seul Windows 10. Dont acte : la préversion d’Edge Chromium arrive sur macOS avec quelques mineures adaptations au design Apple.

A l'occasion de l'événement Ready for IT qui se tient actuellement à Monaco, l'Anssi a dévoilé WooKey un prototype de disque dur "chiffrant" entièrement basé sur le logiciel libre, l'open source et l'open hardware.

Près de Toulouse, un père et son fils ont créé une société innovante dont l’ambition est de révolutionner la cybersécurité grâce à l’IA. Levée de fond, création d’une école, d’un centre de recherche… la jeune pousse vogue vers de nouveaux horizons. Mais l’esprit startup perdure, inspiré par la « Silicon Valley » et les bonnes pratiques du rugby. Capitale du ballon ovale oblige ! Article paru dans L'Informaticien n°176.

Appian, l’éditeur de solutions de gestion des processus métiers, tenait la semaine dernière à San Diego dans le sud de la Californie sa conférence annuelle. Au programme, des annonces sur la dernière version de la plate-forme low code de l’éditeur.

Le célèbre site de questions/réponses sur la programmation a subi une attaque. Contrairement aux premiers éléments fournis, les attaquants se sont introduits dans ses systèmes informatiques dès le 5 mai et ont eu accès à des données utilisateurs.

Spectre et Meltdown ont fait des petits : ils s’appellent ZombieLoad ou encore Fallout et appartiennent à une sous-classe de vulnérabilités affectant l’exécution spéculative des processeurs Intel, sous-classe baptisée Microarchitectural Data Sampling, MDS pour les intimes. Le fondeur et les éditeurs d’OS ont d’ores et déjà lancé les correctifs, avec un impact sur les performances des machines.

Face au ralentissement de la croissance de ses revenus publicitaires, le géant du Web adopte une stratégie à double versant. D’une part, il crée de nouveaux formats et espaces publicitaires sur mobile, plateforme de choix des annonceurs. De l’autre, il ajoute de nouvelles cordes à son arc e-commerce.

Le géant français a profité de VivaTech pour lever le voile sur un serveur dédié à l’edge computing, le BullSequana Edge. Celui-ci se destine soit à un usage autonome, soit à servir de plateforme logicielle pour le big data ou l’IA ou encore à une utilisation en conteneur complet.

Toutes les News

LIVRES BLANCS

Les datacenters sont au coeur de l'informatique des entreprises et leur parfaite fiabilité et disponibilité sont donc indispensables. Chaque arrêt de fonctionnement impacte l'image de l'entreprise et peut engendrer des pertes de revenus considérables. Les chercheurs de Rosenberger OSI ont développé en première mondiale une technologie de nettoyage issue de la botanique et plus précisément du lotus.


L’Intelligence Artificielle promet de révolutionner la perception de la cybersécurité au coeur des entreprises, mais pas uniquement. Ce changement de paradigme engage, en effet, une redéfinition complète des règles du jeu pour les DSI et les RSSI, ainsi que l’ensemble des acteurs de la sécurité.


Lorsque l'on déploie des postes de travail, ils ont généralement tous la même configuration matérielle et logicielle (avec certaines spécificités selon les services). Mais on ne peut pas toujours tout prévoir et il arrive par exemple que de nouveaux programmes doivent être installés ou n’aient pas été prévus. L’accumulation de logiciels « lourds » est susceptible de provoquer des lenteurs significatives sur un PC allant jusqu’à l’extinction nette de l’application. Ce livre blanc explique comment optimiser les performances au travers de 5 conseils rapides à mettre en place.


Ce guide est conçu pour aider les entreprises à évaluer les solutions de sécurité des terminaux. Il peut être utilisé par les membres de l'équipe de réponse aux incidents et des opérations de sécurité travaillant avec des outils de sécurité des points finaux sur une base quotidienne. Il peut également être utilisé par les responsables informatiques, les professionnels de la sécurité, les responsables de la conformité et d’autres personnes pour évaluer leurs performances. les capacités de l’entreprise en matière de cybersécurité, identifier les lacunes dans la sécurité des terminaux et sélectionner les bons produits pour combler ces lacunes.


Au cours de l'année 2018, VansonBourne a mené une enquête pour le compte de Nutanix afin de connaître les intentions des entreprises en matière d'adoption de clouds privés, hybrides et publics.

 


Tous les Livres Blancs