Le calcul du TCO de l’infrastructure cloud s’automatise
Les spécialistes estiment qu’une démarche d’optimisation des coûts du Cloud doit se décomposer en quatre étapes ; la première étant de mesurer l’activité réelle des applications. Cette phase de tracking peut même être menée sur les machines virtuelles des machines on-premise afin d’évaluer au plus juste quelles seront les instances cloud nécessaires pour faire tourner l’application qui va basculer dans le Cloud en mode « Lift and Shift ». « Avec notre outil Cloudamize, on place des agents sur les VM on-premise de nos clients afin d’analyser le comportement réel des applications en production, ce qui permet ensuite de délivrer un TCO de la même plate-forme sur AWS, GCP, Azure », explique Raffaële Azuelkos, Business Development Consultant chez CloudReach. « L’optimisation financière de la plate-forme doit être pensée dès le début du projet de migration vers le Cloud, depuis la définition du socle de base, la “ landing-zone AWS ” puis la gouvernance et le pilotage de la plateforme par les coûts. » Le prestataire compte Eurostar et GRTgaz parmi ses clients et assiste les entreprises dans le design de leurs architectures cloud, l’optimisation de ces architectures. « La démarche FinOps va bien au-delà de la phase de mise en place de la plate-forme, mais se prolonge tout au long de sa vie. Notre outil Cost-Control délivre chaque mois à nos clients des recommandations pour optimiser leurs coûts opérationnels. La première recommandation porte sur le volet scheduling des ressources. Éteindre la préproduction le soir et le week-end, c’est une économie de 30 %. Viennent ensuite des logiques de resizing à appliquer, beaucoup de données qui sont analysées en permanence afin de pouvoir envoyer à nos clients des recommandations d’optimisation de manière mensuelle. »![](https://l1fo.tech/wp-content/uploads/2019/06/inf177_coutscloud_02.jpg)
![](https://l1fo.tech/wp-content/uploads/2019/06/inf177_coutscloud_03.jpg)
Exploiter au mieux les services proposés par le CSP
Un certain nombre de bonnes pratiques doivent être mises en place afin d’exploiter au mieux les grilles tarifaires des Cloud Providers. Il faut rapidement apprendre à jongler entre les instances provisionnées à la demande, les plus coûteuses, les « Reserved Instances », les « Spot Instances » et les « Dedicated Instances » qui permettent d’accéder aux mêmes ressources, mais à prix plus ou moins cassé. Omar Bouabidi, Cloud Architect & Business Developer chez Agyla, livre quelques règles simples à appliquer : « Il faut généralement réserver le mode on-demand aux workloads dont l’évolution est difficile à prédire. Les instances réservées permettent déjà de faire des économies sur des workloads dont on sait qu’on aura besoin d’instance sur un an, trois ans. Très peu de nos clients utilisent aujourd’hui les Spot Instances alors qu’elles présentent un potentiel d’économies énorme, notamment lorsqu’il faut absorber des pics de charge de quelques minutes, quelques heures. Par contre, lorsque l’entreprise a des contraintes spécifiques, qu’il s’agisse de réglementation ou de licences logicielles, il faut se tourner vers les instances dédiées. » La règle d’or à appliquer est d’oublier le mode de fonctionnement du datacenter classique, avec des machines qui fonctionnent en permanence. Inutile de maintenir en production des instances en 24/7 lorsque celles-ci ne sont utilisées qu’aux heures de bureau ; inutile de mettre en place des configurations de haute-disponibilité là où il est possible de se contenter d’une simple tolérance aux pannes. Les schedulers proposés par certains fournisseurs cloud permettent de programmer l’arrêt et le redémarrage d’instances, il est même possible de déclencher des séquences d’actions avant l’extinction ou après le redémarrage d’une instance.![](https://l1fo.tech/wp-content/uploads/2019/06/inf177_coutscloud_04.jpg)
Des outils d’optimisation de plus en plus évolués
De plus en plus de services et logiciels viennent en aide aux administrateurs pour optimiser la consommation des ressources cloud, qu’il s’agisse des solutions de Cloudreach, de Cloudhealth/ VMware, mais aussi Turbonomic, la solution de « workload automation » utilisée par Sephora, EDF, Chanel ou encore les solutions telles que CA Workload Automation AE qui ont appris à dompter les services cloud. Il ne s’agit plus seulement d’avoir un rapport quotidien ou mensuel sur l’utilisation des ressources, mais bien de mettre en place des processus qui vont automatiquement démarrer/arrêter des ressources en fonction de leur utilisation réelle, passer d’un type d’instance à un autre pour accompagner une montée en charge et ce, de manière totalement automatisée. Les outils vont de plus en plus loin dans leurs capacités analytiques et certaines solutions mettent en œuvre des algorithmes de Machine Learning pour identifier les patterns d’utilisation des services et piloter les ressources cloud en mode prédictif. Avec ou sans IA, les chiffres avancés par les éditeurs et les prestataires de services spécialisés font état de baisse de prix allant de 30 % à 50 % avec une analyse fine des données de fonctionnement délivrées par les fournisseurs cloud. Ces données peuvent être exploitées pour alléger la facture, mais aussi pour permettre à la DSI de refacturer en interne les services consommés sur le Cloud public. Déjà mise en œuvre par l’activité Banque d’investissement de la Société Générale, L’Oréal, Air Liquide, Total, Système U, l’application Apptio est un outil de pilotage de la dépense informatique qui veut aller au-delà de la seule optimisation des services cloud. L’éditeur rapproche ces données d’exploitation cloud et on-premise des données purement financières et les données issues d’un ServiceNow, d’un PeopleSoft. « Nous avons construit un modèle standardisé de la structure des coûts IT, qui permet d’atteindre une transparence des coûts IT, aussi bien on-premise que dans le Cloud public », explique Gilles Vincent, Senior Sales Consultant EMEA Alliances Apptio : « L’objectif est d’obtenir le TCO d’un service ou d’une application et éventuellement faire du charge-back de l’utilisation de ces ressources aux Business Units correspondantes, en y intégrant des règles liées aux équivalents temps pleins, par exemple, ou en fonction d’un nombre de transactions, etc. »![](https://l1fo.tech/wp-content/uploads/2019/06/inf177_coutscloud_05.jpg)
Le tagging, ou la clé d’une stratégie de charge-back fiable
Pouvoir fournir un calcul détaillé aux directions métier (Show-Back) ou éventuellement les refacturer précisément sur la consommation réelle des ressources cloud (Charge-Back) implique avoir mis en place une stratégie stricte de tagging des ressources. Il faut donner à chaque instance, chaque ressource un nom (le tag) qui va permettre de savoir à quelle application, à quelle direction métier elle appartient. Le plan de tagging correspond à une CMDB temps réel du système d’information cloud, mais selon Gilles Vincent peu d’entreprises ont réellement fait l’effort d’imposer une stratégie de tagging globale : « La gestion du tagging reste un gros problème chez de nombreuses entreprises », reconnaît-il. « Contrairement aux serveurs que l’on va installer dans son datacenter, lorsqu’on crée une instance sur un service cloud, on ne maîtrise pas la convention de nommage des ressources. Pour pallier cela, les CSP proposent de placer des tags sur l’ensemble des ressources consommées par l’entreprise. Notre solution va s’appuyer sur ces tags mais elle peut aussi repérer où ces tags sont manquants. Très souvent ce sont entre 30 et 60 % des ressources qui ne sont pas tagguées correctement, donc autant de dépenses qui ne peuvent être réaffectées aux métiers. »![](https://l1fo.tech/wp-content/uploads/2019/06/inf177_coutscloud_06.jpg)
![](https://l1fo.tech/wp-content/uploads/2019/06/inf177_coutscloud_07.jpg)
« Finops, une démarche en 4 étapes »
Nabil Ben Nasrallah, Cloud Architect et FinOps Expert chez Agyla
![](https://l1fo.tech/wp-content/uploads/2019/06/inf177_coutscloud_08.jpg)
« Il faut mettre en place des unités d’œuvre métier pertinentes »
Roland Esnis, directeur général de Gekko
![](https://l1fo.tech/wp-content/uploads/2019/06/inf177_coutscloud_09.jpg)
« En appliquant ces règles d’optimisation adaptée à l’usage réel, nous avons divisé par trois notre facture AWS »
Fouad Maach, directeur du projet MoveToCloud de Veolia
![](https://l1fo.tech/wp-content/uploads/2019/06/inf177_coutscloud_10.jpg)