X
Conteneurs
Alain Clapaud / vendredi 8 février 2019 / Thèmes: Dossier, Cloud

Conteneurs

La fièvre des conteneurs « managés » gagne le Cloud

Docker a fait le boulot. Bon nombre de développeurs ont adopté les conteneurs, si bien que désormais tous les fournisseurs de Cloud se battent pour les attirer. Enquête sur le nouveau phénomène cloud du moment.

Kubernetes permet l’orchestration de l’exécution des conteneurs sur les clusters bien souvent constitués d’instances IaaS. Il est donc logique que Kubernetes soit exploité dans le Cloud. Opter pour une offre managée dépend du besoin et de la maturité de l’entreprise.

Ce fut l’une des grandes annonces lors de l’OVH Summit, il y a quelques semaines. Le champion français du Cloud a annoncé le lancement de la bêta privée de « Managed Kubernetes », son offre de support des architectures de micro services. La promesse est de porter une architecture de conteneurs sans que l’entreprise n’ait à se soucier du provisioning des machines virtuelles sousjacentes, ajoutant ainsi un niveau d’abstraction supplémentaire aux infrastructures applicatives.

Un marché en croissance de plus de 34 % par an

Tous les acteurs du Cloud y vont. Google à qui l’on doit le développement de Kubernetes pour les besoins internes de ses services, est bien évidemment idéalement positionné sur ce marché avec GKE (Google Kubernetes Engine). Il a depuis été rejoint par Amazon Web Services qui propose EKS (Amazon Elastic pour Kubernetes), tandis que Microsoft pousse de son côté AKS (Azure Kubernetes Service). Même Oracle et Alibaba ont maintenant un service « K » à leurs catalogues respectifs, avec OKE pour l’un et CSK pour le second. Tous les fournisseurs veulent leur part d’un gâteau en train de grossir à vue d’œil. MarketsandMarkets estime que ce marché du Container as a Service (CaaS) ne représentait encore que 789 millions de dollars en 2016. Il sera de plus de 4 milliards en 2022.

Les entreprises qui déployaient Docker et la plate-forme d’orchestration Kubernetes en on-premise ou sur des instances EC2 s’intéressent de plus en plus à ces offres managées qui simplifient encore un peu plus l’administration de ces infrastructures et vont jusqu’à gommer la notion de serveur.

Du Cloud managé à géométrie variable

Marier conteneurs et Cloud est loin d’être une idée nouvelle et on sait même que Docker travaille pour gérer le multi-Cloud au niveau de sa gestion de conteneurs. Bon nombre d’entreprises ont choisi de déployer Docker et Kubernetes sur mes instances Cloud. Avec une offre managée par un opérateur, c’est une partie des tâches d’administration qui sont assumées par cette plate-forme. Cette délégation peut aller assez loin car s’il est possible de gérer les conteneurs et les clusters et serveurs d’un Kubernetes « as a Service », mais aussi via les très récentes offres « serverless » telles que AWS Faregate et Azure Service Fabric Mesh qui vont jusqu’à effacer la notion même de serveur.

Romain Vrignaud, spécialiste DevOps chez Google argumentait en faveur de Kubernetes en mode managé lors de la dernière édition du Google Cloud Summit : « Utiliser un service managé vous permet de vous concentrer sur ce qui est important pour votre organisation, sur l’application. GKE représente les dix ans d’expérience qu’a Google à gérer des flottes de conteneurs. GKE présente à la fois une implémentation de Kubernetes facile à utiliser, sécurisée et parfaitement intégrée à GCP. GKE permet de manière fiable et efficace d’opérer des applications conteneurisées sur GCP. » Fort de deux années d’exploitation commerciale, Google estime GKE comme une plate-forme stable qui profite de sa forte intégration avec GCP. « L’intérêt d’une offre managée, c’est la simplicité », selon Sébastien Lavayssière, Solution Architect Cloud chez WeScale. « Sur les plates-formes les plus matures comme Google GKE, on peut provisionner un cluster entier de machines pour faire tourner un conteneur en un appel d’API ou une seule ligne de commande. C’est l’idéal lorsqu’il s’agit de monter rapidement un environnement pour développer, tester, mais aussi pour la production. »

Plusieurs entreprises ont témoigné de leur utilisation de Kubernetes, Pierre Gilles Mialon, Cloud Architect à Radio France, a ainsi expliqué : « Le mouvement vers les microservices, nous l’avions déjà fait. Nous faisions de la veille sur Kubernetes afin d’y aller lorsque ce serait “ sec ”. Nous y sommes allés à cela fonctionne particulièrement bien. L’essentiel de nos microservices étant stateless, Kubernetes c’est juste super ! » Autre client à témoigner, Airbus Intelligence, filiale d’Airbus Defence and Space, venue présenter son choix de GKE afin de porter son tout nouveau service d’imagerie satellite en ligne OneAtlas. Celui-ci met en œuvre la Google Cloud Platform (GCP), mais aussi GKE afin d’orchestrer les conteneurs qui réalisent l’analyse des pétaoctets d’images satellites mises à disposition par le service. Chez le rival, Amazon Web Services, même constat quant à l’adoption de la solution Kubernetes managée : le numéro 1 du Cloud affiche de nombreuses références clients pour son offre EKS, parmi lesquelles Snapchat, Verizon, Teradata ou Zendesk tandis que Microsoft annonce Siemens, Equinor, Webjet comme clients de son offre AKS. Clairement, les offres Kubernetes managés ne séduisent pas seulement des entreprises du digital mais des profils d’entreprises très différents.

Les fournisseurs de Cloud poussent leur écosystème de solutions pour compléter le service de base CaaS, ce qui constitue un risque de vendor lock-in sur une plate-forme en dépit de la promesse de portabilité des conteneurs Docker.

Plus de souplesse, mais aussi quelques contraintes

Pour autant, toutes les entreprises qui veulent déployer des conteneurs dans le Cloud iront-elles mécaniquement aller vers ces offres managées plutôt que de déployer ellesmêmes Kubernetes sur des machines virtuelles ? « Il n’y a pas de réponse unique à aller vers le “ managé ” pour faire du Kubernetes. Cela dépend essentiellement du cas d’usage », estime Sébastien Lavayssière. « Chez les uns, les services managés seront bien adaptés, chez d’autres le Cloud public ne peut répondre à leur besoin. » Bien évidemment, Google comme Amazon proposent des Container Registry privées GCR chez Google et ECR chez Amazon Web Services. Ces services sont à part, ce qui permet à l’entreprise de créer autant de clusters qu’elle le souhaite en utilisant le même catalogue de conteneurs.

Chaque solution a ses petites spécificités et tout est susceptible de changer sans préavis. « Pour donner un exemple, sur AKS toutes les machines doivent être identiques », explique Grégory Guillou, DevOps chez Resetlogs. « Sur EKS, il faut monter la plate-forme brique par brique, donc j’automatise au maximum pour ne pas devoir le refaire deux fois. Or quand on relance trois semaines plus tard, les automates ne fonctionnent plus parce qu’ils ont changé le bootstrap des VM complètement… » De même, le DevOps souligne le manque de maturité de certains fournisseurs cloud : « Il y a de multiples limites que le DevOps doit découvrir de luimême, par exemple le choix de la configuration des load balancers. » En outre, chaque service cloud a ses spécificités, ses propres annotations. Là où il faut développer une application dans Active Directory sur Azure pour gérer les connexions, AWS s’appuie sur le connecteur développé par Heptio. « Kubernetes en lui-même ne sert qu’à très peu de choses et a besoin d’une myriade d’autres composants autour pour démontrer sa valeur », ajoute Sébastien Lavayssière. « Kubernetes doit s’appuyer sur des services d’Iaas, de stockage, de résilience du Cloud. C’est sur cette intégration de services complémentaires que les offres des acteurs du Cloud se différencient véritablement et que l’intégration va jouer le plus. » Plus que le seul support de Kubernetes, ce sont toutes ces spécificités qui différencient les offres Caas et qui font la valeur d’une plate-forme vis-à-vis de ces concurrentes, son efficacité au quotidien mais aussi qui introduisent un risque de vendor lock-in dont il faut tenir compte.


« Kubernetes managé, c’est génial pour un DevOps doué qui est d ogmatique et veut livrer plusieurs fois par jour »
Grégory Guillou, DevOps chez Resetlogs

« Je connais très bien Kubernetes pour l’avoir mis en œuvre, on-premise, sur AWS avec Kops mais aussi avec les offres managées. En substance, la promesse de ces offres est belle : c’est génial pour un DevOps doué, qui est dogmatique et veut livrer plusieurs fois par jour. Avec un pipeline automatisé et une QA douée, j’ai fait jusqu’à 15 mises en production par jour à moi seul ! Rien que je connaisse ne peut faire aussi bien et aussi vite et avec autant de fiabilité. Il y a néanmoins quelques inconvénients à ces offres : cet écosystème évolue très rapidement et il est compliqué de suivre : entre toutes les solutions de service mesh, les opérateurs pour Kafka, Spark, les intégrations pour la supervision pour le CI/CD (intégration continue/continuous delivery), pour le stockage, le réseau, c’est complexe à suivre et dur à déboguer. »


« Lorsque l’on a compris  comment fonctionne le Cloud Google, on sait comment utiliser GKE »
Sébastien Lavayssière, Solution Architect Cloud chez WeScale

« Il y a encore de fortes disparités en termes de maturité sur les offres telles que GKE ou EKS qui est une offre bien plus jeune. Google a parfaitement intégré Kubernetes à sa plate-forme cloud et si EKS s’améliore de semaine en semaine, la solution n’a pas encore toutes les fonctionnalités que peut présenter un Kubernetes installé avec un autre outil. On peut faire bien plus de choses en utilisant Kops pour installer Kubernetes sur AWS plutôt qu’en utilisant le service managé EKS. AWS travaille très vite pour améliorer sa solution comme ça a été le cas sur le volet authentification et, à cet égard, je pourrais revoir ma position dans quelques mois. » « GKE est parfaitement intégré au Cloud Google, cela signifie que lorsqu’on a compris comment fonctionne le Cloud Google, on sait comment utiliser GKE. Il suffit d’une seule ligne de commande, un seul appel d’API pour créer un cluster Kubernetes dans le Cloud Google et disposer d’un service scalable, multizone, monitoré et supervisé et dans lequel il ne reste plus qu’à créer nos objets Kubernetes. C’est extrêmement pratique là où il faudrait de multiples objets AWS pour arriver au même résultat. »

Print
4179

x
Rechercher dans les dossiers

Actuellement à la Une...
Le fournisseur d ’énergie s’est engagé dans une transformation ambitieuse pour devenir un leader dans les énergies propres et se transformer en offreur de services. Pour y parvenir, Engie s’est allié à Accenture, Vlocity et Salesforce en vue de déployer une plate-forme unique de gestion de la relation client qui devient sa priorité stratégique. Article paru dans L'Informaticien n°183.

L’éditeur de solutions de business intelligence crée deux nouveaux services pour aider les entreprises à s’imprégner d’une réelle culture de la donnée.

Xerox a annoncé son intention de placer 11 candidats au conseil d’administration de HP à l’occasion de l’assemblée annuelle de ses actionnaires. Si le premier assure que les investisseurs de HP sont prêts à le suivre, le second répète que la proposition de Xerox sous-estime sa valeur.

L’emblématique constructeur de voitures de sport certifie ses véhicules à la revente avec la blockchain de Salesforce. Celle-ci avait déjà servi à certifier une Lamborghini Aventador S comme étant une œuvre d’art. 1er épisode d'une série de retours d'expérience autour de solutions Salesforce. Article paru dans L'Informaticien n°183.

L’éditeur de solutions de monitoring et de sécurisation des environnements clouds natifs réalise un nouveau tour de financement et reprend 70 M$ pour accélérer son empreinte sur le marché.

La filiale technologique d'Hitachi va fusionner avec la branche consulting du groupe pour créer un ensemble de solutions autour des données des clients et leur apporter un avantage compétitif autour de la transformation numérique, de la donnée et des centres de données. Par ailleurs continuant sa stratégie autour de la donnée, Hitachi Vantara met la main sur un spécialiste des catalogues de données Waterline Data.

Cette semaine, l'équipe en charge de la sécurité de Comparitech a révélé avoir repéré cinq bases de données librement accessibles depuis Internet. Appartenant à Microsoft, elles contenaient 250 millions d'enregistrements provenant des services clients de l'éditeur. Averti, celui-ci s'est empressé de colmater la brèche. 

Zoom, l’éditeur de solutions intelligentes de réunion en ligne, ajoute de nouvelles intégrations avec les outils de Microsoft.

Les clients Slack peuvent désormais héberger leurs données dans le pays ou la région de leur choix dont la France depuis ce jeudi en respectant les obligations de conformité. 

Par un communiqué de presse et un manifeste sur son site, l’Anssi (l’Agence nationale de la sécurité des systèmes d’information) précise ses orientations stratégiques pour les dix ans à venir.

Toutes les News
LIVRES BLANCS

Le présent guide d'achat vous aidera à améliorer l'efficacité de votre cloud hybride, en mettant l'accent sur les stratégies de gestion des données dédiées aux applications correspondantes.


Les entreprises et les organismes publics se focalisent aujourd’hui sur la transformation numérique. En conséquence, les DevOps et l’agilité sont au premier plan des discussions autour des stratégies informatiques. Pour offrir ces deux avantages, les entreprises travaillent de plus en plus avec les fournisseurs de services de cloud public et développent désormais des clouds sur site à partir d’une infrastructure qui répond à trois exigences de base:
1. Agilité sans friction des ressources physiques
2. Systèmes de contrôle optimisant l'utilisation des ressources physiques et offrant un retour sur investissement maximal
3. Intégration des divers composants de l'infrastructure pour un provisionnement et une gestion des ressources automatisés.


Pour fonctionner, votre entreprise doit pouvoir compter sur une solution de sauvegarde efficace, essentielle dans un monde marqué par une croissance exponentielle des données. Vous devez à la fois accélérer vos sauvegardes et pouvoir y accéder plus rapidement pour satisfaire les exigences actuelles de continuité d’activité, disponibilité, protection des données et conformité réglementaire. Dans cette ère de croissance effrénée, les cibles sur bande hors site et autres approches traditionnelles sont simplement dépassées.


L’Intelligence Artificielle promet de révolutionner la perception de la cybersécurité au coeur des entreprises, mais pas uniquement. Ce changement de paradigme engage, en effet, une redéfinition complète des règles du jeu pour les DSI et les RSSI, ainsi que l’ensemble des acteurs de la sécurité.


Lorsque l'on déploie des postes de travail, ils ont généralement tous la même configuration matérielle et logicielle (avec certaines spécificités selon les services). Mais on ne peut pas toujours tout prévoir et il arrive par exemple que de nouveaux programmes doivent être installés ou n’aient pas été prévus. L’accumulation de logiciels « lourds » est susceptible de provoquer des lenteurs significatives sur un PC allant jusqu’à l’extinction nette de l’application. Ce livre blanc explique comment optimiser les performances au travers de 5 conseils rapides à mettre en place.


Tous les Livres Blancs
0123movie