X
Conteneurs
Alain Clapaud / vendredi 8 février 2019 / Thèmes: Dossier, Cloud

Conteneurs

La fièvre des conteneurs « managés » gagne le Cloud

Docker a fait le boulot. Bon nombre de développeurs ont adopté les conteneurs, si bien que désormais tous les fournisseurs de Cloud se battent pour les attirer. Enquête sur le nouveau phénomène cloud du moment.

Kubernetes permet l’orchestration de l’exécution des conteneurs sur les clusters bien souvent constitués d’instances IaaS. Il est donc logique que Kubernetes soit exploité dans le Cloud. Opter pour une offre managée dépend du besoin et de la maturité de l’entreprise.

Ce fut l’une des grandes annonces lors de l’OVH Summit, il y a quelques semaines. Le champion français du Cloud a annoncé le lancement de la bêta privée de « Managed Kubernetes », son offre de support des architectures de micro services. La promesse est de porter une architecture de conteneurs sans que l’entreprise n’ait à se soucier du provisioning des machines virtuelles sousjacentes, ajoutant ainsi un niveau d’abstraction supplémentaire aux infrastructures applicatives.

Un marché en croissance de plus de 34 % par an

Tous les acteurs du Cloud y vont. Google à qui l’on doit le développement de Kubernetes pour les besoins internes de ses services, est bien évidemment idéalement positionné sur ce marché avec GKE (Google Kubernetes Engine). Il a depuis été rejoint par Amazon Web Services qui propose EKS (Amazon Elastic pour Kubernetes), tandis que Microsoft pousse de son côté AKS (Azure Kubernetes Service). Même Oracle et Alibaba ont maintenant un service « K » à leurs catalogues respectifs, avec OKE pour l’un et CSK pour le second. Tous les fournisseurs veulent leur part d’un gâteau en train de grossir à vue d’œil. MarketsandMarkets estime que ce marché du Container as a Service (CaaS) ne représentait encore que 789 millions de dollars en 2016. Il sera de plus de 4 milliards en 2022.

Les entreprises qui déployaient Docker et la plate-forme d’orchestration Kubernetes en on-premise ou sur des instances EC2 s’intéressent de plus en plus à ces offres managées qui simplifient encore un peu plus l’administration de ces infrastructures et vont jusqu’à gommer la notion de serveur.

Du Cloud managé à géométrie variable

Marier conteneurs et Cloud est loin d’être une idée nouvelle et on sait même que Docker travaille pour gérer le multi-Cloud au niveau de sa gestion de conteneurs. Bon nombre d’entreprises ont choisi de déployer Docker et Kubernetes sur mes instances Cloud. Avec une offre managée par un opérateur, c’est une partie des tâches d’administration qui sont assumées par cette plate-forme. Cette délégation peut aller assez loin car s’il est possible de gérer les conteneurs et les clusters et serveurs d’un Kubernetes « as a Service », mais aussi via les très récentes offres « serverless » telles que AWS Faregate et Azure Service Fabric Mesh qui vont jusqu’à effacer la notion même de serveur.

Romain Vrignaud, spécialiste DevOps chez Google argumentait en faveur de Kubernetes en mode managé lors de la dernière édition du Google Cloud Summit : « Utiliser un service managé vous permet de vous concentrer sur ce qui est important pour votre organisation, sur l’application. GKE représente les dix ans d’expérience qu’a Google à gérer des flottes de conteneurs. GKE présente à la fois une implémentation de Kubernetes facile à utiliser, sécurisée et parfaitement intégrée à GCP. GKE permet de manière fiable et efficace d’opérer des applications conteneurisées sur GCP. » Fort de deux années d’exploitation commerciale, Google estime GKE comme une plate-forme stable qui profite de sa forte intégration avec GCP. « L’intérêt d’une offre managée, c’est la simplicité », selon Sébastien Lavayssière, Solution Architect Cloud chez WeScale. « Sur les plates-formes les plus matures comme Google GKE, on peut provisionner un cluster entier de machines pour faire tourner un conteneur en un appel d’API ou une seule ligne de commande. C’est l’idéal lorsqu’il s’agit de monter rapidement un environnement pour développer, tester, mais aussi pour la production. »

Plusieurs entreprises ont témoigné de leur utilisation de Kubernetes, Pierre Gilles Mialon, Cloud Architect à Radio France, a ainsi expliqué : « Le mouvement vers les microservices, nous l’avions déjà fait. Nous faisions de la veille sur Kubernetes afin d’y aller lorsque ce serait “ sec ”. Nous y sommes allés à cela fonctionne particulièrement bien. L’essentiel de nos microservices étant stateless, Kubernetes c’est juste super ! » Autre client à témoigner, Airbus Intelligence, filiale d’Airbus Defence and Space, venue présenter son choix de GKE afin de porter son tout nouveau service d’imagerie satellite en ligne OneAtlas. Celui-ci met en œuvre la Google Cloud Platform (GCP), mais aussi GKE afin d’orchestrer les conteneurs qui réalisent l’analyse des pétaoctets d’images satellites mises à disposition par le service. Chez le rival, Amazon Web Services, même constat quant à l’adoption de la solution Kubernetes managée : le numéro 1 du Cloud affiche de nombreuses références clients pour son offre EKS, parmi lesquelles Snapchat, Verizon, Teradata ou Zendesk tandis que Microsoft annonce Siemens, Equinor, Webjet comme clients de son offre AKS. Clairement, les offres Kubernetes managés ne séduisent pas seulement des entreprises du digital mais des profils d’entreprises très différents.

Les fournisseurs de Cloud poussent leur écosystème de solutions pour compléter le service de base CaaS, ce qui constitue un risque de vendor lock-in sur une plate-forme en dépit de la promesse de portabilité des conteneurs Docker.

Plus de souplesse, mais aussi quelques contraintes

Pour autant, toutes les entreprises qui veulent déployer des conteneurs dans le Cloud iront-elles mécaniquement aller vers ces offres managées plutôt que de déployer ellesmêmes Kubernetes sur des machines virtuelles ? « Il n’y a pas de réponse unique à aller vers le “ managé ” pour faire du Kubernetes. Cela dépend essentiellement du cas d’usage », estime Sébastien Lavayssière. « Chez les uns, les services managés seront bien adaptés, chez d’autres le Cloud public ne peut répondre à leur besoin. » Bien évidemment, Google comme Amazon proposent des Container Registry privées GCR chez Google et ECR chez Amazon Web Services. Ces services sont à part, ce qui permet à l’entreprise de créer autant de clusters qu’elle le souhaite en utilisant le même catalogue de conteneurs.

Chaque solution a ses petites spécificités et tout est susceptible de changer sans préavis. « Pour donner un exemple, sur AKS toutes les machines doivent être identiques », explique Grégory Guillou, DevOps chez Resetlogs. « Sur EKS, il faut monter la plate-forme brique par brique, donc j’automatise au maximum pour ne pas devoir le refaire deux fois. Or quand on relance trois semaines plus tard, les automates ne fonctionnent plus parce qu’ils ont changé le bootstrap des VM complètement… » De même, le DevOps souligne le manque de maturité de certains fournisseurs cloud : « Il y a de multiples limites que le DevOps doit découvrir de luimême, par exemple le choix de la configuration des load balancers. » En outre, chaque service cloud a ses spécificités, ses propres annotations. Là où il faut développer une application dans Active Directory sur Azure pour gérer les connexions, AWS s’appuie sur le connecteur développé par Heptio. « Kubernetes en lui-même ne sert qu’à très peu de choses et a besoin d’une myriade d’autres composants autour pour démontrer sa valeur », ajoute Sébastien Lavayssière. « Kubernetes doit s’appuyer sur des services d’Iaas, de stockage, de résilience du Cloud. C’est sur cette intégration de services complémentaires que les offres des acteurs du Cloud se différencient véritablement et que l’intégration va jouer le plus. » Plus que le seul support de Kubernetes, ce sont toutes ces spécificités qui différencient les offres Caas et qui font la valeur d’une plate-forme vis-à-vis de ces concurrentes, son efficacité au quotidien mais aussi qui introduisent un risque de vendor lock-in dont il faut tenir compte.


« Kubernetes managé, c’est génial pour un DevOps doué qui est d ogmatique et veut livrer plusieurs fois par jour »
Grégory Guillou, DevOps chez Resetlogs

« Je connais très bien Kubernetes pour l’avoir mis en œuvre, on-premise, sur AWS avec Kops mais aussi avec les offres managées. En substance, la promesse de ces offres est belle : c’est génial pour un DevOps doué, qui est dogmatique et veut livrer plusieurs fois par jour. Avec un pipeline automatisé et une QA douée, j’ai fait jusqu’à 15 mises en production par jour à moi seul ! Rien que je connaisse ne peut faire aussi bien et aussi vite et avec autant de fiabilité. Il y a néanmoins quelques inconvénients à ces offres : cet écosystème évolue très rapidement et il est compliqué de suivre : entre toutes les solutions de service mesh, les opérateurs pour Kafka, Spark, les intégrations pour la supervision pour le CI/CD (intégration continue/continuous delivery), pour le stockage, le réseau, c’est complexe à suivre et dur à déboguer. »


« Lorsque l’on a compris  comment fonctionne le Cloud Google, on sait comment utiliser GKE »
Sébastien Lavayssière, Solution Architect Cloud chez WeScale

« Il y a encore de fortes disparités en termes de maturité sur les offres telles que GKE ou EKS qui est une offre bien plus jeune. Google a parfaitement intégré Kubernetes à sa plate-forme cloud et si EKS s’améliore de semaine en semaine, la solution n’a pas encore toutes les fonctionnalités que peut présenter un Kubernetes installé avec un autre outil. On peut faire bien plus de choses en utilisant Kops pour installer Kubernetes sur AWS plutôt qu’en utilisant le service managé EKS. AWS travaille très vite pour améliorer sa solution comme ça a été le cas sur le volet authentification et, à cet égard, je pourrais revoir ma position dans quelques mois. » « GKE est parfaitement intégré au Cloud Google, cela signifie que lorsqu’on a compris comment fonctionne le Cloud Google, on sait comment utiliser GKE. Il suffit d’une seule ligne de commande, un seul appel d’API pour créer un cluster Kubernetes dans le Cloud Google et disposer d’un service scalable, multizone, monitoré et supervisé et dans lequel il ne reste plus qu’à créer nos objets Kubernetes. C’est extrêmement pratique là où il faudrait de multiples objets AWS pour arriver au même résultat. »

3786

x
Rechercher dans les dossiers
Les derniers dossiers...
Réduire

Actuellement à la Une...
Le rachat de Docker Enterprise par Mirantis n’est que la partie émergée de la restructuration en cours au sein du spécialiste des conteneurs. Docker change à nouveau de CEO, lève des fonds à des fins de recapitalisation et annonce se concentrer de nouveau sur les développeurs.

Créée en 2018 après 24 mois de travail en mode secret, ShieldIO propose une nouvelle approche du chiffrement pour protéger les données.

Créée par d’anciens du DoE (Department of Energy) aux USA, Corelight est une nouvelle entreprise qui propose une suite de monitoring du trafic réseau s’appuyant sur Zeek, un projet open source.

Le streaming illégal de séries et films peu rapporter gros. Mais lorsque l’ALPA s’en mêle et que les services de police alertés remontent jusqu’au webmaster cela se termine assez rapidement en correctionnelle.

Après l'infrastructure sous-jacente, c'est au tour des systèmes de paiement des applications de Facebook d'être unifiés. Le géant annonce le lancement de Facebook Pay, une solution de paiement mobile pour le réseau social, Messenger, Instagram et WhatsApp.

L’éditeur du système de fichiers de stockage pour les environnements de haute performance a revisité PANFS, le système de fichiers maison, et l’installe sur ses appliances haut de gamme ActiveStore Ultra.

L’éditeur de solutions de monitoring et de sécurité des environnements en container annonce la version 3 de Sysdig Secure.

Aucun détail n’a été donné sur la transaction de rachat de CloudSploit par Aqua Security, un éditeur de solutions de sécurité pour les environnements clouds natifs (serverless, containers).

Cemex, un des plus grands cimentiers dans le monde, a opté pour la technologie d’une jeune start-up pour accélérer la transformation de ses cimenteries et les faire entrer dans l’ère de l’industrie 4.0.

Si longtemps la réputation d’un centre de données s’est limitée au seul critère de continuité de service, de nouvelles caractéristiques ont aujourd’hui pris de l’importance, à l’instar de la consommation énergétique, de la performance environnementale ou encore de la sécurité des systèmes d’informations. De nombreux référentiels sont donc venus s’ajouter afin d’apporter non seulement une garantie de sérieux, mais aussi une meilleure lisibilité du marché. Article publié dans L'Informaticien n°181.

Toutes les News
LIVRES BLANCS
Les entreprises et les organismes publics se focalisent aujourd’hui sur la transformation numérique. En conséquence, les DevOps et l’agilité sont au premier plan des discussions autour des stratégies informatiques. Pour offrir ces deux avantages, les entreprises travaillent de plus en plus avec les fournisseurs de services de cloud public et développent désormais des clouds sur site à partir d’une infrastructure qui répond à trois exigences de base:
1. Agilité sans friction des ressources physiques
2. Systèmes de contrôle optimisant l'utilisation des ressources physiques et offrant un retour sur investissement maximal
3. Intégration des divers composants de l'infrastructure pour un provisionnement et une gestion des ressources automatisés.


Pour fonctionner, votre entreprise doit pouvoir compter sur une solution de sauvegarde efficace, essentielle dans un monde marqué par une croissance exponentielle des données. Vous devez à la fois accélérer vos sauvegardes et pouvoir y accéder plus rapidement pour satisfaire les exigences actuelles de continuité d’activité, disponibilité, protection des données et conformité réglementaire. Dans cette ère de croissance effrénée, les cibles sur bande hors site et autres approches traditionnelles sont simplement dépassées.


L’Intelligence Artificielle promet de révolutionner la perception de la cybersécurité au coeur des entreprises, mais pas uniquement. Ce changement de paradigme engage, en effet, une redéfinition complète des règles du jeu pour les DSI et les RSSI, ainsi que l’ensemble des acteurs de la sécurité.


Lorsque l'on déploie des postes de travail, ils ont généralement tous la même configuration matérielle et logicielle (avec certaines spécificités selon les services). Mais on ne peut pas toujours tout prévoir et il arrive par exemple que de nouveaux programmes doivent être installés ou n’aient pas été prévus. L’accumulation de logiciels « lourds » est susceptible de provoquer des lenteurs significatives sur un PC allant jusqu’à l’extinction nette de l’application. Ce livre blanc explique comment optimiser les performances au travers de 5 conseils rapides à mettre en place.


Ce guide est conçu pour aider les entreprises à évaluer les solutions de sécurité des terminaux. Il peut être utilisé par les membres de l'équipe de réponse aux incidents et des opérations de sécurité travaillant avec des outils de sécurité des points finaux sur une base quotidienne. Il peut également être utilisé par les responsables informatiques, les professionnels de la sécurité, les responsables de la conformité et d’autres personnes pour évaluer leurs performances. les capacités de l’entreprise en matière de cybersécurité, identifier les lacunes dans la sécurité des terminaux et sélectionner les bons produits pour combler ces lacunes.


Tous les Livres Blancs