X
Guillaume Périssat / lundi 7 janvier 2019 / Thèmes: Dossier, Cloud

Multicloud

Les Français entrent dans la danse

Le multicloud est le buzzword de 2018. Une stratégie que, selon les cabinets de conseil, la majorité des entreprises vont mettre en place au nom de la flexibilité. C’est qu’il serait dommage de mettre tous ses œufs dans le même panier… quoi qu’il semble bien que tous les paniers soient aux États-Unis. Mais les acteurs français du Cloud comptent bien creuser leur nid. Chacun de son côté ou tous ensemble ?

Le multicloud n’est-il qu’un argument marketing ou représente-t-il une réalité pour les entreprises ? Difficile d’y voir clair : entre les cabinets d’études qui en début d’année prédisaient une adoption massive en 2018 de ce type de stratégie, ceux qui y voient un corollaire du Shadow IT, d’autres qui estiment que les entreprises sont encore loin de pouvoir franchir le pas. La définition même du multicloud est sujette à débat : nous nous contenterons de celle qui aborde cette stratégie comme le recours à plusieurs fournisseurs de Cloud public, peu importe qu’il s’agisse de stockage multi-niveau, de réplication de données, de Sync&Share ou de répartition de workloads sur plusieurs Clouds. Une stratégie qualifiée de « Polynimbus » outre-Atlantique, qui consiste par exemple à utiliser les infrastructures d’AWS et d’Azure pour déployer une ou plusieurs charges de travail, avec pourquoi pas un backup sur Google Cloud.

Amazon leader pour longtemps

Et en France, comme dans le reste du monde, fournisseurs d’infrastructures comme de services s’engouffrent par la porte laissée grande ouverte par les géants américains. Outscale nous explique avoir dès le départ fait le choix de la compatibilité avec le cloud Amazon. « C’est un postulat de départ » nous explique David Chassan, directeur de la communication d’Outscale. « Depuis l’origine nos API sont compatibles avec les standards du marché. Nous sommes partis de la vision que Amazon serait le leader du marché pour longtemps, donc en 2010 nous avons estimé que nous devions être compatible avec Amazon et OpenStack. »

De fait, un client du cloud provider français peut utiliser le même code sur le Cloud Amazon et sur le Cloud Outscale. « On n’a pas dans notre catalogue une offre dédiée multicloud. Elle est native API », souligne le directeur de la communication, qui prend pour exemple la société OpenDataSoft, née sur AWS mais redéployée en parallèle sur Outscale « sans avoir à redévelopper quoi que ce soit », pour accroître ses chances dans les appels d’offres des marchés publics en France. Outscale se paie d’ailleurs le luxe d’offrir à ceux de ses clients qui sont également chez AWS de pouvoir piloter les ressources des deux Clouds directement depuis son application mobile O2S. A contrario, l’interface Cockpit d’Outscale ne permet pas de piloter les ressources AWS, mais l’API est compatible avec certains outils de pilotage tiers, Cyberduck par exemple. « Ce qui est intéressant, c’est que d’autres fournisseurs peuvent se brancher dessus », précise David Chassan.

OpenStack à tous les étages

De même, chez OVH, François Loiseau, directeur technique et Head of Private Cloud, VDI and NAS storage, nous indique que l’entreprise roubaisienne fournit l’API OpenStack standard : « L’idée est de se rendre compatible avec les Cloud Management Platforms du marché. Le client va rajouter dans son CMP, ou Cloud Management Platform, les endpoints OVH et d’autres cloud providers ». C’est ce que OVH dénomme le « Cloud réversible ». Du côté d’Ikoula, le ton est un peu plus mesuré. Bien sûr, le backend de son Cloud est OpenStack : « La première brique du système d’Amazon », ajoute Jules-Henri Gavetti, PDG d’Ikoula. « On a une API qui est très proche d’AWS et un petit moteur qui permet de supporter 80 à 90 % des fonctions de C2. » Pour autant, l’hébergeur ne connaît pas encore de clients qui utilisent le multicloud en actif-actif. « Pour tout ce qui est plan de reprise et gestion d’app plus “ touchy ”, aujourd’hui un de nos chevaux de bataille, c’est de venir en complément d’Amazon : cela permet à nos clients qui sont déjà chez Amazon de venir chez Ikoula compléter leur dispositif. Le PRA multicloud est un vrai usage », assure Jules-Henri Gavetti. Un constat partagé par certains fournisseurs de services. Nicolas Chalton, le General Manager d’Agarik, explique que ses clients sont aujourd’hui « prudents visà-vis du Cloud public : ils savent qu’ils doivent y aller mais sont circonspects ». La filiale d’Atos s’adresse principalement aux PME et ETI, des sociétés qui n’ont pas encore atteint une taille suffisante pour songer à plusieurs Clouds publics à la fois. D’autant que le choix d’un opérateur va dépendre de l’histoire de l’entreprise et de son écosystème de fournisseurs. « Aujourd’hui, c’est probablement un souhait, pouvoir regarder ici et là ce que propose chacun des providers. Mais c’est compliqué tant qu’on ne met pas les mains dans le cambouis à l’aide de maquettes, de PoC… Lorsqu’on va investir du temps sur AWS par exemple, on va rester sur le choix initial et ne pas consacrer autant de temps pour regarder un autre Cloud. D’autant que trouver des experts est difficile. »

Une facture qui va changer tous les mois

Le multicloud, malgré ses promesses, est à la fois exigeant en termes de compétences, de temps et de finances – ce qui ne le met pas à la portée de toutes les bourses. Aux yeux de Nicolas Chalton, consommer du Cloud public représente pour une entreprise une « révolution » d’un point de vue financier. Loin de la flexibilité annoncée, il est difficile de se projeter sur une facture qui va changer tous les mois ; une rupture par rapport à la traditionnelle gestion d’une grille tarifaire et une problématique de prédictibilité de budget, auxquelles s’ajoute l’impossibilité d’anticiper totalement le coût d’une plate-forme, quel que soit le cloud provider. « Ces incertitudes restent un frein pour certains de nos clients », souligne le patron d’Agarik. « Ce n’est pas du tout un frein technologique. » Si la filiale d’Atos ne veut pas être dans un rôle de prescripteur, elle assure pouvoir adresser aussi bien Azure que AWS et Google Cloud, par le biais des partenariats de la maison-mère, mais aussi des fournisseurs que des clients lui imposeraient, OVH par exemple. « On développe notre propre suite d’outils afin de les adapter à différents providers », explique Nicolas Chalton. « Sur des sujets très IaaS, c’est relativement simple – télé-exploitation, télémonitoring. Sur cette base d’outillage, on développe des API pour se connecter aux services des cloud providers – PaaS et SaaS. C’est une valeur ajoutée qui rassure nos clients de savoir qu’une solution tierce va interagir avec les cloud providers et pour monitorer leurs ressources cloud public : ils restent dans un environnement connu. Pour tout ce qui est complexité des environnements, on va utiliser les solutions réseau d’Interxion ou d’Intercloud pour s’interconnecter avec différents Clouds. » Ils sont effectivement quelques-uns à pouvoir se frotter les mains à l’idée d’une adoption du multicloud : les acteurs de l’« Integration Platform as a Service ». Intercloud est de ceux-là.

Le concept d’application est mort

Très schématiquement, Intercloud fournit une connectivité privée avec un ou plusieurs Clouds, c’està-dire que ses clients se raccordent à sa plate-forme, elle-même raccordée aux cloud providers, sans passer par Internet. Jérôme Clauzade, directeur Produits de cette jeune pousse française, qui compte principalement parmi ses clients de grandes structures, le dit sans embages : la quasi-totalité de ses clients ont fait le choix d’un fournisseur de IaaS avec un backup assuré par un autre fournisseur de IaaS. Ce qui ne revêt aucune autre contrainte technique que celle de la connectivité. « La vraie problématique est organisationnelle, lorsqu’on vient faire interagir IaaS et SaaS », indiquet-il. Avant d’embrayer : « À mon avis le concept même d’application est mort. » Pas l’application en soi, mais ses aspects « monolithique et de localisation unique ». « Avant, pour des questions de scalabilité, on dupliquait l’application, mais sinon elle restait en un point unique. Cela a été détruit par les concepts de microservices, de contenairisation et de Cloud », rédige le Head of Product d’Intercloud en guise d’épitaphe. En conséquence de quoi les entreprises se retrouvent face à des flux de données transitant à travers les services des providers afin de correspondre aux besoins des projets… tout en répondant aux problématiques de conformité et de sécurité. « Il faut que les développeurs puissent consommer du Cloud très vite, sans avoir à attendre des mois avant d’obtenir feu vert, mais il faut que cela réponde aux prérequis des équipes infra, des équipes sécu… », détaille Jérôme Clauzade. « C’est pourquoi le Cloud est, certes, pratique, mais qu’il faut recenser les ressources qui s’y trouvent et les interconnecter de manière efficace »… y compris sur différents Cloud – d’où un besoin de solutions afin de gérer les ressources disposées sur chacun des Clouds, mais aussi partagées entre eux, ainsi que d’accompagnement.

Frein à l’intégration de nouveaux services ?

Sur ce terrain, on retrouve le bras armé dans l’IT de notre opérateur historique national, Orange. « Le multicloud, c’est souvent une réalité chez nos clients, qui ont recours à plusieurs providers de IaaS pour répondre à des demandes ciblées », constate Cédric Prévost, directeur des Services managés et de la Sécurité des services cloud chez OBS. « Nous leur apportons une couche transverse de solutions pour abstraire la technique sous-jacente. On a une CMP en interne, notamment sur les process “ historiques ” (provisioning, etc.), des outils supplémentaires sur la sécurité, etc., et on peut également accompagner les clients sur leur propre CMP. Cette approche est au cœur de la manière dont on appréhende le multicloud : il n’y a pas un outil qui fait tout, mais plusieurs outils qui répondent à des besoins spécifiques des clients. » Mais attention à ne pas s’enflammer. Selon le cadre d’OBS, la CMP peut vite devenir un frein à l’intégration de nouveaux services, à l’instar du Machine Learning voire du Deep Learning. Lorsque les API ne convergent pas et qu’aucun standard ne se dessine à court terme pour une technologie donnée, les CMP doivent être en mesure de fournir une couche standardisée faisant le mapping des services des différents providers, tout en intégrant dans le même mouvement les dernières innovations. « On voit des spécialisations des CMP avec des éditeurs qui vont se spécialiser sur un aspects particuliers de la chaîne – gouvernance, provisioning, etc. – c’est un écosystème très mouvant. »

Si mouvant qu’il est difficile, lors de la mise en œuvre d’une stratégie multicloud, de se disperser. Et, évidemment, lorsqu’il s’agit de se poser en acteurs de référence, pour ne pas dire incontournables, les géants américains répondent présents : AWS, Azure et dans une moindre mesure Google Cloud. Ce n’est pas un hasard si OBS, dans le cadre de sa stratégie multicloud, a annoncé des partenariats avec les deux premiers. Mais n’y a-t-il pas de place sur ce marché pour que les Français s’installent et aillent piquer une part du gâteau des trois Américains ? Chez OBS, on nous assure que si le marché est effectivement « trusté par les grands Américains, chez nous la porte n’est pas fermée et on a des discussions avec d’autres acteurs, y compris français, pour avoir des clouds non-américains. » On a cru que Orange avait oublié Cloudwatt, célèbre Cloud souverain, mais Cédric Prévost se le rappelle à notre bon souvenir : « Nous avons des offres de Cloud en propre, avec des garanties d’étanchéité par rapport au Cloud Act, qui est source de nombreux questionnements chez nos clients. »

L’Équipe de France du Cloud

Le sujet de la réglementation américaine, notamment en termes de droit de regard des autorités sur les données transitant sur les Clouds américains, c’est l’un des chevaux de bataille de Jules-Henri Gavetti. À l’autre bout du fil, le patron d’Ikoula se contient. « Aujourd’hui, le problème du Cloud Act, contrairement au Patriot Act qui s’inscrivait dans une procédure d’exception, est qu’il couvre tous les crimes. Peu importe la localisation des data centres. Ce que je ne comprends pas, c’est que les directeurs juridiques des grands comptes n’aient pas levé le petit doigt », regrette Jules-Henri Gavetti, déplorant un problème à chercher non pas du côté des cloud providers français, mais de l’éducation du marché et des clients finaux. « Du côté de la France, qu’on prenne un OVH, un Outscale, un Online, un Ikoula, nous existons et nous avons des discussions entre nous. J’aimerais bien que les grandes entreprises soient aussi patriotiques et qu’elles aient envie de développer le business local autant qu’elles sont derrière l’équipe de France de football. Nous sommes l’équipe de France du Cloud ! » OVH préfère nuancer le propos, Bernard Loizeau soulignant que « en termes de standards et de sécurité, le fait d’être en France n’est pas une fin en soi. Il faut s’orienter vers ce dont le client a besoin : la flexibilité, la sécurité… C’est toute une offre de services et tout un écosystème de compatibilité à prendre en compte. C’est important pour le client. » Mais le provider nordiste précise tout de même échanger régulièrement avec ses compatriotes. Du côté d’Outscale, on se sent un peu le seul pure player français du marché, mais là encore on discute au sommet avec les autres. Des discussions qui ne se ressentent pas du côté des fournisseurs de services. Chez Agarik, Nicolas Chalton explique ne pas avoir « le sentiment d’une démarche de mutualisation. Je pense que les cloud providers se sentent suffisamment forts, seuls, pour ne pas avoir à développer leurs partenariats afin d’adresser des problématiques plus larges en France. » Le Cloud souverain manquait déjà de crédibilité auprès du public, le multicloud souverain semble être plus inimaginable encore.

Econocloud pour les unir tous ?

Hors de question, selon Sébastien Enderlé, le patron d’ASP Serveur. L’hébergeur racheté par Econocom a lancé en juin dernier Econocloud, une CMP maison, « full Nutanix », aujourd’hui en version 1.5. Comme toute CMP, elle offre les fonctionnalités habituelles de ce type de solutions, notamment en termes d’orchestration multicloud, avec une partie dashboard donnant accès « à tous les indicateurs de consommation et de sa répartition sur les Clouds connectés, les répartitions des OS, les quotas, une map pour la localisation » et une partie Compute « qui fait apparaître les VM dans la partie compute d’Econocloud pour leur monitoring et administration ». Basique sur le papier, Econocloud dans sa dimension CMP s’enrichit en fonction des desiderata des clients de l’entreprise. Mais plus encore Sébastien Enderlé la voit comme « un produit communautaire par essence, ouvert à n’importe quel provider », et pas seulement Azure, AWS et Google Cloud. « Nous discutons avec d’autres grands cloud providers français pour qu’ils rentrent dans la plateforme. Des intégrations sont en cours avec l’un d’eux. L’idée maîtresse est que l’on est ouvert aux autres providers français et européens pour qu’ils se connectent à la plate-forme en natif. »

Un déficit de crédibilité

Car la ligne défendue par ASP Serveur est proche de celle d’Ikoula : il faut cette « équipe de France du Cloud », voulue par Jules-Henri Gavetti. Et Sébastien Enderlé de mettre en avant la « granularité » des acteurs de l’écosystème français. Problème : « Aujourd’hui les providers français communiquent peu entre eux et pensent qu’il est plus important de se faire la guerre que de travailler ensemble », à en croire le patron d’ASP Serveur. Une approche qu’il juge « pas très opportune » , d’autant que « nous avons un déficit de crédibilité sur les Clouds souverains suite aux échecs de Numergy et de Cloudwatt ». « Azure, AWS et même Google proposent de beaux produits, ils sont irrattrapables sur leur terrain. Il faut une marketplace française ou européenne pour concurrencer les grands Américains aujourd’hui et demain les Chinois sur des particularités et des souverainetés et créer un esprit communautaire autour pour que le Cloud français soit reconnu. Le pari, il est là ! » Avec toujours cette idée que plutôt que de se battre autour des miettes laissées par les géants américains, mieux vaut se liguer pour leur piquer une bonne part du gâteau.

Print
2929

x
Rechercher dans les dossiers
Actuellement à la Une...
Des centaines de millions de mots de passe étaient stockés en clair dans des systèmes de stockage interne à Facebook. Si le géant assure que le problème n’est pas vraiment de son fait, Brian Krebs, lui, dévoile, source à l’appui, qu’il ne s’agit pas d’une erreur.

Innovant, design, robuste, polyvalent et surpuissant, le Surface Book 2 est de loin le meilleur ultraportable 2-en-1 du marché. Dès le premier coup d’œil, le Surface Book 2 séduit par sa finition qui ne ressemble pas à un énième clone de MacBook. Article paru dans L'Informaticien n°174.

La jeune pousse française a mis la main sur un bien joli pactole de 150 millions d’euros, levé auprès de ses investisseurs, historiques et nouveaux. Désormais valorisée plus d’un milliard d’euros, l’entreprise spécialisée en e-santé entend doubler ses effectifs et se développer dans d’autres pays.

Si les entreprises développent pour la plupart des stratégies autour du cloud que ce soit « totalement cloud » ou « cloud de préférence », il n’en reste pas moins que cette migration ne se réalise pas en un jour et que la majorité des infrastructures et des applications sont encore dans les centres de données des entreprises créant un modèle hybride où les deux mondes se côtoient. Pour longtemps ?

Lors de la présentation du projet de loi début mars, Bruno Le Maire était resté assez évasif. Mais un cabinet indépendant vient d'établir la liste précise des 29 groupes (pas tous américains ou asiatiques) qui seraient concernés.

A l'occasion du Dataworks Summit, nous avons pu nous entretenir avec Romain Picard, le vice-président Sales pour la zone Europe du Sud chez Cloudera. Fusion, stratégie en France, RGPD et écosystème partenaire étaient au menu de cette interview.

Après Microsoft, c'est avec Dropbox que la startup signe un partenariat sur l'intégration de leurs outils respectifs. Désormais, il sera possible d'accéder et de collaborer sur un document stocké sur Dropbox depuis l'interface de Klaxoon.

La rapide adoption du Cloud dans les entreprises amène celles-ci à s’interroger sur les connexions à longue distance vers leurs succursales ou agences. Le SD-WAN (Software-Defined Area Network) est désormais une alternative intéressante dans ce cas et se combine souvent avec le MPLS existant. Article paru dans le dossier Tendances 2019 de L'Informaticien n°174.

Pour s'imposer comme le boss du Big Data, Cloudera et Hortonworks ont fusionné. En résulte une plateforme unifiée reprenant le meilleur de leurs solutions respectives, baptisée Cloudera Data Platform, une architecture globale déclinant ses services du Edge à l'IA.

Mardi, Google a dévoilé sa future plate-forme de jeux baptisée « Stadia » à l'occasion de l'événement dédié aux développeurs de jeux, la GDC19 à San Francisco. Présentée comme « l’avenir du jeu », elle permettra aux gamers de jouer instantanément, depuis n’importe où et sur l’écran de leur choix. Voici les grandes lignes de cette nouvelle arène du jeu.

Toutes les News

LIVRES BLANCS

Ce guide est conçu pour aider les entreprises à évaluer les solutions de sécurité des terminaux. Il peut être utilisé par les membres de l'équipe de réponse aux incidents et des opérations de sécurité travaillant avec des outils de sécurité des points finaux sur une base quotidienne. Il peut également être utilisé par les responsables informatiques, les professionnels de la sécurité, les responsables de la conformité et d’autres personnes pour évaluer leurs performances. les capacités de l’entreprise en matière de cybersécurité, identifier les lacunes dans la sécurité des terminaux et sélectionner les bons produits pour combler ces lacunes.


Au cours de l'année 2018, VansonBourne a mené une enquête pour le compte de Nutanix afin de connaître les intentions des entreprises en matière d'adoption de clouds privés, hybrides et publics.

 


Pour gérer le risque informationnel et permettre à l'entreprise d'aller de l'avant, vous avez besoin d'une stratégie solide et d'un plan d'ordre en marche. RSA a développé ce livre blanc comme aide sur ces deux besoins. Il vous guide pas à pas pour mettre en place un programme de gestion des risques, basé sur des principes GRC éprouvés.


Plus facile à déployer et plus économique, découvrez le meilleur de la virtualisation et du PC dans un poste de travail de nouvelle génération.


Plus l'entreprise se numérise, plus le risque d'interruption s'accroît. Plus les architectures informatiques se complexifient (services de clouds publics et plateformes hybrides, mondialisation, personnalisation des TI...), plus les reprises après sinistre deviennent difficiles et coûteuses. Face à de tels enjeux, il est essentiel de se demander si l'approche traditionnelle, basée sur les reprises après sinistre, est encore véritablement appropriée.

Ce livre blanc passe en revue toutes les composantes et propose une approche originale pour ne plus subir d'interruption de services.


Tous les Livres Blancs