X
Guillaume Périssat / lundi 7 janvier 2019 / Thèmes: Dossier, Cloud

Multicloud

Les Français entrent dans la danse

Le multicloud est le buzzword de 2018. Une stratégie que, selon les cabinets de conseil, la majorité des entreprises vont mettre en place au nom de la flexibilité. C’est qu’il serait dommage de mettre tous ses œufs dans le même panier… quoi qu’il semble bien que tous les paniers soient aux États-Unis. Mais les acteurs français du Cloud comptent bien creuser leur nid. Chacun de son côté ou tous ensemble ?

Le multicloud n’est-il qu’un argument marketing ou représente-t-il une réalité pour les entreprises ? Difficile d’y voir clair : entre les cabinets d’études qui en début d’année prédisaient une adoption massive en 2018 de ce type de stratégie, ceux qui y voient un corollaire du Shadow IT, d’autres qui estiment que les entreprises sont encore loin de pouvoir franchir le pas. La définition même du multicloud est sujette à débat : nous nous contenterons de celle qui aborde cette stratégie comme le recours à plusieurs fournisseurs de Cloud public, peu importe qu’il s’agisse de stockage multi-niveau, de réplication de données, de Sync&Share ou de répartition de workloads sur plusieurs Clouds. Une stratégie qualifiée de « Polynimbus » outre-Atlantique, qui consiste par exemple à utiliser les infrastructures d’AWS et d’Azure pour déployer une ou plusieurs charges de travail, avec pourquoi pas un backup sur Google Cloud.

Amazon leader pour longtemps

Et en France, comme dans le reste du monde, fournisseurs d’infrastructures comme de services s’engouffrent par la porte laissée grande ouverte par les géants américains. Outscale nous explique avoir dès le départ fait le choix de la compatibilité avec le cloud Amazon. « C’est un postulat de départ » nous explique David Chassan, directeur de la communication d’Outscale. « Depuis l’origine nos API sont compatibles avec les standards du marché. Nous sommes partis de la vision que Amazon serait le leader du marché pour longtemps, donc en 2010 nous avons estimé que nous devions être compatible avec Amazon et OpenStack. »

De fait, un client du cloud provider français peut utiliser le même code sur le Cloud Amazon et sur le Cloud Outscale. « On n’a pas dans notre catalogue une offre dédiée multicloud. Elle est native API », souligne le directeur de la communication, qui prend pour exemple la société OpenDataSoft, née sur AWS mais redéployée en parallèle sur Outscale « sans avoir à redévelopper quoi que ce soit », pour accroître ses chances dans les appels d’offres des marchés publics en France. Outscale se paie d’ailleurs le luxe d’offrir à ceux de ses clients qui sont également chez AWS de pouvoir piloter les ressources des deux Clouds directement depuis son application mobile O2S. A contrario, l’interface Cockpit d’Outscale ne permet pas de piloter les ressources AWS, mais l’API est compatible avec certains outils de pilotage tiers, Cyberduck par exemple. « Ce qui est intéressant, c’est que d’autres fournisseurs peuvent se brancher dessus », précise David Chassan.

OpenStack à tous les étages

De même, chez OVH, François Loiseau, directeur technique et Head of Private Cloud, VDI and NAS storage, nous indique que l’entreprise roubaisienne fournit l’API OpenStack standard : « L’idée est de se rendre compatible avec les Cloud Management Platforms du marché. Le client va rajouter dans son CMP, ou Cloud Management Platform, les endpoints OVH et d’autres cloud providers ». C’est ce que OVH dénomme le « Cloud réversible ». Du côté d’Ikoula, le ton est un peu plus mesuré. Bien sûr, le backend de son Cloud est OpenStack : « La première brique du système d’Amazon », ajoute Jules-Henri Gavetti, PDG d’Ikoula. « On a une API qui est très proche d’AWS et un petit moteur qui permet de supporter 80 à 90 % des fonctions de C2. » Pour autant, l’hébergeur ne connaît pas encore de clients qui utilisent le multicloud en actif-actif. « Pour tout ce qui est plan de reprise et gestion d’app plus “ touchy ”, aujourd’hui un de nos chevaux de bataille, c’est de venir en complément d’Amazon : cela permet à nos clients qui sont déjà chez Amazon de venir chez Ikoula compléter leur dispositif. Le PRA multicloud est un vrai usage », assure Jules-Henri Gavetti. Un constat partagé par certains fournisseurs de services. Nicolas Chalton, le General Manager d’Agarik, explique que ses clients sont aujourd’hui « prudents visà-vis du Cloud public : ils savent qu’ils doivent y aller mais sont circonspects ». La filiale d’Atos s’adresse principalement aux PME et ETI, des sociétés qui n’ont pas encore atteint une taille suffisante pour songer à plusieurs Clouds publics à la fois. D’autant que le choix d’un opérateur va dépendre de l’histoire de l’entreprise et de son écosystème de fournisseurs. « Aujourd’hui, c’est probablement un souhait, pouvoir regarder ici et là ce que propose chacun des providers. Mais c’est compliqué tant qu’on ne met pas les mains dans le cambouis à l’aide de maquettes, de PoC… Lorsqu’on va investir du temps sur AWS par exemple, on va rester sur le choix initial et ne pas consacrer autant de temps pour regarder un autre Cloud. D’autant que trouver des experts est difficile. »

Une facture qui va changer tous les mois

Le multicloud, malgré ses promesses, est à la fois exigeant en termes de compétences, de temps et de finances – ce qui ne le met pas à la portée de toutes les bourses. Aux yeux de Nicolas Chalton, consommer du Cloud public représente pour une entreprise une « révolution » d’un point de vue financier. Loin de la flexibilité annoncée, il est difficile de se projeter sur une facture qui va changer tous les mois ; une rupture par rapport à la traditionnelle gestion d’une grille tarifaire et une problématique de prédictibilité de budget, auxquelles s’ajoute l’impossibilité d’anticiper totalement le coût d’une plate-forme, quel que soit le cloud provider. « Ces incertitudes restent un frein pour certains de nos clients », souligne le patron d’Agarik. « Ce n’est pas du tout un frein technologique. » Si la filiale d’Atos ne veut pas être dans un rôle de prescripteur, elle assure pouvoir adresser aussi bien Azure que AWS et Google Cloud, par le biais des partenariats de la maison-mère, mais aussi des fournisseurs que des clients lui imposeraient, OVH par exemple. « On développe notre propre suite d’outils afin de les adapter à différents providers », explique Nicolas Chalton. « Sur des sujets très IaaS, c’est relativement simple – télé-exploitation, télémonitoring. Sur cette base d’outillage, on développe des API pour se connecter aux services des cloud providers – PaaS et SaaS. C’est une valeur ajoutée qui rassure nos clients de savoir qu’une solution tierce va interagir avec les cloud providers et pour monitorer leurs ressources cloud public : ils restent dans un environnement connu. Pour tout ce qui est complexité des environnements, on va utiliser les solutions réseau d’Interxion ou d’Intercloud pour s’interconnecter avec différents Clouds. » Ils sont effectivement quelques-uns à pouvoir se frotter les mains à l’idée d’une adoption du multicloud : les acteurs de l’« Integration Platform as a Service ». Intercloud est de ceux-là.

Le concept d’application est mort

Très schématiquement, Intercloud fournit une connectivité privée avec un ou plusieurs Clouds, c’està-dire que ses clients se raccordent à sa plate-forme, elle-même raccordée aux cloud providers, sans passer par Internet. Jérôme Clauzade, directeur Produits de cette jeune pousse française, qui compte principalement parmi ses clients de grandes structures, le dit sans embages : la quasi-totalité de ses clients ont fait le choix d’un fournisseur de IaaS avec un backup assuré par un autre fournisseur de IaaS. Ce qui ne revêt aucune autre contrainte technique que celle de la connectivité. « La vraie problématique est organisationnelle, lorsqu’on vient faire interagir IaaS et SaaS », indiquet-il. Avant d’embrayer : « À mon avis le concept même d’application est mort. » Pas l’application en soi, mais ses aspects « monolithique et de localisation unique ». « Avant, pour des questions de scalabilité, on dupliquait l’application, mais sinon elle restait en un point unique. Cela a été détruit par les concepts de microservices, de contenairisation et de Cloud », rédige le Head of Product d’Intercloud en guise d’épitaphe. En conséquence de quoi les entreprises se retrouvent face à des flux de données transitant à travers les services des providers afin de correspondre aux besoins des projets… tout en répondant aux problématiques de conformité et de sécurité. « Il faut que les développeurs puissent consommer du Cloud très vite, sans avoir à attendre des mois avant d’obtenir feu vert, mais il faut que cela réponde aux prérequis des équipes infra, des équipes sécu… », détaille Jérôme Clauzade. « C’est pourquoi le Cloud est, certes, pratique, mais qu’il faut recenser les ressources qui s’y trouvent et les interconnecter de manière efficace »… y compris sur différents Cloud – d’où un besoin de solutions afin de gérer les ressources disposées sur chacun des Clouds, mais aussi partagées entre eux, ainsi que d’accompagnement.

Frein à l’intégration de nouveaux services ?

Sur ce terrain, on retrouve le bras armé dans l’IT de notre opérateur historique national, Orange. « Le multicloud, c’est souvent une réalité chez nos clients, qui ont recours à plusieurs providers de IaaS pour répondre à des demandes ciblées », constate Cédric Prévost, directeur des Services managés et de la Sécurité des services cloud chez OBS. « Nous leur apportons une couche transverse de solutions pour abstraire la technique sous-jacente. On a une CMP en interne, notamment sur les process “ historiques ” (provisioning, etc.), des outils supplémentaires sur la sécurité, etc., et on peut également accompagner les clients sur leur propre CMP. Cette approche est au cœur de la manière dont on appréhende le multicloud : il n’y a pas un outil qui fait tout, mais plusieurs outils qui répondent à des besoins spécifiques des clients. » Mais attention à ne pas s’enflammer. Selon le cadre d’OBS, la CMP peut vite devenir un frein à l’intégration de nouveaux services, à l’instar du Machine Learning voire du Deep Learning. Lorsque les API ne convergent pas et qu’aucun standard ne se dessine à court terme pour une technologie donnée, les CMP doivent être en mesure de fournir une couche standardisée faisant le mapping des services des différents providers, tout en intégrant dans le même mouvement les dernières innovations. « On voit des spécialisations des CMP avec des éditeurs qui vont se spécialiser sur un aspects particuliers de la chaîne – gouvernance, provisioning, etc. – c’est un écosystème très mouvant. »

Si mouvant qu’il est difficile, lors de la mise en œuvre d’une stratégie multicloud, de se disperser. Et, évidemment, lorsqu’il s’agit de se poser en acteurs de référence, pour ne pas dire incontournables, les géants américains répondent présents : AWS, Azure et dans une moindre mesure Google Cloud. Ce n’est pas un hasard si OBS, dans le cadre de sa stratégie multicloud, a annoncé des partenariats avec les deux premiers. Mais n’y a-t-il pas de place sur ce marché pour que les Français s’installent et aillent piquer une part du gâteau des trois Américains ? Chez OBS, on nous assure que si le marché est effectivement « trusté par les grands Américains, chez nous la porte n’est pas fermée et on a des discussions avec d’autres acteurs, y compris français, pour avoir des clouds non-américains. » On a cru que Orange avait oublié Cloudwatt, célèbre Cloud souverain, mais Cédric Prévost se le rappelle à notre bon souvenir : « Nous avons des offres de Cloud en propre, avec des garanties d’étanchéité par rapport au Cloud Act, qui est source de nombreux questionnements chez nos clients. »

L’Équipe de France du Cloud

Le sujet de la réglementation américaine, notamment en termes de droit de regard des autorités sur les données transitant sur les Clouds américains, c’est l’un des chevaux de bataille de Jules-Henri Gavetti. À l’autre bout du fil, le patron d’Ikoula se contient. « Aujourd’hui, le problème du Cloud Act, contrairement au Patriot Act qui s’inscrivait dans une procédure d’exception, est qu’il couvre tous les crimes. Peu importe la localisation des data centres. Ce que je ne comprends pas, c’est que les directeurs juridiques des grands comptes n’aient pas levé le petit doigt », regrette Jules-Henri Gavetti, déplorant un problème à chercher non pas du côté des cloud providers français, mais de l’éducation du marché et des clients finaux. « Du côté de la France, qu’on prenne un OVH, un Outscale, un Online, un Ikoula, nous existons et nous avons des discussions entre nous. J’aimerais bien que les grandes entreprises soient aussi patriotiques et qu’elles aient envie de développer le business local autant qu’elles sont derrière l’équipe de France de football. Nous sommes l’équipe de France du Cloud ! » OVH préfère nuancer le propos, Bernard Loizeau soulignant que « en termes de standards et de sécurité, le fait d’être en France n’est pas une fin en soi. Il faut s’orienter vers ce dont le client a besoin : la flexibilité, la sécurité… C’est toute une offre de services et tout un écosystème de compatibilité à prendre en compte. C’est important pour le client. » Mais le provider nordiste précise tout de même échanger régulièrement avec ses compatriotes. Du côté d’Outscale, on se sent un peu le seul pure player français du marché, mais là encore on discute au sommet avec les autres. Des discussions qui ne se ressentent pas du côté des fournisseurs de services. Chez Agarik, Nicolas Chalton explique ne pas avoir « le sentiment d’une démarche de mutualisation. Je pense que les cloud providers se sentent suffisamment forts, seuls, pour ne pas avoir à développer leurs partenariats afin d’adresser des problématiques plus larges en France. » Le Cloud souverain manquait déjà de crédibilité auprès du public, le multicloud souverain semble être plus inimaginable encore.

Econocloud pour les unir tous ?

Hors de question, selon Sébastien Enderlé, le patron d’ASP Serveur. L’hébergeur racheté par Econocom a lancé en juin dernier Econocloud, une CMP maison, « full Nutanix », aujourd’hui en version 1.5. Comme toute CMP, elle offre les fonctionnalités habituelles de ce type de solutions, notamment en termes d’orchestration multicloud, avec une partie dashboard donnant accès « à tous les indicateurs de consommation et de sa répartition sur les Clouds connectés, les répartitions des OS, les quotas, une map pour la localisation » et une partie Compute « qui fait apparaître les VM dans la partie compute d’Econocloud pour leur monitoring et administration ». Basique sur le papier, Econocloud dans sa dimension CMP s’enrichit en fonction des desiderata des clients de l’entreprise. Mais plus encore Sébastien Enderlé la voit comme « un produit communautaire par essence, ouvert à n’importe quel provider », et pas seulement Azure, AWS et Google Cloud. « Nous discutons avec d’autres grands cloud providers français pour qu’ils rentrent dans la plateforme. Des intégrations sont en cours avec l’un d’eux. L’idée maîtresse est que l’on est ouvert aux autres providers français et européens pour qu’ils se connectent à la plate-forme en natif. »

Un déficit de crédibilité

Car la ligne défendue par ASP Serveur est proche de celle d’Ikoula : il faut cette « équipe de France du Cloud », voulue par Jules-Henri Gavetti. Et Sébastien Enderlé de mettre en avant la « granularité » des acteurs de l’écosystème français. Problème : « Aujourd’hui les providers français communiquent peu entre eux et pensent qu’il est plus important de se faire la guerre que de travailler ensemble », à en croire le patron d’ASP Serveur. Une approche qu’il juge « pas très opportune » , d’autant que « nous avons un déficit de crédibilité sur les Clouds souverains suite aux échecs de Numergy et de Cloudwatt ». « Azure, AWS et même Google proposent de beaux produits, ils sont irrattrapables sur leur terrain. Il faut une marketplace française ou européenne pour concurrencer les grands Américains aujourd’hui et demain les Chinois sur des particularités et des souverainetés et créer un esprit communautaire autour pour que le Cloud français soit reconnu. Le pari, il est là ! » Avec toujours cette idée que plutôt que de se battre autour des miettes laissées par les géants américains, mieux vaut se liguer pour leur piquer une bonne part du gâteau.

Print
3628

x
Rechercher dans les dossiers
Les derniers dossiers...
Réduire
Actuellement à la Une...
Devant le Sénat, David Marcus a joué la transparence afin de rassurer les membres du comité des affaires bancaires. Il faut dire que Facebook joue gros, le législateur américain voyant d’un très mauvais œil Libra, mais aussi et surtout l’implication du géant dans le projet, un géant dont la réputation laisse à désirer.

Le spécialiste de la sécurité des applications en containers et des applications nativement Cloud approfondit son partenariat avec Microsoft et devient disponible sur la boutique d’Azure.

S’appuyant sur des années d’expérience sur la plate-forme Cloud Foundry, Pivotal lance PAS pour simplifier le déploiement et l’exécution de logiciels sur Kubernetes par les développeurs.

Le constructeur complète sa gamme de baies de stockage NVMe et hybride avec un modèle d’entrée de gamme et met à jour son système d’exploitation avec de nouvelles fonctions.

L’Arcep soumet à consultation publique les futures modalités d’attributions des fréquences dédiées à la 5G. A quelques mois de l’ouverture de la procédure, ne manque plus que le prix de réserve, qui doit encore être fixé par le gouvernement.

Selon des sources citées dans la presse américaine, l’éditeur ne veut pas être victime de l’appétit dévorant du géant des semi-conducteurs. Il aurait quitté la table des négociations, estimant que le prix proposé par Broadcom est inférieur à ses attentes.

Dans le Lander allemand de Hesse, le gendarme des données personnelles a pris une décision coup de poing contre Microsoft, en décidant d’interdire l’utilisation d’Office 365 par les écoles, au motif que les données ne sont plus conservées en Allemagne mais envoyées aux Etats-Unis.

Cloudera fait évoluer son modèle pour le rapprocher de celui d’Hortonworks, optant d’une part pour des licences libres pour ses logiciels, et d’autre part sur un système d’abonnement.

Le géant des réseaux sociaux serait sur le point de résoudre à l’amiable le litige l’opposant à la FTC à la suite du scandale Cambridge Analytica. Il verserait 5 milliards de dollars, une somme certes importante, mais dérisoire en comparaison de la sanction qui aurait pu lui être infligée.

L’assistant vocal de Mountain View vous écoute, mais il n’est pas le seul. Les enregistrements audios sont transmis à des prestataires qui ont pour mission de les retranscrire afin d’améliorer toujours plus l’assistant.

Toutes les News

LIVRES BLANCS
Les entreprises et les organismes publics se focalisent aujourd’hui sur la transformation numérique. En conséquence, les DevOps et l’agilité sont au premier plan des discussions autour des stratégies informatiques. Pour offrir ces deux avantages, les entreprises travaillent de plus en plus avec les fournisseurs de services de cloud public et développent désormais des clouds sur site à partir d’une infrastructure qui répond à trois exigences de base:
1. Agilité sans friction des ressources physiques
2. Systèmes de contrôle optimisant l'utilisation des ressources physiques et offrant un retour sur investissement maximal
3. Intégration des divers composants de l'infrastructure pour un provisionnement et une gestion des ressources automatisés.


Pour fonctionner, votre entreprise doit pouvoir compter sur une solution de sauvegarde efficace, essentielle dans un monde marqué par une croissance exponentielle des données. Vous devez à la fois accélérer vos sauvegardes et pouvoir y accéder plus rapidement pour satisfaire les exigences actuelles de continuité d’activité, disponibilité, protection des données et conformité réglementaire. Dans cette ère de croissance effrénée, les cibles sur bande hors site et autres approches traditionnelles sont simplement dépassées.


L’Intelligence Artificielle promet de révolutionner la perception de la cybersécurité au coeur des entreprises, mais pas uniquement. Ce changement de paradigme engage, en effet, une redéfinition complète des règles du jeu pour les DSI et les RSSI, ainsi que l’ensemble des acteurs de la sécurité.


Lorsque l'on déploie des postes de travail, ils ont généralement tous la même configuration matérielle et logicielle (avec certaines spécificités selon les services). Mais on ne peut pas toujours tout prévoir et il arrive par exemple que de nouveaux programmes doivent être installés ou n’aient pas été prévus. L’accumulation de logiciels « lourds » est susceptible de provoquer des lenteurs significatives sur un PC allant jusqu’à l’extinction nette de l’application. Ce livre blanc explique comment optimiser les performances au travers de 5 conseils rapides à mettre en place.


Ce guide est conçu pour aider les entreprises à évaluer les solutions de sécurité des terminaux. Il peut être utilisé par les membres de l'équipe de réponse aux incidents et des opérations de sécurité travaillant avec des outils de sécurité des points finaux sur une base quotidienne. Il peut également être utilisé par les responsables informatiques, les professionnels de la sécurité, les responsables de la conformité et d’autres personnes pour évaluer leurs performances. les capacités de l’entreprise en matière de cybersécurité, identifier les lacunes dans la sécurité des terminaux et sélectionner les bons produits pour combler ces lacunes.


Tous les Livres Blancs