X
Yann Serra / mercredi 25 juillet 2018 / Thèmes: Dossier, Cloud

Kubernetes

Un standard reconnu pour des nouveaux cloud CaaS

 

Le salon européen KubeCon a réuni cette année plus de 4 000 professionnels, soit trois fois plus qu’il y a un an lorsque le salon s’appelait CloudNativeCon et qu’il n’abordait que les problématiques du PaaS.

Désormais choisi comme standard par la CNCF,  Kubernetes se sert des containers pour déployer les applications métier en cluster. Pour les fournisseurs, il s’agit d’une alternative plus simple que le PaaS et plus économique que l’IaaS.

Les containers sont en passe de réaliser dans les entreprises l’objectif que OpenStack peine toujours à atteindre : être le nouveau socle technologique de l’IT. Jusqu’ici enfouie dans les outils de mises en production des nouvelles applications sur le Cloud (PaaS), la technologie des containers a mûri pour servir à présent des besoins concrets de la DSI. Autour de la standardisation de l’ordonnanceur Kubernetes, les containers se posent ainsi en alternative aux machines virtuelles pour déployer finalement des applications métier classiques, plus simplement, et ce, aussi bien dans le Cloud que sur site. Tel est en tout cas le message que Google, Microsoft, VMware, Red Hat et autres Suse ont fait passer lors de deux événements internationaux, KubeCon et Red Hat Summit, qui se sont tenus courant mai, respectivement à Copenhague et San Francisco.

« Kubernetes est désormais mature. Les entreprises peuvent être assurées de son usage en production. Nous avons gagné le cœur des développeurs de tous horizons pour démultiplier ses fonctionnalités et toutes les implémentations sont désormais compatibles entre elles », a ainsi déclaré à Copenhague Aparna Sinha. Membre du board de la CNCF (Cloud Native Computing Foundation), la nouvelle fondation open source en charge des containers, Aparna Sinha est également responsable chez Google des développements de Kubernetes et de GKE, le service de Cloud public de Google qui permet d’exécuter des containers. En substance, Aparna Sinha signe l’arrêt de mort des autres logiciels qui remplissent cette fonction (Mesos, Swarm…) et qui empêchaient de donner une direction claire à ce nouveau type d’infrastructure.

Kubernetes agence les containers en cluster pour former de nouveaux Clouds privés ou publics dits CaaS (Containers as a Service), qui concurrencent les Cloud IaaS connus jusqu’alors. Comme pour le IaaS, un Cloud CaaS est installable sur site – via une trentaine de distributions comme VMware/Pivotal PKS, Red Hat OpenShift, Suse CaaSP… – et il existe déjà des services en ligne dédiés sur AWS (EKS), Google Cloud (GKE) ou encore Azure (AKS).

L’avantage des containers est qu’ils sont installables tels quels de site en site et qu’ils consomment jusqu’à dix fois moins de ressources que les machines virtuelles, soit un gain de temps et d’argent pour les DSI. Gartner est optimiste : selon ses analystes, une entreprise sur deux mettra ses applications dans un Cloud CaaS d’ici à 2020.

 

Exécuter les applications métier historiques Java ou .Net en Cloud

« Nous nous sommes rendus compte que l’approche PaaS servait en définitive essentiellement les nouvelles applications B2C directement conçues pour fonctionner depuis des Cloud publics. En revanche, le PaaS ne répond pas au besoin des entreprises de porter les applications B2B historiques sur le Cloud. Kubernetes, comble ce manque », a dit à L’Informaticien Marc Filmon, le responsable de Pivotal en France, pour expliquer que le nouvel argument technique des containers est d’être, grâce à Kubernetes, la solution la plus simple pour déployer dans le Cloud les applications métier classiques, écrites en Java ou .Net.

Jusqu’ici, pour qu’une application métier bénéficie d’une infrastructure « à la demande », il fallait soit la réécrire intégralement pour qu’elle s’interface avec des services en ligne d’authentification, de stockage, d’analytique ou encore de flux IoT (PaaS), soit embarquer dans les machines virtuelles IaaS toutes les couches applicatives (serveurs JEE, serveurs de bases de données, ETL, etc.), au point de rendre leur facture prohibitive. En séparant les exécutables des couches inférieures, la containerisation produit des images des applications très légères, qui s’interfacent aussi bien avec les fonctions d’un datacenter qu’avec celles des Clouds publics. Il ne restait plus qu’à donner aux DSI le moyen d’architecturer ces interfaces et à déployer simplement les containers. C’est ce que font les distributions Kubernetes comme PKS.

Société sœur de VMware, Pivotal était connue jusqu’ici pour sa solution Pivotal Application Service qui consiste à créer un PaaS par-dessus un Cloud IaaS public ou privé. Mais face à la demande de porter en Cloud des applications historiques, VMware et Pivotal ont co-développé avec Google le logiciel PKS depuis août dernier. Celui-ci ne s’appuie plus sur des machines virtuelles, mais sur des containers orchestrés par Kubernetes. En France, Orange ferait partie des premiers clients de cette solution.

Permettre aux grands groupes de faire leur transformation digitale

Dans le même ordre d’idée, Red Hat, le numéro un des vendeurs open source, vient de signer deux partenariats : l’un avec IBM et l’autre avec Microsoft, autour de sa solution OpenShift. Concurrent des logiciels de Pivotal, d’abord sur le PaaS et à présent sur les containers, OpenShift va désormais servir à déployer en Cloud les millions d’applications métier écrites jusqu’ici avec la couche applicative Websphere, la base de données DB2 et le middleware MQ d’IBM. Selon ce dernier, il s’agit de permettre à 90 % des très grands comptes de faire leur transformation digitale. « Grâce aux containers, nous concrétisons le Cloud hybride pour les banques, pour les compagnies aériennes, pour le secteur public. Nous leur permettons de mixer leurs applications historiques avec les services dernier cri du Cloud, sans les obliger à choisir entre rester dans leur datacenter et  tout recommencer dans un Cloud public », a dit Arvind Krishna, en charge du Cloud hybride chez IBM, lors du Red Hat Summit. En revanche, les seuls Cloud compatibles seront ceux d’IBM.

Concernant le partenariat signé avec Microsoft, il s’agit de développer une offre commerciale commune autour du même OpenShift, afin de convertir en containers des applications Windows ou Linux, écrites en .Net ou Java, puis les mettre en production sur site, ou sur le Cloud Azure de Microsoft. « Cette hybridation entre tous les environnements est la clé pour que les entreprises réussissent leur transformation digitale », a avancé Paul Cornier, le président de Red Hat, lors d’un point presse avec L’Informaticien à San Francisco. Il indiquait que l’enjeu pour les entreprises était de moderniser l’existant, sans avoir à tout réécrire pour profiter des facilités tant financières que techniques du Cloud. En pratique, une licence d’OpenShift sera désormais accordée à tout acheteur de Visual Studio.

Airbus, Amadeus, ou encore Sanofi font partie des grands comptes français qui utilisent déjà OpenShift pour déployer leurs applications métier sur des clusters CaaS.

 

Paul Cornier (Red Hat) et Arvind Krishna (IBM) scellent un accord qui doit permettre de déployer enfin en Cloud les applications historiques des grands comptes.

Éviter le verrouillage des éditeurs sur des fonctions non standard

Néanmoins la fédération de platesformes prêtes à l’emploi (PKE, OpenShift, CaaSP…) autour de Kubernetes n’est qu’une étape. La clé pour que les Clouds CaaS se popularisent est que tous les éléments techniques qui gravitent autour de l’orchestrateur (stockage, format, réseau, authentification, monitoring…) se standardisent à leur tour. Or, en la matière, les acteurs open source comme commerciaux multiplient les directions différentes. Et les utilisateurs redoutent de s’engager sur une voie qui les enfermerait technologiquement, si ce n’est financièrement. « Nous souhaiterions par exemple trouver un moyen de faire simplement de la haute disponibilité entre deux clusters de containers (Ndlr : que l’un réplique l’autre pour prendre sa place en cas d’incident). Le seul qui semble proposer cela est Tectonic, la distribution Kubernetes de l’éditeur CoreOS. Mais nous préférons attendre que cette fonction soit officiellement prise en charge par un projet de la CNCF pour être sûrs qu’elle soit standard », a confié à L’Informaticien Jean-Philippe Courson, Senior Software Engineer chez l’éditeur anglais Callsign, lors de l’événement KubeCon.

Une semaine plus tard, Red Hat annonçait que, suite à son rachat de CoreOS, cette fonction serait justement intégrée à la version commerciale d’OpenShift.

Stockage persistant :  la clé pour les bases de données en CaaS

Parmi les fonctions qui se cherchent encore une direction technique, le stockage cristallise toutes les inquiétudes. Par défaut, Kubernetes sert de passerelle entre les containers et un service en réseau, le plus souvent un NAS, où ils peuvent lire et écrire des fichiers. « Cette conception pose un problème : à cause de la latence du réseau, les I/O sont si faibles qu’il ne serait pas possible d’exécuter tout ce qui utilise des bases de données, ni même des serveurs web censés charger des images. Cela limite grandement le type d’applications installables en container », explique Steve Sorota, directeur des ventes chez Portworx. Son entreprise fait justement partie de celles qui ont développé une alternative : Portworx est une extension de Kubernetes qui indique aux containers d’utiliser les disques présents dans le nœud d’où ils s’exécutent afin de maximiser les vitesses d’accès. « Nous apportons même des fonctions de stockage évolué comme le snapshot vers un système de sauvegarde externe, le chiffrement, ou encore la réplication des données. Si un nœud du cluster plante, nous indiquons à Kubernetes dans quel autre nœud se trouvent les données des containers perdus, afin qu’il sache où les relancer », ajoute-t-il.

Portworx commence déjà à être utilisé en France, notamment par une enseigne de la grande distribution – l’éditeur n’a pas souhaité indiquer laquelle – ainsi que chez l’opérateur télécom Waycom. Problème, Portworx a un concurrent, l’Anglais StorageOS, qui propose exactement les mêmes fonctions mais dans un format si incompatible qu’une migration du stockage entre les deux solutions n’est pas envisageable.  

 

Steve Sorota, chez Portworx, a déjà installé pour plusieurs entreprises françaises sa solution qui résout l’exécution de bases de données sur un CaaS.

Réseau : les grands fournisseurs comblent  les manques au prix fort

Un problème similaire se pose avec le réseau et, par extension, sa protection. Par défaut, Kubernetes crée son propre réseau privé (« Kubenet ») et attribue une adresse IP par container, ou par groupe de containers censés faire partie de la même application et qui fonctionnent ensemble sur le même nœud. Dans la terminologie de Kubernetes, tout ce qui a une adresse IP est un « POD ». Et ensuite ? Hélas, Kubernetes ne fait quasiment rien de plus.

Pour le routage applicatif, la répartition de charge, le firewall, la qualité de services, les connexions SSL, le reverse-proxy, la communication entre deux clusters CaaS et même pour conserver la même adresse IP entre deux instances successives d’un même POD, il faut passer par une extension réseau, appelée CNI (Container Network Interface). Le site officiel de Kubernetes en dénombre une vingtaine, la rédaction de L’Informaticien en a identifié au moins une dizaine de plus.

Parmi les solutions les plus onéreuses, VMware décline le SDN NSX de ses machines virtuelles en une version dédiée aux containers, NCP (acronyme de NSX-T Container Plug-in). Cette solution par défaut sous PKS est également certifiée pour OpenShift. La fonction de NCP consiste à attribuer plus intelligemment les IP et à accoler un firewall à chaque POD. Il devient dès lors possible, par exemple, de faire de la répartition de charge entre deux PODS qui hébergent la même application mais qui sont situés sur des nœuds différents. NCP se combine en option avec le switch virtuel Big Cloud Fabric, de l’Américain Big Switch Networks, afin d’assurer différents niveaux de qualité de service aux POD. Dans le même ordre d’idée, Cisco et Juniper proposent des plug-in pour que leurs routeurs et switches prennent en charge le routage vers les POD ; il s’agit respectivement des plates-formes ACI et Contrail. 

 

Gregg Holzrichter propose, chez Big Switch Networks, des commutateurs réseau virtuels capables d’assurer la qualité de service aux containers.

L’Open Source part dans tous les sens

Du côté de l’Open Source, les couches réseau les plus durablement installées portent les noms de Flannel, OpenVSwitch ou encore Weave. Hélas, leur configuration reste complexe. « Même pour nous, la diversité de l’offre en matière de réseau est compliquée. Notre travail consiste donc à certifier certaines solutions pour nos clients », nous confie Christophe Le Dorze, architecte technique chez l’éditeur Suse. Pour lui, les choix les plus éclairés iront du côté des routeurs open source : Calico, Cilium et même le logiciel Traefik de la start-up française Containous, qui a le mérite de router les flux chiffrés.

 

« Traefik sert à router automatiquement une requête vers le bon container parmi des milliers en production, et ce, avec le bon certificat TLS pour les connexions sécurisées. Parmi nos avantages, nous effectuons des règles de routage pour tous les sous-domaines – par exemple avec *.domain.com au lieu de service. domain.org – et nous savons produire les rapports de trafic en conformité avec les exigences de la GDPR », expose Émile Vauge, PDG de la jeune société Containous. Celle-ci développe son logiciel en Open Source depuis 2015 avec l’aide de 250 contributeurs dans le monde entier, mais son activité commerciale n'a commencé que depuis peu. « Notre solution connaît à présent 4 millions de téléchargements par semaine, c’est pourquoi nous avons décidé de nous organiser pour proposer du support aux entreprises », ajoute-t-il.

 

Émile Vauge est à la tête de Containous, une start-up française dont le logiciel, Traefik, a déjà été téléchargé plus de 80 millions de fois pour mettre les containers en réseau.

Sécurité : Google cherche à définir les nouveaux standards

Christophe Le Dorze entend également certifier sur la plate-forme Suse CaaSP les logiciels de sécurité NeuVector, Aqua Security et Anchore, trois solutions qui monitorent l’activité sur le réseau et produisent des alertes si les règles définies par le RSSI ne sont pas respectées.

Mais selon les visiteurs CNCF, les futurs standards en matière de sécurité seraient plutôt à chercher du côté de Google, qui est à l’initiative de Kubernetes et qui figure en bonne place au conseil d’administration de la CNCF. L’éditeur vient de livrer à la communautés open source PodSecurityPolicy 1.8, Network Policy 1.7 ainsi que GVizor. Le premier sert à définir les conditions qu’un POD doit respecter pour avoir le droit de fonctionner dans un cluster, le second est un firewall par POD et le dernier un bac à sable pour container.

« GVisor peut être considéré comme une machine virtuelle avec son propre système d’exploitation qui fonctionne en isolation totale parmi les autres POD du cluster. Sa consommation de ressources est inférieure à celle d’une machine virtuelle traditionnelle. En revanche, cette flexibilité se fait au prix de certaines incompatibilités avec quelques applications », a déclaré Aparna Sinha, lors de KubeCon. Dans le détail, GVizor ne supporterait pas tous les appels système de Linux, mais il devrait exécuter toutes les applications écrites en Java 8 ou Node.js. La CNCF héberge quant à elle les projets Notary, qui consiste à signer les containers au niveau de Docker, et TUF, qui fait de même avec les mises à jour prêtes à être installées. Ceux-ci devraient interdire à un logiciel malveillant inclus dans un container de s’installer sur le cluster. Ils sont déjà complétés par les logiciels tiers Open Policy Agent (distribution des politiques de sécurité entre containers) et Spiffe (distribution des clés d’authentification aux containers).

Monitoring : le Français Datadog séduit, sauf sur le RGPD

Dernière brique essentielle au déploiement de containers, la console de monitoring. Sa fonction consiste à voir aussi bien les problèmes éventuels du cluster (débits ralentis, containers qui plantent…) que les coûts qu’il engendre. « L’une de nos fonctions vedette est justement de montrer aux entreprises le prix de leurs containers en Cloud, afin qu’ils puissent comparer avec ce que leur coûtent leurs applications exécutées dans leur datacenter », lance ainsi Haissam Kaj, ingénieur logiciel chez Datadog, l’étoile montante des solutions de monitoring, fondée par deux Français partis faire carrière aux États-Unis.

Datadog surveille les métriques de l’infrastructure (CPU, RAM, énergie…), les journaux d’activité des logiciels (logs) et le timing des applications, comme dans une solution d’APM. « Nous corrélons ces trois types de sources pour que l’utilisateur n’ait qu’à cliquer sur un pic de dysfonctionnement dans le graphique de l’activité pour voir quel fichier log a produit quoi à ce moment-là, puis filtrer le nom de l’erreur et remonter au microservice responsable », explique Haissam Kaj.

Problème, Datadog est un service SaaS, c’est-à-dire qu’il remonte quelque part sur Internet des données critiques de l’entreprise utilisatrice, ce qui n’est pas forcément du goût de tout le monde à l’heure du RGPD. « Il n’y a pas de risque. Les données sont anonymes et le SaaS est la garantie d’avoir un monitoring qui continue à fonctionner quand le cluster ne répond plus correctement », se défend Haissam Kaj. « Il n’empêche, les utilisateurs semblent se sentir plus en sécurité avec Prometheus, un logiciel de monitoring open source moins esthétique mais qui a le double avantage de fonctionner sur site et d’être éprouvé depuis plus longtemps », rétorque Christophe Le Dorze.

 

Créée par deux Français, Datadog est pour l’heure la console la plus complète pour monitorer les clusters de containers.

Bientôt des applications directement éditées au format container

Deux évolutions devraient marquer l’avenir proche de la technologie des containers. Dans les semaines qui viennent, les éditeurs devraient commencer à livrer leurs applications prêtes à l’emploi en container grâce au nouveau format de package Helm, inventé par la CNCF. « La demande pour consommer des applications containerisées est très forte. Parmi les premières disponibles, on trouve Pachyderm, un logiciel de Machine Learning qui fonctionne à la manière d’Hadoop. Helm fonctionne comme les mobiles : l’utilisateur s’abonne à un store d’applications (NDLR : un repository, dans le vocabulaire de Linux) et peut installer n’importe quel logiciel en tapant juste la commande Helm-install. Helm s’occupe de tout : il déploie dans le cluster de l’utilisateur tous les containers d’une application dans le bon ordre et avec les bonnes règles », explique Christophe Le Dorze.

Ensuite, d’ici à six mois, Red Hat devrait populariser Kubevirt, une nouvelle extension qui permettra à Kubernetes de déployer aussi dans son cluster des machines virtuelles complètes, lesquelles seront traitées comme des POD. « Le double intérêt de faire cohabiter des machines virtuelles avec des containers est d’avoir, d’une part, la même interface d’administration pour déployer tous les formats d’application et, d’autre part, de mettre plus simplement en production des bases de données qui utilisent l’espace de stockage de la VM plutôt que passer par une extension non standard de Kubernetes. En théorie, cela permettrait de servir les DSI qui ne s’estiment pas encore assez mâtures pour mettre leurs applications dans des containers », témoigne à L’Informaticien un ingénieur sous contrat chez un industriel français – et qui tient à rester anonyme.

« Le cas d’usage est en effet d’exécuter des applications historiques qui n’ont pas encore été décomposées pour entrer dans un container. Sur chaque nœud, les machines virtuelles seront dans ce cas chargées par l’hyperviseur KVM du noyau Linux et non par Docker. En revanche, ce sera bien Kubernetes qui gérera leurs entrée-sortie », détaille Matt Hicks, en charge de l’ingénierie chez Red Hat.


ANATOMIE D’UNE DISTRIBUTION KUBERNETES

Il existe aujourd’hui une trentaine de distributions – ou « piles » – Kubernetes. Les plus célèbres sont Red Hat OpenShift, Pivotal PKS, Suse CaaSP, ou encore Rancher qui, dans sa toute nouvelle version 2.0, est reconnue par le marché comme la distribution la plus ergonomique pour gérer plusieurs clusters de containers depuis une seule interface. Ces distributions comprennent au moins six éléments de base et mêmes si ceux-ci diffèrent d’une distribution à l’autre, ils n’affectent pas la portabilité des containers :

• une console graphique pour définir et administrer  un Cloud CaaS privé ou public, sur un cluster de serveurs physiques ou virtuels ;

 Un système d’authentification qui s’interface  avec annuaires LDAP, RBAC, OAUTH voire PAM  des entreprises pour attribuer des droits d’accès  par utilisateur aux containers ;

• Kubernetes lui-même, qui s’installe sur un nœud  du cluster (le nœud « Master ») pour déployer, surveiller et arrêter des containers sur les autres nœuds (appelés « Workers ») Kubernetes prend connaissance de la manière dont les applications doivent fonctionner depuis un fichier de configuration au format .yaml ;

• Un registre ou catalogue qui référence tous  les containers disponibles. Si le registre détecte  qu’un container a été mis à jour par un DevOps, Kubernetes déploiera automatiquement ce container  sur le cluster ;

• Le logiciel Docker qui s’exécute sur chaque nœud  pour y charger les images des containers et dire  à l’OS hôte quels sont leurs besoins techniques  (puissance de calcul, RAM).

Un OS minimaliste qui s’installe sur chaque nœud.  Sa fonction est double. D’une part il exécute localement Docker, ainsi que l’agent Kubelet qui écoute les ordres envoyés par Kubernetes. D’autre part, il sert de système commun à tous les containers présents sur ce nœud.  L’OS est dans la plupart des cas un Linux minimaliste, propre à chaque éditeur, mais Windows en version  Nano Server est possible selon les licences.

 


« Avec Kubernetes, notre IT est clés en main, moins chère »
Jean-Philippe Courson, senior software engineer chez l’éditeur de cybersécurité Callsign

« Nous utilisons Kubernetes pour deux raisons. La première est que nous devons déployer des solutions sur les sites de nos clients. Nous mettons en place des clusters dont les départements informatiques n’ont pas forcément l’expertise. Grâce à Kubernetes,  nous avons pu créer une procédure d’installation simplifiée ainsi qu’un outil d’administration qui permet de gérer tout un cluster très facilement. Kubernetes reconnaît automatiquement 40 technologies de stockage, il nous permet de scaler facilement, de monitorer facilement et de redémarrer automatiquement un service qui plante.  Sans lui, nous aurions dû développer  nous-mêmes des scripts d’installation,  des systèmes de déploiement, ainsi que  du monitoring. Nous aurions dû installer des solutions commerciales chez nos clients,  ce qui aurait rendu notre solution plus chère et nous aurait empêché d’être indépendants techniquement. La seconde raison concerne  nos propres systèmes, hébergés chez AWS.  La consommation des ressources par un cluster Kubernetes est si faible par rapport  aux machines virtuelles, que nous compensons  en six mois le coût de porter une application  en container grâce aux économies réalisées  sur AWS. »


« Nous voulons passer à Kubernetes pour augmenter notre productivité »
Ludovic Ivain Debouchaud, développeur de jeux vidéo chez Social Point

« Le secteur du jeu vidéo sur mobile est en pleine effervescence :  seul un jeu sur cent parvient à durer. Pour que nos titres en fassent partie, nous devons proposer très régulièrement des mises à jour avec de nouvelles fonctions et être capables de les arrêter rapidement si elles n’intéressent pas les joueurs. Le but est de pousser le processus d’itération à son paroxysme,  c’est-à-dire gagner du temps partout où cela est possible  pour produire plus vite.  Dans ce contexte, nous nous intéressons à Kubernetes car il porte la promesse d’automatiser  tous les scripts que nous devons écrire pour publier chaque nouveau code sur nos serveurs hébergés chez AWS. Kubernetes saura par exemple automatiquement où il reste de la place dans le cluster. Pour nous, cela signifie moins de temps passé à faire de l’administration et plus de temps consacré à la créativité. »


« Nous partons du principe que Kubernetes est déjà partout »

Sheng Liang, CEO de Rancher Labs

« Rancher 2.0, notre plate-forme Kubernetes, est la seule qui parte du principe que les entreprises ont accès à des clusters Kubernetes tout autour d’elles : non seulement sur leurs serveurs, mais aussi dans les Clouds publics. C’est-à-dire qu’elles ne viennent pas nous chercher pour réinventer la roue. Nous nous voyons donc comme le distributeur des distributeurs, ce qui nous a permis de pousser l’ergonomie à son paroxysme. Ainsi, l’administrateur se connecte sur notre site web et ajoute des clusters depuis l’interface en ligne : tel clic télécharge notre distribution sur ses serveurs, tel autre déploie un cluster sur un Cloud public. Nous sommes compatibles avec tout et tout est transparent : le cluster Kubernetes pourra s’installer sur des serveurs physiques, comme par-dessus des machines virtuelles. D’autant que nous gérons automatiquement toutes les configurations, que ce soit pour un Cloud privé vSphere, ou pour AWS où nous sommes mêmes compatibles à la fois avec le service AKS dédié aux clusters CaaS et avec le service EC2 qui propose de l’IaaS. Nous avons même rendu l’authentification transparente. Grâce à nous, si un développeur se connecte sur un cluster GKE, par exemple, le système va devenir assez intelligent pour comprendre que le code publié le sera avec les droits de cet utilisateur dans l’annuaire de l’entreprise et non avec son compte Google personnel. Cela évite les manipulations récurrentes et toutes leurs failles de sécurité. »

Print
2284

x
Rechercher dans les dossiers
Actuellement à la Une...
Le patron de l’opérateur au carré rouge n’est pas franchement emballé par le bilan de la plateforme de signalement de problèmes mis en place par l’Arcep. Il l’a fait savoir lors d’une audition au Sénat, dénonçant un régulateur qui sort de son rôle et une information « erronée » et « préjudiciable ».

Pour se faire pardonner des infractions à la loi sur le littoral lors de son mariage extravagant en 2013, Sean Parker, co-fondateur de Napster et ancien dirigeant de Facebook dans sa phase de démarrage, a conçu une application gratuite dévoilée jeudi par les autorités de Californie.

Sous la pression de ses salariés, le géant joue la prudence sur l’IA. Il annonce qu’il ne commercialisera pas de produi...

Nous avions rencontré Vexata il y a un an. Nous avons profité de ce nouveau "tour" pour refaire un point sur l’activité de cette entreprise. L’architecture choisie est toujours un modèle du genre et correspond parfaitement aux charges de stockage que demandent des applications analytiques de haut niveau. Nous ne sommes pas les seuls à le croire, Fujitsu vient de placer Vexata comme une solution de référence dans le domaine dans son laboratoire nord-américain avec des architectures de référence sur ses serveurs Primergy.

Le spécialiste du stockage dans les environnements HPC a connu une belle année 2018 avec des acquisitions qui ont renforcé ses positions dans le segment haut du marché du stockage et marqué son entrée sur le marché de l’entreprise. 

Le Quai d’Orsay informe les usagers de son service Ariane du vol de leurs données. Le communiqué du ministère ne donne aucun autre détail sur le piratage dont il a été victime, sinon avoir pris des mesures sans impacter le service et que la Cnil a été saisie.

Un problème de sécurisation rendait vulnérables tous les comptes Office 365. En cause, un sous-domaine, success.office.com, dont la configuration défaillante permettait à un attaquant d’en prendre le contrôle, ayant alors accès aux données qui y étaient envoyées y compris les jetons d’identification d’ Outlook, Store et Sway.

Les acquisitions dans le secteur informatique deviennent quotidiennes et les prix s’envolent. IBM, SAP, Citrix, VMware font leur marché et, en quelques jours, ce sont des sommes comparables à un mois du déficit de la France qui changent de mains.

Les deux entreprises mettent un terme à quatre ans de conflit judiciaire par un accord financier. Condamné dans un premier temps à 500 millions de dollars d’amende, Oculus, propriété de Facebook, avait par la suite obtenu une réduction de la sanction. Les deux entreprises avaient fait appel, mais ont finalement réglé leur dispute à l’amiable.

Outre les keynotes et les sessions techniques, le forum présente aussi une exposition des solutions des sponsors de l’événement. Visite dans les allées de cette exposition avec quelques rencontres intéressantes. 

Toutes les News

LIVRES BLANCS

Tous les secteurs industriels dans le monde sont confrontés à des défis informatiques spécifiques qui conditionnent le succès ou l’échec de l’entreprise.


Au cours de la dernière année, les données volées et vulnérables se sont révélées des armes précieuses pour les adversaires de tous les horizons, dans toutes les régions, et pour toutes les motivations.


Au fur et à mesure que votre exposition à d’autres entreprises augmente, votre exposition au risque augmente également. Il ne s’agit pas uniquement de vos propres fournisseurs mais également les leurs. Comment pouvez-vous suivre toutes ces relations afin de gérer vos risques?


Pour répondre aux exigences de rapidité du modèle DevOps en conservant une cybersécurité efficace, de nouvelles approches doivent être adoptées en matière de sécurité de l'information, comme la sécurité intégrée, l’automatisation et la prévention proactive.


PROTECTION ENDPOINT NEXT-GEN : ÉVOLUTION OU RÉVOLUTION ?, un Livre Blanc SOPHOS.

Après la révolution Next-Gen Firewall de ces dernières années, une nouvelle révolution Next-Gen est cours dans le domaine de la sécurité des systèmes Endpoint. Au-delà du débat pour savoir s’il s’agit d’une révolution ou d’une simple évolution, il est certain qu’une série de nouvelles technologies est en train de rapidement émerger, en apportant une contribution significative à la lutte contre les menaces avancées.


Tous les Livres Blancs