X
Tendances 2019
Bertrand Garé / lundi 1 avril 2019 / Thèmes: Dossier

Tendances 2019

Edge • SD-Wan • Cloud hybride • Collaboratif • IA/Deeplearning • Blockchain • SaaS

Comme chaque année L’Informaticien prend des paris sur certaines technologies qui devraient tenir le haut du pavé durant cette année. Peu de surprises, des confirmations certainement et quelques nouveautés comme l’Internet des Objets ou la Blockchain qui sortent des périodes de tests ou d’essais pour arriver en production dans les entreprises.

►INFORMATIQUE DISTRIBUÉE : le retour
►SD-WAN : enfin le décollage
►CLOUD HYBRIDE : une étape nécessaire
►COLLABORATIF : les workflows s’invitent sur les plateformes
►IA – DEEP LEARNING : vers le cognitif !
►BLOCKCHAIN : d’émergente à omniprésente
►SAAS : en majesté !

INFORMATIQUE DISTRIBUÉE : le retour

Face au flot de données des milliards d’objets connectés, les experts s’accordent sur l’émergence d’une nouvelle classe d’infrastructures IT : L’Edge Computing.

AVEC SES SMART BUNKER CX, SX ET FX, SCHNEIDER ELECTRIC PROPOSE TOUTE UNE GAMME DE BOÎTIERS PROTÉGÉS POUR MICRO DATACENTERS.

L’Edge Computing devrait absorber 18% de l’ensemble des dépenses d’infrastructure IT des entreprises d’ici 2020, selon IDC. Outre des applications à très faible latence, comme la réalité virtuelle, pour Julien Herment, expert en technologies IoT et fondateur de Quantum Studio, cet accroissement des investissements dans des infrastructures de proximité est essentiellement porté par l’essor des objets connectés : « L’Edge Computing est, d'une certaine manière, natif pour les objets connectés et, de manière plus large, pour les systèmes embarqués. Ce modèle répond aux problématiques temps réel, sécuritaire et budgétaire. Surtout, réduire le nombre de transferts permet souvent d'augmenter drastiquement l'autonomie des objets connectés. »

 

Côté hardware, de multiples solutions ont émergé pour répondre à ce nouveau besoin. Depuis le système tout-en-un tel que l’Edgeline EL300 Converged Edge d’HPE qui intègre un mini PC durci doté de multiples ports de communications et d’un module de communication LTE, jusqu’aux conteneurs maritimes reconvertis en mini datacenter à installer sur le parking de l’usine, en passant par les enceintes micro datacenter blindées à installer dans un coin d’atelier, les entreprises disposent de toute une gamme de solutions de puissance très large. Restait à traiter le problème de la collecte des données.

De nouvelles architectures logicielles hybrides pour l’IoT

Les fournisseurs Cloud sont très actifs dans le développement d’architectures IoT distribuées. AWS propose AWS IoT Greengrass, une solution qui intègre une messagerie inter applicative pour remonter des données vers la plateforme Cloud Amazon, mais aussi l’exécution de fonctions serverless AWS Lambda en local. Cette architecture permet de déployer des inférences de Machine Learning sur l’équipement, afin de l’exécuter en local. Microsoft n’est pas en reste avec son architecture Azure IoT Edge. Un runtime local capable de collecter les données en local via MQTT ou AMQP pour échanger avec le Cloud Microsoft Azure via la brique IoT Hub. Tout comme sur AWS Greengrass, la gestion du parc d’objets connectés est assurée depuis le Cloud où toutes les données relatives aux équipements sont centralisées.

L’architecture Azure IoT Edge inclut un runtime déployé sur les objets connectés. Celui-ci est disponible sous Raspbian-stretch, Ubuntu, Windows 10, Windows Server, mais aussi diverses distributions Linux, Wind River 8 et Yocto.

Face à ces offres hybrides, les éditeurs de plateformes IoT ont dû, eux aussi, proposer des architectures à plusieurs niveaux. PTC a ainsi complété sa plateforme ThingWorx avec les solutions de l’éditeur KEPware, un spécialiste des systèmes industriels. Autre poids lourd de l’IoT, SAP qui pousse HANA et HCP (HANA Cloud Platform) côté « datacenter » propose de déployer SQL Anywhere, une base de données « light » à positionner au plus près des objets connectés. Cette base de données dispose des capacités de synchronisation de données intéressantes pour les objets connectés ne disposant d’une connectivité qu’épisodique.

Architectes et développeurs disposent aujourd’hui d’un large choix de solutions hardware et software pour faire face à cette nouvelle « révolution » informatique de l’Edge Computing.


« LA 5G VA MARQUER LE DÉBUT DE L’ENVOL DU EDGE COMPUTING » 

Franck Volko, directeur général d'Ictroom

« Le besoin en infrastructure Edge Computing est directement lié à l’essor de l’IoT et de l’IIoT. En tant que concepteurs de datacenters, nous divisons le marché Edge Computing en trois. D’une part le conteneur, les 20 pieds ou 40 pieds du secteur maritime. Un peu plus gros vient le shelter, un bâtiment construit en semi-dur dédié à l’informatique et installations techniques, et enfin des petits datacenters de 500 à 750 KW.

Si l’Asie et les Etats-Unis déploient déjà ces infrastructures Edge, en Europe, il faudra attendre l’arrivée de la 5G pour que ce soit le cas. On estime que les opérateurs mobiles vont devoir construire des datacenters Edge pour gérer les données toutes les 20 à 30 antennes. Les 2 années à venir vont être cruciales dans la mise en place de ces infrastructures Edge. »

SD-WAN : enfin le décollage

La rapide adoption du Cloud dans les entreprises amène celles-ci à s’interroger sur les connexions à longue distance vers leurs succursales ou agences.  Le SD-WAN (Software-Defined Area Network) est désormais une alternative intéressante dans ce cas et se combine souvent avec le MPLS existant.

Il existe 20 millions de bureaux distants dans le monde. Par ailleurs la majorité des entreprises choisissent d’utiliser des applications en SaaS et élaborent des stratégies où le Cloud devient prééminent. Les utilisations du Cloud ont ainsi progressé de 86 % en 2018. 30 % des grandes entreprises développent une stratégie entièrement fondée sur le Cloud dont la mise en place va s’étaler jusqu’en 2020. 50 % des grandes entreprises prévoient de ne plus avoir de centres de données d’ici 2021.

Le problème est que la plupart de ces 20 millions de lieux de travail distants ne sont pas équipés ni prêts pour cette conversion au Cloud. La méthode classique de raccordement de ces bureaux aux centres de données des entreprises entraîne des coûts importants, un certain gâchis de la bande passante, des problèmes de sécurité et une visibilité quasi nulle en cas d’incident sur une application dans le Cloud pour ces bureaux distants. D’ailleurs dès 2017, le cabinet Gartner constatait que l’architecture du WAN tel qu’elle existait n’avait pu s’adapter à l’adoption du Cloud dans les entreprises.

Le SD-WAN comme remède ?

Les entreprises considèrent désormais dans la connectivité à longue distance définie par logiciel comme une solution intéressante pour régler une partie des problèmes cités plus haut. Le SD-WAN peut en effet combiner plusieurs services de transport en une seule connexion haut débit adaptative, améliorant ainsi les performances applicatives. De plus, les plateformes de gestion récentes ont la capacité de surveiller en permanence le débit, la perte de paquets, la latence et l’instabilité de l’ensemble des transferts de données. Le SD-WAN achemine ensuite automatiquement le trafic et, si nécessaire, le redirige pour assurer la conformité avec les règles préétablies de qualité de service et de cybersécurité. L’idéal pour s’adapter à l’évolution des besoins numériques des entreprises et protéger les données contre les cybercriminels !

Malgré un avantage coût incontestable par rapport à des services IP privés comme le MPLS (MultiProtocol Label Switching), l’Internet haut débit peut varier considérablement en termes de performances. Ethernet, câble et ADSL : tous ces supports transmettent à des débits différents, ce qui se reflète directement dans les performances des applications. De même, les services partagés comme le câble sont beaucoup plus rapides en périodes creuses qu’en début de soirée, lorsque les services de vidéo en streaming connaissent leurs pics d’audiences. Le haut débit présente une autre faiblesse, la latence. 

En réalité, on a souvent tendance à exagérer le problème car les applications sont aujourd’hui transmises sur plusieurs types de réseaux. Des techniques dites « d’accélération » du WAN peuvent ainsi améliorer la performance d’applications transmises sur différents types de réseaux haut débit. Cette accélération joue un rôle particulièrement important pour des applications SaaS (Softwareas-a-Service) de type Office 365. Avec l’optimisation du WAN, les connexions haut débit peuvent atteindre des performances comparables, voire supérieures à celles des réseaux MPLS. Enfin, le trafic multimédia transmis par MPLS peut être compressé pour réduire encore davantage les coûts.

Cumulant de nombreux avantages, le SD-WAN se déploie maintenant rapidement. Un éditeur de ce type de solutions, Silver Peak, estime à 100 000 le nombre de déploiements sur les 6 derniers mois de 2018.

CLOUD HYBRIDE : une étape nécessaire

Si les entreprises développent pour la plupart des stratégies autour du cloud que ce soit « totalement cloud » ou « cloud de préférence », il n’en reste pas moins que cette migration ne se réalise pas en un jour et que la majorité des infrastructures et des applications sont encore dans les centres de données des entreprises créant un modèle hybride où les deux mondes se côtoient. Pour longtemps ?

Si l’hybride n’est pas le choix stratégique, la migration vers le cloud de l’ensemble d’un système informatique ne se réalise pas en un claquement de doigts ou en sortant juste une carte de crédit. C’est un véritable projet pas forcément sans risque. En attendant, les entreprises se retrouvent avec deux environnements différents à gérer, l’ancien toujours sur site et le nouveau dans le Cloud qu’il soit privé ou public.

En finir avec les silos ?

Théorisé par le Gartner, le mode bimodal qui consiste à industrialiser un backend legacy et développer toutes les nouvelles applications ou fonctionnalités dans le Cloud n’emporte plus vraiment les suffrages du fait de la conservation de silos qui se cristallisent. La tendance tourne plutôt autour de la création de ponts entre les deux environnements pour éviter justement le silotage des environnements. On parle ainsi d’économie des API pour distinguer le moyen de lier les deux environnements et leur apporter une connectivité et une agilité plus grandes.

Il y a autant de définitions du Cloud hybride que d’entreprises. Certains le définissent comme la combinaison d’un cloud privé à un cloud public, d’autres d’un environnement sur site vers un ou plusieurs clouds publics. Certains lui donnent la même définition que le multicloud. Bref, l’hybride couvre quasiment tous les cas actuels d’utilisation où intervient l’utilisation d’une technologie dans le Cloud (IaaS/PaaS/SaaS).

Des frontières qui s’estompent

La plupart des offreurs de clouds publics proposent maintenant la possibilité d’installer leur plateforme sur les clouds privés ou dans les centres de données des entreprises (lire notre article par ailleurs sur le sujet dans ce numéro). Le Cloud hybride est devenu d’ailleurs un marché qui aiguise les appétits et les convoitises. Le rachat spectaculaire de Red Hat par IBM en est une illustration. Big Blue mise sur le fait que les entreprises en ont encore pour des années à réaliser leur totale mue vers le Cloud public, et même que certains ne feront pas ce choix et garderont des applications et des données en interne. De nombreuses start-ups comme Igneous ou Minio proposent ainsi des possibilités similaires sur les services de stockage en autorisant d’utiliser l’interface de stockage d’AWS S3 dans le Cloud privé.

Vu l’ampleur de ce que représente une migration vers le Cloud public et les questions persistantes autour de la sécurité et du respect de la vie privée, le mode hybride semble devoir être présent pour encore quelques années même si avec la maturité du Cloud public ces problèmes vont devenir moins importants dans la réflexion des entreprises qui visent aujourd’hui à plus d’agilité et de réactivité pour s’adapter aux conditions du marché.

COLLABORATIF : les workflows s’invitent sur les plateformes

Elles ne se contentent plus de gérer  les échanges de messages et de fichiers  entre utilisateurs. Il est désormais possible d’accéder à d’autres applications, traiter  des tâches, faisant de ces outils de véritables plateformes de Digital Workplace.

ACTIONS DE SLACK.

Jusqu’à aujourd’hui, les workflows étaient l’apanage des moteurs de BPM tels que Bonita, Itesoft W4, Pegasystems, IBM, Oracle. Ces solutions permettent aux DSI de formaliser les processus métiers et de les exécuter à l’échelle de l’entreprise. Des solutions puissantes, capables de se connecter aux applicatifs de l’entreprise, mais aussi très complexes. Les projets de mise en place de workflows s’étendent fréquemment sur plusieurs mois. Bref, ces solutions trouvent leurs limites sur des besoins plus tactiques, lorsqu’il s’agit de créer un petit workflow à l’occasion d’un projet ou d’une action spécifique.

Les plateformes Cloud montent en puissance

Pour ces besoins ponctuels, les plateformes collaboratives telles que Dropbox Paper ou Box font l’affaire. Elles implémentent déjà un embryon de gestion de projet, ce qui permet aux utilisateurs métiers de créer des tâches à accomplir, ajouter des demandes d’approbation à leurs documents. Avec Actions, Slack est allé plus loin. L’Américain a été le premier à proposer à ses utilisateurs de créer leurs propres robots logiciels, aujourd’hui Slack leur permet de générer des tâches sur les tickets Zendesk ou sur Asana, ajouter des commentaires sur un bug signalé dans Jira. La grande force de Slack réside dans ses intégrations d’applications tierces, l’Américain compte plus de 1 500 « Apps » à son catalogue, on imagine la puissance que pourrait prendre Actions dès lors qu’il sera possible de créer des workflows sollicitant cet écosystème logiciel.

Principal rival de Slack dans les grandes entreprises abonnées à Office 365, Microsoft pousse de son côté son offre Planner/Planificateur, une solution de gestion de tâches qui s’interface à Outlook, SharePoint et Teams, la copie Microsoft de Slack. Une offre de gestion de projets plus traditionnelle qui paraît bien lourde face à l’agilité du concept proposé par Slack.

Citrix a frappé un grand coup avec Sapho

Intégrer une gestion de projet ultra-light à des applications tierces, c’était précisément la vocation de Sapho, une  startup californienne créée en 2014. Citrix a pris le contrôle de celle-ci fin novembre 2018. Sa solution unifie dans une même interface toutes les interactions de l’utilisateur avec ses applications, qu’il s’agisse de consulter un tableau de bord SAP ou encore un contrat signé sur Salesforce. Tous ces événements sont traités depuis une seule interface. Sapho avait développé des intégrations avec un nombre impressionnant de services SaaS, base de données et services Cloud.

Pour Citrix l’objectif est simple : enrichir sa solution Citrix Workplace des capacités d’intégration développées par Sapho. Mais déjà se dessine la prochaine évolution de la Digital Workplace, celle de l’arrivée des IA au service du collaborateur. Des acquisitions sont dans la liste des tâches à effectuer chez l’ensemble des éditeurs de solutions de collaboration pour les mois à venir.


« Il faut avant tout trouver des cas d’usage métiers »

Cédric Tremintin, consultant associé  chez conseil & organisation

« Depuis plusieurs années maintenant, on observe une coloration de plus en plus métier aux solutions collaboratives. Il faut trouver des cas d’usage métiers pour que le déploiement de ces solutions ait véritablement un sens, même si les cas d’usages sont très précis et ne concernent que quelques personnes dans l’entreprise à chaque fois. Une solution de gestion de tâches telle que Trello, très agile avec ces processus non structurés et très peu de contraintes, a démocratisé cette approche. Parmi les conditions de succès, ses solutions doivent être maîtrisées par leurs utilisateurs sans formation et la plateforme doit rester un socle technologique capable de traiter la multitude de cas d’usages métiers. C’est comme cela qu’une solution peut se déployer à grande échelle dans les entreprises. »

IA – DEEP LEARNING : vers le cognitif !

Depuis quelques mois l’intelligence artificielle est sur le devant de la scène. De l’apprentissage machine, l’offre du marché évolue vers des modèles plus complexes utilisant du Deep learning et des fonctionnalités qui ne font plus seulement des prévisions ou des prédictions mais qui automatisent la prise de décision si nécessaire.

AERA TECHNOLOGY VEUT QUE L'ENTREPRISE PUISSE ÊTRE GÉRÉE COMME UNE VOITURE CONNECTÉE.x

Le deep learning ou apprentissage profond est un type d'intelligence artificielle dérivé du machine learning (apprentissage automatique) où la machine est capable d'apprendre par elle-même, contrairement à la programmation où elle se contente d'exécuter à la lettre des règles prédéterminées.

Ce type de solutions s’appuie sur des réseaux de neurones à l’image de ce qui se passe dans le cerveau humain. Ces neurones composés en différentes couches reçoivent et interprètent les informations provenant des couches précédentes. A chaque étape les mauvaises réponses sont éliminées et renvoyées vers la couche précédente pour affiner le modèle mathématique. Au fur et à mesure, le programme réorganise les informations en blocs plus complexes. Il connaît aujourd’hui de nombreuses applications qui vont des agents conversationnels des assistants digitaux aux robots intelligents ou à la voiture connectée ou encore à la prédiction financière et au trading automatisé.

Tous les éditeurs du marché ne vont pas aussi loin. Il faut constater cependant que la plupart des logiciels aujourd’hui intègre des fonctions d’intelligence artificielle ou d’apprentissage machine. Pour certains comme Salesforce, l’outil d’intelligence artificielle (Einstein) fait partie intégrante de la plate-forme de base de l’éditeur et apporte ses fonctionnalités à l’ensemble des logiciels de l’éditeur. Il propose ainsi des « next best actions » ou les actions les plus pertinentes pour répondre à un problème de l’utilisateur.

Entreprise se dirigeant par elle-même

Aera Technology, une jeune entreprise franco-américaine, généralise le recours à l’intelligence artificielle pour proposer une « entreprise se dirigeant par elle-même » à l’image d’une voiture connectée en indiquant des réponses à des problèmes complexes comme une optimisation des stocks ou d’une chaîne d’approvisionnement. On s’approche véritablement de l’informatique cognitive qui fait intervenir des systèmes d'auto-apprentissage qui utilisent l'exploration de données (data mining), la reconnaissance de schémas et le traitement du langage naturel, pour tenter de reproduire le mode de fonctionnement du cerveau humain. L'objectif consiste à créer des systèmes automatisés capables de résoudre des problèmes sans nécessiter d'intervention humaine. Cela devrait être la prochaine étape apportant encore plus d’automatisation dans la prise de décision dans les entreprises. Jusqu’à présent, les systèmes laissaient l’humain décider en dernier ressort. Les possibilités offertes par le cognitif vont certainement rebalancer les choses en laissant certaines décisions prises automatiquement par les systèmes et d’autres plus critiques dont l’humain décidera.

BLOCKCHAIN : d’émergente à omniprésente

Encore jeune la technologie de la blockchain a fait une entrée remarquée sur de nombreux cas d’utilisation, en particulier dans la traçabilité des produits, ou tout ensemble devant valider une chaîne de confiance.

Une étude du cabinet IDC parue l’été dernier apporte un éclairage sur la vitesse à laquelle la technologie de blockchain émerge. Elle se développe autour de 10 technologies à travers 19 industries différentes et 16 cas d’usage dans 9 régions du monde. Au total, 1,5 milliard de dollars vont être investis dans la blockchain en 2018, d’après les prévisions de l’IDC, ce qui correspond au double de l’année 2017. Globalement, le taux de croissance des investissements est estimé à 73,2% par an pour les cinq prochaines années, pour atteindre les 10 milliards d’euros. Les secteurs de la finance, de la distribution et des services sont les principaux utilisateurs. Les USA sont les premiers acheteurs mais l’Europe de l’Ouest arrive juste derrière devant la Chine.

Des utilisations multiples

HSBC, la banque anglaise, a effectué le règlement de 250 milliards de dollars de transactions en devises l'an dernier en utilisant la technologie de registre distribué. Le groupe britannique n'est pas le seul à percevoir le potentiel de la chaîne de blocs sur le marché des changes. Depuis 2015, en vue de la mise en place d'une infrastructure blockchain, IBM travaille avec le système CLS. Celui-ci a été créé en 2002 pour réduire le risque de règlement des opérations de change et est détenu par une soixantaine de banques du monde entier parmi les plus actives sur ce marché, dont BNP Paribas, Crédit Agricole, Natixis et Société Générale, mais aussi HSBC. La Banque mondiale pour son compte a réalisé une émission obligataire sur cette technologie.

Autres exemples dans divers domaines : BitFury, une jeune pousse dans la blockchain a développé une plate-forme musicale permettant de mieux protéger les droits d’auteur ; Carrefour a déployé la technologie pour la traçabilité des poulardes d’Auvergne et vise à généraliser la technologie sur ses approvisionnements.

CARREFOUR EMPLOIE LA BLOCKCHAIN POUR ASSURER LA TRAÇABILITÉ DE SES POULETS FERMIERS D’AUVERGNE DE L’INCUBATION À LA DISTRIBUTION.

Une offre de plus en plus large

La plupart des grands industriels de l’informatique ont mis en place une plate-forme de chaîne de blocs. IBM, Oracle, Microsoft, SAP ont intégré la possibilité d’utiliser la technologie de registre distribué sur leur plate-forme. Pré-packagée, la plateforme devient plus facile à utiliser. On peut donc parier sur une démocratisation de l’utilisation des systèmes de blockchain par les entreprises.

A l’avenir les débats devraient se déplacer sur les algorithmes de consensus avec l’apparition de nouveaux algorithmes comme HashGraph qui semble de plus améliorer les performances sur la chaîne de blocs tout en respectant l’ordre des transactions. Encore jeune, la technologie va peu à peu atteindre la maturité. Cela n’empêche pas les grandes entreprises d’accélérer le pas et d’aller plus loin que de simples tests ou prototypes pour maîtriser cette technologie.

SAAS : en majesté !

Le modèle SaaS n’est plus une alternative mais est devenu le modèle dominant dans l’utilisation des logiciels dans les entreprises.

Le Cloud a gagné dans l’infrastructure et sa déclinaison pour fournir une application aussi. Le SaaS domine aujourd’hui et l’ensemble des logiciels est désormais proposé sous cette forme. De la bureautique à l’intelligence artificielle en passant par les ERP ou les logiciels de gestion de la relation client ou des ressources humaines, tous sont désormais disponibles en ligne, voire seulement sous cette forme. Comment expliquer un tel virage vers le tout en ligne ?

La maturité du Cloud

Les éditeurs d’applications fournies en SaaS profitent de la maturité des offres de Cloud sur lesquelles elles reposent. Les infrastructures ont désormais prouvé leur solidité. Les nombres d’interruptions de service se comptent sur les doigts de la main et sont principalement dues à des erreurs humaines ou de configuration. Les entreprises utilisatrices se déchargent aussi de nombreux soucis en évitant d’avoir à gérer des infrastructures, des bases de données et vont directement à l’essentiel en utilisant les outils dont elles ont besoin pour réaliser leur activité. Les entreprises profitent en plus des hauts niveaux de sécurité mis en place par les éditeurs en SaaS.

Elles bénéficient aussi d’un outil toujours à jour et de nouvelles fonctionnalités à chaque mise à jour, le plus souvent tous les trois mois. Elles peuvent alors choisir si ces nouvelles fonctionnalités les intéressent ou pas et les ajouter à destination de leurs utilisateurs.

Le plus souvent facturés à l’utilisation ou au nombre d’utilisateurs, les logiciels SaaS permettent de prévoir les dépenses et de les lisser en étant des dépenses opérationnelles ou des coûts fixes. Ces dépenses peuvent alors s’adapter suivant la santé de l’entreprise. Les logiciels en ligne couvrent maintenant à peu près tous les métiers et toutes les activités. Il est même possible de trouver les logiciels qui correspondent à la taille de l’entreprise. Certains logiciels vont ainsi viser les PME ou développer des outils pour des secteurs d’activité particuliers.

Un avantage rarement perçu est la possibilité d’ouvrir les applications à l’ensemble de l’écosystème de l’entreprise et ainsi de connecter l’ensemble des parties prenantes d’un projet ou d’une activité. En interne cela permet de casser les silos que les applications par métiers créaient, le logiciel de RH ne parlant pas forcément à celui qui gérait les clients.

Une marge de progression encore importante

S’il est devenu le modèle dominant, la SaaS n’a pas encore de leader affirmé et incontesté. Microsoft domine le marché avec environ 18 %, devant Salesforce (11,5 %). Adobe est sur le podium avec 7 %. Oracle suit derrière avec un peu plus de 4 % juste devant SAP et Google. Oracle par la bouche de Mark Hurd lors d’une interview à Bloomberg affiche ses ambitions et veut devenir ce leader du SaaS. Il ne vise pas moins de 50 % de ce marché des applicatifs en Cloud.

Print
3741

x
Rechercher dans les dossiers
Actuellement à la Une...
Il en a marre, le géant de Mountain View. Depuis de longues années il promeut le RCS, remplaçant promis du SMS, mais les opérateurs prennent leur temps. Alors, pour offrir le meilleur service possible aux utilisateurs, Google pousse le RCS par défaut sur Android Message en France et en Grande-Bretagne, contournant au passage les telcos.

Une enquête d’Opinium pour le compte d’Okta indique que les Français souhaitent se détourner des technologies de mots de passe.

Disponible en France depuis le 5 avril dernier, le P30 Pro est le nouveau porte-étendard du fabricant chinois Huawei. Six mois après la sortie du Mate 20 Pro, le P30 Pro attire tous les regards à cause de ses innovations, principalement dans le domaine de la photographie : un grand capteur, une plage focale étendue grâce à ses trois optiques signées Leica, et un piqué d’image bien présent. Article paru dans L'Informaticien n°177.

L’éditeur de solutions de stockage annonce de nouvelles solutions et services qui enrichissent son environnement en s’appuyant sur sa pile hyper convergente.

Mais quelle est donc cette mystérieuse vulnérabilité critique de Firefox que Mozilla vient de patcher. Sinon un court texte descriptif, les CERTs sont muets à son sujet et la documentation Bugzilla n’est pas disponible au commun des mortels. On sait seulement que cette faille 0day a déjà été exploitée.

GitHub, propriété de Microsoft, annonce le rachat du tout jeune Pull Panda. A tout juste un an, cette startup fournit une gamme d’outils collaboratifs destinés à la révision de code informatique. Désormais gratuites, ces fonctionnalités seront progressivement intégrées à GitHub.

Pas de compteur sur le site officiel des soutiens à la proposition de loi visant à affirmer le caractère de service public national de l'exploitation des aérodromes de Paris ? Qu'à cela ne tienne, des devs citoyens ont remédié à ce défaut de transparence.

Au Google Cloud Summit, qui se tient aujourd’hui à Paris, la direction du géant du cloud public a confirmé les orientations annoncées en avril. Si la division Google Cloud continue de parler de technologies et de technique, elle s’attaque aux verticaux et en particulier au secteur de la finance.

Le laboratoire pharmaceutique et le fournisseur de services Web vont mettre en place un nouveau laboratoire virtuel pour innover dans le domaine de la santé en puisant dans les nouvelles technologies.

Ça y est, Libra est officialisé. Monnaie virtuelle voulue par Facebook, elle a désormais droit à son livre blanc, sa documentation technique, ses structures, ses politiques de gestion… De quoi s’y perdre un peu. Le lancement est prévu en 2020.

Toutes les News

LIVRES BLANCS
Les entreprises et les organismes publics se focalisent aujourd’hui sur la transformation numérique. En conséquence, les DevOps et l’agilité sont au premier plan des discussions autour des stratégies informatiques. Pour offrir ces deux avantages, les entreprises travaillent de plus en plus avec les fournisseurs de services de cloud public et développent désormais des clouds sur site à partir d’une infrastructure qui répond à trois exigences de base:
1. Agilité sans friction des ressources physiques
2. Systèmes de contrôle optimisant l'utilisation des ressources physiques et offrant un retour sur investissement maximal
3. Intégration des divers composants de l'infrastructure pour un provisionnement et une gestion des ressources automatisés.


Pour fonctionner, votre entreprise doit pouvoir compter sur une solution de sauvegarde efficace, essentielle dans un monde marqué par une croissance exponentielle des données. Vous devez à la fois accélérer vos sauvegardes et pouvoir y accéder plus rapidement pour satisfaire les exigences actuelles de continuité d’activité, disponibilité, protection des données et conformité réglementaire. Dans cette ère de croissance effrénée, les cibles sur bande hors site et autres approches traditionnelles sont simplement dépassées.


L’Intelligence Artificielle promet de révolutionner la perception de la cybersécurité au coeur des entreprises, mais pas uniquement. Ce changement de paradigme engage, en effet, une redéfinition complète des règles du jeu pour les DSI et les RSSI, ainsi que l’ensemble des acteurs de la sécurité.


Lorsque l'on déploie des postes de travail, ils ont généralement tous la même configuration matérielle et logicielle (avec certaines spécificités selon les services). Mais on ne peut pas toujours tout prévoir et il arrive par exemple que de nouveaux programmes doivent être installés ou n’aient pas été prévus. L’accumulation de logiciels « lourds » est susceptible de provoquer des lenteurs significatives sur un PC allant jusqu’à l’extinction nette de l’application. Ce livre blanc explique comment optimiser les performances au travers de 5 conseils rapides à mettre en place.


Ce guide est conçu pour aider les entreprises à évaluer les solutions de sécurité des terminaux. Il peut être utilisé par les membres de l'équipe de réponse aux incidents et des opérations de sécurité travaillant avec des outils de sécurité des points finaux sur une base quotidienne. Il peut également être utilisé par les responsables informatiques, les professionnels de la sécurité, les responsables de la conformité et d’autres personnes pour évaluer leurs performances. les capacités de l’entreprise en matière de cybersécurité, identifier les lacunes dans la sécurité des terminaux et sélectionner les bons produits pour combler ces lacunes.


Tous les Livres Blancs