Dossier réalisé par Bertrand Garé et Guillaume Périssat avec Michel Chotard, Alain Clapaud et Bastien Lion.
CRM : La clé de la transformation numérique
Au début des années 2000, les frontières de l’IT étaient claires : l’ERP constituait le socle sur lequel tous les grands processus de l’entreprise devaient être modélisés. Tous les grands déploiements d’ERP ont été conduits sur ce principe. Ces projets ont souvent été menés dans la douleur mais l’approche a permis aux entreprises d’obtenir des gains de productivité significatifs. Néanmoins, la transformation digitale est venue bousculer cet édifice si durement construit. À cette stratégie centrée sur les processus et venue se substituer une approche orientée client et le CRM est passé du statut d’application périphérique vis-à-vis de l’ERP à celui de brique clé pour l’activité de l’entreprise. Le discours de Marc Benioff, CEO de Salesforce, n’est certainement pas étranger à ce mouvement de fond. L’éditeur a su placer son offre CRM en mode SaaS au centre d’un écosystème de solutions unique, écosystème estimé à 1 200 milliards de dollars par IDC sur la période 2019/2024.Le marché du CRM dépasse celui de l’ERP
Le CRM a clairement ringardisé l’ERP et avec la mise en place de stratégies Customer Centric dans la plupart des entreprises, le rôle du CRM a été largement renforcé au détriment de l’ERP dont la rigidité des processus est désormais considérée comme un frein à l’agilité réclamée par les métiers. Porté par cette dynamique, le marché des solutions et services CRM connaît désormais une progression annuelle supérieure à 15 % par an selon Gartner. Il dépasse 48 milliards de dollars, soit plus d’une douzaine de milliards de dollars de plus que le marché des ERP. L’écoute des clients sur les réseaux sociaux et surtout l’analyse des données collectées par le CRM ont permis aux services marketing/communication et services commerciaux d’être plus réactifs vis-à-vis des attentes des consommateurs. Même du côté de la production, certains industriels ont maintenant basculé dans une planification de la production pilotée par les commandes, c’est-à-dire les clients. Les éditeurs d’ERP intègrent de plus en plus à leurs offres des fonctionnalités tout droit venues du monde du CRM, avec de l’IA pour aider les utilisateurs dans la saisie des données, des interfaces mobiles, de la Data Vizualisation et bien entendu des ERP désormais disponibles sous forme de services SaaS. A. C.GREEN IT : Et si vous adoptiez l'éco-conception en 2020
Le numérique, malgré son côté éthéré, est loin d’être intangible et son empreinte écologique fait de plus en plus les gros titres. Selon une étude du site spécialisé GreenIT.fr, le numérique représente aujourd’hui à l’échelle mondiale 4,2 % de la consommation d’énergie primaire, 3,8 % des émissions de gaz à effet de serre et 5,6 % de la consommation électrique. Un chercheur suédois travaillant pour Huawei, Anders Andrae, estime pour sa part que les datacentres vont doubler leur consommation d’électricité au cours de la prochaine décennie, jusqu’à représenter 11 % de l’énergie mondiale. Bref, l’IT, ça pollue et ce n’est pas un hasard si les géants du secteur multiplient les initiatives vertes. Dernier en date, Microsoft a annoncé le 16 janvier son plan en faveur de l’environnement : être négatif en carbone à l’horizon 2030, soit éliminer plus de carbone qu’il n’en émet, et surtout, d’ici à 2050, supprimer l’ensemble du carbone que l’entreprise a pu émettre depuis 1975. Des objectifs ambitieux, mais il est possible d’agir à plus petite échelle. En février 2019, France Stratégie organisait un séminaire sur l’éco-conception, une notion qui n’est pas toute neuve mais qui revient sur le devant de la scène à mesure que l’opinion publique prend conscience des enjeux écologiques du numérique. Deux normes ISO, la 14092 (Intégration des contraintes environnementales dans la conception de produits et services selon une approche globale et multicritères) et la 14006 (Lignes directrices pour intégrer l’éco-conception) concernent cette démarche que la seconde définit comme « l’intégration des aspects environnementaux dans la conception et le développement de produit avec pour objectif la réduction des impacts environnementaux négatifs tout au long du cycle de vie d’un produit ». Il n’y a pas d’outils miracle pour développer un service numérique qui se veut respectueux de l’environnement, mais des bonnes pratiques et des réflexions à avoir. L’idée globale est de limiter l’impact environnemental du service ou du produit dans chacune des étapes de son cycle de vie à travers la définition de la fonction du service et le dimensionnement des infrastructures physiques et les couches logicielles sous-jacentes. G. P.EDGE & FOG : La périphérie au centre de l'IT
Avec la montée en volume et en puissance des équipements connectés en périphérie de réseau, l’Edge et sa déclinaison Fog computing vont tenir le haut du pavé en 2020. En 2025, on comptera plus de 21 milliards d’objets connectés. Le marché autour de ces équipements est vu comme un futur eldorado avec une estimation à 151 milliards de dollars en 2018. Une croissance de 37 % par rapport à 2017. Pour la plupart de ces équipements, il est nécessaire de traiter les données localement pour des temps de réponses rapides. On imagine mal une voiture connectée envoyer dans le Cloud les données pouvant demander un freinage immédiat face à un danger et attendre que la réponse vienne du centre de données ou du Cloud. L’Edge ou informatique en périphérie de réseau est l’intégration entre ce traitement et ce stockage en local et le Cloud. Si l’intégration se réalise avec le centre de données traditionnel de l’entreprise, on parle alors de Fog computing. Les deux environnements se présentent sous une forme distribuée qui permet des traitements décentralisés. De plus, cette manière de traiter les données réduit l’utilisation de bande passante Internet. Le Gartner voit dans l’Edge computing un complément à l’approche très centralisée des fournisseurs de Cloud hyperscale (AWS, Azure, GCP).Une redistribution du marché
Sur ce secteur en ébullition, les acteurs de l’informatique ne sont pas seuls même si certains comme HPE affichent de grandes ambitions et de lourds investissements (4 milliards de dollars et la volonté d’être le premier sur le marché). Ils vont se confronter d’abord aux fournisseurs de capteurs comme ZigBee ou Sigfox. Mais les industriels comme Siemens, General Electric, ABB, Bosch proposent aussi des alternatives et développent également des plates-formes. Les opérateurs de télécommunications sont aussi présents avec l’avantage d’avoir déjà les réseaux de communication et de travailler sur les protocoles spécifiques de l’Internet des Objets. On peut citer Objenious, une filiale spécialisée de Bouygues Télécom. Les entreprises de service comme Atos ou Capgemini sont aussi sur les rangs avec leur expertise de l’intégration et de la conduite de projet. La communication est un élément important pour la transmission des incidents vers le centre de données ou le Cloud qui va permettre après le traitement local d’analyser l’incident et de traiter le problème en profondeur, voire par des outils de machine learning ou des éléments d’Intelligence artificielle de prévenir les incidents ou de réaliser de la maintenance préventive et non plus réactive sur des équipements largement géodistribués ou critiques comme dans un hôpital.Une multitude de protocoles
Sigfox, LoRA, NB-IoT, Zigbee, NFC, BlueTooth, WiFi sont les protocoles les plus connus, mais il en existe une dizaine de principaux, tels que ceux-ci et bien d’autres développés par les industriels des capteurs. Chacun a sa spécificité et ses qualités, ce qui rend souvent difficile la conduite de projet du fait d’intégrations plus ou moins existantes entre ces différents protocoles. Comparativement à d’autres pays comme les États-Unis ou les pays asiatiques, la montée en puissance en France est assez lente et seuls de grands acteurs comme Engie ou la SNCF se sont lancés dans des projets. Le cycle de vente est long et ne se réduit pas sur ce type de projet. Pourtant notre pays avait dès 2016 lancé un plan gouvernemental autour des technologies de l’IoT. B. G.Équipements dédiés

STOCKAGE : Unification et logiciel

SD-WAN : La bonne année
Cela fait déjà quelques années que les fournisseurs de réseau proposent des solutions autour de la virtualisation du réseau WAN (Wide Area Network). 2020 pourrait être enfin l’année des déploiements de grande ampleur sur cette technologie. SD-WAN correspond à Software-Defined Wide Area Network, soit “ réseau étendu à définition logicielle ”, et est présenté comme la nouvelle évolution majeure des télécommunications. Un SD-WAN facilite la gestion du réseau en séparant la partie management de la partie réseau. La généralisation de l’utilisation des applications dans le Cloud (SaaS) a démontré que les réseaux traditionnels n’étaient pas adaptés à cet usage intensif. Les responsables réseau des entreprises se sont donc tournés vers d’autres solutions, dont le SD-WAN qui simplifie la gestion du réseau en décorrélant la bande passante et les équipements réseau du niveau de contrôle qui est centralisé. Le principal avantage de la solution est de réduire aussi les coûts pour la connectivité vers le Cloud. Notre perception que 2020 sera l’année du SD-WAN provient d’une rapide croissance du marché pour atteindre 9 milliards de dollars en 2021. D’ici à 2023, les cabinets d’analystes prévoient une croissance par an de 32,7 %. Forrester indique dans un de ses rapports que 90 % des gestionnaires de réseau veulent faire évoluer leur réseau étendu. Le but principal est de faire baisser les coûts autour du réseau qui représente de 21 % à 25 % du budget destiné au support d’un environnement utilisateur standard. Les cabinets d’analystes s’accordent à voir l’Europe de l’Ouest comme une zone allant connaître un fort développement sur cette technologie rattrapant les États-Unis qui sont aujourd’hui les principaux utilisateurs dans le monde. B. G.MULTI6CLOUD : Il s'impose comme le modèle dominant
Beaucoup d’entreprises ont initié leur marche vers le Cloud public en choisissant un fournisseur cloud unique. Elles choisirent notamment Salesforce pour qui le CRM fut la première expérience SaaS. Ce fut AWS ou Azure pour celles qui ont construit leurs premières applications cloud natives. Depuis, rares sont les entreprises à avoir mis tous leurs œufs dans le même panier. Elles n’hésitent pas à faire cohabiter divers CSP (Cloud Service Provider) dans leur système d’information. Les études montrent qu’entre 70 à 80 % des entreprises sont d’ores et déjà dans une approche multi-cloud. De multiples raisons explique ce choix. Il s’agit bien souvent pour elles d’aller piocher les meilleures offres techniques chez l’un ou l’autre de ses CSP. Les outils d’intégration gèrent désormais parfaitement les principaux acteurs cloud et Kubernetes est en train de lever les derniers verrous pour faire circuler des workloads d’un Cloud à un autre. Oracle et Microsoft ont même signé un partenariat pour faciliter les échanges entre leurs Cloud et nul doute que de tels accords devraient se multiplier à l’avenir. Enfin, le succès du modèle multi-cloud témoigne aussi de la volonté des DSI de limiter leur “ vendor lock-in ” vis-à-vis de ces acteurs cloud devenus incontournables. A. C.RPA : Il envahit notre quotidien
Le RPA (Robotic Process Automation) est certainement la technologie qui aura fait le plus de buzz en 2019. Faut-il rappeler les levées de fonds record de 177 millions de dollars de Signavia, 290 millions pour Automation Anywhere, 568 millions de dollars pour UiPath et enfin l’acquisition de Novayre Solutions par Appian au tout début de cette année 2020. Les investisseurs se sont emballés pour la technologie, mais surtout les entreprises se sont ruées sur ces solutions d’automatisation des processus. À peu près tout le gratin du secteur banque/assurance, des opérateurs télécom et des industriels de l’énergie ont déployé ce type d’outils à la fin des années 2010. L’heure est désormais au passage à l’échelle et à industrialiser les déploiements au sein de leurs organisations. En effet, les cas d’usage sont multiples et les métiers sont très demandeurs d’outils qui vont faciliter le travail de leurs collaborateurs. Tout l’enjeu pour les pionniers des RPA est d’industrialiser les déploiements, passer de quelques RPA à plusieurs dizaines voire centaines de RPA par an. Le RPA est bien plus qu’un simple logiciel informatique, c’est un outil qui va redéfinir le travail, assurant l’essentiel des tâches répétitives et ne laissant à l’humain que la gestion des exceptions. A. C.TOUT LOGICIEL : L'IT entre dans une nouvelle ère
En 2011, Marc Andreessen, co-fondateur de Netscape, publiait dans le Wall Street Journal un article fondateur « Why software is eating the world ». Le logiciel évince de plus en plus d’équipements, l’exemple de l’iPhone remplaçant une cinquantaine d’objets du quotidien comme l’appareil photo, la radio, le walkman est désormais célèbre. L’impact du tout logiciel dans l’IT entreprise est tout aussi significatif à l’orée de cette nouvelle décennie. Avec l’essor du Cloud, bon nombre de solutions qui nécessitaient un hardware dédié sont désormais disponibles sous forme …As a Service ou sous la forme d’un logiciel à déployer dans une simple VM. C’est le cas de l’ensemble des briques d’infrastructure réseau, depuis l’équilibreur de charge, jusqu’au firewall ou les passerelles de chiffrement en passant par le routage du trafic. Il est ainsi possible de constituer un datacenter virtuel complet dans le Cloud sans acheter le moindre hardware. Le constat est le même du côté des grands Data Warehouses où acheter des équipements de stockage dédiés va devenir l’exception. Quant à l’infrastructure matérielle du datacenter lui-même, celle-ci se résume de plus en plus à des racks de serveurs interconnectés à un simple commutateur de haut de rack… et c’est tout ! A. C.MONITORING : Obtenir une visibilité complète
Plus connu sous les vocables d’ITOM (IT Operations Management), d’ITSM (IT Service Management) ou encore d’APM (Application Performance Management, lire article dans ce numéro en p. 60) et d’autres acronymes, le monitoring ou suivi des performances et du fonctionnement de l’informatique est devenu une pierre angulaire de l’exploitation. Il vise à proposer des services en ligne constamment accessibles et répond à l’impatience des utilisateurs qui supportent de moins en moins les temps d’attente pour charger les pages d’un site. En informatique l’incident, l’interruption de service devient quasiment une affaire d’État avec de nombreuses conséquences sur l’image de l’entreprise, le business avec du chiffre d’affaires en moins. Il convient donc de maintenir la disponibilité des systèmes. Les entreprises se dotent en conséquence d’outils logiciels qui leur permettent de suivre, souvent en temps réel, le fonctionnement de leur informatique de l’infrastructure au réseau en passant par les applications. Ce suivi leur apporte la visibilité la plus complète possible sur leur système. Globalement ce secteur est en forte croissance : 13 % sur l’année 2018. Les éditeurs du secteur comme Splunk ou SolarWinds ont le vent en poupe. Ils ajoutent des éléments prédictifs avec l’utilisation de l’Intelligence artificielle ou de fonctions analytiques. Le fonctionnement de l’ensemble de l’infrastructure informatique est du coup sous étroite surveillance. Ces outils permettent d’obtenir des patterns et donc de voir lorsqu’un comportement anormal survient. Chacun des acteurs commence à sortir de son cœur de compétence pour étendre le champ d’application de ses logiciels. À noter que le secteur a déjà connu une première vague de concentration avec de gros rachats comme celui d’AppDynamics ou de CA Technologies. Cette concentration devrait continuer au cours de l’année 2020. B. G.CONFORMITÉ : S'adapter à des changements constants

LOW CODE : Le futur des applications

WORKSPACE : Le travail change, l'espace de travail aussi
La manière de travailler change sous la pression de la mobilité, du télétravail et d’une recherche de plus de productivité. L’espace de travail évolue dans le même sens pour faciliter à la fois le travail et la communication mais aussi pour apporter plus d’efficacité. Ainsi, ne dites plus bureau mais Espace de travail numérique. Le Digital Workspace est une approche globale qui ne se contente pas de mettre à disposition des salariés des outils digitaux mais apporte un espace de travail complet qui comprend les outils de communication, de collaboration et les outils spécifiques selon le profil du collaborateur. Il permet aux collaborateurs d’accéder à leurs données et applications partout et sur tout type d’appareil. Le nec plus ultra de l’espace de travail digitalisé comprend les éléments suivants : la virtualisation de postes et d’applications, le partage de fichiers et collaboration de contenus, la gestion unifiée des terminaux, un accès sécurisé aux applications web/navigateurs sécurisés, l’authentification unique (SSO) et des processus guidés et automatisés via machine learning. Les processus automatisés sont importants car la force de travail se diversifie et ne comprend pas seulement des humains mais aussi des robots et de l’Intelligence artificielle. L’autre point important est l’intégration qui autorise l’accès à toutes les applications à partir d’une seule et unique interface. De nombreux logiciels utilisent parfois des outils tiers comme Slack ou WhatsApp comme entrée sur le reste de l’espace de travail digital. Des déclencheurs par API permettent à partir de cette interface de lancer des tâches ou d’attribuer des tâches sur d’autres applications présentes dans l’entreprise. Ce type d’espace de travail va donc remplacer les espaces de travail que nous connaissons actuellement et 2020 pourrait bien être l’année de déploiements étendus sur ce type d’espace qui dépasse la simple mise à disposition de téléphones et de laptops. Attention cependant à bien accompagner les salariés dans ce nouvel espace et à réfléchir à l’organisation qu’induit cette petite révolution dans le travail. B. G.CYBERSÉCURITÉ : L'IA a un rôle à jouer
En 2020, alors que les cyberattaques se complexifient et se font de plus en plus violentes, le secteur de l’IT va devoir s’emparer des armes adéquates pour faire face. L’Intelligence artificielle sera à coup sûr de celles-là. Selon une étude récemment menée par Crowdstrike auprès de professionnels de l’IT dans le monde entier, 77 % des entreprises privées ont subi au moins une attaque informatique depuis leur création. Un chiffre en augmentation d’année en année, qui s’explique notamment par un nombre toujours plus important d’outils à la disposition des attaquants. Pour faire face, les SI doivent multiplier les moyens de répondre aux offensives subies. Et parmi ces moyens, l’IA semble à la fois plus efficace et prometteuse. Le principal constat des analystes sur l’évolution de la cybersécurité, c’est que là où la méthodologie des attaquants n’a pas beaucoup évolué depuis vingt ans, la surface d’attaque s’est étendue. Le développement croissant du Cloud a décuplé les possibilités de brèches dans les systèmes d’information, ce que les hackers ont très vite remarqué. Selon Renaud Bidou, directeur technique Europe du sud du Nippon Trend Micro, cet accroissement de la surface d’attaque impose un « énorme enjeu d’assimilation » qu’il faut prendre en compte dès cette année. « Les informaticiens se retrouvent face à des systèmes qui ne fonctionnent pas comme un réseau informatique lambda », analyse-t-il. Une problématique d’autant plus palpable dans les systèmes industriels dont la sécurité est conçue « avec des protocoles pas du tout adaptés aux risques actuels », et qui devront faire l’objet d’une attention particulière vu les données critiques en jeu.Mieux gérer les alertes de sécurité
L’implémentation de l’IA dans de nombreux secteurs et supports peut être un avantage non négligeable dans l’anticipation des attaques. « On peut interconnecter les moteurs d’IA présents sur les postes, sur le réseau, sur le gateway… et créer un réseau de neurones qui va fournir de l’information contextuelle, créer tout un schéma de corrélation et potentiellement s’auto-corriger », poursuit Renaud Bidou. Un moyen de réduire le nombre d’alertes envoyées aux analystes, un autre enjeu primordial en 2020. « Des entreprises reçoivent jusqu’à 11 000 alertes par jour », note Grégory Cardiet, directeur avant-ventes EMEA de Vectra AI. « Avec 18 personnes dans l’équipe opérationnelle et cinq minutes en moyenne pour gérer une alerte, comment faire ? Pour moi il va y avoir de plus en plus d’outils qui ne vont pas forcément faire de l’analyse et de la détection pure, mais agir comme des assistants personnels. L’idée est d’aider l’analyste à prendre sa décision en utilisant la corrélation avec des événements passés pour détecter si un comportement similaire se dégage. » Une meilleure gestion des alertes peut offrir un embryon de réponse à une problématique de plus en plus préoccupante selon lui : « la pénurie d’employés dont souffre le marché de la cybersécurité. Il y a environ 150 000 analystes de sécurité dans le monde, pour 300 000 postes ouverts. Si on réussit à arrêter les alertes qui ne servent à rien et qu’on aide les professionnels à être plus efficaces, cela rendrait le job plus attrayant, avec moins de compétences requises. » Enfin, le secteur de la sécurité informatique doit plus que jamais prendre en compte le contexte mondial dans sa manière d’anticiper les offensives. C’est en tout cas ce que préconise Sam Curry, RSSI de Cybereason, qui évoque « les gros événements géopolitiques – élections américaines, Brexit, Jeux de Tokyo, ou la crise avec l’Iran ». Des points de tension auxquels le secteur de l’IT devra accorder toute son attention, car les entreprises privées ont tendance à devenir de formidables cibles de déstabilisation dans ce type de conflit, notamment via les cyberattaques. B. L.Intégrer l’IA dans les SOC

API : Le fondement d'une nouvelle économie
Les API privées se font une place
Les API publics dont nous venons de parler ont leur pendant interne dans l’entreprise à partir d’API privées. Selon une étude réalisée pour le compte de Nginx, 68 % des entreprises utilisent ou testent des micro-services en s’appuyant sur des API privées. D’après un sondage réalisé pour Imperva, un éditeur de solutions de sécurité, la moitié des entreprises utilisent plus de 300 API. Des entreprises comme Microsoft ou Amazon ont d’ailleurs désormais des stratégies d’entreprise autour des API. Le marché de la gestion des API est dominé par Apigee de Google, Mulesoft, suivi de Software AG, IBM et Axway. Ces acteurs fournissent des suites complètes de gestion et de sécurisation des API qu’elles soient publiques ou internes. Des outils de ce type sont nécessaires car la multiplication des API rend leur gestion complexe, mais nécessaire pour le fonctionnement des services et surtout elles permettent de suivre l’évolution des besoins de plus en plus sophistiqués des entreprises. B. G.Place de marché

QUANTIQUE : La France crée trois Hubs
PUCES : Le 5nm cette année, le 3 dans la foulée !
Loi de Moore certes, mais le silicium n’a pas encore dit son dernier mot. Alors que la gravure en 7 nm fait l’objet d’un pic de demande de la part des constructeurs, les fondeurs annoncent la livraison des premières puces 5 nm pour la fin de l’année 2020. Ainsi on a appris début janvier que l’A14, le processeur qui équipera les futurs iPhones 12 – attendus pour septembre – seront gravés en 5 nm. De même, AMD annonce dans sa feuille de route que la cinquième génération de ses Ryzen, prévus pour 2021, sera elle aussi gravée en 5 nm. AMD tout comme Apple sont en effet les premiers à profiter des toutes nouvelles lignes de production du Taïwanais TSMC. Le fondeur, après avoir levé le voile sur sa technologie de gravure 5 nm en avril dernier, assure que la production pourra débuter en mars. Il est au coude à coude avec Samsung Foundry, qui a certes pris du retard sur le 7 nm mais s’est positionné très tôt sur le 5 nm, et va même plus loin en annonçant la gravure en 3 nm, dont il a déjà produit de premiers prototypes. Le calendrier du Sud-Coréen est ambitieux, puisqu’il entend lancer la production à la chaîne en 2021. TSMC vise de son côté une production en 2023. Du côté d’Intel, on est toujours sur du 10 nm, le 7 nm étant prévu pour l’an prochain, le 5 nm en 2023 et le 3 nm en 2025. G. P.EXAFLOP : Qui sera le premier ?
Qui sera le premier à atteindre l’exaflop ? Certains observateurs du secteur prévoyaient, jusqu’en 2018, que les ÉtatsUnis, le Japon et la Chine pourraient lancer en 2019 ou 2020 des supercalculateurs capables d’atteindre 10 puissance 28 calculs par seconde. Mais, des trois concurrents, seule la Chine continue d’affirmer qu’elle pourra livrer son supercalculateur exaflopique cette année. Et encore… l’empire du Milieu est particulièrement avare de détails concernant cet exploit. Aux États-Unis, ce sera pour 2021. Aurora, assemblé par CrayHPE et Intel pour le centre de recherche d’Argonne, dépendant du Department of Energy, à Chicago, sera opérationnel en 2021 et atteindra l’exaflop. Il sera toutefois dépassé cette même année par Frontier, toujours développé par Cray mais cette fois-ci avec AMD, qui devrait atteindre 1,5 exaflop de puissance de calcul. Ce second supercalculateur équipera pour sa part l’Oak Ridge National Laboratory, qui accueille déjà le supercalculateur le plus puissant à l’heure actuelle, le Summit, et ses deux cents “ petits ” petaflops. Pendant ce temps, au Japon, Fujitsu entend revenir dans le Top 5 des supercalculateurs avec le Post-K, supercalculateur destiné à remplacer le K-Computer de Riken. Le Post-K devrait être opérationnel lui aussi en 2021. En Europe enfin, l’initiative EuroHPC, co-financée par l’UE, devrait voir deux machines exascales livrées en 2022 ou 2023. Le Vieux Continent entend profiter de la course à l’exaflop pour rattraper son retard : seule l’Allemagne a pu placer un supercalculateur dans le Top 10 mondial, tandis que le premier Français, le Bull Sequana X1000 du CEA, arrive derrière l’Italien HPC4 d’Eni. G. P."AIOPS" : La vague de l'IA touche la production informatique

Une révolution pour la productivité
Le but de l’AIOps est évidemment d’automatiser ce qui est automatisable dans la production informatique en apportant une vue temps réel à partir des données qui transitent sur le réseau en rapport avec l’exploitation de l’informatique. À partir des logs, traces et autres éléments fournis par l’informatique, ces logiciels analysent et apprennent le comportement normal de votre informatique. Un des avantages de ces outils est donc de pouvoir détecter plus rapidement les comportements anormaux ou quand surviennent des signes avant-coureurs d’incidents comme une hausse des temps de réponse d’une application ou d’une base de données. Ces logiciels proposent même des solutions de remédiation à des incidents. Reste cependant à l’humain de prendre la décision de suivre la préconisation de l’Intelligence artificielle ou non. Certains logiciels comme celui de l’Israélien Ayehu se proposent même d’automatiser totalement le service desk des entreprises dont 85 % des coûts sont des ressources humaines. Avec humour le CEO de cette entreprise indique que son opérateur virtuel ne prend jamais de pause-café ! Cette approche drastique n’est cependant pas la plus simple à mettre en œuvre du fait de la résistance des équipes informatiques qui se sentent dépossédées de leur fonction. Une conduite du changement appropriée est donc nécessaire pour démontrer l’avantage qu’en tirent les équipes pour fournir un meilleur travail et une meilleure exploitation informatique grâce à l’Intelligence artificielle. L’automatisation peut prendre différentes formes et des solutions existent intégrant des robots s’appuyant sur le traitement du langage naturel. Il s’agit de fournir des automatismes s’occupant de tâches fastidieuses répétitives et n’ayant pas grande valeur pour l’entreprise, comme le changement de mot de passe oublié un lundi matin ! B. G.
5G + WIFI6 : Vers un printemps de l'innovation
L’édition 2020 du Consumer Electronics Show à Las Vegas (7-10 janvier) a de nouveau attiré des visiteurs du monde entier pour découvrir les dernière tendances en matière d’IoT, d’informatique, de smartphones, de robotique, d’Intelligence artificielle et de technologies avec la 5G et le WiFi 6 en vedette. Dans les smartphones, tous les regards étaient évidemment tournés vers la 5G. Samsung a montré toutes ses déclinaisons dont le Galaxy Fold 5G, tout comme Huawei et son Nova 5T. Le Coréen LG est quant à lui reparti avec un CES Award pour le G8X ThinQ qui, en plus d’être compatible 5G, intègre un double écran pour du multi-tâche. Avec ce smartphone nouvelle génération, l’utilisateur peut surfer sur le Web tout en regardant une vidéo sur le second écran. Les marques Motorola et Xiaomi auront elles aussi leurs modèles 5G grâce à l’intégration des nouvelles puces Snapdragon de Qualcomm. D-Link a présenté en avant-première son antenne extérieure 5G (DWR-21100) à destination des particuliers afin d’augmenter la puissance du signal dans une maison. Pour finir sur les smartphones et les tablettes, la start-up californienne a dévoilé le HomeSoap. Après le PhoneSoap 3, qui utilise les UV-C pour détruire les bactéries sur les téléphones en quelques secondes, le HomeSoap reprend la même technologie mais dans un format plus grand pour y glisser une tablette. La 5G a également trouvé sa place dans les ordinateurs portables comme l’a montré Lenovo avec le tout premier modèle : le Yoga 5G. Intégrant une puce Qualcomm Snapdragon 8cx 5G Compute, ce modèle tactile est doté de neuf antennes internes. Il devrait être disponible au printemps pour un prix de 1 499 dollars. Concernant le WiFi 6, TP-Link dévoilait son routeur AX-1800 pour couvrir les zones les plus inaccessibles d’un bâtiment avec jusqu’à douze appareils connectés en même temps et sans réduction de débit. Dans la même veine, D-Link présentait le nouveau Mesh Covr-1902 AC1900. « Notre nouveau Mesh Covr est compatible WiFi 6 et va couvrir une surface de 550 m2. Il fonctionne comme les précédents modèles puisque l’utilisateur passera d’un routeur à l’autre en fonction de la puissance du signal. Il sera vendu au prix de 270 dollars et convient parfaitement aux maisons où se trouvent de plus en plus d’objets connectés », indique Trent Prestegar, product marketing manager. M. C.Un portable de 860 g !

IOT : La maison en pleine transformation
Somfy prend soin de la qualité de l’air

Samsung fait le show avec son Ballie
