X
Ordinateur quantique
Stéphane Larcher / vendredi 29 décembre 2017 / Thèmes: Big Data, Cloud, Développement, Dossier

Ordinateur quantique

The next big thing(k)

L’année 2017 aura vu une accélération impressionnante concernant le futur des ordinateurs quantiques. Les premiers simulateurs ou ordinateurs sont proposés par quelques acteurs qui s’affairent dans un domaine où les perspectives sont vertigineuses pour l’avenir de la planète et de l’humanité. Tour d’horizon des forces en présence.

Si Shakespeare revenait parmi nous aujourd’hui, il serait contraint de changer la célèbre réflexion d’Hamlet : To be or not to be, that is the question. Dans l’univers quantique, la formule devient : Être « et » ne pas être, ce « n’est pas » la question ! En effet, le monde quantique se caractérise en premier lieu par la superposition d’états. L’informatique « classique » est régie par les bits qui prennent la valeur 0 ou 1 selon que le courant circule ou non. Avec les Quantum bits ou « qubits », ce n’est plus zéro « ou » un, mais zéro « et » un ; et une infinité d’états intermédiaires. C’est ce que l’on appelle une combinaison linéaire d’états. Ceci a été popularisé en 1935 par Erwin Shrödinger dans son fameux paradoxe du chat. Enfermé dans une boîte qui contient également une fiole de poison, un événement brise la fiole de poison. Selon la théorie quantique, le chat est à la fois mort et vivant tant que l’on n’a pas ouvert la boîte pour procéder à ce que l’on nomme la mesure quantique. Et si l’on ajoute que le chat mort « et » vivant pourrait se trouver dans deux boîtes en même temps, on met le doigt sur un second phénomène essentiel que l’on nomme l’intrication quantique.

Majorana, l’extra-terrestre

Le « en même temps » cher à notre président jupitérien est le fondement de la physique quantique et la notion est particulièrement contre-intuitive. C’est d’ailleurs le terme le plus souvent employé par les spécialistes. S’embarquer dans le voyage quantique conduit à fréquenter la fine fleur des physiciens et mathématiciens du siècle passé : Einstein, Bohr, Heinsenberg, Planck, Schrödinger, Paoli, Dirac, De Broglie, Gamow ou encore Majorana, l’extra-terrestre selon Étienne Klein. Nous ne saurions d’ailleurs trop vous recommander la série de trois conférences sur la physique quantique animées par M. Klein et disponibles sur YouTube. Présentant ces différentes personnes, Étienne Klein dit : « Tous sont des génies, il n’y a pas de doute là-dessus. Mais en travaillant beaucoup, on arrive à suivre leurs raisonnements. Majorana, c’est un extra-terrestre, il est hors catégorie. Il ne pouvait plus discuter avec les physiciens de son époque. … donc il s’est arrangé pour que ses articles soient lus quarante ans plus tard.» Nous y reviendrons en détail plus loin puisque le fermion de Majorana – l’une de ses trouvailles – est à la base de la recherche menée par Microsoft avec son approche topologique.

Un des étages de l'ordinateur quantique d'IBM.

Après des années de recherche dans les laboratoires académiques et au sein des entreprises, l’informatique quantique a considérablement progressé ces deux dernières années et il semble que nous soyons à l’aube d’une révolution absolument fondamentale. Rappelons que les ordinateurs quantiques ont été imaginés en 1982 par le prix Nobel 1965 de Physique, Richard Feynman, six ans avant sa mort. M. Feynman est considéré comme l’un des physiciens les plus influents de la 2de moitié du XXe s. Concernant le principe des qubits, ceux-ci ont été décrits par Mingsheng Ying dans un article intitué Quantum Computation, quantum theory & AI.

Le problème principal de ces machines est lié au fait que dès que l’on commence à empiler des particules subatomiques, même si on est proche du zéro absolu et de la matière condensée, dans un état dans lequel « plus rien ne bouge », ces particules sont tout de même en interaction les unes avec les autres, et avec le monde qui les entoure.

Si de nombreux laboratoires de recherche travaillent sur ces sujets, les constructeurs sont peu nombreux à y participer et encore moins à communiquer. On dénombre IBM, Google, Microsoft, Atos, Intel et DWave. Possiblement, d’autres acteurs comme le Chinois Huawei sont vraisemblablement sur les rangs, mais la Chine n’a pas fait l’ombre d’un commentaire sur le fait qu’elle travaillerait sur un calculateur quantique alors que l’on sait qu’elle déploie des efforts sur les réseaux et la cryptographie quantique. Le fait que l’Empire du Milieu ne communique pas ne signifie donc nullement qu’il ne participe pas à la recherche. Rappelons-nous que personne ne soupçonnait ses travaux dans le domaine du HPC (High Performance Computing) alors que les supercalculateurs chinois trustent maintenant les premières places du HPC 500 et que leur nombre est plus important que les calculateurs américains

Ettore Majorana, un des génies du XXème siècle.

Un simulateur de 40 qubits

Commençons donc notre tour d’horizon des acteurs du marché. Une fois n’est pas coutume, le Français Atos a décidé de se lancer dans la course et affiche de sérieuses ambitions, et pas seulement des ambitions. La société dirigée par l’ancien ministre et ancien président de France Télécom, Thierry Breton, est aujourd’hui la seule entreprise au monde à commercialiser un véritable simulateur quantique opérationnel. Profitant de ses connaissances dans les domaines du HPC, de la sécurité ou encore des serveurs in memory, Atos propose depuis la fin du printemps sa Quantum Learning Machine, une bête de course dotée de 16 CPU, 24 To de mémoire et qui est capable de simuler jusqu’à 40 qubits. Cette machine est donc utilisée pour tester les programmes, créer de nouveaux algorithmes, découvrir les subtilités de la programmation quantique. La promesse faite par Atos est que toutes les applications ainsi créées et tournant sur le simulateur seront fonctionnelles sur un calculateur quantique lorsque celui-ci sera disponible. L’autre promesse est la suivante : Atos sera le premier constructeur – et vraisemblablement le seul – européen à livrer un calculateur quantique.

« Nous avons lancé notre programme au début de l’année 2016 », indique Philippe Duluc Chief Technology Officer Big Data & Sécurité d’Atos. « La réflexion part de deux ruptures technologiques qui vont se produire. La première concerne le calcul. La loi de Moore va s’arrêter alors que nos clients réclament toujours plus de puissance de calcul. Il est donc impératif de travailler sur le calcul quantique. La deuxième rupture est dans le domaine de la cyber-sécurité. En effet, avec l’algorithme quantique de Shor, il deviendra possible de casser les clés de chiffrement RSA et d’autres algorithmes cryptographiques asymétriques qui garantissent aujourd’hui le bon fonctionnement d’Internet. »

Atos travaille donc également sur la cryptographie post-quantique au sein de l’entreprise et en partenariat avec différents universitaires (lire encadré en page 16). Un autre axe de travail est la veille technologique sur les différents composants de l’ordinateur quantique. Actuellement, les deux technologies quantiques les plus prometteuses sont les circuits supraconducteurs et les ions piégés. « Nous analysons les différentes technologies au travers de partenariats. Nous ne faisons pas de pari sur l’une ou l’autre. C’est également lié à la partie programmation car les différentes technologies ne permettent pas toujours de faire les mêmes traitements sur les portes quantiques, et nous intégrons ces différences dans notre simulateur», poursuit M. Duluc.

L'ordinateur d'Atos permet de simuler jusqu'à 40 qubits.b

Enfin, une équipe est également chargée de travailler sur de nouveaux algorithmes quantiques spécifiques au Machine Learning.

Le programme Atos Quantum comprend une centaine de personnes, dont une vingtaine de chercheurs dédiés au calcul quantique. Le programme, supervisé directement par M. Breton, s’appuie sur un conseil scientifique qui réunit le mathématicien Cédric Villani, le prix Nobel de Physique Serge Haroche, Alain Aspect, David Divicenzo, Daniel Esteve et Artur Ekert. Tous sont considérés comme des sommités dans le domaine. Le conseil se réunit deux fois par an pour faire l’état des lieux, confronter les avancées, les recherches.

Interrogé sur la relative solitude d’Atos au niveau européen, M. Duluc n’esquive pas. « Sur le volet industriel, c’est exact. Mais nous avons la chance d’avoir un secteur académique très bien développé en France et en Europe. Nous avons des relations privilégiées avec le CEA, l’UPMC, l’INRIA. J’ajoute que l’Union européenne a lancé sur le domaine du quantique un Flagship doté de 1 milliard d’euros et nous souhaitons être présents dans ce projet. » Il précise également que quelques pays européens (Royaume-Uni, Pays-Bas) ont mis en place des financements nationaux et ne désespère pas que ce soit prochainement le cas de la France. M. Duluc souligne cependant que les montants aujourd’hui investis sont sans comparaison avec ce qui est fait aux États-Unis ou au Canada et rappelle les passerelles entre industriels et universitaires, un phénomène qui se développe en France mais qui n’est pas encore au même niveau.

Lorsque nous l’interrogeons sur une date de commercialisation d’un ordinateur quantique général, le CTO se montre d’une prudence de sioux, s’appuyant derrière la rigueur scientifique qui sied dans ce domaine. Nous lui proposons l’année 2020. Il ne confirme pas mais estime qu’une puissance de 40 ou 50 qubits pourrait être atteinte et possiblement 100 qubits si les technologies continuent à progresser à la même vitesse qu’actuellement. Interrogé sur les premières applications, il met en avant la chimie quantique permettant de travailler par la simulation sur de grosses molécules. Ceci ouvrira la voie à de nouveaux médicaments ou de nouveaux matériaux.

Un saut quantique… en 12 mois

Si Atos est le seul constructeur à disposer d’un simulateur quantique de la taille d’un serveur d’entreprise, IBM est le seul industriel à proposer de tester gratuitement un véritable ordinateur quantique auquel on accède via le Cloud. Le premier modèle a été présenté il y a un an et disposait d’une puissance de 5 qubits. Très récemment, Big Blue en a proposé deux nouveaux : un modèle 16 qubits, toujours accessible, et un prototype de 17 qubits qui pourrait servir de base à un futur modèle commercialisé. IBM a ouvert le projet en construisant une API, un kit de développement et plus de 300 000 expériences ont d’ores et déjà été effectuées. La prestigieuse revue Nature vient de publier un article montrant les travaux réalisés par des chercheurs sur l’hydride de lithium et l’hydride de berylium. Xavier Vasques, directeur technique chez IBM France, l’indique : « Nous voulons montrer notre maîtrise du processus industriel. C’est ce qui nous a permis de progresser rapidement de 5 à 16 qubits en une année ». L’ordinateur quantique proposé par IBM utilise des boucles supraconductrices. Le cœur quantique fonctionne à une température de 15 millikelvin, soit 0,15 degré au-dessus du Zéro absolu (– 273,15 °C). La « bestiole » est une pièce entière bardée de cryocompresseurs à base d’helium liquide qui ont pour objectif de maintenir cette température extrême, indispensable pour maintenir le plus longtemps la stabilité des qubits et, conséquemment, leur permettre de fonctionner et de les lire. « Le plus important est l’aspect matériel. Cryocompresseurs : cela demande beaucoup de recherche pour développer des matériaux en termes de supra conductivité, mais pas uniquement. Isolants, compresseurs, micro-ondes… Le qubit n’est pas le seul paramètre car il faut s’atteler à la gestion et la correction d’erreurs qui sont des opérations complexes. »

Interrogé sur le délai pour obtenir un ordinateur fonctionnant à 50 qubits, qui dépassera tout ce qu’il est possible de faire avec un calculateur traditionnel, M. Vasques se refuse à donner une date. « Je sais que nous allons y arriver mais je ne peux pas vous dire quand. Nous sommes humbles dans l’approche et nous communiquons uniquement lorsque nous sommes sûrs. » Comme M. Duluc chez Atos, Xavier Vasques voit les premières applications dans la chimie moléculaire et rappelle qu’une quinzaine d’articles ont déjà été publiés, dont celui publié par Nature cité plus haut. Articles qui s’appuient sur des travaux réalisés à l’aide de l’ordinateur quantique d’IBM. Il insiste également sur l’importance de créer un vaste écosystème.

Le lièvre Google…

En premier lieu, Google s’est appuyé sur l’ordinateur quantique de DWave que nous étudierons plus loin. Mais l’entreprise de Mountain View s’est lancée dans sa propre recherche et affirme pouvoir présenter d’ici à la fin de l’année un ordinateur quantique qui approcherait les 50 qubits et offrirait une fiabilité de 99,7 %. Comme IBM, Google s’appuie sur une technologie de supra-conducteurs. Par rapport à d’autres, Google a démarré relativement tard avec l’arrivée de John Martinis, professeur à l’université Santa Barbara de Californie, l’une des écoles les plus pointues et les plus actives dans le domaine quantique. Comme à son habitude, Google n’a pas fait les choses à moitié et a donc décidé d’investir massivement dans ce domaine, en s’appuyant notamment sur les travaux de M. Martinis. Toutefois, ce dernier a déclaré au mois d’août dernier, lors de Crypto 2017, qu’il faudrait une dizaine d’années avant que l’ordinateur quantique ne devienne une réalité concrète. Lors de cette conférence, John Martinis est également revenu sur la notion de qubits de calcul et qubits de correction d’erreurs. En effet, la course à l’armement au nombre de qubits ne signifie rien en soi. En effet, il faut savoir que selon les technologies – à l’exception du topologique – le nombre de qubits nécessaires à corriger les erreurs intervenant dans les qubits de calcul est de 1 000 à 10 000 fois plus élevé. Et bien évidemment, plus on superpose des qubits, plus la tâche est ardue.

John Martinis (Google) : «Il faudra encore une dizaine d'années».

Google se montre plutôt discret sur son engagement, mais continue à affirmer la présentation de ce chip de 49 qubits d’ici à la fin de l’année, ce que semble confirmer un chercheur du MIT, Simon Gustavsson : « Google et IBM sont au même niveau », affirme-t-il. Si Google arrive donc à faire fonctionner son calculateur à 49 qubits, il obtiendrait alors ce que l’on nomme la suprématie quantique, c’est-à-dire réussir à réaliser des calculs inatteignables par des ordinateurs traditionnels.La magie du qubit est que le rajout de 1 a pour conséquence de multiplier par 2 la capacité théorique de calcul sous-jacente. Ce qui est très compliqué, c’est de maintenir la cohérence de l’environnement.

… et la tortue Microsoft

Et si Microsoft mettait tout le monde d’accord ? Comme dans la fable de La Fontaine, Microsoft joue le rôle de la tortue. En effet, l’entreprise travaille sur le quantique depuis 1997, lorsque Microsoft a recruté Michaël Freedman, médaille Fields 1986. En compagnie d’Alexei Kitaev, ils ont fait le pari d’un ordinateur quantique topologique reposant sur le fermion de Majorana, théorisé en 1937. Comme le souligne Bernard Ourghanlian, CTO de Microsoft France, l’entreprise de Redmond a fait un pari complètement dingue. Lorsque la recherche a démarré, personne n’avait pu prouver l’existence de cette particule qui est en même temps son antiparticule et il a fallu attendre 2012 pour qu’elle soit enfin vue par Léo Kouvenhowen de l’université de Delft, aux Pays-Bas.

Le choix du topologique pourrait bien se révéler le plus judicieux. En effet, selon les chercheurs de Microsoft et leurs partenaires, le fermion pourrait présenter plusieurs avantages décisifs, comme indiqué sur l’iconographie ci-contre présentée par M. Ourghanlian lors de la conférence Microsoft Experiences au mois d’octobre dernier. Le fermion s’avérerait beaucoup plus stable que les autres particules et conséquemment durerait plus longtemps et nécessiterait 100 à 1 000 fois moins de qubits pour les corrections d’erreur. Si tout ceci est avéré, l’ordinateur quantique topologique pourrait bien gagner la loterie.

Tous les sujets balayés ces 20 dernières années

Microsoft est donc en train de bâtir un ordinateur quantique à trois étages. L’étage du bas – le cœur quantique – est refroidi à 0,02° Kelvin, à l’instar de ce que proposent IBM ou Google. Un étage au-dessus est le cryogénique. « L’ordinateur cryogénique fonctionne en état de supraconductivité et son rôle est de piloter et contrôler l’état des qubits de l’étage du dessous. Enfin, il y a un étage traditionnel qui fonctionne dans une salle des machines pour programmer tout cela », explique M. Ourghanlian.

Dans ses 20 années de recherche, Microsoft a balayé de très nombreux sujets et c’est pourquoi l’entreprise fondée par Bill Gates indique aujourd’hui avoir une vision très claire et très détaillée de tout ce qui compose le quantique : matériels, logiciels, compilateurs, algorithmes, langage de programmation, applications. Microsoft affirme avoir déjà des solutions pour résoudre les équations de Schödinger nécessaires pour résoudre le problème de la captation carbone. Redmond travaille aussi sur le remplacement des techniques de production d’engrais lesquelles sont actuellement très coûteuses en énergie. D’autres équipes réfléchissent autour de nouveaux matériaux. Certes, il va falloir encore des années pour arriver à une puissance de calcul suffisante (100 à 200 qubits) pour résoudre ces questions, mais les algos sont en cours de création. D’ici à la fin de l’année, Microsoft va mettre à disposition un simulateur de 40 qubits via le Cloud Azure et proposer un nouveau langage de programmation, dédié à la programmation quantique, connu pour le moment sous le nom de LiQuid. Bernard Ourghanlian prévient que la courbe d’apprentissage est substantielle, en particulier le passage vers les portes quantiques. À l’instar de ses concurrents, Microsoft propose donc un langage intégré dans la suite Visual Studio afin que les développeurs se fassent la main dès maintenant.

Et aussi

● Intel vient de présenter récemment une puce-test de 17 qubits qu’il a confié à son partenaire Qu-Tech à des fins de tests. Cette puce contient selon le fondeur une nouvelle architecture offrant une fiabilité et une performance thermique renforcées, et des interférences radio réduites entre les qubits.

● Un schéma d’interconnexion évolutif qui permet de 10 à 100 fois plus de signaux vers et en provenance de la puce, par rapport aux puces à interconnexion filaire.

● Des procédés de conception et de fabrication et des matériaux avancés permettant d’adapter le boîtier aux circuits intégrés quantiques, lesquels sont bien plus volumineux que pour les puces silicium traditionnelles.

● Intel travaille donc sur la technologie Quantum dots sur Silicium

Les ordinateurs quantiques doivent être refroidis à une température proche du zéro absolu (-273,15°C).

Quantique… pas tout à fait quantique

La société canadienne D-Wave est l’un des plus anciens fournisseurs de systèmes quantiques puisque son existence remonte à 1999 et qu’elle a commercialisé son premier système quantique en 2001 (128 qubits). Contrairement aux autres systèmes, il ne s’agit pas d’un calculateur général mais d’un système qui permet de faire du recuit simulé quantique pour lequel il est plus performant que les ordinateurs traditionnels. Elle a notamment commercialisé des modèles auprès de Google ou encore à la Nasa. Le dernier modèle proposé revendique fièrement « 2031 qubits ». Toutefois le manque d’applications a conduit Google à développer son propre système. Depuis plusieurs années, la polémique fait rage pour savoir si le fonctionnement des ordinateurs D-Wave est quantique ou non.

De même, le débat sur le nombre de qubits revendiqué ne fournit aucune explication sur leur utilisation : s’agit-il de qubits logique en charge des calculs ou au contraire ceux destinés à la correction d’erreurs ? La seconde explication semble la bonne car avec plus de 300 qubits, il semble possible de simuler toute la formation de l’univers, une tâche dont D-Wave semble encore très éloignée. L’une des contributions les plus récentes est celle du professeur Gérard Berry, du Collège de France, qui rappelle que la machine actuelle de D-Wave n’est pas un calculateur quantique général, mais optimisé pour un type de calcul nommé le recuit simulé, qui se prête bien au calcul quantique.

On le voit : le bouillonnement des universités et des industriels sur ce domaine est aujourd’hui maximal. Tous ont maintenant conscience que l’informatique quantique donnera accès à des puissances de calcul qui pourront permettre de régler des problèmes aujourd’hui inaccessibles et qui sont de première importance. Le réchauffement climatique, la faim dans le monde, l’éradication des maladies, la conception de nouveaux matériaux figurent parmi les applications de cette révolution – le terme n’est pas galvaudé – qui se profile. Certes, il va falloir encore quelques années pour que tout ceci soit réellement opérationnel, mais les progrès enregistrés durant ces derniers mois incitent à un raisonnable optimisme. ❍


Cryptographie post-quantique

Tout le monde s’accorde pour dire que les applications quantiques seront disponibles avant la disponibilité d’un véritable ordinateur quantique. Mais les inquiétudes concernant les possibilités de craquer les algorithmes de chiffrement RSA de l’Internet ont été dévoilées par la NSA. En effet, le développement est très rapide et certains estiment que des ordinateurs de quelques centaines de qubits seront capables de craquer le code 2048 bits qui est un nombre à 617 chiffres, en particulier en s’appuyant sur l’algorithme de Shor, créé en 1994. Pour cette raison, le National Institute Of Standards and Technology a demandé que lui soient soumis de nouvelles techniques de chiffrement capables de résister à l’ordinateur quantique. Les projets doivent être soumis avant la fin du mois de novembre 2017. L’étude de tous les projets soumis commencera dans la foulée pour une standardisation en 2020 – à la condition que les projets retenus soient conformes – et un déploiement en 2024. Il faudra donc voir si un ordinateur quantique capable de casser les codes RSA ou les courbes elliptiques ne sera pas disponible avant cette date, sinon c’est tout l’internet qui se retrouvera en danger. Ces travaux sont appelés Cryptographie post-quantique

Parmi les chercheurs qui participent à ce programme figure une équipe française dirigée par Jean-Charles Faugère et Ludovic Perret. Il s’agit d’une équipe commune entre l’Inria, le CNRS et l’Université Pierre-&Marie-Curie. L’objectif de nos chercheurs est d’être capables de résister à des attaques sur des ordinateurs classiques comme quantiques. L’équipe de chercheurs a donc mis la barre assez haut puisque leur objectif est de ne pas pouvoir casser leur nouveau système en moins de 2 puissance 128 opérations. Comme l’indique M. Faugère, « C’est la borne qu’il faut, que cela soit classique ou quantique ». Le travail des équipes mêle conception théorique et travaux pratiques, en particulier en ayant accès au simulateur proposé par Atos.

Ludovic Perret précise que ce projet s’inscrit dans le cadre du RISQ (Regroupement de l’industrie française pour la Sécurité quantique), un fonds du ministère de l’Économie doté de 7 millions d’euros pour 15 partenaires. M. Perret précise que plusieurs universités préparent des soumissions. Interrogés sur la qualité de l’école mathématique française, les deux chercheurs estiment qu’elle reste de très bonne qualité mais constatent une baisse de niveau général dans l’enseignement, préjudiciable dans un contexte de féroce compétition.

Print
4179

Name:
Email:
Subject:
Message:
x
Rechercher dans les dossiers
Actuellement à la Une...
Le réseau social opère depuis plusieurs mois déjà un virage vers le hardware, virage qui se matérialise par l’Oculus Go, lancé le mois prochain, et la future enceinte connectée Portal. Et pour équiper les prochaines générations de ces appareils, Facebook pourrait bien développer ses propres SoCs.

L’éditeur de solutions de stockage objet réalise un nouveau tour de table et lève la somme significative de 62 millions de dollars.

Le Conseil Constitutionnel a tranché en faveur du législateur, estimant conforme à la Constitution une disposition du code pénal établissant comme un délit le refus de transmettre ses mots de passe et clés de chiffrement lors d’une garde à vue.

Promis, Facebook appliquera les mêmes règles à tous partout, quand bien même il s’agit du cadre très contraignant du RGPD… Mais les promesses n’engagent que ceux qui qui les écoutent... Facebook a décidé de transférer la gestion de tous ses utilisateurs hors Europe d’Irlande aux Etats-Unis, donc du droit européen au droit américain…

L’éditeur de solutions analytiques renforce son portefeuille logiciel avec la disponibilité de 4D Analytics, une solution combinant les données en trois dimensions de la localisation géospatiale avec la quatrième dimension du temps. 

Le standard Rich Text Communication remplacera le SMS, toujours vivant mais en perte de vitesse. Google en est persuadé. Au point de ne plus s’intéresser à sa messagerie instantanée Allo, la délaissant au profit de l’intégration du RCS à Android Messages.

Alors que se profile à l’horizon l’entrée en bourse de Pivotal, un des gros contributeurs du projet Cloud Foundry, la fondation qui porte le projet open source tenait sa conférence américaine à Boston. L’occasion de faire un point sur l’empreinte de la plate-forme dans les entreprises.

On les connaissait sous le nom de Vaunt, Superlight selon le nom de code dont les avait affublées Intel. Mais les lunettes connectées du fondeur risque de ne jamais sortir des labos, celui-ci cessant ses travaux dans ce domaine.

Soutenu par Framasoft, le projet de solution de vidéo en streaming peer to peer open source arrive en version bêta.

Le géant des SoC semble avoir été sérieusement perturbé par la tentative d’OPA de Broadcom. Depuis, il a annoncé vouloir réduire ses coûts annuels d’un milliard de dollars, des économies qui passeront par des suppressions d’emplois.

Toutes les News

LIVRES BLANCS

Adoptée le 6 juillet 2016, la directive NIS (pour Network Infrastructure Security) doit être transposée par les Etats membres de l’Union Européenne au plus tard le 9 mai 2018.

Ce Livre Blanc éclaire les enjeux et les impacts de la directive NIS sur les pratiques de cybersécurité des pays européens.

  


"L'entreprise numérique", un Livre Blanc IDC/Interxion.

Ce livre blanc présente les résultats d'une enquête menée auprès de plus de 750 entreprises européennes.

Vous y découvrirez l'approche adoptée par les leaders du numérique, combinant l’adoption des services Cloud avec une politique d’hébergement externalisé.  

  


La maintenance prédictive, pilier de la transformation digitale, un Livre Blanc Econocom.

LA MAINTENANCE IT, L’INVISIBLE PIERRE ANGULAIRE DE L’ENTREPRISE DIGITALE

La transformation digitale rebat les cartes de la performance des entreprises. Face à l’évolution simultanée des attentes des clients, des modèles économiques, des conditions de marché et des modes de travail, chaque métier doit revoir sa contribution aux trois axes qui conditionnent dorénavant la réussite: l’excellence opérationnelle, l’expérience utilisateurs et l’innovation métier.


CARTOGRAPHIE DU PAYSAGE DES RANSOMWARES, un Livre Blanc Fortinet.

Comprendre la portée et la sophistication de la menace.

Lorsque les cybermenaces sont multipliées par 35 en un an, chaque entreprise doit en tenir compte. C’est précisément le cas avec les ransomwares. Les hacktivistes ont ciblé des entreprises de pratiquement toutes les tailles et représentant une multitude de secteurs industriels dans le monde entier.


Comment moderniser ses centres de données, un Livre Blanc HPE.

La transformation numérique des entreprises crée de nouvelles contraintes sur les directions informatiques, en particulier pour les environnements de stockage. 

La croissance exponentielle des données, la virtualisation massive, l'évolution des charges de travail et la mise en place permanente de nouvelles applications (devops) obligent l'infrastructure de stockage informatique à évoluer. 


Tous les Livres Blancs