X

News Partenaire

8 décideurs IT sur 10 se dirigent vers le Cloud

Paessler AG, spécialiste innovant en surveillance du réseau, a publié des résultats de nouvelles recherches sur le Cloud Computing et la façon dont les décideurs informatiques mondiaux (ITDM) l'utilisent pour répondre aux exigences du monde des affaires en constante évolution. Paessler a enquêté sur plus de 2000 ITDM ; dont 1280 chez des entreprises de moins de 500 employés.


BIGDATA#4 : Des technologies en évolution constante

Les technologies pour mettre en œuvre le big data n’ont plus rien à voir  avec celles qui l’ont porté sur les fonts baptismaux il y a une dizaine d’années. Retour sur ces évolutions et description de l’état de l’art aujourd’hui.

Certains annonçaient la mort d’Hadoop et du Big Data. En réalité, c’est bien l’inverse dont il s’agit avec une évolution constante et une adaptation de la plate-forme aux besoins des utilisateurs. Mohamed Mahdi Benaissa le résume ainsi : « Hadoop a simplement changé d’identité. » Des traitements Map/Reduce de ses débuts, Hadoop a adapté sa plate-forme pour d’abord rendre les données plus interactives. C’est l’apparition des moteurs de requêtes comme Impala, qui réalisait la même chose que Hive (autre moteur de requête sur Hadoop), mais avec plus de réactivité. Dans la même veine, il existe AtScale (OLAP sur Hadoop) et LLAP (Live Long And Process). Les outils ajoutaient cet aspect interactif des données sur Hive. Maintenant les entreprises recherchent des traitements en temps réel. Ces traitements sont issus des applications qui se fondent sur l’Internet des Objets ou sur des cas où le facteur temps est essentiel comme la détection de la fraude. Le deuxième besoin vient de la possibilité d’analyser des données en flux. Streaming et temps réel ont donc fait évoluer l’écosystème d’Hadoop pour l’adapter à ces nouveaux besoins. On entend donc plus parler aujourd’hui de Spark, de Kafka ou même de Storm ou de NiFi – dont une version est devenue Hortonworks Data Flow – pour les plates-formes actuelles.

L’évolution touche l’ensemble de la plate-forme. Les entreprises ont tout d’abord refondu les entrepôts de données qui étaient en place pour des « data lakes », puis se sont tournées ensuite vers des stockages peu onéreux dans le Cloud comme Glacier ou des stockages objets de type S3 ou analogues. Certains ont choisi des NAS évolutifs horizontalement comme Qumulo. Plus récemment, du fait des coûts qu’engendrent le stockage sur ces plates-formes, les entreprises reviennent vers une approche hybride combinant un Cloud privé et les opportunités du Cloud public. La couche supérieure de l’orchestrateur a aussi connu quelques chamboulements. À l’origine, Yarn, le gestionnaire des ressources sur la plate-forme Hadoop, n’était pas conçu pour supporter les traitements en temps réel ou en streaming. Les développeurs se sont donc tournés vers les containers et Kubernetes pour exécuter ce type de tâches. Les dernières versions d’Hadoop (3.1 et 3.2, encore en Beta) apportent quelques aménagements avec la possibilité de modifier et d’optimiser par l’ajout d’attributs sur les nœuds de gestion (node manager) pour gérer une exécution sur des machines spécifiques. D’autre part le projet Hadoop Submarine, présent dans la 3.2, permet d’exécuter des traitements d’apprentissage machine ou d’apprentissage (Tensorflow) profond directement sur Yarn. Son slogan est « du Edge au Cloud ».

Quel que soit le moyen employé, les différents moteurs de traitement sur Hadoop correspondent chacun à des cas d’usage précis selon les besoins en temps de traitement, de latence, ou de volume des données à traiter. Une analyse précise est donc nécessaire pour bien choisir la plate-forme adéquate à l’adaptation des besoins du projet.

D’autres possibilités

Évidemment, il n’y a pas que Hadoop pour réaliser des projets de Big Data et nous avons commencé à l’évoquer lors des choix des plates-formes de stockage des données dans le Cloud. À la place de la plate-forme à l’Éléphant jaune, il est tout à fait possible d’utiliser un backend de stockage objet ou de scale-out NAS et d’y réaliser des traitements parallélisés sur les données pour obtenir des traitements analytiques. Microsoft, Google, AWS, IBM, Snowflake et bien d’autres l’autorisent aujourd’hui. Là encore les contraintes de latence, de temps de traitement et de coûts de la plateforme sont à prendre en compte avant de lancer le projet.

Ce que les utilisateurs attendent

Plus que les technologies, les utilisateurs de Big Data attendent certains choses de la plate-forme comme la possibilité d’intégrer les résultats des traitements dans d’autres applications. La plateforme doit de plus prendre en compte de nombreuses sources de données et des types de données différents. Des outils ou des plug-ins doivent simplifier les étapes de découverte ou d’exploration des données. Elle doit pouvoir supporter différents types de méthodes d’analyses. La plate-forme doit pouvoir s’adapter rapidement et suivre l’augmentation du volume des données tout en restant véloce et s’étendre en prenant en compte des données variables d’une source de données à l’autre. Ce dernier critère de variabilité devient d’ailleurs aujourd’hui plus important que le volume qui décrit la technologie. Cela doit permettre aussi à l’utilisateur de n’avoir à utiliser qu’une seule plate-forme pour son travail. Elle doit donc pouvoir s’intégrer facilement avec le reste du système d’information. Elle doit ainsi permettre de bien gérer les données tout en respectant les contraintes réglementaires ou de conformité à la loi comme le RGPD ou autres. La plate-forme doit être sécurisée en ce sens.

Des freins largement identifiés

Les principaux freins sont connus et restent cependant toujours présents. Le manque de ressources humaines et de spécialistes est toujours là et les data scientists ne se forment pas en un jour. Corp, dans son iconographie de présentation du Salon Big Data, parle d’un besoin de 130 000 emplois d’ici à 2020 pour des postes dont les salaires iraient de 45 000 à 65 000 € par an. Pas si mal aujourd’hui ! L’autre point noir – nous l’avons mis en exergue – porte sur la difficulté à convertir en bénéfice l’utilisation d’une plate-forme de Big Data. Les entreprises ont beaucoup de mal à identifier des retours sur investissements précis sur ces projets malgré les investissements lourds demandés. Un autre élément doit être pris en compte : l’impossibilité parfois d’expliquer les résultats des analyses en particulier dans l’utilisation de l’Intelligence artificielle créant ainsi une vision « boîte noire » qui fait reculer beaucoup de gens ou, tout du moins, renforce la résistance au changement face à ses technologies.

À l’analyse, les données vont toujours continuer à grossir et si on ne parle plus de Big Data, c’est parce qu’il est devenu la normalité dans les entreprises. En dix ans, celles-ci le maîtrise de mieux en mieux même si tout n’est pas encore parfait.

Cet article est paru dans le dossier Big Data de L'Informaticien n°175.



Inscription gratuite à la newsletter de L'Informaticien.


Noter cet article (de 1 = Nul à 5 = Excellent) Valider
Autres infos Big Data

Cybersécurité de l'industrie

Cybersécurité de l'industrie

Mis à part les OIV, bon nombre d’installations industrielles françaises sont vulnérables aux cyberattaques. Système non mis à jour, absence de briques de sécurité de base et défense...

Le stockage s'unifie

Le stockage s'unifie

Jusqu’à présent, on marquait la différence entre stockage primaire, stockage secondaire et archivage. Les baies et les logiciels étaient spécifiques. Ce n’est plus le cas et les variations...

Ville numérique

Ville numérique

Sa transformation numérique, voilà bientôt trente ans que la commune francilienne la fait. Un processus permanent qui voit intervenir de nombreux acteurs mais poursuit un seul et même but : simplifier la vie de...

Epitech Digital

Epitech Digital

Ils restent les "oiseaux rares" des recrutements IT et les entreprises en cours de digitalisation se les arrachent. Ce sont les profils hybrides, alliant compétences techniques et business, capables de discuter aussi bien avec le DSI que...

Suprématie quantique

Suprématie quantique

Le mystère reste entier. Un article publié sur le site de la NASA fait état de l’avancée majeure obtenue par l’équipe de recherche de Google. Or, le retrait précipité de l’article...

RSS
Afficher tous les dossiers

L'IA AU COEUR DES MÉTIERS : retours d'expérience Cemex, Lamborghini, Decathlon, HSBC - Google Cloud Platform : tout sur la migration ! - Edge Computing, chaînon manquant - Cybersécurité : lutter contre l'ennemi intérieur - Ansible, outil de prédilection des DevOps - Docker, de Montrouge à la roche tarpéienne...

 

VILLE NUMÉRIQUE : la transfo d'Issy-les-Moulineaux - Comment le Stockage s'unifie - Brexit : quelles conséquences pour l'industrie numérique ? - Google a-t-il vraiment atteint la suprématie quantique ? - La cyberprotection des sites industriels en question - PowerShell DSC - Epitech Digital...

 

CYBERSÉCURITÉ : Faut-il externaliser son SOC - Datacenters : des certifications pour y voir plus clair - Organisez vos workflows avec GitHub Actions - Transfo : pour l'agriculture, la rentabilité avant tout ! - Que deviennent les DataLabs ? - Emploi : la transformation numérique bouscule les recrutements des ESN...

 

Afficher tous les derniers numéros
Les entreprises et les organismes publics se focalisent aujourd’hui sur la transformation numérique. En conséquence, les DevOps et l’agilité sont au premier plan des discussions autour des stratégies informatiques. Pour offrir ces deux avantages, les entreprises travaillent de plus en plus avec les fournisseurs de services de cloud public et développent désormais des clouds sur site à partir d’une infrastructure qui répond à trois exigences de base:
1. Agilité sans friction des ressources physiques
2. Systèmes de contrôle optimisant l'utilisation des ressources physiques et offrant un retour sur investissement maximal
3. Intégration des divers composants de l'infrastructure pour un provisionnement et une gestion des ressources automatisés.


Pour fonctionner, votre entreprise doit pouvoir compter sur une solution de sauvegarde efficace, essentielle dans un monde marqué par une croissance exponentielle des données. Vous devez à la fois accélérer vos sauvegardes et pouvoir y accéder plus rapidement pour satisfaire les exigences actuelles de continuité d’activité, disponibilité, protection des données et conformité réglementaire. Dans cette ère de croissance effrénée, les cibles sur bande hors site et autres approches traditionnelles sont simplement dépassées.


L’Intelligence Artificielle promet de révolutionner la perception de la cybersécurité au coeur des entreprises, mais pas uniquement. Ce changement de paradigme engage, en effet, une redéfinition complète des règles du jeu pour les DSI et les RSSI, ainsi que l’ensemble des acteurs de la sécurité.


Lorsque l'on déploie des postes de travail, ils ont généralement tous la même configuration matérielle et logicielle (avec certaines spécificités selon les services). Mais on ne peut pas toujours tout prévoir et il arrive par exemple que de nouveaux programmes doivent être installés ou n’aient pas été prévus. L’accumulation de logiciels « lourds » est susceptible de provoquer des lenteurs significatives sur un PC allant jusqu’à l’extinction nette de l’application. Ce livre blanc explique comment optimiser les performances au travers de 5 conseils rapides à mettre en place.


Ce guide est conçu pour aider les entreprises à évaluer les solutions de sécurité des terminaux. Il peut être utilisé par les membres de l'équipe de réponse aux incidents et des opérations de sécurité travaillant avec des outils de sécurité des points finaux sur une base quotidienne. Il peut également être utilisé par les responsables informatiques, les professionnels de la sécurité, les responsables de la conformité et d’autres personnes pour évaluer leurs performances. les capacités de l’entreprise en matière de cybersécurité, identifier les lacunes dans la sécurité des terminaux et sélectionner les bons produits pour combler ces lacunes.


Tous les Livres Blancs
Derniers commentaires
Mercredi, un accord commercial préliminaire a été signé à Washington entre les deux premières puissances économiques mondiales. Il constitue une trêve dans la guerre commerciale qu'ils se mènent depuis 2018Le secteur américain des technologies a poussé cette semaine un soupir de soulagement avec l'adoption durement négociée d'une trêve commerciale, mais de nombreuses questions restent en suspens.  [Lire la dépêche...]

L'application TikTok annonce l'installation d'un centre régional en Europe, localisé à DublinL'application TikTok, prisée des adolescents pour ses formats vidéo courts et ludiques, a annoncé vendredi l'installation d'un centre régional en Europe, localisé à Dublin. [Lire la dépêche...]

L'analyse des données personnelles pourrait permettre Nous sommes en 2035. Un candidat à l'immigration veut s'installer en France, mais l'analyse de ses faits et gestes grâce au big data laisse penser aux autorités qu'il ne s'intègrera pas correctement. Sa demande est rejetée. Science-fiction? Pas sûr, pense l'OCDE. [Lire la dépêche...]

Des analystes s'accordent à dire que Téhéran n'a pas renoncé à venger la mort du général Soleimani et fourbit une riposte sur le front numériqueDes cyberattaques plutôt que des missiles: le spectre d'une guerre ouverte entre l'Iran et les Etats-Unis semble se dissiper mais des analystes s'accordent à dire que Téhéran n'a pas renoncé à venger la mort du général Soleimani et fourbit une riposte sur le front numérique.  [Lire la dépêche...]

Le ministre français de l'Economie Bruno Le Maire, à Paris le 7 janvier 2020La France a fait des "propositions" aux Etats-Unis, dont le principe d'une progression "par étape", pour les rallier à l'accord international en cours de négociations à l'OCDE sur la taxation du numérique, a annoncé vendredi le ministre français de l'Economie Bruno Le Maire. [Lire la dépêche...]

Au salon du divertissement électronique de Los Angeles, le 14 juin 2017Les Américains ont dépensé moins en jeux vidéos en 2019 que l'année précédente, dans l'attente du lancement de services de streaming par des géants de l'industrie, a-t-on appris jeudi dans un rapport.  [Lire la dépêche...]

Numéro deux sur le marché des smartphones, champion des équipements télécoms, le fleuron technologique chinois Huawei intrigue autant qu'il inquiète, et ce dans le monde entier, à l'heure où le déploiement de la 5G ravive les interrogations sur la sécurisation des réseaux. [Lire la dépêche...]

Microsoft a promis jeudi que son empreinte carbone serait négative d'ici à 2030, affichant sa volonté de lutter contre le changement climatiqueMicrosoft a promis jeudi que son empreinte carbone serait négative d'ici à 2030, dans un contexte de pression accrue sur les grandes entreprises pour répondre au défi climatique.  [Lire la dépêche...]

Toutes les dépêches AFP
AgendaIT

FIC

FIC FIC
Ayant pour thème cette année "Replacer l'humain au coeur de la cybersécurité", le Forum International de la Cybersécurité occupe les 28, 29 et 30 janvier 2020 le Grand Palais de Lille. Organisé par la Région Hauts-de-France et Euratechnologies, la Gendarmerie Nationale et CEIS.

RENCONTRES AMRAE

Les 28èmes Rencontres de l'AMRAE (Association française des professionnels de la gestion des risques et des assurances), le congrès annuel de référence des métiers du risque et des assurances, ont lieu du 5 au 7 février 2020 à Deauville (Centre International) sur le thème : "Risque(s) en puissance(s)". Organisées par l'AMRAE.

BIG DATA

Conférences et exposition sur le Big Data les 9 et 10 mars 2020 à Paris, Palais des Congrès de la Porte Maillot. Organisé par Corp Agency.

IT PARTNERS

Événement du "channel" IT, télécoms et audiovisuel, IT Partners a lieu les 11 et 12 mars 2020 à Disneyland Paris (Disney Events Arena-Ventury). Organisé par Reed Expositions.
RSS
Voir tout l'AgendaIT
0123movie