X

ITPT'26 : le HTAP en vedette

Lors de notre périple IT Press Tour rien moins que 3 entreprises relevaient de ce créneau qui combine le traitement des données dans une base et l’analytique avec à chaque fois des approches différentes. Gridgain, Aerospike et MapD sont les étoiles montantes de ce secteur défini par le Gartner.

Depuis la création du terme par le Gartner en 2014, le HTAP (Hybrid Transaction / Analytical Processing) ne cesse de se développer et propose de nouvelles architectures pour répondre aux limitations des architectures plus classiques impliquant des réplications de données avant leur traitement analytique.

Les bases de données HTAP évitent cette migration en rendant les données disponibles pour l’analyse dès leur entrée dans la base. Ces analyses pointent directement sur les données les plus fraîches présentes dans l’application HTAP. Cela induit des économies importantes. Plus besoin d’avoir des datawarehouses ou datamarts pour réaliser l’analyse. Les solutions HTAP évitent aussi la gestion de multiples copies de la donnée. De plus comparativement aux environnements classiques des bases de données transactionnelles, les solutions sont plus simples à faire évoluer ou à mettre à l’échelle voulue pour les traitements.

Ces solutions font généralement appel à des traitements en mémoire. Selon le Gartner, l’utilisation de l’IMC (In-Memory Computing) va connaître un fort développement et représenter un marché de près de 11 milliards de dollars à la fin de 2019. Selon l’institut, 75 % des applications nativement développées pour le cloud utiliseront cette technologie à la même date. Plus de 25 % des compagnies globales dans le monde utiliseront des plates-formes combinant différentes technologies en mémoire en 2021. L’année suivante 40 % des entreprises globales s’appuieront sur cette technologie pour éviter la prolifération des référentiels physiques pour la publication de données. SAP HANA est un représentant de cette famille. Plusieurs autres acteurs investissent maintenant ce secteur avec succès.

GridGain, le plus récompensé

Nous avions déjà rencontré GridGain lors d’un tour précédent. Il était intéressant de voir comment l’entreprise avait progressé durant l’année écoulée. Depuis notre dernière visite, l’entreprise a connu un fort développement de sa base installée dans de nombreux secteurs d’activités différents. Le point commun de tous les clients : le besoin de performance et de rapidité des traitements analytiques à l’échelle des millisecondes tout en conservant la consistance des données.

Nikita Ivanov, le CTO et fondateur de GridGain, parle d’ailleurs de « Fast Data » et non de big data lorsqu’il décrit sa solution. Parmi les clients nous pouvons citer : la banque ING aux Pays-Bas et Workday, l’éditeur de solutions SaaS de ressources humaines et de finance.

Pour rappel, la solution de GridGain reprend les caractéristiques citées plus haut et se construit sur Apache Ignite, un des projets les plus suivis de la Fondation Apache. Le projet connaît un million de téléchargement par an et se classe 5ème dans les commits. Sa mailing list se classe 3ème loin devant des projets comme Cassandra, Flink ou Tomcat.

Abe Kleinfeld, CEO de GridGain.

Aerospike, très présent dans le secteur financier

Créée en 2009, Aerospike compte aujourd’hui 80 salariés. La société est surtout présente dans le secteur financier avec comme clients des fournisseurs de cartes de crédit, des systèmes de paiements et des mastodontes des services financiers. La société revendique plus de 125 clients.

Aerospike a un écosystème assez développé avec comme partenaires clés Intel, Nokia, Amdocs, HCL et Wipro.

L’entreprise met en avant la performance que lui permet d’atteindre sa technologie de mémoire hybride. La solution s’appuie sur une base NoSQL Key/Value dans laquelle le traitement des données est effectué par des accès massivement parallèles avec une répartition automatique des données sur les différents éléments du cluster. La solution rebalance l’équilibre de la charge sur le cluster après un incident ou un changement de configuration ou un ajout de nœud par un algorithme, Smart Partitions, un système breveté d’Aerospike.

La solution supporte le stretch cluster et une fonction de réplication synchrone entre centres de données assure une disponibilité maximale. Un agent sur chaque serveur a une double fonction : exécution des tâches sur le cluster et monitoring du nœud de cluster. L’architecture se veut la plus simple possible et ne requiert pas de cache avec une optimisation de la performance sur les supports Flash. La solution fournit une performance prédictible et peut se déployer sous tous types d’environnements (bare metal, machines virtuelles, containers, Cloud). De plus les clusters se gèrent de manière dynamique. L’ensemble fournit des ratios de performance de 1 pour 10 et des réductions du nombre de serveurs dans le même ordre d’idée pour une charge identique.

MapD joue sa carte !

L’aventure de cette entreprise démarre lors d’études à Harvard sur le printemps arabe. Un des étudiants, Todd Mostak, passait des heures à attendre les résultats de ses requêtes sur l’analyse des messages sur les réseaux sociaux en rapport avec son mémoire. Ne pouvant avoir accès à plus de puissance de calcul il lui vient l’idée d’utiliser les processeurs graphiques de sa carte pour aller plus vite. Il développe la première version de ce qui deviendra MapD. Il continue ensuite ses recherches sur son logiciel au MTI. En 2013 il crée l’entreprise.

La version 3.4 du logiciel a été annoncée en janvier dernier. Il positionne la solution sur les environnements analytiques extrêmes, en particulier ceux ayant besoin d’utiliser des informations géospatiales. La solution se décompose en 3 éléments : MapD Core, un moteur qui permet de requêter sur des milliards de lignes en quelques millisecondes par un moteur SQL optimisé pour les environnements GPU en open source, un moteur de rendering qui fait le lien entre le moteur de requête et MapD Immerse, un outil de visualisation des données interactif. Un outil de compilation rapide permet à la solution de fonctionner à la fois sur des CPU ou des GPU suivant le choix des utilisateurs et du volume des données. Un cache intelligent place les données chaudes dans la mémoire principale ou la mémoire virtuelle des GPU.

Le système peut s’appuyer sur des disques Flash pour assurer la persistance des données. La solution évolue en Scale-out fournissant des performances prédictibles lors de son évolution. Les visualisations peuvent être partagées et être interactives même avec des milliards de points par l’API Vega dont les spécifications de rendus sont générées en tâche de fond.

Dans cette catégorie HTAP ou « Translytique », combinant transactionnel et analytique, Nous avons vu 3 approches différentes s’adaptant à de nombreux cas d’usages même si chacun garde sa spécificité suivant les architectures ou les outils sous-jacents. Ces 3 exemples ne sont là que pour illustrer une tendance bien plus large sur ce qui évolue en ce moment dans les bases de données où les entreprises visent peut-être plus à mieux exploiter les données existantes plutôt que d’ajouter à toutes fins d’autres flux de données.

Todd Mask, CEO et fondateur de MapD.


Inscription gratuite à la newsletter de L'Informaticien.


Noter cet article (de 1 = Nul à 5 = Excellent) Valider

100 milliards !

100 milliards !

Des responsables de l’UE ont profité de la nouvelle Commission Européenne pour demander la création d’un fonds d’investissement de 100 milliards d’euros pour financer les pépites de la tech et...

Externaliser (ou pas) son «SOC» ?

Externaliser (ou pas) son «SOC» ?

Devant le renforcement de la réglementation… devant aussi la recrudescence des cyberattaques… de plus en plus d’entreprises songent à se doter d’un centre d’opérations de...

Devenir “Growth hacker”

Devenir “Growth hacker”

Comment réorienter sa carrière d’informaticien vers le secteur à forte croissance de l’e-marketing ? La Rocket School propose une formation accélérée de douze semaines, suivie par une ou deux...

RSS
Afficher tous les dossiers

VILLE NUMÉRIQUE : la transfo d'Issy-les-Moulineaux - Comment le Stockage s'unifie - Brexit : quelles conséquences pour l'industrie numérique ? - Google a-t-il vraiment atteint la suprématie quantique ? - La cyberprotection des sites industriels en question - PowerShell DSC - Epitech Digital...

 

CYBERSÉCURITÉ : Faut-il externaliser son SOC - Datacenters : des certifications pour y voir plus clair - Organisez vos workflows avec GitHub Actions - Transfo : pour l'agriculture, la rentabilité avant tout ! - Que deviennent les DataLabs ? - Emploi : la transformation numérique bouscule les recrutements des ESN...

 

TRANSFO NUMÉRIQUE : Schumpeter ou Solow ?... Destruction créatrice ou réorganisation ? - Cybersécurité : le modèle Zero trust - Les recettes tech de Meero - Devops : l'open source entre dans la normalité - Processeurs : AMD se détache ! - Infrastructure as Code : l'IAC avec Terraform - Emploi : Que valent les plates-formes pour freelances ?...

 

Afficher tous les derniers numéros
Les entreprises et les organismes publics se focalisent aujourd’hui sur la transformation numérique. En conséquence, les DevOps et l’agilité sont au premier plan des discussions autour des stratégies informatiques. Pour offrir ces deux avantages, les entreprises travaillent de plus en plus avec les fournisseurs de services de cloud public et développent désormais des clouds sur site à partir d’une infrastructure qui répond à trois exigences de base:
1. Agilité sans friction des ressources physiques
2. Systèmes de contrôle optimisant l'utilisation des ressources physiques et offrant un retour sur investissement maximal
3. Intégration des divers composants de l'infrastructure pour un provisionnement et une gestion des ressources automatisés.


Pour fonctionner, votre entreprise doit pouvoir compter sur une solution de sauvegarde efficace, essentielle dans un monde marqué par une croissance exponentielle des données. Vous devez à la fois accélérer vos sauvegardes et pouvoir y accéder plus rapidement pour satisfaire les exigences actuelles de continuité d’activité, disponibilité, protection des données et conformité réglementaire. Dans cette ère de croissance effrénée, les cibles sur bande hors site et autres approches traditionnelles sont simplement dépassées.


L’Intelligence Artificielle promet de révolutionner la perception de la cybersécurité au coeur des entreprises, mais pas uniquement. Ce changement de paradigme engage, en effet, une redéfinition complète des règles du jeu pour les DSI et les RSSI, ainsi que l’ensemble des acteurs de la sécurité.


Lorsque l'on déploie des postes de travail, ils ont généralement tous la même configuration matérielle et logicielle (avec certaines spécificités selon les services). Mais on ne peut pas toujours tout prévoir et il arrive par exemple que de nouveaux programmes doivent être installés ou n’aient pas été prévus. L’accumulation de logiciels « lourds » est susceptible de provoquer des lenteurs significatives sur un PC allant jusqu’à l’extinction nette de l’application. Ce livre blanc explique comment optimiser les performances au travers de 5 conseils rapides à mettre en place.


Ce guide est conçu pour aider les entreprises à évaluer les solutions de sécurité des terminaux. Il peut être utilisé par les membres de l'équipe de réponse aux incidents et des opérations de sécurité travaillant avec des outils de sécurité des points finaux sur une base quotidienne. Il peut également être utilisé par les responsables informatiques, les professionnels de la sécurité, les responsables de la conformité et d’autres personnes pour évaluer leurs performances. les capacités de l’entreprise en matière de cybersécurité, identifier les lacunes dans la sécurité des terminaux et sélectionner les bons produits pour combler ces lacunes.


Tous les Livres Blancs
Derniers commentaires
Uber, qui a révélé avoir enregistré des milliers d'agressions sexuelles aux Etats-Unis, est très critiqué en France après une série de plaintes de clientes Uber, qui a révélé avoir enregistré des milliers d'agressions sexuelles aux États-Unis, est aussi en pleine polémique après une série de plaintes de clientes en France où la plateforme sera reçue jeudi par le gouvernement qui lui demande des comptes. [Lire la dépêche...]

Lil Bub et son propriétaire Mike Bridavsky à Los Angeles le 7 juin 2015Leurs abonnés se comptent par millions sur Instagram: Lil Bub, Grumpy Cat, Boo the Pomeranian et Doug the Pug sont des chats et chiens vedettes d'internet, porte-étendards de nobles causes et générateurs d'énormes profits financiers. [Lire la dépêche...]

Une loi américaine de 1996 préserve les services en ligne d'éventuels problèmes juridiques causés par des contenus publiés par des tiersQui veut la peau du sacro-saint statut d'hébergeur des plateformes en ligne? Certains élus américains souhaitent leur imposer plus de responsabilités, mais ils se heurtent à une loi presque aussi vieille qu'internet. [Lire la dépêche...]

Les réseaux sociaux, où est né et continue de s'exprimer massivement le mouvement de contestation populaire algérien ("Hirak"), sont devenus à l'approche de la présidentielle rejetée du 12 décembre le terrain d'une contre-offensive de "trolls" pro-régime. [Lire la dépêche...]

Elon Musk, le patron de Tesla, au premier jour de son procès pour diffamation à Los Angeles le 3 décembre 2019 Le fantasque patron de Tesla, Elon Musk, a enregistré vendredi une victoire judiciaire à Los Angeles, où il a été acquitté de diffamation pour un tweet dans lequel, à l'été 2018, il avait qualifié de "mec pédo" un spéléologue britannique. [Lire la dépêche...]

L'accusateur d'Elon Musk, Vernon Unsworth, arrive au tribunal fédéral de Los Angeles le 3 décembre 2019 Le spéléologue britannique qui poursuit devant un tribunal de Los Angeles Elon Musk pour diffamation a réclamé vendredi 190 millions de dollars d'indemnités pour un tweet dans lequel le patron de Tesla l'avait insulté de "mec pédo" ("pedo guy"). [Lire la dépêche...]

Alexander Nix, ancien dirigeant de la firme Cambridge Analytica, le 6 juin 2018 à LondresLes autorités américaines ont déclaré mercredi que la firme britannique Cambridge Analytica, connue pour le scandale de détournement massif de données d'utilisateurs de Facebook, a trompé les utilisateurs du réseau social sur sa façon de collecter et de traiter leurs informations personnelles. [Lire la dépêche...]

Le ministre de l'Economie Bruno Le Maire à l'Elysée, le 5 décembre 2019La proposition américaine d'une "solution optionnelle" pour la taxation du numérique est "inacceptable", a tranché vendredi le ministre français des Finances Bruno Le Maire, appelant les États-Unis, qui menacent Paris de sanctions douanières, à reprendre "de bonne foi" les discussions à l'OCDE. [Lire la dépêche...]

Toutes les dépêches AFP
AgendaIT

CES

CES CES

L'International Consumer Electronics Show (International CES) se tient du 7 au 10 janvier 2020 à Las Vegas (LVCC, Westgate, Renaissance, Sands/Venetian,...). C'est le plus grand salon mondial professionnel dédié aux technologies grand public : 3900 exposants et 170000 visiteurs attendus. Thématique principale : The global stage for innovation. Organisé par la CTA (Consumer Technology Association).

AFCDP

L'Association Française des Correspondants à la protection des Données à caractère Personnel (AFCDP) organise la 14ème université des DPO (Data Protection Officers) le 14 janvier 2020

à Paris Maison de la Mutualité. Organisée par l'AFCDP.

FIC

FIC FIC
Ayant pour thème cette année "Replacer l'humain au coeur de la cybersécurité", le Forum International de la Cybersécurité occupe les 28, 29 et 30 janvier 2020 le Grand Palais de Lille. Organisé par la Région Hauts-de-France et Euratechnologies, la Gendarmerie Nationale et CEIS.

BIG DATA

Conférences et exposition sur le Big Data les 9 et 10 mars 2020 à Paris, Palais des Congrès de la Porte Maillot. Organisé par Corp Agency.

RSS
Voir tout l'AgendaIT