X

Une carrière dédiée à la donnée : rencontre avec Joe Hellerstein

Professeur à Berkeley et fondateur de Trifacta, il est un des spécialistes de la donnée les plus respectés aux États-Unis. Peu connu en France, Joe Hellerstein est chercheur dans le domaine de la contextualisation des données. De passage à Paris, il a accepté de rencontrer L’Informaticien pour revenir sur son parcours et sur ses travaux actuels.

Sa carrière dans la recherche et l’industrie s’est concentrée sur les systèmes centrés sur les données et la façon dont ils conduisent l’informatique. En 2010, Fortune Magazine a inclus Joe Hellerstein dans sa liste des 50 personnes les plus intelligentes en technologie, et le magazine MIT Technology Review a inclus son langage Bloom pour le Cloud Computing sur sa liste TR10 des dix technologies « les plus susceptibles de changer notre monde ». 

En 2011, Hellerstein, Jeffrey Heer, un autre professeur à Stanford et Sean Kandel, un étudiant et ex-analyste de données dans une banque américaine, ont publié un article intitulé “Wrangler : Spécification visuelle interactive des scripts de transformation de données.” Dans ce document, les auteurs ont décrit un projet de recherche appelé Wrangler, qui était « un système interactif pour créer des transformations de données. » Wrangler a introduit une nouvelle façon d’effectuer la préparation de données par interaction directe avec les données présentées dans une interface visuelle. Les analystes pourraient explorer, modifier et manipuler les données de manière interactive et voir immédiatement les résultats. Wrangler suivait les transformations de données de l’utilisateur et pouvait ensuite générer automatiquement du code ou des scripts qui pouvaient être appliqués à plusieurs reprises sur d’autres jeux de données (machine learning). 

En 2012, Kandel, Hellerstein, Heer ont fondé Trifacta pour commercialiser cette solution. Berkeley permet aux professeurs de prendre trois ans afin de développer leur activité, ce que Hellerstein a fait. Il est reparti à Berkeley mais reste très impliqué dans l’activité de Trifacta. Quand on lui demande pourquoi il a suivi un tel parcours, Joe Hellerstein répond : « Toute ma carrière a été autour de la donnée, depuis mes premiers travaux de recherche comme stagiaire chez IBM. Je travaillais à l’époque sur les bases de données, un élément au sens propre central qui touche l’ensemble des sciences informatiques : programmation, algorithmes, optimisation des performances, le traitement parallèle des données. Devenu professeur, j’ai ensuite continué dans cette voie et sur ces travaux, même si tout au long de cette carrière j’ai toujours été en rapport proche avec le monde de l’entreprise. »

LE MONDE DE LA DONNÉE A EXPLOSÉ

Depuis ses débuts quels éléments ont fondamentalement changé ? Joe Hellerstein répond de manière enthousiaste : « Le monde a explosé en dehors des bases de données. Le Web, le partage des fichiers l’ensemble des éléments de cette révolution sont en lien avec les données. Le débat ne tourne pas autour des capacités de calcul. Les nouvelles racines de l’innovation viennent de start-up, comme en son temps Greenplum, un projet auquel j’ai participé, avec de plus en plus de gens sur des applications et un travail sur l’interaction entre l’humain et la donnée et entre les données elles-mêmes. L’intérêt de l’interaction entre les ordinateurs a changé, les machines, vers cette autre partie avec une échelle beaucoup plus large. Cela continue avec des bases de données encore plus rapides sur ces compétences plus anciennes. » 

Mais comment est intervenu son travail sur le wrangling et la naissance de Trifacta ? « C’était une curiosité. Nous passions énormément de temps à nettoyer et à préparer les données, ce qui est extrêmement frustrant, et il semblait difficile de résoudre le problème. Nous nous sommes attelés à ce problème et avons poursuivi assidûment ce travail en privilégiant le côté pratique. Notre but n’était pas de créer un robot mais un produit. Nous ne cherchions pas à faire fonctionner un outil de Machine Learning et nous sommes entrés dans un processus totalement empirique de tests et de mesures. Ce qui est beaucoup moins technique ! Sur cette construction s’est élaboré ce self-service de préparation de données par tests successifs. Il a connu une rapide adoption dans le secteur des services financiers. La solution s’est enrichie de la possibilité d’utiliser ECS d’Amazon pour créer des modèles. Dans la recherche le deep learning est le sujet du moment et il est extrêmement empirique. Cela a permis cependant des progrès remarquables dans divers domaines comme la traduction. Comparativement à une traduction manuelle, un modèle linguistique élaboré utilisant des réseaux de neurones arrive à de bien meilleurs résultats. Cela existe déjà en production. Cela fonctionne aussi pour le Big Data, il suffit de mettre en place des cycles de puces graphiques sur Amazon pour obtenir la puissance de calcul nécessaire. Ce ne sont pas les mathématiques le défi de l’opération, mais la gestion de l’expérimentation. Il faut tracer en évitant de bâtir de mauvais modèles lors des tests. Il existe de magnifiques théories sur le sujet mais nous n’avançons pas énormément dans le domaine. Le problème est la gestion de la donnée, la gestion de l’expérimentation sur la gestion de la donnée. Les données sont structurées mais dans une base on peut avoir des données qui ont le même nom. Nous avons deux descriptions différentes de la même chose. De ce fait les entreprises n’ont pas assez de données pour entraîner les algorithmes et les modèles appliqués. Nous pouvons cependant avoir une philosophie différente et appliquer un entraînement actif. Nous avons des certitudes sur certaines choses. Pourquoi ne pas appliquer l’entraînement que sur les ambiguïtés. Les questions seraient bien meilleures lors de cette phase d’entraînement. Je suis à Paris pour intervenir lors d’un colloque sur cette question avec une présentation sur le contexte de la donnée, un sujet de débat et de recherche aujourd’hui. »

DE NOMBREUX AUTRES SUJETS DE RECHERCHE

Interrogé sur les autres sujets importants du moment et comment il considère les avancées de l’Intelligence artificielle et si elle peut s’appliquer dans une certaine mesure pour automatiser les opérations dans l’outil de préparation des données de Trifacta, Joe Hellerstein répond : « Il y a différentes intelligences générales. Le problème est le transfert de l’enseignement de l’une à l’autre. Il existe quelques exemples. Cependant la valeur d’un modèle propriétaire provient surtout de la manière dont il a été entraîné qui est unique. Une recommandation, une traduction, des scénarios de questionnement comme dans les chatbots, il restera le problème d’entraîner à partir de l’ensemble des données de l’entreprise. Il est très compliqué d’entraîner de larges jeux de données pour des usages spécifiques et pourtant ce deep learning ne peut s’appliquer que sur de larges jeux de données pour être valide. Sans compter sur les pré-requis nécessaires. La suite d’outils dans l’Intelligence artificielle est terrible. À Berkeley, pour la chaîne d’Intelligence artificielle, nous développons une plate-forme pour atteindre une grande robustesse dans les tests sur l’Intelligence artificielle. Tous les artefacts, chaque élément de l’entraînement, chaque ligne de code suit un process expérimental précis. Il faudrait peut-être ralentir le process pour avoir la capacité de reproduire de réelles expérimentations scientifiques. Mais cela reste compliqué du fait que les changements mettent au défi tout ce qui tourne autour du contexte de la donnée. Pour obtenir un meilleur Machine Learning dans les 5 ans, cela va rester encore très empirique. » Il ne croit pas vraiment non plus à une entreprise qui soit capable de prendre des décisions sur des opérations à très haut niveau de manière autonome ou juste sur une spécialisation comme la supply chain. Mais plus à des approches de self-service adaptées à l’entreprise et pense que cela sera le sujet de conversation jusqu’en 2020. Il explique cette intuition par le fait que cela existe déjà dans l’infrastructure et que cela va arriver rapidement dans des outils comme ceux de Trifacta. Il ajoute : « Nous allons interroger notre capacité d’innovation dans ce sens. »


LE CONTEXTE DE LA DONNÉE 

Pour rester simple, le contexte de la donnée regroupe toutes les informations autour de l’usage de la donnée. Il se compose principalement de trois éléments, le contexte de l’application (code, modèles, vues), du contexte comportemental (lignage de la donnée, usage), les changements (versioning). Ce contexte global est reproduit dans un métamodèle. L’idée est d’alimenter les outils de Machine Learning qui sont aujourd’hui assez pauvres, que ce soit dans la création des pipelines ou dans l’entraînement des modèles. Lorsqu’un pipeline s’exécute les nouveaux éléments sont automatiquement repris dans le métamodèle qui enregistre les changements.


Article paru dans L'Informaticien n°167


Noter cet article (de 1 = Nul à 5 = Excellent) Valider

Vient de paraître

Aujourd'hui, les Directeurs Comptables et Financiers ont envie de dématérialiser leurs factures fournisseurs. C'est plutôt l'idée de devoir s'intégrer à un environnement multi-ERP déjà existant qui les freine. Mais est-ce réellement une barrière ? Dans son nouveau Livre Blanc, Esker explore ce sujet. En le téléchargeant, vous découvrirez comment la dématérialisation peut être une aubaine plutôt qu'un fardeau.


Actuellement, il existe un gouffre entre les environnements informatiques traditionnels des entreprises et le cloud public. Tout diffère : les modèles de gestion, de consommation, les architectures applicatives, le stockage, les services de données.


Les avantages de l’architecture hyperconvergée étant de plus en plus reconnus, de nombreuses entreprises souhaitent l’utiliser pour des types d’applications variés. Cependant, son manque de souplesse pour une mise à niveau des ressources de calcul indépendantes de celles de stockage ne lui permet pas d’être utilisée plus largement.

Au cours de l’événement HPE Discover qui s’est tenu en juin 2019, HPE a répondu à cette préoccupation en présentant la plateforme HPE Nimble Storage dHCI.

Ce Livre Blanc IDC se penche sur les exigences du marché ayant stimulé le besoin de solutions HCI plus flexibles, puis il examine brièvement la solution HPE Nimble Storage dHCI en expliquant pourquoi elle répond à ce besoin.


Découvrez dans ce livre blanc, les avantages des toutes nouvelles solutions NETGEAR, pour simplifier et rentabiliser vos déploiements, et gérer votre réseau à distance, où que vous soyez, au bureau ou en télé-travail.


Tous les Livres Blancs
Yuka

Yuka

Près d’un quart des Français utilise cette application évaluant si un produit, alimentaire ou cosmétique, est bon pour la santé ! L’outil YuKa a changé le comportement de nombreux...

École 42

École 42

Fondée en 2013, l’École 42 s’est installée sur la plus haute marche du podium des «écoles de code», selon le classement CodinGame. Dirigée par Sophie Viger depuis la fin 2018,...

Apple préfère ARM

Apple préfère ARM

La rumeur courait depuis plusieurs années. Elle a été confirmée à l’occasion de la Conférence développeurs WWDC 2020 : Apple divorce d’avec Intel. Les futurs ordinateurs de la marque...

Culture & Numérique

Culture & Numérique

Si la culture a pu être aussi avidement consommée lors du confinement, c’est avant tout parce que le secteur n’a pas attendu la Covid-19 pour faire sa transformation numérique. Une transformation qui s’est...

Project Reunion

Project Reunion

Microsoft a dévoilé à l’occasion de sa conférence annuelle Build, dédiée aux développeurs, les tout premiers contours de Project Reunion. L’objectif recherché est de faciliter le...

RSS
hardcore black fuck malay hijab fuck big black dick
Afficher tous les dossiers

SÉCURITÉ DU SI ? UNE PRIORITÉ ! SASE, Ransomware, Cyberformation - Le cybercrime as a service -Supinfo : Pourquoi un tel naufrage ? - Comment Nvidia s'est imposé dans les datacenters - Accélérer le développement Python avec Hydra - PME et Multicloud : où en sommes-nous ? - Le Serverless s'impose dans les architectures applicatives...

 

POSTMORTEM cyberattaque région Grand Est - OUTILS : Endpoint Detection & Response, quel rôle doit jouer l'EDR pour protéger un parc informatique ? - Appliances firewall, l'essor de la virtualisation - CONFORMITÉ : Quelles conséquences pour les entreprises après l'annulation du Privacy Shield ? TECHNO : ORC, outil open source de collecte de données forensiques - TRIBUNE : Comment protéger les données à caractère personnel de ses collaborateurs tout en favorisant le télétravail ? - PROJETS : Campus Cyber, ça se précise !...

 

QUELLE IT POUR DEMAIN ? SaaS, Hybride, Shadow IT, Green IT... - Collaboration dans le Cloud : quelles alternatives à Office 365 ? - Intégration continue : les meilleurs outils et pratiques CI/CD - École 42 : le peer to peer learning ça fonctionne ! - Startups : les bonnes recettes de Yuka - 2010-2019 : la décennie qui changea l’information géographique...

 

Afficher tous les derniers numéros
Derniers commentaires
Instagram a annoncé qu'il mettrait à jour sa politique de nudité, notamment concernant les clichés de poitrines, en réaction à la campagne d'une mannequin grande taille qui accusait cette politique d'être discriminatoireInstagram a annoncé qu'il allait mettre à jour sa politique sur la nudité, notamment concernant les clichés de poitrines, en réaction à la campagne d'une mannequin grande taille qui accusait ses règles d'être discriminatoires. [Lire la dépêche...]

Cinq moteurs de recherche alternatifs à Google demandent à la Commission européenne d'organiser une réunion tripartite avec le géant américain pour le forcer à revoir les conditions de leur mise en concurrence dans son système d'exploitation mobileCinq moteurs de recherche alternatifs à Google ont demandé mardi à la Commission européenne d'organiser une réunion tripartite avec le géant américain pour le forcer à revoir les conditions de leur mise en concurrence dans son système d'exploitation mobile. [Lire la dépêche...]

Les tentatives de piratage de l'élection présidentielle américaine du 3 novembre sont bien réelles, mais elles n'ont pas nécessairement besoin de réussir pour avoir un impactLes tentatives de piratage de l'élection présidentielle américaine du 3 novembre sont bien réelles, mais elles n'ont pas nécessairement besoin de réussir pour avoir un impact. [Lire la dépêche...]

Un groupe suédois spécialiste des portails d'accès sécurisés a reconnu mardi avoir été victime d'un vol de données sensibles, ayant notamment trait à la sécurité du Parlement suédois et de banques européennesUn groupe suédois spécialiste des portails d'accès sécurisés a reconnu mardi avoir été victime d'un vol de données sensibles, ayant notamment trait à la sécurité du Parlement suédois et de banques européennes, d'après la presse. [Lire la dépêche...]

Un client scanne un code QR pour payer ses achats dans un marché de Pékin, le 27 octobre 2020Payer un billet d'avion, son épicier ou régler ses factures d'électricité: l'application de paiement Alipay, dont le propriétaire Ant Group lance la plus grosse entrée en Bourse de l'histoire, est devenue quasi-indispensable en Chine. [Lire la dépêche...]

Deux jours avant une audition parlementaire sur les plateformes et les contenus qu'elles hébergent, des modérateurs de Facebook demandent à être mieux traités et écoutés par le géant des réseaux sociauxDeux jours avant une audition parlementaire sur les plateformes et les contenus qu'elles hébergent, des modérateurs de Facebook, en première ligne face aux messages de haine et images violentes, demandent à être mieux traités et écoutés par le géant des réseaux sociaux. [Lire la dépêche...]

Twitter multiplie les mesures pour limiter la désinformation sur les élections américaines
Twitter, à l'approche des élections américaines du 3 novembre, diffuse depuis lundi en évidence sur son fil d'actualités des messages destinés à prévenir ses utilisateurs de possibles manoeuvres de désinformation sur le vote par correspondance et les résultats.  [Lire la dépêche...]

Plusieurs dizaines de petits sites internet français ont été touchés par une vague de piratages informatiques consistant à leur faire afficher des messages de propagande islamistePlusieurs dizaines de petits sites internet français ont été touchés par une vague de piratages informatiques consistant à leur faire afficher des messages de propagande islamiste, a constaté lundi l'AFP. [Lire la dépêche...]

Toutes les dépêches AFP
AgendaIT

READY FOR IT (REPORTÉ)

La nouvelle édition de Ready For IT se déroule du 17 au 19 novembre 2020 à Monaco (Grimaldi Forum) : conférences, keynotes, ateliers et rendez-vous one-to-one. Organisé par DG Consultants. MISE À JOUR du 27/10/2020 : Ready For IT est reporté au printemps 2021 du 17 au 19 mai.

RSS
hardcore black fuck malay hijab fuck big black dick
Voir tout l'AgendaIT