X
IDNOMIC : l'identité innovante

News Partenaire

IDNOMIC : l'identité innovante

Spécialiste de la gestion et de la protection de l’identité numérique, IDNOMIC poursuit son développement en proposant de nouvelles solutions pour la sécurisation des objets connectés et du monde industriel. Retour sur 15 ans d’innovations au sein d’une entreprise qui se réinvente de façon permanente.

Data Scientist : une espèce déjà en voie de disparition ?

Ces têtes chercheuses très demandées qui doivent combiner des connaissances statistiques, en développement de scripts logiciels, mais surtout des connaissances sur le métier de l’entreprise, occupent pourtant près de 60 % de leur temps à nettoyer ou à préparer des jeux de données avant même de pouvoir tester leurs algorithmes apportant la valeur à l’entreprise. Au vu de leurs salaires, certains commencent à se dire que ces étapes pourraient être réalisées par d’autres beaucoup moins cher, voire directement par des logiciels ou des machines auto-apprenantes.

Ils sont les nouveaux héros de l’économie de l’information. Gartner en avait fait le métier le plus sexy du XXIe siècle. Plus récemment, le cabinet Glassdoor l’a listé parmi les 25 métiers les plus recherchés. Data scientist est un des titres les plus enviés du moment, comme une sorte d’idéal alliant à la fois l’intelligence et la créativité et des connaissances scientifiques de haut niveau. Souvent qualifiés de moutons à 5 pattes, ils restent rares et très demandés.

Sur 4,4 millions d’emplois proposés en 2015, seulement 40 % ont été pourvus. En France pour la même année, c’est la moitié des postes qui n’ont pas trouvé preneurs. Ce manque pourrait même s’accentuer quand on sait que seules 20 % des entreprises utilisent les outils sur lesquels travaillent les data scientists. En 2018, il est estimé qu’il va manquer entre 140 000 et 190 000 spécialistes des données rien que pour les États-Unis.

Au passage, comme tout ce qui est rare est aussi cher, le data scientist bénéficie d’un salaire attrayant. En France, il peut toucher 35 000 € en début de carrière et gagner 65 000 € avec 5 ans d’expérience sans oublier près de 10 % de rémunération variable selon les entreprises et le secteur d’activité. On est loin des 120 000 $ proposé aux débutants aux États-Unis qui sont eux-mêmes bien loin du 1 % de rémunération sur les publicités de certains data scientists chez Google si leur algorithme permet d’augmenter le nombre de clics sur les adwords, selon les dires d’un ancien de la maison qui travaille désormais dans une entreprise faisant du partage de fichiers.

Des propositions de « next best actions »

Les acteurs du secteur ne s’y trompent pas et embarquent désormais des outils d’automatisation des tâches fastidieuses. Trifacta est une jeune entreprise qui s’est totalement dédiée à cette mission et propose une plate-forme qui réalise presque automatiquement ces différentes opérations. Datameer est un autre exemple d’une plate-forme offrant des opérations de préparation des données de manière automatique. Pentaho, un autre acteur acquis par Hitachi Data Systems, propose aussi des fonctions d’intégration de données. Ce ne sont que quelques exemples d’éditeurs dans ce domaine. D’autres veulent aller encore plus loin avec l’intégration dans leurs outils de logiciels de machine learning ou auto-apprenant.

L’idée sous-jacente est clairement de se passer de ces profils de haut niveau pour donner à de simples analystes des données ou à des employés avec des connaissances du métier de l’entreprise la possibilité d’avoir accès à des outils leur apportant les connaissances et les résultats apportés par ces logiciels d’aide à la décision. Einstein, la plate-forme de machine learning de Salesforce.com est de ce calibre et va rapidement être intégrée dans tous les Clouds de l’éditeur. Les vendeurs et marketeurs de tous poils vont avoir à disposition des fonctionnalités extrêmement puissantes pour prendre des décisions et surtout orienter ce qu’ils doivent faire ensuite avec des propositions de « next best actions ». Pega CRM, un autre logiciel, propose le même type d’actions mais en s’appuyant sur des règles.
Autre exemple, Watson d’IBM compile et analyse des millions de documents sur un sujet et devient le « Pic de la Mirandole » de l’oncologie ou de la cuisine chinoise et peut ainsi conseiller médecin ou chef cuisinier dans leurs traitements ou recettes et améliorer ces derniers.

Ne pas confondre Business Analyst et Data Scientist

À partir de là on peut s’interroger sur l’utilité pour beaucoup d’entreprises de l’embauche de spécialistes des données alors que de multiples outils vont leur apporter la possibilité d’avoir les résultats sans les inconvénients et les charges inhérentes à tout investissement dans des technologies analytiques impliquant le Big Data ou des analyses pointues sur certains modèles de données. Les Data Scientists vont-il alors disparaître avant même d’avoir connu leur réelle heure de gloire ?

La réponse à cette question est non. Ils vont toujours être aussi recherchés. Car les outils que nous venons de nommer ne s’adressent pas aux data scientists mais aux analystes métier qui sont dans un contexte très vertical ou bien défini : les ventes, le marketing, et pour certains cas précis, la prévision ou le scoring des opportunités sur lesquels peuvent s’appliquer des algorithmes standard et bien connus. Et encore, ce point n’est pas si évident et demande bien souvent des possibilités de personnalisation par l’entreprise. Ce sera bientôt la seule possibilité de différenciation, car quand tous les clients de Salesforce auront Einstein et l’utiliseront, quel sera l’avantage compétitif à secteur d’activité et algorithme égal ? Ce débat a déjà eu lieu lors de la montée en puissances des ERP où on se demandait quelle différenciateur pouvaient avoir deux entreprises ayant le même ERP.

Le data scientist est là pour développer les algorithmes qui vont s’appliquer aux jeux de données qui lui sont mis à disposition. Si sa valeur n’est pas dans les étapes préliminaires s’assurant de la qualité des données, le data scientist est nécessaire pour développer ces nouvelles applications analytiques et bien souvent il est le seul capable de tester et de comprendre le sens des résultats provenant de l’algorithme développé.

De nouveau, l’industrie réalise un abus de langage et se sert de mots-valises parfois dénués de sens pour nous faire prendre des vessies pour des lanternes. Ces nouveaux outils automatiques de préparation des données vont évidemment simplifier la vie des analystes métier et leur permettre d’utiliser de nouvelles technologies décisionnelles de manière simple. Mais ce ne sont pas des outils pour les data scientists, qui eux, comme des artisans, vont peaufiner inlassablement leurs scripts et jeux de données pour tester des algorithmes spécifiques. ❍

Chronique parue dans le n°151 de L'Informaticien (novembre 2016).


Inscription gratuite à la newsletter de L'Informaticien.


Noter cet article (de 1 = Nul à 5 = Excellent) Valider

GitLab

GitLab

Solution libre de « forge » pour le dépôt de code basé, tout comme GitHub, sur le gestionnaire de versions Git, GitLab continue son ascension. Il offre une solution intégrant parfaitement...

20 TECHNOS

20 TECHNOS

Dossier réalisé par Bertrand Garé et Guillaume Périssat avec Michel Chotard, Alain Clapaud et Bastien Lion.

CI/CD as a Service

CI/CD as a Service

L’intégration et la livraison continues sont des composantes fondamentales de la démarche DevOps. Toutefois, alors que les pipelines doivent prendre en compte les nouvelles architectures – conteneurs notamment –,...

Disque dur

Disque dur

Bousculé par la vitesse des mémoires Flash, le disque dur semble condamné. Pourtant, la demande en capacité ne faiblit pas, au contraire, elle s’envole, portée par les besoins infinis du Cloud…

RSS
Afficher tous les dossiers

BASES DE DONNÉES : le DBaaS va tout balayer - Gestion de l'information : structurer le non structuré ! - Municipales : la politique se numérise, le numérique se politise - Cybersécurité : les planètes Cyber alignées ! - DevOps : WevAssembly, langage assembleur du Web - AMP confié à OpenJS - Pénurie des formations IA - À la recherche de nouvelles compétences IT...

 

20 TECHNOS pour 2020 et au-delà... : multicloud, rpa, edge&fog, apis, quantique... - La transfo numérique exemplaire d'une PME industrielle - BYOK : chiffrer le Cloud - L'Open Source teinté d'Orange - Mettre de l'intelligence dans l'APM - Le disque dur fait de la résistance - CI/CD as a Service - Digital Campus, n°1 des écoles du numérique...

 

L'IA AU COEUR DES MÉTIERS : retours d'expérience Cemex, Lamborghini, Decathlon, HSBC - Google Cloud Platform : tout sur la migration ! - Edge Computing, chaînon manquant - Cybersécurité : lutter contre l'ennemi intérieur - Ansible, outil de prédilection des DevOps - Docker, de Montrouge à la roche tarpéienne...

 

Afficher tous les derniers numéros

Découvrez dans ce livre blanc, les avantages des toutes nouvelles solutions NETGEAR, pour simplifier et rentabiliser vos déploiements, et gérer votre réseau à distance, où que vous soyez, au bureau ou en télé-travail.


OneTrust est une plateforme logicielle innovante de gestion de la confidentialité, de la sécurité des données personnelles et des risques fournisseurs. Plus de 4 000 entreprises ont choisi de faire confiance à cette solution pour se conformer au RGPD, au CCPA, aux normes ISO 27001 et à différentes législations internationales de confidentialité et de sécurité des données personnelles.

OneTrust vous propose de télécharger le texte officiel du Règlement Général sur la Protection des Données (RGPD). Vous aurez également la possibilité de recevoir la version imprimée de ce texte, sous forme de guide pratique au format A5, spiralé, en complétant le formulaire.


Le présent guide d'achat vous aidera à améliorer l'efficacité de votre cloud hybride, en mettant l'accent sur les stratégies de gestion des données dédiées aux applications correspondantes.


Les entreprises et les organismes publics se focalisent aujourd’hui sur la transformation numérique. En conséquence, les DevOps et l’agilité sont au premier plan des discussions autour des stratégies informatiques. Pour offrir ces deux avantages, les entreprises travaillent de plus en plus avec les fournisseurs de services de cloud public et développent désormais des clouds sur site à partir d’une infrastructure qui répond à trois exigences de base:
1. Agilité sans friction des ressources physiques
2. Systèmes de contrôle optimisant l'utilisation des ressources physiques et offrant un retour sur investissement maximal
3. Intégration des divers composants de l'infrastructure pour un provisionnement et une gestion des ressources automatisés.


Pour fonctionner, votre entreprise doit pouvoir compter sur une solution de sauvegarde efficace, essentielle dans un monde marqué par une croissance exponentielle des données. Vous devez à la fois accélérer vos sauvegardes et pouvoir y accéder plus rapidement pour satisfaire les exigences actuelles de continuité d’activité, disponibilité, protection des données et conformité réglementaire. Dans cette ère de croissance effrénée, les cibles sur bande hors site et autres approches traditionnelles sont simplement dépassées.


Tous les Livres Blancs
Derniers commentaires
Les utilisateurs des réseaux sociaux préfèrent souvent mettre en avant les contenus susceptibles d'être largement Facebook et les autres réseaux sociaux savaient que 2020, avec la présidentielle américaine, allait être une année à risque en matière de désinformation. Mais la pandémie de coronavirus a ouvert un autre front aux conséquences potentiellement mortelles.   [Lire la dépêche...]

La page d'accueil du réseau social hyperlocal Nextdoor, est devenu central dans la vie de certains quartiers où les habitants sont confinés à cause de la pandémie, le 27 mars 2020 à Washington Le réseau social ultra local Nextdoor, qui met en relation les habitants d'un même quartier, déborde soudain d'offres pour s'entraider entre voisins, des courses à faire pour les personnes âgées aux chiens à promener. [Lire la dépêche...]

Le Conseil d’État  consacre la victoire de Google sur la Cnil à propos du droit à l'oubli des internautes, reconnaissant que celui-ci ne s'appliquait pas hors d'EuropeLe Conseil d’État a consacré vendredi la victoire de Google sur la Cnil à propos du droit à l'oubli des internautes, reconnaissant que celui-ci ne s'appliquait pas hors d'Europe, contrairement à ce que voulait le gardien français de la vie privée. [Lire la dépêche...]

Tablette pour suivre à distance l'état d'un patientSuivre à distance les malades angoissés, limiter les appels au samu, trouver des bras pour les hôpitaux débordés... Face au déferlement du coronavirus, la bataille passe aussi par des outils numériques, déployés à toute vitesse sur le territoire. [Lire la dépêche...]

Des étudiants et des professeurs de l'université de Zenica, en Bosnie centrale, fabriquent à l'aide d'imprimantes 3D des masques spéciaux, plus précisément les pare-visages qui sont gratuitement distribués dans les hôpitaux et les ambulances, au sein du laboratoire iDEAlab, le 25 mars 2020Une petite communauté a organisé en Bosnie, qui est loin de figurer parmi les leaders des nouvelles technologies, l'impression en 3D de masques destinés au personnel médical, en première ligne dans la lutte contre le nouveau coronavirus. [Lire la dépêche...]

La question revient régulièrement auprès des autorités et des géants des technologies: ne dispose-t-on pas d'outils informatiques d'analyse des données qui pourraient nous permettre de mieux anticiper, gérer et contrer la pandémie de coronavirus?La question revient régulièrement auprès des autorités et des géants des technologies: ne dispose-t-on pas d'outils informatiques d'analyse des données qui pourraient nous permettre de mieux anticiper, gérer et contrer la pandémie de coronavirus? [Lire la dépêche...]

Les services funéraires s'adaptent aux contraintes du confinement et proposent désormais aux Viennois endeuillés de suivre en direct sur internet la cérémonie de funérailles de leurs prochesLes services funéraires s'adaptent aux contraintes du confinement et proposent désormais aux Viennois endeuillés de suivre en direct sur internet la cérémonie de funérailles de leurs proches. [Lire la dépêche...]

Un homme et une femme portant un masque consultent leur téléphone dans le métro à Pékin le 11 mars 2020Faut-il utiliser les données de géolocalisation que recèlent nos portables pour aider à lutter contre la pandémie de coronavirus? Certains professionnels ou responsables politiques français se posent la question, mais le débat est explosif en termes de libertés publiques. [Lire la dépêche...]

Toutes les dépêches AFP
AgendaIT

READY FOR IT

La première édition de Ready For IT se déroule du 25 au 27 mai 2020 à Monaco (Grimaldi Forum) : conférences, keynotes, ateliers et rendez-vous one-to-one. Organisé par DG Consultants.

BIG DATA

Conférences et exposition sur le Big Data les 27 et 28 mai 2020 à Paris, Palais des Congrès de la Porte Maillot. Organisé par Corp Agency.

RSS
Voir tout l'AgendaIT
0123movie