X
Emilien Ercolani / lundi 12 février 2018 / Thèmes: Intelligence Artificielle, Dossier

Intelligence Artificielle : De la théorie à la pratique

Au-delà des déclarations publiques de certaines entreprises, et des démonstrations de force comme celle de Google, avec AlphaGo notamment, l’IA est avant tout de plus en plus une réalité dans certaines « petites » entreprises. Machine Learning et Deep Learning ne sont pas que l’apanage des Gafam et autres grandes entreprises, sans compter que la France tente aussi de se placer dans la course, notamment avec la mission Villani.

« Pour moi, l’Intelligence artificielle est avant tout l’industrialisation des tâches cognitives. C’est ce que l’on voit aujourd’hui. Nous sommes dans la deuxième étape de l’ère de l’industrialisation. » C’est l’analyse de Grégory Renard, fondateur de XBrain, une entreprise française spécialisée dans le deep et Machine Learning ainsi que le big data, tant pour le secteur automobile que dans le service client. Pour lui, la première étape fut celle de l’industrialisation des tâches musculaires, c’est-à-dire tout ce que peut physiquement faire l’Homme. Elle aura mis trois décennies pour transformer la société dans son ensemble. La seconde révolution, cognitive donc, « ira beaucoup plus vite. L’enjeu est majeur : la transformation se fera en une, voire 1,5 décennie », prophétise-t-il.

Quand les politiques s’en mêlent

Grégory Renard est aussi l’une des personnes à l’origine du rapport France IA. Remis à l’ex-président François Hollande en mars 2017 au terme d’une mission de trois mois menée par 559 chercheurs, il comporte 59 mesures concrètes pour faire de la France une championne en la matière. In fine, il tente de répondre à une question : comment faire de la France un fleuron dans le domaine de l’Intelligence artificielle ? Emmanuel Macron a donc repris le flambeau, et pour cela il a conféré au célèbre mathématicien français – et député LREM – Cédric Villani, par le biais du Premier ministre, une mission sur l’Intelligence artificielle. Son rapport arrivera sur le bureau du président en janvier. L’objectif est « d’arrêter une stratégie nationale » et en même temps de « fixer des règles à l’utilisation et au développement de cette Intelligence artificielle », rappelait Édouard Philippe en septembre.

D’après les premiers murmures, le rapport se veut déjà très concret, pragmatique, orienté vers des propositions possibles à mettre en œuvre mais aussi « transversal » afin « d’aider le gouvernement à faire les bons choix », dixit Cédric Villani.

Point positif : Emmanuel Macron a compris l’urgence de la situation. Par urgence, il s’agit surtout de ne pas laisser aux Gafam mais aussi aux Chinois des BATX (Baidu, Alibaba, Tencent, Xiaomi) le monopole sur une technologie, au sens large, capable de remodeler le futur économique, sociétal et social. Mi-novembre à Paris, le premier congrès parlementaire sur l’IA a d’ailleurs eu lieu, rassemblant nombre de personnalités politiques – ou non – à l’instar du ministre de l’Économie, Bruno Le Maire, de Cédric Villani bien entendu, de la députée LR Laure de la Raudière ou encore Jean-René Cazeneuve, député LREM du Gers et accessoirement ancien cadre dirigeant d’Apple France, puis de Bouygues Telecom. Objectif de ce grand rassemblement : faire en sorte que la France devienne une future championne mondiale en matière d’IA. « Car on perçoit plus les menaces que ses aspects bénéfiques », a reconnu Laure de la Raudière. «L’Intelligence artificielle n’est pas un problème technologique mais un problème politique, non pas au sens où certains l’entendent. Il va falloir éviter un nouvel apartheid intellectuel avec le développement de réponses populistes et d’une nouvelle classe de naufragés de l’économie numérique que l’on ne saura plus comment reconvertir», a quant à lui souligné Laurent Alexandre, médecin et fondateur de Doctissimo. Il soulève d’ailleurs une question fondamentale : comment créer un géant français de l’IA quand ce sont justement les Google et consorts qui disposent des masses de données les plus importantes, les plus à même de constituer le socle de futures applications? «Nous sortirons par le haut à travers de l’éducation», estime quant à lui Grégory Renard, déjà très actif dans le domaine tant aux États-Unis qu’en France d’ailleurs. En ce sens, il est rejoint par Cédric Villani qui ambitionne quant à lui de créer en France «un genre d’Erasmus de l’Intelligence artificielle».

L’IA, l’occasion de ne pas raisonner «technologie»

Ce qui est certain, c’est que l’IA suscite des convoitises et que bien avant les politiques, de nombreuses entreprises se sont déjà saisies du sujet ; bien que nous n’en soyons qu’aux balbutiements. 80 % des entreprises investissent dans l’Intelligence artificielle (IA), assure déjà Teradata dans une de ses études. Mais encore : 55 % des dirigeants s’interrogent sur l’avenir des emplois humains face à l’automatisation et à l’autonomie offertes par cette technologie, rapporte cette fois-ci l’éditeur SAS. De manière plus pragmatique, ce sont notamment les start-up qui lancent les premières expérimentations. C’est au moment de les passer en production que l’appui de grands groupes se fait sentir. Toutefois, les « bonnes pratiques » restent les mêmes : « L’IA, c’est une enzyme, elle fonctionne comme un accélérateur : plus vite, répétitive. Si les processus ne sont pas déjà proprement définis, le projet sera dangereux. Accélérer un processus rigoureux est certainement beaucoup plus efficace et facile en termes de ROI et d’amélioration business », estime l’analyste du cabinet CXP David Gautier.

Pour lui d’ailleurs, l’Intelligence artificielle, dans tous les secteurs, est aussi l’occasion de raisonner en termes de besoins centrés sur l’utilisateur, de cas d’usage ; ce qui a souvent fait défaut par le passé, et qui s’instille doucement par le biais de méthodes (agiles) ces dernières années. « Il ne faut plus uniquement raisonner technologie. On commence par un PoC (Proof of Concept) et après on voit ce qu’on peut en faire », sourit-il, donnant l’exemple des chatbots. Ce sont généralement simplement des FAQ déjà constituées, à peine du machine learning. Ce qu’on appelle désormais de « l’IA faible », mais qui pourra certainement déboucher sur quelque chose de plus ambitieux à l’avenir. « L’aspect intéressant, c’est que les bots s’alimentent. Et comment les alimenter à partir de données existantes en les reliant au système d’information ? Ce sera un des challenges des équipes IT », analyse quant à lui Mouloud Dey, directeur de l’innovation chez SAS.

Cédric Villani s'est vu confier une mission sur l'intelligence artificielle par le Premier ministre.

L’IA et le risque de la boîte noire

Pourquoi le sujet de l’IA émerge-t-il ces dernières années, alors qu’on en parle depuis plus de 30 ans ? Simplement parce que nous sommes à un carrefour technologique où réseaux, puissance de calcul et volume de données disponibles sont assez murs pour converger. « Cela s’inscrit dans la continuité des projets big data, bien que les projets prennent une nouvelle dimension », rapporte encore Mouloud Dey, « Nous voyons aussi de plus en plus de données non structurées. » Il est donc assez logique que les infrastructures liées aux projets IA soient proches de celles utilisées pour le big data, comme les datalakes, cluster Hadoop, etc. Les GPU prennent aussi une place importante dans l’IA, capables d’effectuer des traitements parallèles importants et cruciaux pour ces applications. Ce n’est d’ailleurs pas pour rien que Nvidia se positionne sur le secteur depuis quelques années, et que Intel devrait vraisemblablement chercher à faire de même – cf. le récent rapprochement avec AMD-ATI.

Au-delà des aspects matériels, l’Intelligence artificielle présente toutefois de vrais risques si les systèmes « deviennent de véritables boîtes noires », poursuit Mouloud Dey, qui insiste sur un vrai besoin de gouvernance. « Cela peut aussi expliquer la frilosité de certaines entreprises de mettre en place leurs algorithmes. Et donc comment ouvrir ces boîtes noires ? Et comment faire comprendre également aux entreprises et dirigeants qu’il faut utiliser l’IA avec parcimonie ? » Autant de questions intéressantes surtout placées sur l’échiquier politique. ❍


QUAND L'IA VEUT VOUS FAIRE LA CONVERSATION

Les interfaces vocales envahissent notre quotidien. Derrière cette interface facile à utiliser, l’Intelligence artificielle dévoile ses nombreuses facettes. La prochaine étape va être de pouvoir converser avec les robots vocaux comme avec n’importe qui !

Une étude réalisée pour le compte de l’Acsel, l’association des professionnels du numérique, la Poste, Orange et la Caisse des Dépôts, et réalisée par Harris interactive, indique que 46 % des internautes français ont déjà eu recours à un chatbot, un robot capable de répondre à des questions précises sans intervention humaine. Sous le capot du robot, des technologies de « Deep Learning », une modélisation d’après le fonctionnement du cerveau humain qui aide à déchiffrer des modèles comme des images, des sons et du texte à partir d’exemples.

Un taux d’erreur réduit de moitié

Nuance, un éditeur de logiciel, travaille depuis plus de dix ans sur ces techniques. Selon Éric Montague, Senior Director Strategy & Product Development chez Nuance Communications, les algorithmes ont permis de largement améliorer les performances dans les domaines de la reconnaissance du langage naturel et de la reconnaissance vocale alliés à une puissance de traitement inédite du fait des améliorations des technologies serveurs. Les erreurs ont été ainsi diminuées de 40 à 50 %. Ce chiffre devrait encore s’améliorer avec l’optimisation continue des algorithmes.

À partir de questions simples, l’Intelligence artificielle est capable de comprendre le contexte de la conversation qui est enrichie par l’adjonction de sources de données par des jeux d’API. Ces sources peuvent être très différentes comme la météo du jour ou d’autres éléments contextuels. Une des utilisations les plus « classiques » de ces technologies se trouve dans les automobiles.

Ainsi Nuance permet dans des véhicules de PSA des fonctions de reconnaissance vocale, compréhension naturelle du langage, technologie de synthèse vocale ainsi que l’amélioration du signe vocal actionnant différentes actions comme numérotation vocale, la fonction de reconnaissance vocale activant la navigation avec l’entrée de la destination et la recherche par point d’intérêt (stations à essence, bornes de rechargement pour les véhicules électriques) ou la recherche de musique par la voix sur des sites dans le Cloud.

Les dialectes chinois aussi

Dans la nouvelle Audi A8, la reconnaissance vocale a été étendue à l’ensemble des services embarqués et des fonctions cloud par une intégration étroite avec l’interface homme-machine du véhicule. La reconnaissance vocale et la compréhension du langage naturel donnent accès à l’ensemble des services, mais aussi aux fonctions de navigation du véhicule – la climatisation par exemple.

Sur ce modèle, la reconnaissance vocale a été faite en plusieurs langues. Nuance va d’ailleurs étendre le nombre de langues dans son portefeuille avec différentes versions de dialectes chinois, comme le shanghaïen ou le sichuanais. L’interface possède de la mémoire et peut enregistrer vos préférences ou vous connecter avec d’autres assistants vocaux comme Alexa d’Amazon. Techniquement, les demandes vocales sont traitées par les capacités à l’intérieur du système d’info-loisirs du véhicule comme des processeurs graphiques. Il est d’ailleurs possible d’avoir une instance par personne dans le véhicule. L’outil va pouvoir gérer des demandes plus complexes comme « Ai-je le temps de prendre un café avant ma réunion et où puis-je me garer ? »

Éric Montague, Senior Director Strategy & Product Development chez Nuance Communications, indique que les algorithmes ont amélioré la performance de la reconnaissance vocale et du traitement du langage naturel.

Une autre possibilité est de faire de l’assistant vocal une aide en cas d’incident avec la réponse aux questions du conducteur et des informations provenant du manuel ou de la documentation technique du véhicule (text to speech).

L’interface des objets connectés

Les mêmes technologies peuvent s’appliquer à des domaines comme la domotique qui reste une grosse opportunité. Un ménage détient en moyenne 80 éléments pouvant être connectés. D’ici à 2022, ce seront 18,5 milliards de connexions avec un objet connecté qui seront réalisées, dont 18 % par l’intermédiaire de la voix. D’ici là, 270 millions de maisons seront connectées, dont 63,53 millions en Europe de l’Ouest selon Strategy Analytics.

Nuance s’intéresse aussi au cas le plus fréquent d’utilisation de la reconnaissance vocale, comme la gestion de la relation client avec des solutions d’engagement multicanal par un assistant qui répond au nom de Nina. L’assistant permet un ciblage par des règles. Vocalement il reconnaît l’intention, autorise la personnalisation des réponses données, selon le contexte, et le dépannage au moyen de stratégies conversationnelles, au besoin. Par intégration, il peut prendre en compte le back-end de l’entreprise ou des solutions tierces pour compléter le contexte et renforcer la pertinence des réponses. L’assistant peut de plus être enrichi par le conseiller client ou l’expert pour devenir encore plus performant. Après un apprentissage avec un expert, le taux de précision de l’assistant peut monter à 95 % après deux mois de données d’adaptation pour améliorer les modèles.

Au moins 60 % d’appels évités vers le support

Utilisé dans une banque suédoise, la Swedbank, l’assistant a permis d’atteindre 84 % de résolution dès le premier contact sur un volume de plus de 30 000 conversations par mois, évitant ainsi 60 % d’appels téléphoniques vers le centre de support client. Ce taux monte à 85 % chez SFR en France. Chez d’autres clients comme Kaspersky Lab, l’assistant est devenu une aide précieuse à la vente avec une augmentation de 3 % de commandes finalisées en plus et une augmentation du panier moyen d’achat. Chez Coca-Cola, sa contribution a permis de réduire de 41 % le volume des appels sur certains jeux concours.

Selon l’étude précitée d’Harris Interactive, les internautes interrogés pensent que les chatbots donnent une image de modernité à l’entreprise. La grande majorité (75 %) pense aussi que ces bots permettent à l’entreprise de réaliser d’importantes économies dans sa relation client. Et 48 % donnent leur confiance aux réponses apportées par les bots, un taux supérieur à celui des réseaux sociaux.

Les étapes de l'évolution des technologies autour de la reconnaissance vocale et du traitement du langage naturel.

Bien acceptée et plus simple que les autres moyens d’interagir avec la technologie, l’interface vocale va devenir quasiment incontournable dans les années à venir et pas seulement dans le monde grand public. Les applications professionnelles pointent leur nez, que ce soit dans la santé ou dans la gestion de la relation client. L’automatisation permise par l’outil fait baisser les coûts sur des problèmes récurrents. Le spécialiste aura ainsi plus de temps pour se consacrer à des tâches plus valorisantes ou plus importantes. ❍


TERADATA : PASSER DU PROTOTYPE À LA MISE EN PRODUCTION

C’est certainement l’une des parties les plus compliquées dans les processus informatiques : passer d’un prototype fonctionnel à une mise en production à plus ou moins grande échelle. Et c’est assez naturellement que plusieurs spécialistes des bases de données se sont spécialisés sur ces aspects. En l’occurrence, Teradata a développé depuis quelques années son savoir-faire en matière d’Intelligence artificielle via sa branche de conseils en analytique. « Du prototype à la production, le gouffre est énorme : seuls 15 % des projets analytiques et de Machine Learning réussissent à passer en production ! », constate Stéphane Rion, Director Data Science France chez Teradata. Un projet IA n’est pas différent en soi d’un autre, et les challenges sont les mêmes. Le manque de planification est encore souvent ce qui fait généralement défaut aux entreprises. Mais ce n’est bien entendu pas la seule raison ; le manque criant de compétences, en data science notamment, est également à ajouter à la liste des principaux éléments. Les profils recherchés sont donc naturellement en mathématiques et en statistiques au sens large, mais aussi en développement pur sur des langages comme Python ou R.

« Un prototype au sein de nos équipes, c’est autour de 6 à 8 semaines de développement. Pour une mise en production, il faut compter 6 à 12 mois », poursuit encore Stéphane Rion. Par ailleurs, une étude montre que si l’IA est envisagée avec beaucoup d’optimisme, 91 % des entreprises s’attendent à des obstacles en termes d’adoption et de ROI, comme pour presque toutes les technologies émergentes d’ailleurs.

Cas concret : détection de la fraude

Dans certains cas, c’est la branche Think Big Analytics de l’éditeur qui travaille de A à Z avec les clients. C’est le cas à la Danske Bank, qui a mis en place un moteur d’Intelligence artificielle utilisant le Machine Learning pour analyser des dizaines de milliers de caractéristiques latentes, évaluer des millions de transactions bancaires en ligne, en temps réel, afin de fournir des informations exploitables sur les activités frauduleuses. Cela permet de réduire sensiblement le coût d’investigation des faux positifs, d’augmenter l’efficacité globale et de réaliser des économies. Les cas de fraude sont très rares ; ils représentent environ un cas pour 100 000 transactions. L’équipe a réussi à réduire de 50 % les faux positifs des modèles, grâce notamment à une solution quasi temps réel. « La plate-forme anti-fraude basée sur l’IA que nous avons développée en collaboration avec la Danske Bank évalue les transactions entrantes en moins de 300 millisecondes », explique Mads Ingwar, directeur des services clients de Think Big Analytics.

L’avantage des algorithmes d’IA, en Machine Learning et/ou Deep Learning, est qu’ils peuvent être réutilisés pour plusieurs applications. Au moins, le squelette d’une solution analytique peut l’être à travers plusieurs industries pour obtenir des résultats rapidement. Ces solutions prépackagées permettent effectivement d’aller plus vite. Teradata en compte entre 30 et 40, et propose aussi certaines de ses solutions en Open Source, tout en contribuant aussi à l’amélioration d’autres bibliothèques ; l’éditeur ne se cache pas d’utiliser parfois TensorFlow de Google. « Nous mettons d’ailleurs certains de nos outils en Open Source, comme notre gestionnaire de datalake Kylo », rappelle Stéphane Rion, qui rapporte aussi que majoritairement, les projets d’IA actuels sont plutôt sur de la donnée structurée.  ❍


L'IA FAIT MAISON : DEUX PROJETS MENÉS À BIEN

Si les très grandes entreprises sont les plus promptes à communiquer sur leurs différents projets menés en Intelligence artificielle, elles ne sont pas les seules. Effectivement, les Gafa notamment sont très alertes sur le sujet, Google-Deepmind en tête avec sa solution AlphaGo, reine de la discipline du jeu de Go. Les plus petites entreprises capitalisent elles aussi sur l’IA et en tirent parfois de grands bénéfices. C’est le cas pour plusieurs français, qui ont réussi de beaux paris.

TEB : l’IA dans la vidéoprotection

Spécialiste dijonnais de la vidéoprotection, l’entreprise TEB est tant un constructeur qu’un éditeur de logiciels pour ses différentes solutions. « Nous avons notamment comme client le ministère de l’Intérieur, et nous avons depuis plusieurs années des solutions d’analyse d’image, comme pour la lecture des plaques d’immatriculation ou le comptage de personnes par exemple », explique Marion Savoy, directrice marketing de l’entreprise. Depuis trois ans, TEB a lancé des travaux en R & D sur l’IA. « Pour nous, l’idée est d’associer nos capacités de traitement d’images à de l’IA pour aboutir à une analyse temps réel sur un volume de données très important. Le résultat est éloquent, incomparable avec le traitement traditionnel. Pour schématiser, l’IA permet de faire en sorte que l’analyse se fasse comme si c’était vous, votre propre cerveau, qui analysait chaque image », souligne-t-elle encore. Le premier débouché est donc la reconnaissance et la détection. Cela peut être des objets, des éléments, voire des individus que l’on peut reconnaître et classifier en différentes catégories. « Un individu est un élément, mais on distingue bien entendu homme et femme, et on peut y ajouter la tranche d’âge, le genre, etc. Il est aussi possible d’aller plus loin pour la recherche et la reconnaissance de visage en tissant des liens avec une base de données », poursuit-elle.

L’algorithme de TEB, entièrement développé en interne avec les compétences de l’entreprise, est fonctionnel depuis mars dernier, mais encore en phase de présentation et de lancement. On ne le trouve donc pas encore au catalogue, mais la plate-forme de traitement des données est en place. Pour le moment, les clients devront utiliser leurs propres serveurs, même si à l’avenir cela pourrait changer. « La sécurité fait que les entreprises préfèrent garder la main sur leurs données, qui sont leur propriété intellectuelle. Nous calibrons la solution mais le serveur peut in fine être placé n’importe où », dans le Cloud ou ailleurs, ajoute Marion Savoy.

De l’IA… pour le recrutement !

EasyRecrue a développé une solution vidéo originale de présélection pour le recrutement des candidats en vidéo. Souhaitant aller plus loin, c’est de concert avec le LIMSI-CNRS et Télécom-ParisTech que l’entreprise française a développé un système capable de décortiquer les vidéos des candidats. « Nous sommes capable d’analyser ce que dit le candidat (Speech to Text), la prosodie (voix, intonation, etc.) et l’aspect comportemental (visage, expressions, etc.). Ainsi, selon le profil recherché par le recruteur, nous pouvons lui proposer une présélection basée sur certains critères », explique Mickaël Cabrol, fondateur d’EasyRecrue. Pour cela, l’entreprise s’est appuyée sur de gros volumes de données afin d’analyser des milliers de vidéos depuis deux ans. La solution sera proposée dès 2018, avec l’objectif de « tomber juste dans 80 à 85 % des cas dans un premier temps ». ❍


L'IA ET L'IOT : DES OBJETS ENCORE PLUS INTELLIGENTS

« Imaginez par exemple que dans une mine, une foreuse commence à chauffer. On envoie un message à l’ouvrier pour qu’il bride la machine, ou pour qu’on le fasse automatiquement à sa place. De plus, nous allons communiquer aux foreuses alentours qu’elles fonctionnent bien et qu’elles peuvent accélérer pour combler la baisse de régime de la première foreuse. L’idée est donc que les systèmes se parlent. Ici, l’Intelligence artificielle intervient sur la capacité de filtrage et sur l’enrichissement des données. Par la suite, il sera aussi possible d’analyser a posteriori les impacts des mesures prises par un tel système et donc de l’enrichir à l’infini. » Ce scénario, pas si lointain, est un exemple de ce que peut apporter l’Intelligence artificielle au monde de l’industrie 4.0 et, plus largement, à celui de l’Internet des Objets. C’est l’éditeur de logiciels Software AG qui nous a décrit ce scénario qui combine plusieurs « dimensions » de l’IA. Tout d’abord, la puissance matérielle des objets qui permet désormais d’embarquer des logiciels dotés d’une capacité de traitement des algorithmes sous forme de modules mobiles. « Notre savoir-faire est principalement dans le middleware. En matière d’optimisation des flux de messages, nous pouvons par exemple mettre en place des algorithmes d’IA de sécurité pour identifier des comportements étranges, ce que nous n’aurions pas pu faire avant », explique David Milot, vice-président Solutions EMEA chez Software AG. Mais, surtout, l’IA débarque désormais directement au sein des objets connectés, des capteurs. « Nous sommes sur ce que l’on appelle le « front edge », au plus près du capteur », poursuit-il.

Si l’on parle désormais de « front edge », c’est parce qu’il existe un « back edge ». Dans une usine, le front edge est l’ultime objet connecté, mais il est fédéré par un back edge qui centralise les données. « Sur l’exemple précédent, ce serait la coordination locale entre les foreuses. Il s’agit donc d’une véritable segmentation du traitement de l’information, mais aussi d’une diversification des acteurs intéressés par ces datas. Par exemple, chez un avionneur, la maintenance sera intéressée par les informations issues des outils et des machines, mais également les constructeurs des outils ! », ajoute David Milot.

Dans l’IoT, de futures grandes questions…

En France, si nous disposons de chercheurs mondialement reconnus, les recherches s’orientent globalement vers l’Intelligence augmentée. Les techniques principalement utilisée sont les mêmes, à savoir le Machine Learning, le Deep Learning et le principe des réseaux neuronaux. Un autre champ de recherche est celui de l’aide à la décision en temps réel. Cette dernière notion est d’ailleurs souvent rattachée à l’IA car, aujourd’hui, la puissance de calcul combinée à la robustesse des réseaux le permet, même si ce n’est pas toujours nécessaire. Mais dans certains cas, l’IA va concrètement changer les choses avec son entrée sur les objets connectés. Et peut-être plus rapidement que ce que l’on pense : les montres et autres bracelets connectées seront probablement les premiers concernés. D’abord se pose de plus en plus la question de qui est propriétaire de la donnée, ainsi que de son traitement, de sa localisation, etc. Mais surtout, dans ce cas précis, qui traite de la donnée de santé en récoltant les battements de cœur, etc., une autre question va bientôt se poser : avec les capacités de traitement de la donnée, couplées aux mécanismes d’IA, qui aura la responsabilité de la donnée ? Et d’imaginer de futurs cas : en cas de crise cardiaque, par exemple, du porteur d’un bracelet connecté, à qui incombe la responsabilité si la personne n’est pas prévenu dans les temps ? ❍


L’IA DANS L'IDENTIFICATION NUMÉRIQUE : LE DEEP LEARNING À L'OEUVRE !

La vérification de l’identité en ligne est actuellement encore contraignante, demande des efforts de recherche afin de s’assurer qu’une personne qui prétend être le titulaire d’une carte d’identité est bien la bonne. Par ailleurs, elle se répand à mesure que des services – les banques en ligne par exemple – sont de plus en plus dématérialisés. Et, jusqu’à présent, de nombreuses entreprises font ces vérifications à la main, au cas par cas, tout en étant assistées par des logiciels spécialisés. Mais le spécialiste de l’identité IDnow, basé à Munich, a désormais recours au Deep Learning pour ses processus d’identification par vidéo pour faciliter la vérification automatique des pièces d’identité. Ce faisant, il est capable de détecter efficacement les tentatives de fraude. « Nous utilisons cette méthode pour détecter, classifier et extraire automatiquement les pièces d’identité en temps réel », nous explique Armin Bauer, CTO et cofondateur d’IDnow.

Pour ce faire, « nous avons développé notre propre algorithme et l’avons configuré de façon à ce qu’il soit capable de reconnaître efficacement la photo d’une pièce d’identité, quels que soient la lumière, l’arrière-plan ou la résolution de l’appareil photo, et ceci pratiquement en temps réel », explique-t-il. Concernant le développement du mécanisme Deep Learning, IDnow s’est appuyé sur deux outils libres : la bibliothèque graphique OpenCV pour la vision par ordinateur, et sur TensorFlow pour l’apprentissage automatique. Dans son fonctionnement, le programme classifie le document et détermine le pays d’émission, s’il s’agit d’une carte d’identité ou d’un passeport, ainsi que la version du document. L’algorithme est également capable de détecter et de vérifier des données sur la pièce d’identité, comme le nom du titulaire ou les clés de contrôle.

Nvidia pour l’accélération matérielle

« Pour la détection et la classification des pièces d’identité à partir d’images, nous sommes actuellement à un niveau de précision de 99,4 % et un taux de rappel de 94,4 %. Le taux de précision permet de calculer le nombre de documents mal identifiés ou mal classifiés. Le taux de rappel correspond au pourcentage d’images ayant donné un résultat », ajoute Armin Bauer. Ainsi, les algorithmes de détection d’images analysent de grandes quantités de données et apprennent peu à peu à reconnaître les connexions et schémas et à faire les déductions appropriées. Ce processus d’apprentissage est accéléré par des GPU Nvidia. « Nous utilisons Nvidia Cuda de pair avec l’architecture Pascal. Les réseaux neuronaux qui sont activés pour la production consomment environ 4 Go de mémoire vidéo et peuvent traiter une image en environ 100 ms par GPU », précise-t-il encore.

Grâce à l'utilisation du deep learning, IDnow atteint actuellement un niveau de précision de 99,4%, qui permet de calculer le nombre de documents mal identifiés ou mal classés.

Quel que soit le niveau de fiabilité atteint par le logiciel, IDnow continue d’avoir recours à la vérification humaine. Cela reste une obligation légale dans certains pays, et actuellement « il existe des schémas de fraude que les machines ne sont pas en mesure de détecter, tels que la manipulation sociale, lorsque les utilisateurs ont recours à certaines ruses pour forcer l’identification ». Pour en arriver là, IDnow a travaillé sur son système depuis 2014. « La tâche préparatoire la plus importante était de constituer un ensemble de données suffisamment vaste et de suffisamment bonne qualité pour pouvoir être utilisé pour l’apprentissage automatique », confie encore Armin Bauer. ❍

7009

x
Rechercher dans les dossiers

Actuellement à la Une...
Après Oodrive en janvier, c’est au tour de Outscale d’obtenir la précieuse qualification SecNumCloud, délivrée par l’Anssi. Outre la reconnaissance des engagements de la filiale de Dassault Systèmes en matière de sécurité, ce « visa de sécurité » est surtout un argument dont Outscale pourra se targuer auprès de ses clients.

Big Blue est réputée pour ses avancées technologiques développées dans ses laboratoires. IBM Research a encore frappé avec un nouvel algorithme capable de synthétiser les réseaux de neurones profonds.

Le Cloud pour les grandes entreprises de Dell Technologies se rénove pour apporter une meilleure gestion du stockage et une meilleure visibilité sur les coûts.

Compuware vient de rendre publique une étude réalisée pour son compte par Vanson Bourne auprès de 400 responsables informatiques dans le monde. Le principal résultat est que seulement 7 % des entreprises ont automatisé leurs tests d’applications sur mainframe.

Pour beaucoup d’applications, un faible temps de latence reste un critère essentiel. Aussi le Cloud Amazon va multiplier ses implantations de petits datacentres au plus près de ses clients.

Sous la contrainte de la norme DSP2, le secteur bancaire est contraint d’évoluer vers des opérations plus ouvertes vers l’extérieur en suivant un concept relativement nouveau, l’Open Banking. HSBC s’appuie sur la plate-forme de Mulesoft pour créer de nouveaux services et mieux servir ses 38 millions de clients.

Si financièrement le temps n’est pas au beau fixe pour l’équipementier, il tente de rassurer à l’occasion de son évènement londonien, et mise sur l’intelligence artificielle, avec Mist sur la partie WLAN, pour renouer avec la croissance.

C’est une première : un outil développé dans le cadre du « Data Transfer Project » va être mis à disposition du public pour transférer des fichiers personnels entre deux grandes plates-formes, directement, sans téléchargement intermédiaire. Une pratique qui devrait se généraliser rapidement.

GitHub a sorti une nouvelle version en bêta de son service Actions. Publié pour la première fois en 2018, il est voué à l’organisation de workflows en liaison avec des événements. Sa principale nouveauté est le support de l’intégration et du déploiement en continu (CI/CD). La version finalisée était attendue pour la mi-novembre 2019. Article paru dans L'Informaticien n°181.

L’emblématique constructeur de voitures de sport certifie ses véhicules à la revente avec la blockchain de Salesforce. Celle-ci avait déjà servi à certifier une Lamborghini Aventador S comme une œuvre d’art.

Toutes les News
LIVRES BLANCS
Les entreprises et les organismes publics se focalisent aujourd’hui sur la transformation numérique. En conséquence, les DevOps et l’agilité sont au premier plan des discussions autour des stratégies informatiques. Pour offrir ces deux avantages, les entreprises travaillent de plus en plus avec les fournisseurs de services de cloud public et développent désormais des clouds sur site à partir d’une infrastructure qui répond à trois exigences de base:
1. Agilité sans friction des ressources physiques
2. Systèmes de contrôle optimisant l'utilisation des ressources physiques et offrant un retour sur investissement maximal
3. Intégration des divers composants de l'infrastructure pour un provisionnement et une gestion des ressources automatisés.


Pour fonctionner, votre entreprise doit pouvoir compter sur une solution de sauvegarde efficace, essentielle dans un monde marqué par une croissance exponentielle des données. Vous devez à la fois accélérer vos sauvegardes et pouvoir y accéder plus rapidement pour satisfaire les exigences actuelles de continuité d’activité, disponibilité, protection des données et conformité réglementaire. Dans cette ère de croissance effrénée, les cibles sur bande hors site et autres approches traditionnelles sont simplement dépassées.


L’Intelligence Artificielle promet de révolutionner la perception de la cybersécurité au coeur des entreprises, mais pas uniquement. Ce changement de paradigme engage, en effet, une redéfinition complète des règles du jeu pour les DSI et les RSSI, ainsi que l’ensemble des acteurs de la sécurité.


Lorsque l'on déploie des postes de travail, ils ont généralement tous la même configuration matérielle et logicielle (avec certaines spécificités selon les services). Mais on ne peut pas toujours tout prévoir et il arrive par exemple que de nouveaux programmes doivent être installés ou n’aient pas été prévus. L’accumulation de logiciels « lourds » est susceptible de provoquer des lenteurs significatives sur un PC allant jusqu’à l’extinction nette de l’application. Ce livre blanc explique comment optimiser les performances au travers de 5 conseils rapides à mettre en place.


Ce guide est conçu pour aider les entreprises à évaluer les solutions de sécurité des terminaux. Il peut être utilisé par les membres de l'équipe de réponse aux incidents et des opérations de sécurité travaillant avec des outils de sécurité des points finaux sur une base quotidienne. Il peut également être utilisé par les responsables informatiques, les professionnels de la sécurité, les responsables de la conformité et d’autres personnes pour évaluer leurs performances. les capacités de l’entreprise en matière de cybersécurité, identifier les lacunes dans la sécurité des terminaux et sélectionner les bons produits pour combler ces lacunes.


Tous les Livres Blancs