X
Emilien Ercolani / lundi 12 février 2018 / Thèmes: Intelligence Artificielle, Dossier

Intelligence Artificielle : De la théorie à la pratique

Au-delà des déclarations publiques de certaines entreprises, et des démonstrations de force comme celle de Google, avec AlphaGo notamment, l’IA est avant tout de plus en plus une réalité dans certaines « petites » entreprises. Machine Learning et Deep Learning ne sont pas que l’apanage des Gafam et autres grandes entreprises, sans compter que la France tente aussi de se placer dans la course, notamment avec la mission Villani.

« Pour moi, l’Intelligence artificielle est avant tout l’industrialisation des tâches cognitives. C’est ce que l’on voit aujourd’hui. Nous sommes dans la deuxième étape de l’ère de l’industrialisation. » C’est l’analyse de Grégory Renard, fondateur de XBrain, une entreprise française spécialisée dans le deep et Machine Learning ainsi que le big data, tant pour le secteur automobile que dans le service client. Pour lui, la première étape fut celle de l’industrialisation des tâches musculaires, c’est-à-dire tout ce que peut physiquement faire l’Homme. Elle aura mis trois décennies pour transformer la société dans son ensemble. La seconde révolution, cognitive donc, « ira beaucoup plus vite. L’enjeu est majeur : la transformation se fera en une, voire 1,5 décennie », prophétise-t-il.

Quand les politiques s’en mêlent

Grégory Renard est aussi l’une des personnes à l’origine du rapport France IA. Remis à l’ex-président François Hollande en mars 2017 au terme d’une mission de trois mois menée par 559 chercheurs, il comporte 59 mesures concrètes pour faire de la France une championne en la matière. In fine, il tente de répondre à une question : comment faire de la France un fleuron dans le domaine de l’Intelligence artificielle ? Emmanuel Macron a donc repris le flambeau, et pour cela il a conféré au célèbre mathématicien français – et député LREM – Cédric Villani, par le biais du Premier ministre, une mission sur l’Intelligence artificielle. Son rapport arrivera sur le bureau du président en janvier. L’objectif est « d’arrêter une stratégie nationale » et en même temps de « fixer des règles à l’utilisation et au développement de cette Intelligence artificielle », rappelait Édouard Philippe en septembre.

D’après les premiers murmures, le rapport se veut déjà très concret, pragmatique, orienté vers des propositions possibles à mettre en œuvre mais aussi « transversal » afin « d’aider le gouvernement à faire les bons choix », dixit Cédric Villani.

Point positif : Emmanuel Macron a compris l’urgence de la situation. Par urgence, il s’agit surtout de ne pas laisser aux Gafam mais aussi aux Chinois des BATX (Baidu, Alibaba, Tencent, Xiaomi) le monopole sur une technologie, au sens large, capable de remodeler le futur économique, sociétal et social. Mi-novembre à Paris, le premier congrès parlementaire sur l’IA a d’ailleurs eu lieu, rassemblant nombre de personnalités politiques – ou non – à l’instar du ministre de l’Économie, Bruno Le Maire, de Cédric Villani bien entendu, de la députée LR Laure de la Raudière ou encore Jean-René Cazeneuve, député LREM du Gers et accessoirement ancien cadre dirigeant d’Apple France, puis de Bouygues Telecom. Objectif de ce grand rassemblement : faire en sorte que la France devienne une future championne mondiale en matière d’IA. « Car on perçoit plus les menaces que ses aspects bénéfiques », a reconnu Laure de la Raudière. «L’Intelligence artificielle n’est pas un problème technologique mais un problème politique, non pas au sens où certains l’entendent. Il va falloir éviter un nouvel apartheid intellectuel avec le développement de réponses populistes et d’une nouvelle classe de naufragés de l’économie numérique que l’on ne saura plus comment reconvertir», a quant à lui souligné Laurent Alexandre, médecin et fondateur de Doctissimo. Il soulève d’ailleurs une question fondamentale : comment créer un géant français de l’IA quand ce sont justement les Google et consorts qui disposent des masses de données les plus importantes, les plus à même de constituer le socle de futures applications? «Nous sortirons par le haut à travers de l’éducation», estime quant à lui Grégory Renard, déjà très actif dans le domaine tant aux États-Unis qu’en France d’ailleurs. En ce sens, il est rejoint par Cédric Villani qui ambitionne quant à lui de créer en France «un genre d’Erasmus de l’Intelligence artificielle».

L’IA, l’occasion de ne pas raisonner «technologie»

Ce qui est certain, c’est que l’IA suscite des convoitises et que bien avant les politiques, de nombreuses entreprises se sont déjà saisies du sujet ; bien que nous n’en soyons qu’aux balbutiements. 80 % des entreprises investissent dans l’Intelligence artificielle (IA), assure déjà Teradata dans une de ses études. Mais encore : 55 % des dirigeants s’interrogent sur l’avenir des emplois humains face à l’automatisation et à l’autonomie offertes par cette technologie, rapporte cette fois-ci l’éditeur SAS. De manière plus pragmatique, ce sont notamment les start-up qui lancent les premières expérimentations. C’est au moment de les passer en production que l’appui de grands groupes se fait sentir. Toutefois, les « bonnes pratiques » restent les mêmes : « L’IA, c’est une enzyme, elle fonctionne comme un accélérateur : plus vite, répétitive. Si les processus ne sont pas déjà proprement définis, le projet sera dangereux. Accélérer un processus rigoureux est certainement beaucoup plus efficace et facile en termes de ROI et d’amélioration business », estime l’analyste du cabinet CXP David Gautier.

Pour lui d’ailleurs, l’Intelligence artificielle, dans tous les secteurs, est aussi l’occasion de raisonner en termes de besoins centrés sur l’utilisateur, de cas d’usage ; ce qui a souvent fait défaut par le passé, et qui s’instille doucement par le biais de méthodes (agiles) ces dernières années. « Il ne faut plus uniquement raisonner technologie. On commence par un PoC (Proof of Concept) et après on voit ce qu’on peut en faire », sourit-il, donnant l’exemple des chatbots. Ce sont généralement simplement des FAQ déjà constituées, à peine du machine learning. Ce qu’on appelle désormais de « l’IA faible », mais qui pourra certainement déboucher sur quelque chose de plus ambitieux à l’avenir. « L’aspect intéressant, c’est que les bots s’alimentent. Et comment les alimenter à partir de données existantes en les reliant au système d’information ? Ce sera un des challenges des équipes IT », analyse quant à lui Mouloud Dey, directeur de l’innovation chez SAS.

Cédric Villani s'est vu confier une mission sur l'intelligence artificielle par le Premier ministre.

L’IA et le risque de la boîte noire

Pourquoi le sujet de l’IA émerge-t-il ces dernières années, alors qu’on en parle depuis plus de 30 ans ? Simplement parce que nous sommes à un carrefour technologique où réseaux, puissance de calcul et volume de données disponibles sont assez murs pour converger. « Cela s’inscrit dans la continuité des projets big data, bien que les projets prennent une nouvelle dimension », rapporte encore Mouloud Dey, « Nous voyons aussi de plus en plus de données non structurées. » Il est donc assez logique que les infrastructures liées aux projets IA soient proches de celles utilisées pour le big data, comme les datalakes, cluster Hadoop, etc. Les GPU prennent aussi une place importante dans l’IA, capables d’effectuer des traitements parallèles importants et cruciaux pour ces applications. Ce n’est d’ailleurs pas pour rien que Nvidia se positionne sur le secteur depuis quelques années, et que Intel devrait vraisemblablement chercher à faire de même – cf. le récent rapprochement avec AMD-ATI.

Au-delà des aspects matériels, l’Intelligence artificielle présente toutefois de vrais risques si les systèmes « deviennent de véritables boîtes noires », poursuit Mouloud Dey, qui insiste sur un vrai besoin de gouvernance. « Cela peut aussi expliquer la frilosité de certaines entreprises de mettre en place leurs algorithmes. Et donc comment ouvrir ces boîtes noires ? Et comment faire comprendre également aux entreprises et dirigeants qu’il faut utiliser l’IA avec parcimonie ? » Autant de questions intéressantes surtout placées sur l’échiquier politique. ❍


QUAND L'IA VEUT VOUS FAIRE LA CONVERSATION

Les interfaces vocales envahissent notre quotidien. Derrière cette interface facile à utiliser, l’Intelligence artificielle dévoile ses nombreuses facettes. La prochaine étape va être de pouvoir converser avec les robots vocaux comme avec n’importe qui !

Une étude réalisée pour le compte de l’Acsel, l’association des professionnels du numérique, la Poste, Orange et la Caisse des Dépôts, et réalisée par Harris interactive, indique que 46 % des internautes français ont déjà eu recours à un chatbot, un robot capable de répondre à des questions précises sans intervention humaine. Sous le capot du robot, des technologies de « Deep Learning », une modélisation d’après le fonctionnement du cerveau humain qui aide à déchiffrer des modèles comme des images, des sons et du texte à partir d’exemples.

Un taux d’erreur réduit de moitié

Nuance, un éditeur de logiciel, travaille depuis plus de dix ans sur ces techniques. Selon Éric Montague, Senior Director Strategy & Product Development chez Nuance Communications, les algorithmes ont permis de largement améliorer les performances dans les domaines de la reconnaissance du langage naturel et de la reconnaissance vocale alliés à une puissance de traitement inédite du fait des améliorations des technologies serveurs. Les erreurs ont été ainsi diminuées de 40 à 50 %. Ce chiffre devrait encore s’améliorer avec l’optimisation continue des algorithmes.

À partir de questions simples, l’Intelligence artificielle est capable de comprendre le contexte de la conversation qui est enrichie par l’adjonction de sources de données par des jeux d’API. Ces sources peuvent être très différentes comme la météo du jour ou d’autres éléments contextuels. Une des utilisations les plus « classiques » de ces technologies se trouve dans les automobiles.

Ainsi Nuance permet dans des véhicules de PSA des fonctions de reconnaissance vocale, compréhension naturelle du langage, technologie de synthèse vocale ainsi que l’amélioration du signe vocal actionnant différentes actions comme numérotation vocale, la fonction de reconnaissance vocale activant la navigation avec l’entrée de la destination et la recherche par point d’intérêt (stations à essence, bornes de rechargement pour les véhicules électriques) ou la recherche de musique par la voix sur des sites dans le Cloud.

Les dialectes chinois aussi

Dans la nouvelle Audi A8, la reconnaissance vocale a été étendue à l’ensemble des services embarqués et des fonctions cloud par une intégration étroite avec l’interface homme-machine du véhicule. La reconnaissance vocale et la compréhension du langage naturel donnent accès à l’ensemble des services, mais aussi aux fonctions de navigation du véhicule – la climatisation par exemple.

Sur ce modèle, la reconnaissance vocale a été faite en plusieurs langues. Nuance va d’ailleurs étendre le nombre de langues dans son portefeuille avec différentes versions de dialectes chinois, comme le shanghaïen ou le sichuanais. L’interface possède de la mémoire et peut enregistrer vos préférences ou vous connecter avec d’autres assistants vocaux comme Alexa d’Amazon. Techniquement, les demandes vocales sont traitées par les capacités à l’intérieur du système d’info-loisirs du véhicule comme des processeurs graphiques. Il est d’ailleurs possible d’avoir une instance par personne dans le véhicule. L’outil va pouvoir gérer des demandes plus complexes comme « Ai-je le temps de prendre un café avant ma réunion et où puis-je me garer ? »

Éric Montague, Senior Director Strategy & Product Development chez Nuance Communications, indique que les algorithmes ont amélioré la performance de la reconnaissance vocale et du traitement du langage naturel.

Une autre possibilité est de faire de l’assistant vocal une aide en cas d’incident avec la réponse aux questions du conducteur et des informations provenant du manuel ou de la documentation technique du véhicule (text to speech).

L’interface des objets connectés

Les mêmes technologies peuvent s’appliquer à des domaines comme la domotique qui reste une grosse opportunité. Un ménage détient en moyenne 80 éléments pouvant être connectés. D’ici à 2022, ce seront 18,5 milliards de connexions avec un objet connecté qui seront réalisées, dont 18 % par l’intermédiaire de la voix. D’ici là, 270 millions de maisons seront connectées, dont 63,53 millions en Europe de l’Ouest selon Strategy Analytics.

Nuance s’intéresse aussi au cas le plus fréquent d’utilisation de la reconnaissance vocale, comme la gestion de la relation client avec des solutions d’engagement multicanal par un assistant qui répond au nom de Nina. L’assistant permet un ciblage par des règles. Vocalement il reconnaît l’intention, autorise la personnalisation des réponses données, selon le contexte, et le dépannage au moyen de stratégies conversationnelles, au besoin. Par intégration, il peut prendre en compte le back-end de l’entreprise ou des solutions tierces pour compléter le contexte et renforcer la pertinence des réponses. L’assistant peut de plus être enrichi par le conseiller client ou l’expert pour devenir encore plus performant. Après un apprentissage avec un expert, le taux de précision de l’assistant peut monter à 95 % après deux mois de données d’adaptation pour améliorer les modèles.

Au moins 60 % d’appels évités vers le support

Utilisé dans une banque suédoise, la Swedbank, l’assistant a permis d’atteindre 84 % de résolution dès le premier contact sur un volume de plus de 30 000 conversations par mois, évitant ainsi 60 % d’appels téléphoniques vers le centre de support client. Ce taux monte à 85 % chez SFR en France. Chez d’autres clients comme Kaspersky Lab, l’assistant est devenu une aide précieuse à la vente avec une augmentation de 3 % de commandes finalisées en plus et une augmentation du panier moyen d’achat. Chez Coca-Cola, sa contribution a permis de réduire de 41 % le volume des appels sur certains jeux concours.

Selon l’étude précitée d’Harris Interactive, les internautes interrogés pensent que les chatbots donnent une image de modernité à l’entreprise. La grande majorité (75 %) pense aussi que ces bots permettent à l’entreprise de réaliser d’importantes économies dans sa relation client. Et 48 % donnent leur confiance aux réponses apportées par les bots, un taux supérieur à celui des réseaux sociaux.

Les étapes de l'évolution des technologies autour de la reconnaissance vocale et du traitement du langage naturel.

Bien acceptée et plus simple que les autres moyens d’interagir avec la technologie, l’interface vocale va devenir quasiment incontournable dans les années à venir et pas seulement dans le monde grand public. Les applications professionnelles pointent leur nez, que ce soit dans la santé ou dans la gestion de la relation client. L’automatisation permise par l’outil fait baisser les coûts sur des problèmes récurrents. Le spécialiste aura ainsi plus de temps pour se consacrer à des tâches plus valorisantes ou plus importantes. ❍


TERADATA : PASSER DU PROTOTYPE À LA MISE EN PRODUCTION

C’est certainement l’une des parties les plus compliquées dans les processus informatiques : passer d’un prototype fonctionnel à une mise en production à plus ou moins grande échelle. Et c’est assez naturellement que plusieurs spécialistes des bases de données se sont spécialisés sur ces aspects. En l’occurrence, Teradata a développé depuis quelques années son savoir-faire en matière d’Intelligence artificielle via sa branche de conseils en analytique. « Du prototype à la production, le gouffre est énorme : seuls 15 % des projets analytiques et de Machine Learning réussissent à passer en production ! », constate Stéphane Rion, Director Data Science France chez Teradata. Un projet IA n’est pas différent en soi d’un autre, et les challenges sont les mêmes. Le manque de planification est encore souvent ce qui fait généralement défaut aux entreprises. Mais ce n’est bien entendu pas la seule raison ; le manque criant de compétences, en data science notamment, est également à ajouter à la liste des principaux éléments. Les profils recherchés sont donc naturellement en mathématiques et en statistiques au sens large, mais aussi en développement pur sur des langages comme Python ou R.

« Un prototype au sein de nos équipes, c’est autour de 6 à 8 semaines de développement. Pour une mise en production, il faut compter 6 à 12 mois », poursuit encore Stéphane Rion. Par ailleurs, une étude montre que si l’IA est envisagée avec beaucoup d’optimisme, 91 % des entreprises s’attendent à des obstacles en termes d’adoption et de ROI, comme pour presque toutes les technologies émergentes d’ailleurs.

Cas concret : détection de la fraude

Dans certains cas, c’est la branche Think Big Analytics de l’éditeur qui travaille de A à Z avec les clients. C’est le cas à la Danske Bank, qui a mis en place un moteur d’Intelligence artificielle utilisant le Machine Learning pour analyser des dizaines de milliers de caractéristiques latentes, évaluer des millions de transactions bancaires en ligne, en temps réel, afin de fournir des informations exploitables sur les activités frauduleuses. Cela permet de réduire sensiblement le coût d’investigation des faux positifs, d’augmenter l’efficacité globale et de réaliser des économies. Les cas de fraude sont très rares ; ils représentent environ un cas pour 100 000 transactions. L’équipe a réussi à réduire de 50 % les faux positifs des modèles, grâce notamment à une solution quasi temps réel. « La plate-forme anti-fraude basée sur l’IA que nous avons développée en collaboration avec la Danske Bank évalue les transactions entrantes en moins de 300 millisecondes », explique Mads Ingwar, directeur des services clients de Think Big Analytics.

L’avantage des algorithmes d’IA, en Machine Learning et/ou Deep Learning, est qu’ils peuvent être réutilisés pour plusieurs applications. Au moins, le squelette d’une solution analytique peut l’être à travers plusieurs industries pour obtenir des résultats rapidement. Ces solutions prépackagées permettent effectivement d’aller plus vite. Teradata en compte entre 30 et 40, et propose aussi certaines de ses solutions en Open Source, tout en contribuant aussi à l’amélioration d’autres bibliothèques ; l’éditeur ne se cache pas d’utiliser parfois TensorFlow de Google. « Nous mettons d’ailleurs certains de nos outils en Open Source, comme notre gestionnaire de datalake Kylo », rappelle Stéphane Rion, qui rapporte aussi que majoritairement, les projets d’IA actuels sont plutôt sur de la donnée structurée.  ❍


L'IA FAIT MAISON : DEUX PROJETS MENÉS À BIEN

Si les très grandes entreprises sont les plus promptes à communiquer sur leurs différents projets menés en Intelligence artificielle, elles ne sont pas les seules. Effectivement, les Gafa notamment sont très alertes sur le sujet, Google-Deepmind en tête avec sa solution AlphaGo, reine de la discipline du jeu de Go. Les plus petites entreprises capitalisent elles aussi sur l’IA et en tirent parfois de grands bénéfices. C’est le cas pour plusieurs français, qui ont réussi de beaux paris.

TEB : l’IA dans la vidéoprotection

Spécialiste dijonnais de la vidéoprotection, l’entreprise TEB est tant un constructeur qu’un éditeur de logiciels pour ses différentes solutions. « Nous avons notamment comme client le ministère de l’Intérieur, et nous avons depuis plusieurs années des solutions d’analyse d’image, comme pour la lecture des plaques d’immatriculation ou le comptage de personnes par exemple », explique Marion Savoy, directrice marketing de l’entreprise. Depuis trois ans, TEB a lancé des travaux en R & D sur l’IA. « Pour nous, l’idée est d’associer nos capacités de traitement d’images à de l’IA pour aboutir à une analyse temps réel sur un volume de données très important. Le résultat est éloquent, incomparable avec le traitement traditionnel. Pour schématiser, l’IA permet de faire en sorte que l’analyse se fasse comme si c’était vous, votre propre cerveau, qui analysait chaque image », souligne-t-elle encore. Le premier débouché est donc la reconnaissance et la détection. Cela peut être des objets, des éléments, voire des individus que l’on peut reconnaître et classifier en différentes catégories. « Un individu est un élément, mais on distingue bien entendu homme et femme, et on peut y ajouter la tranche d’âge, le genre, etc. Il est aussi possible d’aller plus loin pour la recherche et la reconnaissance de visage en tissant des liens avec une base de données », poursuit-elle.

L’algorithme de TEB, entièrement développé en interne avec les compétences de l’entreprise, est fonctionnel depuis mars dernier, mais encore en phase de présentation et de lancement. On ne le trouve donc pas encore au catalogue, mais la plate-forme de traitement des données est en place. Pour le moment, les clients devront utiliser leurs propres serveurs, même si à l’avenir cela pourrait changer. « La sécurité fait que les entreprises préfèrent garder la main sur leurs données, qui sont leur propriété intellectuelle. Nous calibrons la solution mais le serveur peut in fine être placé n’importe où », dans le Cloud ou ailleurs, ajoute Marion Savoy.

De l’IA… pour le recrutement !

EasyRecrue a développé une solution vidéo originale de présélection pour le recrutement des candidats en vidéo. Souhaitant aller plus loin, c’est de concert avec le LIMSI-CNRS et Télécom-ParisTech que l’entreprise française a développé un système capable de décortiquer les vidéos des candidats. « Nous sommes capable d’analyser ce que dit le candidat (Speech to Text), la prosodie (voix, intonation, etc.) et l’aspect comportemental (visage, expressions, etc.). Ainsi, selon le profil recherché par le recruteur, nous pouvons lui proposer une présélection basée sur certains critères », explique Mickaël Cabrol, fondateur d’EasyRecrue. Pour cela, l’entreprise s’est appuyée sur de gros volumes de données afin d’analyser des milliers de vidéos depuis deux ans. La solution sera proposée dès 2018, avec l’objectif de « tomber juste dans 80 à 85 % des cas dans un premier temps ». ❍


L'IA ET L'IOT : DES OBJETS ENCORE PLUS INTELLIGENTS

« Imaginez par exemple que dans une mine, une foreuse commence à chauffer. On envoie un message à l’ouvrier pour qu’il bride la machine, ou pour qu’on le fasse automatiquement à sa place. De plus, nous allons communiquer aux foreuses alentours qu’elles fonctionnent bien et qu’elles peuvent accélérer pour combler la baisse de régime de la première foreuse. L’idée est donc que les systèmes se parlent. Ici, l’Intelligence artificielle intervient sur la capacité de filtrage et sur l’enrichissement des données. Par la suite, il sera aussi possible d’analyser a posteriori les impacts des mesures prises par un tel système et donc de l’enrichir à l’infini. » Ce scénario, pas si lointain, est un exemple de ce que peut apporter l’Intelligence artificielle au monde de l’industrie 4.0 et, plus largement, à celui de l’Internet des Objets. C’est l’éditeur de logiciels Software AG qui nous a décrit ce scénario qui combine plusieurs « dimensions » de l’IA. Tout d’abord, la puissance matérielle des objets qui permet désormais d’embarquer des logiciels dotés d’une capacité de traitement des algorithmes sous forme de modules mobiles. « Notre savoir-faire est principalement dans le middleware. En matière d’optimisation des flux de messages, nous pouvons par exemple mettre en place des algorithmes d’IA de sécurité pour identifier des comportements étranges, ce que nous n’aurions pas pu faire avant », explique David Milot, vice-président Solutions EMEA chez Software AG. Mais, surtout, l’IA débarque désormais directement au sein des objets connectés, des capteurs. « Nous sommes sur ce que l’on appelle le « front edge », au plus près du capteur », poursuit-il.

Si l’on parle désormais de « front edge », c’est parce qu’il existe un « back edge ». Dans une usine, le front edge est l’ultime objet connecté, mais il est fédéré par un back edge qui centralise les données. « Sur l’exemple précédent, ce serait la coordination locale entre les foreuses. Il s’agit donc d’une véritable segmentation du traitement de l’information, mais aussi d’une diversification des acteurs intéressés par ces datas. Par exemple, chez un avionneur, la maintenance sera intéressée par les informations issues des outils et des machines, mais également les constructeurs des outils ! », ajoute David Milot.

Dans l’IoT, de futures grandes questions…

En France, si nous disposons de chercheurs mondialement reconnus, les recherches s’orientent globalement vers l’Intelligence augmentée. Les techniques principalement utilisée sont les mêmes, à savoir le Machine Learning, le Deep Learning et le principe des réseaux neuronaux. Un autre champ de recherche est celui de l’aide à la décision en temps réel. Cette dernière notion est d’ailleurs souvent rattachée à l’IA car, aujourd’hui, la puissance de calcul combinée à la robustesse des réseaux le permet, même si ce n’est pas toujours nécessaire. Mais dans certains cas, l’IA va concrètement changer les choses avec son entrée sur les objets connectés. Et peut-être plus rapidement que ce que l’on pense : les montres et autres bracelets connectées seront probablement les premiers concernés. D’abord se pose de plus en plus la question de qui est propriétaire de la donnée, ainsi que de son traitement, de sa localisation, etc. Mais surtout, dans ce cas précis, qui traite de la donnée de santé en récoltant les battements de cœur, etc., une autre question va bientôt se poser : avec les capacités de traitement de la donnée, couplées aux mécanismes d’IA, qui aura la responsabilité de la donnée ? Et d’imaginer de futurs cas : en cas de crise cardiaque, par exemple, du porteur d’un bracelet connecté, à qui incombe la responsabilité si la personne n’est pas prévenu dans les temps ? ❍


L’IA DANS L'IDENTIFICATION NUMÉRIQUE : LE DEEP LEARNING À L'OEUVRE !

La vérification de l’identité en ligne est actuellement encore contraignante, demande des efforts de recherche afin de s’assurer qu’une personne qui prétend être le titulaire d’une carte d’identité est bien la bonne. Par ailleurs, elle se répand à mesure que des services – les banques en ligne par exemple – sont de plus en plus dématérialisés. Et, jusqu’à présent, de nombreuses entreprises font ces vérifications à la main, au cas par cas, tout en étant assistées par des logiciels spécialisés. Mais le spécialiste de l’identité IDnow, basé à Munich, a désormais recours au Deep Learning pour ses processus d’identification par vidéo pour faciliter la vérification automatique des pièces d’identité. Ce faisant, il est capable de détecter efficacement les tentatives de fraude. « Nous utilisons cette méthode pour détecter, classifier et extraire automatiquement les pièces d’identité en temps réel », nous explique Armin Bauer, CTO et cofondateur d’IDnow.

Pour ce faire, « nous avons développé notre propre algorithme et l’avons configuré de façon à ce qu’il soit capable de reconnaître efficacement la photo d’une pièce d’identité, quels que soient la lumière, l’arrière-plan ou la résolution de l’appareil photo, et ceci pratiquement en temps réel », explique-t-il. Concernant le développement du mécanisme Deep Learning, IDnow s’est appuyé sur deux outils libres : la bibliothèque graphique OpenCV pour la vision par ordinateur, et sur TensorFlow pour l’apprentissage automatique. Dans son fonctionnement, le programme classifie le document et détermine le pays d’émission, s’il s’agit d’une carte d’identité ou d’un passeport, ainsi que la version du document. L’algorithme est également capable de détecter et de vérifier des données sur la pièce d’identité, comme le nom du titulaire ou les clés de contrôle.

Nvidia pour l’accélération matérielle

« Pour la détection et la classification des pièces d’identité à partir d’images, nous sommes actuellement à un niveau de précision de 99,4 % et un taux de rappel de 94,4 %. Le taux de précision permet de calculer le nombre de documents mal identifiés ou mal classifiés. Le taux de rappel correspond au pourcentage d’images ayant donné un résultat », ajoute Armin Bauer. Ainsi, les algorithmes de détection d’images analysent de grandes quantités de données et apprennent peu à peu à reconnaître les connexions et schémas et à faire les déductions appropriées. Ce processus d’apprentissage est accéléré par des GPU Nvidia. « Nous utilisons Nvidia Cuda de pair avec l’architecture Pascal. Les réseaux neuronaux qui sont activés pour la production consomment environ 4 Go de mémoire vidéo et peuvent traiter une image en environ 100 ms par GPU », précise-t-il encore.

Grâce à l'utilisation du deep learning, IDnow atteint actuellement un niveau de précision de 99,4%, qui permet de calculer le nombre de documents mal identifiés ou mal classés.

Quel que soit le niveau de fiabilité atteint par le logiciel, IDnow continue d’avoir recours à la vérification humaine. Cela reste une obligation légale dans certains pays, et actuellement « il existe des schémas de fraude que les machines ne sont pas en mesure de détecter, tels que la manipulation sociale, lorsque les utilisateurs ont recours à certaines ruses pour forcer l’identification ». Pour en arriver là, IDnow a travaillé sur son système depuis 2014. « La tâche préparatoire la plus importante était de constituer un ensemble de données suffisamment vaste et de suffisamment bonne qualité pour pouvoir être utilisé pour l’apprentissage automatique », confie encore Armin Bauer. ❍

Print
4952

x
Rechercher dans les dossiers
Actuellement à la Une...
Le patron de l’opérateur au carré rouge n’est pas franchement emballé par le bilan de la plateforme de signalement de problèmes mis en place par l’Arcep. Il l’a fait savoir lors d’une audition au Sénat, dénonçant un régulateur qui sort de son rôle et une information « erronée » et « préjudiciable ».

Pour se faire pardonner des infractions à la loi sur le littoral lors de son mariage extravagant en 2013, Sean Parker, co-fondateur de Napster et ancien dirigeant de Facebook dans sa phase de démarrage, a conçu une application gratuite dévoilée jeudi par les autorités de Californie.

Sous la pression de ses salariés, le géant joue la prudence sur l’IA. Il annonce qu’il ne commercialisera pas de produi...

Nous avions rencontré Vexata il y a un an. Nous avons profité de ce nouveau "tour" pour refaire un point sur l’activité de cette entreprise. L’architecture choisie est toujours un modèle du genre et correspond parfaitement aux charges de stockage que demandent des applications analytiques de haut niveau. Nous ne sommes pas les seuls à le croire, Fujitsu vient de placer Vexata comme une solution de référence dans le domaine dans son laboratoire nord-américain avec des architectures de référence sur ses serveurs Primergy.

Le spécialiste du stockage dans les environnements HPC a connu une belle année 2018 avec des acquisitions qui ont renforcé ses positions dans le segment haut du marché du stockage et marqué son entrée sur le marché de l’entreprise. 

Le Quai d’Orsay informe les usagers de son service Ariane du vol de leurs données. Le communiqué du ministère ne donne aucun autre détail sur le piratage dont il a été victime, sinon avoir pris des mesures sans impacter le service et que la Cnil a été saisie.

Un problème de sécurisation rendait vulnérables tous les comptes Office 365. En cause, un sous-domaine, success.office.com, dont la configuration défaillante permettait à un attaquant d’en prendre le contrôle, ayant alors accès aux données qui y étaient envoyées y compris les jetons d’identification d’ Outlook, Store et Sway.

Les acquisitions dans le secteur informatique deviennent quotidiennes et les prix s’envolent. IBM, SAP, Citrix, VMware font leur marché et, en quelques jours, ce sont des sommes comparables à un mois du déficit de la France qui changent de mains.

Les deux entreprises mettent un terme à quatre ans de conflit judiciaire par un accord financier. Condamné dans un premier temps à 500 millions de dollars d’amende, Oculus, propriété de Facebook, avait par la suite obtenu une réduction de la sanction. Les deux entreprises avaient fait appel, mais ont finalement réglé leur dispute à l’amiable.

Outre les keynotes et les sessions techniques, le forum présente aussi une exposition des solutions des sponsors de l’événement. Visite dans les allées de cette exposition avec quelques rencontres intéressantes. 

Toutes les News

LIVRES BLANCS

Tous les secteurs industriels dans le monde sont confrontés à des défis informatiques spécifiques qui conditionnent le succès ou l’échec de l’entreprise.


Au cours de la dernière année, les données volées et vulnérables se sont révélées des armes précieuses pour les adversaires de tous les horizons, dans toutes les régions, et pour toutes les motivations.


Au fur et à mesure que votre exposition à d’autres entreprises augmente, votre exposition au risque augmente également. Il ne s’agit pas uniquement de vos propres fournisseurs mais également les leurs. Comment pouvez-vous suivre toutes ces relations afin de gérer vos risques?


Pour répondre aux exigences de rapidité du modèle DevOps en conservant une cybersécurité efficace, de nouvelles approches doivent être adoptées en matière de sécurité de l'information, comme la sécurité intégrée, l’automatisation et la prévention proactive.


PROTECTION ENDPOINT NEXT-GEN : ÉVOLUTION OU RÉVOLUTION ?, un Livre Blanc SOPHOS.

Après la révolution Next-Gen Firewall de ces dernières années, une nouvelle révolution Next-Gen est cours dans le domaine de la sécurité des systèmes Endpoint. Au-delà du débat pour savoir s’il s’agit d’une révolution ou d’une simple évolution, il est certain qu’une série de nouvelles technologies est en train de rapidement émerger, en apportant une contribution significative à la lutte contre les menaces avancées.


Tous les Livres Blancs