Vos données sont un trésor, nous fournissons la clé

Solution BI était présent au Salon BIG DATA 2018 !

Solution BI a participé au Salon BIG DATA 2018 à Paris le 12 et 13 mars dernier pour découvrir les dernières innovations, les corrélations et les intégrations avec la Business Intelligence.
Faisons un focus sur le BIG DATA et les conférences auxquelles nous avons participé.

Le Salon BIG DATA 2018, c’est “le rendez-vous” incontournable à ne pas manquer! Pourquoi ? Parce que, le big data bouleverse les processus des sociétés. La démocratisation de la donnée et son utilisation font croître la tendance de façon considérable. Les nouveaux outils d’analyse de données et de Business Intelligence transforment les processus en interne et allouent des opportunités grandissantes. Faisons un petit tour d’horizon.

Les prémices du BIG DATA

Avant de se lancer dans le vif du sujet, revenons sur les notions fondamentales. Qu’est-ce que le Big Data ?

De nos jours, le big data est souvent associé à la BI, alors que ce sont des notions totalement différentes – voir notre article : La BI va-t-elle devenir BIG DATA
Le Big Data est lié au stockage et à l’extraction des données, mais ne fournit pas les outils analytiques de la Business Intelligence.
L’expression « Big Data » date de 1997 selon l’Association for Computing Machinery.
Le terme de «Big Data» ou “mégadonnées” est un terme informatique qui désigne une explosion des volumes de données de nature informatique à traiter par une structure.
On assiste à une popularisation du terme dès 2012 pour exprimer le fait que de nombreuses entreprises sont confrontés à un volume de données à traiter de plus en plus important et qui donnent lieu à de forts enjeux commerciaux. Selon Gartner, d’ici 2021, 20% de toutes les activités individuelles impliqueront au moins un des sept géants de l’IT.

Devant cette abondance de datas, la question primordiale n’est plus celle de la génération et collecte des données mais, bel et bien la qualité, la valorisation des données et des perspectives business qui peuvent en être retirées. En effet, on estime que 90% des données sont soit semi structurées ou non structurée. L’enjeu majeur est de mettre à disposition des “data consumer” l’ensemble des ces données dans un outil capable de les structurer à leurs yeux afin de gagner en temps, en efficacité et en qualité.
L’IA est, quant à elle, nourrie par les datas. Selon Gartner, on estime que 26 milliards d’objets seront connectés dans le monde en 2020 et 6 milliards pourraient bénéficier d’Intelligence Artificielle dès 2018.

Conférence Aptus Health – L’Intelligence Artificielle au service du médical

L’IA étant au coeur du salon Big Data 2018, nous avons participé à l’atelier Aptus Health (société Quantmetry) présenté par François Xavier Rousselot (professeur MBA Ecole AI et Consultant). Cette conférence nous a montré l’utilité de structurer ses données et comment passer du prédictif au prescriptif.

Le cas : Analyse de l’envoi de mails aux médecins

Un envoi de mail sur une base de données de médecins est effectué. L’étude va porter sur, Qui a ouvert le mail, Quand est ce que celui ci a été ouvert, Qu’est ce qui a intéressé le médecin dans le mail (où est ce qu’il clique par exemple). Grâce à toutes ces données récupérées, le projet sera de créer un mail customisé et dédié aux intérêts du destinataire en fonction de ce que celui ci aura regardé. Donc, plus de pertinence et d’intérêt pour le lecteur !

Afin de mener à bien cette étude, il a été décidé d’utiliser les méthodologies suivantes :

  • Le machine learning :

L’idée est de transformer une information neutre comme une vidéo surveillance en une donnée intelligente. Grâce aux données collectées, il est possible d’ajouter de l’intelligence à la vidéo mais pour cela il faut nourrir le logiciel massivement en données.
Dans le cas présent, il est important d’analyser l’heure d’ouverture des mails, les liens ouverts par les médecins, le temps passé sur chaque article. Il est encore plus intéressant de mettre ces informations en regard du poste de chaque médecin, leur localisation géographique et leur âge.
Ainsi, le logiciel sera capable de détecter des corrélations entre les articles lus et des “profils” de médecin ce qui permettra aux futures inscrits de recevoir immédiatement une information pertinente.

  • Le content taging :

Le but est d’utiliser un logiciel qui va effectuer la lecture de plus de 55 000 articles en langue anglaise. Celui ci va déterminer le “what oriented” pour classifier les articles et le “what oriented” pour repérer la forme de l’article (Opinions, news, article scientifique…). Le projet amène à détecter certains mots ou groupes mots et segmenter l’article en fonction de quoi il parle. L’Association entre les mots recherchés, par exemple, “brain + disease ou skin + disease” et les « sous-mots », ainsi que
l’Analyse de sentiment, la rareté du vocabulaire, les signes mathématiques, la ponctuation et les chiffres vont permettre de déterminer la typologie de l’article et détecter la tendance de celui ci.
A la suite de l’élaboration de tout ça, le but sera de générer de façon automatique les catégories d’articles et donner un titre & sous titre à l’article !

Phase 1 : Création et mapping des topics par LDA
Phase 2 : Validation de la pertincence via Word2Vec

Le Facial Coding : la détection des émotions clients

Nous avons assisté à la conférence Facial Coding, présentée par l’entreprise TF1. La société a menée une étude visant à vérifier le rôle de l’émotion en tant que variable d’explication de l’engagement des téléspectateurs.
    * 5 000 personnes interrogées et soumises à un dispositif de facial coding
    * 120 programmes différents représentatifs de l’ensemble des programmes actuellement disponibles.

 

Selon le professeur Antonio Damasio (professeur de neurologie, neurosciences et psychologie),  90 % des émotions qui nous impactent ne sont traitées que par l’inconscient. Il n’y a pas de prise de décisions sans émotions : c’est le cerveau limbique qui décide en utilisant les ancrages mémoriels que constituent toutes les émotions !
Par ailleurs, il n’y a pas besoin de placer des électrodes sur le cerveau pour mesurer les émotions : elles peuvent être mesurées à travers les signes extérieurs tels que le langage non verbal, la voix, la variation de la fréquence cardiaque ou encore le facial coding.
Le facial coding est une technique qui consiste à identifier des micro-expressions du visage pour caractériser les émotions universelles (la joie, la surprise, la colère, le dégoût, le mépris, la peur et la tristesse).

Les résultats sont tels que TF1 constate qu’un grand écart apparaît entre les émotions ressenties et les sentiments déclarés. Par exemple, pour l’émission The Voice, les personnes interrogées ont déclaré ressentir peu de joie. Hors, les résultats mesurés sont beaucoup plus élevés et montrent que les interrogés ont ressenti beaucoup plus d’émotions que leurs dires.

L’émission “Quotidien” enregistre un score émotionnel élevé mais avec des résultats très contrastés suivant les séquences. Un pic de dégoût lors de l’intervention d’un responsable politique sur le plateau, toujours suivi par un pic de joie lorsque le présentateur (Yann Barthès) tourne l’invité en dérision.

M.Rabret
F.Bacher
H.Hanzouli

Regarder aussi

Les cas d’utilisation métier déterminent le bon outil décisionnel

A ce jour, un outil BI est indispensable pour toute entreprise. C’est pourquoi, plusieurs entreprises, ...