Fiche pratique | Glossaire Data Quality 2024 (1ère partie)

Publié le : 10/01/2024

Le data marketing évolue en permanence, facilitant chaque année l’apparition de nouveaux termes, des plus abstraits aux plus basiques. Pour faire suite à notre précèdent glossaire paru en 2023 sur les termes du Data Marketing, nous vous proposons aujourd'hui cette nouvelle fiche pratique destinée aux professionnels du B2B souhaitant se familiariser ou refamiliariser avec les terminologies de la Data Quality en 2024.



  • Algorithme

Un algorithme est la description d'une suite d'étapes permettant d'obtenir un résultat à partir d'éléments fournis en entrée. C'est l'ensemble des règles opératoires propres à un calcul.


  • Intelligence Artificielle ( IA)

L’IA est en réalité une discipline jeune d’une soixante d’années, qui réunit des sciences, théories et techniques (notamment logique mathématique, statistiques, probabilités, neurobiologie computationnelle et informatique) et dont le but est de parvenir à faire imiter par une machine les capacités cognitives d’un être humain.


  • Business Intelligence (BI)

La Business Intelligence (BI) définit les technologies, applications et pratiques de collecte, d’intégration, d’analyse et de présentation des données et qui a pour objectif de soutenir une meilleure prise de décision des verticales métiers, commerciale, marketing, finance… Les systèmes de BI sont essentiellement des aides à la décision basés sur les données.


  • Big Data

L’expression Big Data est apparue en 1997 dans un article sur les défis technologiques à relever pour visualiser les « grands ensembles de données ». Le Big Data désigne les ressources d’informations dont les caractéristiques en termes de volume, de vélocité et de variété imposent l’utilisation de technologies et de méthodes analytiques particulières.


  • Customer Data Platform (CDP)

Une CDP ou Customer Data Platform en marketing centralise et ordonne les données online et offline de ses clients en vue de les exploiter plus efficacement. Ainsi, l’entreprise pourra segmenter, cibler et personnaliser ses campagnes marketing pour améliorer sa relation client. Cet outil permet la diffusion des informations (données clients) vers d’autres outils.

 

  • Connaissance client par la segmentation

Le principe est de créer un profil type de client répondant à des critères exogènes (qualification non basée sur la relation avec le client). Cette segmentation pourra également être utilisée en prospection. La segmentation, par l'identification et la catégorisation de comptes-clés, sera par exemple indispensable à la mise en place d'une stratégie d'Account Based Management (ABM).


  • Data Driven marketing

Ce sont les stratégies marketing basées sur des données et informations précises plutôt que sur des opinions ou intuitions.


  • Code IRIS

Zones définies par l’INSEE pour les besoins des recensements sur l’ensemble des communes de plus de 10 000 habitants et la plupart des communes de 5 000 à 10 000 habitants.


  • Customer Relationship Management (CRM)

Le CRM (Customer Relationship Management) est une stratégie qui prône la centralisation, le stockage, l’analyse et l’exploitation des interactions d’un individu avec une entreprise en vue d’optimiser la gestion et la qualité de la relation client. Il désigne également une solution informatique destinée à exploiter des données collectées durant les échanges entre un prospect/client et l’entreprise dans un but commercial.


  • Data Quality  (DQ)

La Data Quality renvoie à la capacité d’une entreprise à mettre en place des actions pour s’assurer que les données de son ou ses systèmes d’informations soient correctes et pérennes à travers le temps. La maîtrise de la qualité des données est un enjeu important pour les entreprises. Il s’agit de fournir des données correctes, complètes, à jour et cohérentes à tous les utilisateurs de la donnée.


La notion de qualité des données est un terme générique décrivant à la fois les différentes caractéristiques des données mais aussi l’ensemble des processus permettant de garantir ces caractéristiques. Une donnée est dite de qualité dès lors qu’elle répond aux exigences de son utilisation.


  • Data-mining

Processus de management des données client qui opère à partir de différentes perspectives en établissant des relations afin transformer ces données en informations utiles, en vue d’une action bien déterminée vis à vis des clients.


  • Datalake (lac de données)

Permet de collecter et de stocker un grand volume de données structurées et non structurées. Les données sont brutes. Un datalake sert donc à alimenter un datamart.


  • Datamart 

Base de données dont le contenu est en rapport avec une activité de l'entreprise et qui est créée pour répondre aux besoins spécifiques d'un groupe d'utilisateurs. Il s'agit souvent (mais pas toujours) d'un segment partitionné dans le datawarehouse de l'entreprise.


  • Data science

La Data Science désigne un ensemble de disciplines d’inférence de données, de développement d’algorithmes et de technologie. Ces dernières ont pour but de résoudre des problèmes analytiques complexes. La data sciences consiste à utiliser les données de manière créative pour générer de la valeur commerciale au travers d’insights, dans le but d’aider les entreprises à prendre des décisions plus intelligentes.


  • Data Visualisation

Appelé également Dataviz, ce terme regroupe un ensemble d’outils destinés à traduire des données brutes en représentations visuelles simplifiées afin d’en faciliter l’analyse et la compréhension. L’objectif final est d’analyser efficacement un volume conséquent de données pour la prise de décisions.


  • Data Quality Management (DQM) 

La gestion de la qualité des données est l’ensemble des actions et procédures visant à :

  • Assurer et maintenir la qualité des données répondant aux besoins métiers et techniques des utilisateurs au sein d’une entreprise,
  • Les sécuriser et les rendre disponibles à des fins opérationnelles.


Il s’agit d’un processus continu. Ce process répond à deux objectifs :

·        Examiner la fiabilité et la pertinence des données, essentielles et structurantes pour l’entreprise, sur la base de critères de qualité

·        Élaborer des stratégies et des outils pour éliminer les données ne répondant pas à ces exigences


L’entreprise qui entame un projet de Data Quality suit un unique fil rouge durant tout le projet : transformer des données de qualité en renseignements utiles.


  • Déduplication

La déduplication des données, souvent appelée tout simplement déduplication, est une fonctionnalité qui permet de réduire l’impact des données redondantes sur les coûts de stockage. Quand elle est activée, la déduplication des données optimise l’espace libre sur un volume en examinant les données qu’il contient et en recherchant les parties dupliquées sur le volume. Les parties dupliquées du jeu de données du volume sont stockées une seule fois et sont (éventuellement) compressées pour réaliser encore plus d’économies. La déduplication des données permet d’optimiser les redondances sans compromettre la fidélité ni l’intégrité des données. 


  • Données contextuelles

Moins souvent utilisées car plus difficiles à récolter, les données contextuelles vont livrer des informations sur l'environnement de l'entreprise ou du contact. Le cas typique d'une donnée contextuelle est celui obtenu lors d'une étude de marché ou d'une enquête. Les données contextuelles peuvent également provenir de données très spécialisées issues de bases de données privées (base de données de médicaments, immatriculations de véhicules ...) ou publiques (recensement, zone à risques ...).

 

  • Données externes

Une donnée externe est une donnée qui n’est pas générée par un des composants du système d’information interne de l’entreprise, ou qui n’est pas saisie en interne.

Il n’y a pas de différence majeure entre une donnée interne et une donnée externe. Simplement, l’entreprise dispose de moins de contrôle sur la donnée externe, lors de sa saisie, ou de sa génération par une application externe. La phase de vérification de la qualité des données sera d’autant plus importante dans le cas d’une donnée externe, susceptible d’avoir été corrompue lors de sa saisie ou de sa génération.

Les données externes peuvent être des données de gestion, comme la remontée des ventes d’un réseau de partenaires; ou des données périphériques, comme la météorologie, des cours de bourse, des relevés de prix réalisés chez les concurrents. Dans le contexte marketing et publicitaire, la notion de données externes fait généralement référence aux Third party data.

 

  • Données internes

Une donnée interne est une donnée saisie dans l’entreprise ou générée par un des composants du système d’information. Il n’y a pas de différence majeure entre une donnée interne et une donnée externe. On aura tendance à avoir plus confiance dans la qualité des données internes, car elles viennent d’un système que l’on contrôle.


Par Cédric Fauconnier-Anglade

Chef de projet marketing


Pour échanger avec notre équipe

Contacter un expert