DataGalaxy inclus dans le rapport Gartner® Magic Quadrant™ 2025 pour les solutions de gestion des métadonnées

Termes data

Explorez les fondamentaux de la gouvernance, de la qualité et de l’architecture data pour bâtir un écosystème de confiance.

    Métadonnées & catalogage

    Comprenez comment classer, décrire et connecter les données pour améliorer leur découverte, traçabilité et gouvernance.

    • Active Metadata Management

      La gestion active des métadonnées va au-delà du simple catalogage passif en collectant, analysant et diffusant en continu les métadonnées dans les workflows, les outils d’automatisation et les produits data. Elle permet une prise de décision en temps réel et favorise l’interopérabilité entre les systèmes.

    • Asset Inventory

      L’inventaire des actifs est une liste complète et centralisée de tous les actifs data d’une organisation — tables, rapports, tableaux de bord, pipelines, etc. Il soutient les initiatives de gouvernance, de découverte et de catalogage.

    • Business Glossary

      Un glossaire métier est une collection centralisée de définitions normalisées pour les termes et concepts clés d’une entreprise. Il garantit que toutes les équipes partagent un langage commun et réduit les ambiguïtés dans les rapports, les indicateurs et l’usage des données.

      Envie d’explorer ? Ca peut vous intéresser :

    • Data Catalog

      Un catalogue de données est un inventaire structuré des actifs data qui aide les utilisateurs à les retrouver, les comprendre et leur faire confiance. Il intègre des métadonnées, des informations de traçabilité et du contexte métier pour briser les silos, renforcer la collaboration et accélérer la prise de décision.

      Envie d’explorer ? Ca peut vous intéresser :

    • Data Classification

      La classification des données consiste à organiser les données en catégories selon leur sensibilité, leur valeur ou les exigences réglementaires (ex. : public, interne, confidentiel). Elle est essentielle pour la sécurité, la conformité et la gestion du cycle de vie des données.

    • Data Contract

      Un contrat de données est un accord formel entre les producteurs et les consommateurs de données qui définit les attentes en matière de structure, de qualité et de livraison. Il réduit les erreurs et les incompréhensions dans les pipelines modernes.

    • Data Dictionary

      Un dictionnaire de données fournit des métadonnées détaillées pour chaque champ d’un jeu de données : définition, type, valeurs autorisées, description. Il complète le glossaire métier en fournissant un niveau de détail technique.

      Envie d’explorer ? Ca peut vous intéresser :

    • Data Discovery

      La découverte de données est le processus qui permet de localiser, explorer et comprendre les actifs data d’une organisation. Elle accélère l’analyse, améliore la gouvernance et renforce la confiance dans les données.

    • Data Ownership

      La notion de propriété des données définit qui est responsable de la qualité, de l’usage et de la sécurité d’un jeu de données spécifique. Une propriété bien définie garantit la fiabilité, l’entretien et l’alignement des données avec les objectifs métier.

    • Data Processing

      Le traitement des données englobe toutes les étapes de collecte, transformation, validation et stockage. Il inclut les workflows ETL/ELT, l’orchestration des pipelines et l’exécution en temps réel ou par batch.

    • Data Versioning

      Le versionnage des données permet de suivre les modifications apportées à un jeu de données dans le temps — facilitant les retours en arrière, la reproductibilité et les audits. Il est essentiel pour l’analytique, le machine learning et la collaboration.

    • Diagrams

      Les diagrammes sont des représentations visuelles des flux de données, des schémas, de la traçabilité ou des relations. Ils aident les équipes à comprendre rapidement les systèmes complexes et à mieux collaborer.

    • Enterprise Metadata Management

      La gestion des métadonnées à l’échelle entreprise regroupe les approches et systèmes permettant de collecter, gérer et exploiter les métadonnées à travers les outils, plateformes et équipes. Elle soutient la gouvernance, l’analytique, la conformité et la préparation à l’IA.

      Envie d’explorer ? Ca peut vous intéresser :

    • Golden Record

      Le Golden Record est la version la plus exacte, complète et fiable d’une entité de données (comme un client ou un produit). Il permet de résoudre les doublons et incohérences provenant de multiples sources.

    • Knowledge Graph

      Un Knowledge Graph (ou graphe de connaissances) représente les données sous forme d’entités et de relations, connectant les concepts dans un réseau sémantique. Il permet une recherche intelligente, une meilleure contextualisation métier et prépare les systèmes à l’IA.

    • Metadata Management Solutions

      Les solutions de gestion des métadonnées sont des outils logiciels permettant de cataloguer, organiser, surveiller et exploiter les métadonnées efficacement dans l’ensemble des systèmes. Elles facilitent la traçabilité, le contrôle qualité, l’analyse d’impact et la préparation à l’IA.

    • Ontology

      Une ontologie définit un vocabulaire partagé et les relations entre concepts dans un domaine donné. Elle permet d’assurer la cohérence sémantique et de soutenir des raisonnements avancés, notamment en contexte data et IA.

    • Semantic Layer

      La couche sémantique fait le lien entre les données brutes et les utilisateurs. Elle traduit les structures techniques en termes métier compréhensibles et réutilisables. Elle favorise l’alignement, la clarté et l’analytique en libre-service.

      Envie d’explorer ? Ca peut vous intéresser :

    • Taxonomy

      Une taxonomie est une classification hiérarchique de concepts, utilisée pour regrouper des termes ou sujets apparentés. Elle aide à structurer l’information, normaliser le langage et améliorer la recherche.

    • Technical Metadata

      Les métadonnées techniques regroupent les informations de bas niveau sur les actifs data : schéma, taille, format, emplacement, fréquence d’actualisation, etc. Elles permettent l’observabilité, la traçabilité et l’analyse des causes profondes.

    Gouvernance & conformité

    Découvrez les notions clés pour garantir des données sécurisées, fiables et conformes aux politiques internes et réglementations externes.

    • Access Control

      Le contrôle d’accès regroupe les mécanismes permettant de restreindre ou autoriser l’accès aux ressources d’un système, en fonction des rôles, groupes ou contextes. Il est fondamental pour la sécurité, la confidentialité et la conformité.

    • BCBS 239 (Basel Committee on Banking Supervision – Principle 239)

      BCBS 239 est un ensemble de principes émis par le Comité de Bâle visant à améliorer l’agrégation et le reporting des données de risque dans les banques. Destiné aux institutions financières systémiques, il renforce la gouvernance, l’architecture des données, la précision et la rapidité des rapports de risque pour une meilleure prise de décision et conformité réglementaire.

    • Compliance Framework

      Un cadre de conformité est un ensemble structuré de contrôles, politiques et processus permettant à une organisation de répondre aux normes légales, réglementaires et éthiques (ex. : HIPAA, RGPD, SOX, ISO 27001).

    • CPRA (California Privacy Rights Act)

      Le CPRA est une loi californienne qui complète et renforce le CCPA (California Consumer Privacy Act). En vigueur depuis janvier 2023, elle offre des droits supplémentaires aux résidents de Californie, tels que la rectification des données personnelles, la limitation de leur utilisation et le refus du traitement automatisé.

    • Data Access Policy

      Une politique d’accès aux données définit qui peut consulter, modifier ou gérer des jeux de données spécifiques au sein de l’organisation. Elle garantit que seules les bonnes personnes accèdent aux bonnes données, en fonction de leur rôle, du contexte ou des exigences réglementaires.

    • Data Audit

      Un audit des données est un examen structuré des méthodes de collecte, de traitement, d’accès et de gouvernance des données. Il permet d’identifier les lacunes, de renforcer la conformité et d’améliorer la qualité et la responsabilité des données.

    • Data Governance

      La gouvernance des données garantit une utilisation précise, sécurisée et responsable des données en définissant des règles, des rôles et des processus. Elle inclut la mise en place de politiques, l’attribution de responsabilités et l’application de standards tout au long du cycle de vie des données.

      Envie d’explorer ? Ca peut vous intéresser :

    • Data Policy

      Une politique de données est un ensemble formel de règles qui encadrent la gestion, l’utilisation, la protection et le partage des données au sein de l’organisation. Elle couvre souvent la classification, la conservation, l’accès et la conformité.

    • Data Security

      La sécurité des données regroupe les pratiques, outils et politiques destinés à protéger les informations numériques contre tout accès non autorisé, altération ou vol. Elle inclut le chiffrement, le contrôle d’accès, la détection des menaces et le respect des réglementations pour garantir la confidentialité, l’intégrité et la disponibilité des données.

    • FISMA (Federal Information Security Management Act)

      FISMA est une loi fédérale américaine adoptée en 2002 (mise à jour en 2014), qui oblige les agences gouvernementales et leurs prestataires à mettre en place des programmes de sécurité de l’information. Son objectif est de protéger les données et systèmes fédéraux contre les cybermenaces, à travers la gestion des risques, la surveillance continue et le respect des normes du NIST.

    • GDPR (General Data Protection Regulation)

      Le RGPD (Règlement Général sur la Protection des Données) est un règlement de l’Union européenne qui encadre la collecte, le traitement, le stockage et le partage des données personnelles. En vigueur depuis mai 2018, il vise à protéger la vie privée et les droits des individus au sein de l’UE, en imposant des obligations strictes aux organisations manipulant des données personnelles, notamment en matière de transparence, de consentement, de minimisation des données et de notification en cas de violation.

    • GDPR / CCPA / Data Compliance

      Ces réglementations (comme le RGPD en Europe ou le CCPA en Californie) définissent comment les données personnelles doivent être collectées, stockées et utilisées. La conformité garantit que les pratiques respectent les lois, évitent les sanctions et protègent la confiance des utilisateurs.

    • HIPAA (Health Insurance Portability and Accountability Act)

      HIPAA est une loi fédérale américaine adoptée en 1996, qui fixe des normes nationales pour la protection des informations de santé sensibles. Elle s’applique aux prestataires de soins, compagnies d’assurance santé et à leurs partenaires, en imposant des mesures de sécurité, de confidentialité et de déclaration des violations.

    • PII (Données personnelles identifiables)

      Les données personnelles identifiables (PII) désignent toute information permettant d’identifier une personne, comme le nom, l’e-mail, un numéro d’identification ou une adresse IP. Leur protection est au cœur des réglementations sur la vie privée.

    • Shadow Data

      Les données fantômes sont des données créées, copiées ou utilisées en dehors des systèmes autorisés ou des processus de gouvernance. Souvent non supervisées, elles représentent un risque pour la sécurité, la conformité et la fiabilité décisionnelle.

    • Trust Score

      Le Trust Score est un indicateur de fiabilité d’un jeu de données : il reflète sa complétude, sa conformité et sa qualité. Il aide à décider si un actif peut être utilisé ou partagé en toute confiance.

    • Risk Management

      La gestion des risques en gouvernance des données consiste à identifier, évaluer et atténuer les menaces pesant sur la sécurité, la qualité ou la conformité des données. Elle assure l’alignement des pratiques data avec les objectifs business et les obligations légales.

    • Solvency II

      Solvabilité II est un cadre réglementaire européen pour les compagnies d’assurance, en vigueur depuis 2016. Il définit les exigences en matière de capital et de gestion des risques pour garantir la solidité financière des assureurs et leur capacité à honorer leurs engagements, tout en renforçant la transparence et la protection des consommateurs.

    AI & machine learning

    Explorez les concepts fondamentaux qui alimentent les modèles de machine learning — des données d’entraînement à la transparence des algorithmes et leur mise en production.

    • AI Audit Trail

      La traçabilité IA est un enregistrement complet de l’activité d’un modèle, depuis les données d’entraînement jusqu’aux décisions prises en production. Elle permet de justifier les résultats, d’en assurer l’explicabilité et de respecter les exigences réglementaires.

    • AI Governance

      La gouvernance de l’IA désigne l’ensemble des politiques, pratiques et réglementations qui encadrent le développement et l’usage responsable de l’intelligence artificielle. Elle garantit la conformité éthique, la transparence des données, la gestion des risques et la responsabilité — des piliers essentiels pour déployer l’IA en toute sécurité et dans le respect des normes en constante évolution.

    • AI Risk Management

      La gestion des risques liés à l’IA consiste à identifier et atténuer les menaces générées par les modèles de ML : biais, dérive, non-conformité ou atteinte à la réputation. Elle est indispensable pour un déploiement sécurisé et maîtrisé de l’IA.

      Envie d’explorer ? Ca peut vous intéresser :

    • ML Metadata

      Les métadonnées ML décrivent les artefacts du machine learning : jeux d’entraînement, paramètres de modèles, métriques d’évaluation, informations de déploiement, etc. Leur gestion est essentielle pour assurer la traçabilité, la reproductibilité et la visibilité opérationnelle des modèles.

    • Model Governance

      La gouvernance des modèles regroupe les processus, politiques et outils permettant de gérer les modèles de machine learning. Elle veille à ce que les modèles soient explicables, fiables, conformes et alignés sur les objectifs business.

    • Model Lineage

      La traçabilité des modèles (model lineage) permet de suivre leur cycle de vie complet : sources de données, étapes d’entraînement, déploiements, mises à jour. Elle est essentielle pour l’auditabilité, la reproductibilité et la confiance dans les décisions automatisées.

    • Model Registry

      Un registre de modèles est un système centralisé pour gérer les différentes versions de modèles de machine learning. Il inclut les métadonnées, les étapes de validation et le statut de déploiement — favorisant la collaboration, la traçabilité et le contrôle du cycle de vie.

    • Responsible AI

      L’IA responsable est une approche qui vise à concevoir et déployer des systèmes d’IA de manière éthique, transparente, inclusive et en accord avec les valeurs sociétales. Cela inclut la réduction des biais, la protection de la vie privée et l’imputabilité.

    Qualité & observabilité

    Explorez le vocabulaire de la fiabilité des données : exactitude, fraîcheur, complétude et supervision à grande échelle.

    • Augmented Data Quality

      La qualité de données augmentée utilise l’IA et le machine learning pour automatiser le profilage, la détection d’anomalies, le nettoyage et l’application de règles. Elle améliore l’exactitude et la fiabilité des données à grande échelle.

    • Data Accuracy

      La précision des données mesure à quel point les valeurs reflètent la réalité. Des données inexactes peuvent fausser les analyses, mener à de mauvaises décisions et faire perdre la confiance.

    • Data Completeness

      La complétude des données indique si toutes les informations nécessaires sont présentes (sans champs, lignes ou valeurs manquants). Des données incomplètes entraînent des angles morts ou des processus défaillants.

    • Data Consistency

      La cohérence des données garantit que les valeurs sont uniformes à travers les systèmes (ex. : “USD” vs “Dollar US”). Elle évite les doublons, les divergences et la confusion.

    • Data Lineage

      La traçabilité des données (data lineage) permet de suivre leur parcours : origine, mouvements et transformations entre systèmes. Elle aide à identifier les erreurs, garantir l’exactitude et respecter la conformité grâce à une meilleure transparence.

      Envie d’explorer ? Ca peut vous intéresser :

    • Data Observability

      L’observabilité des données consiste à surveiller la santé des pipelines grâce à des indicateurs comme la fraîcheur, le volume, les changements de schéma ou la traçabilité. Elle permet de détecter les problèmes tôt et de maintenir la fiabilité.

      Envie d’explorer ? Ca peut vous intéresser :

    • Data Profiling

      Le profilage des données analyse la structure, le contenu et la qualité d’un jeu de données — distribution des valeurs, taux de valeurs nulles, incohérences, etc. Il permet d’identifier les problèmes et d’évaluer la réutilisabilité des données.

    • Data Quality

      La qualité des données mesure dans quelle mesure les données répondent aux besoins des utilisateurs. Elle s’évalue selon des critères comme l’exactitude, la complétude, la cohérence ou l’actualité. Elle est essentielle pour l’analytique, la conformité et la prise de décision.

      Envie d’explorer ? Ca peut vous intéresser :

    • Data Readiness

      La préparation des données (data readiness) désigne leur capacité à être utilisées efficacement dans des cas d’IA ou d’analytique. Cela inclut la structure, la complétude, la qualité, la documentation et la clarté métier.

      Envie d’explorer ? Ca peut vous intéresser :

    • Data Stewardship

      L’intendance des données (data stewardship) désigne la responsabilité de gérer les actifs data de manière appropriée. Les stewards s’assurent que les données sont documentées, de qualité, et bien utilisées à travers les équipes.

    • Data Timeliness

      L’actualité des données mesure dans quelle mesure les données sont à jour au moment où elles sont utilisées. Des données fraîches permettent une prise de décision rapide et pertinente.

    • Data Validation

      La validation des données vérifie que les données respectent les règles, contraintes ou standards définis. Elle est souvent appliquée dès l’ingestion pour éviter la propagation d’erreurs.

    • Quality Rules Engine

      Un moteur de règles de qualité applique automatiquement des règles pour évaluer la qualité des données (détection de doublons, valeurs nulles, incohérences de schéma, etc.). Il permet un contrôle continu et scalable de la fiabilité des données.

    Système & infrastructure

    Découvrez les couches, outils et plateformes qui soutiennent les opérations data à grande échelle.

    • Cloud Data Platform

      Une plateforme data cloud regroupe des outils natifs cloud pour stocker, traiter et analyser les données à l’échelle. Elle combine généralement stockage (lakehouse), calcul, intégration et gouvernance.

    • Data and Analytics Governance Platforms

      Ces plateformes fournissent des outils intégrés pour gérer la gouvernance des données, la qualité, les métadonnées, les politiques et le cycle de vie analytique. Elles permettent aux entreprises de déployer des stratégies de gouvernance évolutives.

    • Data Fabric

      Le data fabric est une approche architecturale qui connecte les données issues de systèmes hétérogènes via une couche unifiée de métadonnées et de gouvernance. Il permet un accès fluide, une meilleure intégration et une observabilité renforcée.

    • Data Lake

      Un data lake est un dépôt centralisé permettant de stocker de grands volumes de données structurées et non structurées dans leur format brut. Il est conçu pour supporter des charges analytiques, IA/ML et big data.

      Envie d’explorer ? Ca peut vous intéresser :

    • Data Mart

      Un data mart est un sous-ensemble spécialisé d’un entrepôt de données, ciblant un domaine métier spécifique (finance, marketing, RH…). Il améliore l’accès aux données et les performances pour les équipes concernées.

    • Data Mesh

      Le data mesh décentralise la gouvernance et la propriété des données vers les équipes métiers (domaines), qui gèrent les données comme des produits. Il repose sur des standards partagés, des outils en libre-service et une gouvernance fédérée.

      Envie d’explorer ? Ca peut vous intéresser :

    • Data Orchestration

      L’orchestration des données coordonne l’exécution des workflows data à travers différents systèmes. Elle garantit que les tâches s’enchaînent dans le bon ordre, en respectant les dépendances.

    • Data Pipeline

      Un pipeline de données est un ensemble de processus qui permettent de déplacer, transformer et charger les données d’une source vers une destination. Il constitue la colonne vertébrale de l’intégration et de l’analytique.

    • Data Product

      Un produit data est un actif clairement défini (dashboard, dataset, API…) qui apporte de la valeur aux utilisateurs. Il a un propriétaire, des SLA, une documentation et est géré comme un produit à part entière.

    • Data Product Governance

      La gouvernance des produits data garantit que les actifs traités comme des produits sont bien définis, documentés, gouvernés et alignés avec les objectifs business. Elle facilite leur découverte, leur fiabilité et leur réutilisation.

    • Data Stack

      Le data stack désigne l’ensemble des technologies utilisées pour collecter, traiter, stocker et analyser les données : outils d’ingestion, entrepôts, plateformes BI, etc.

    • Data Warehouse

      Un entrepôt de données est un dépôt structuré et centralisé optimisé pour les requêtes et le reporting. Il intègre des données de plusieurs sources pour alimenter la BI et l’analytique.

    • ETL / ELT

      ETL (Extract, Transform, Load) transforme les données avant de les charger dans la destination, tandis que ELT (Extract, Load, Transform) effectue la transformation après chargement. Ces approches sont fondamentales pour l’intégration des données, notamment dans le cloud.

    • Master Data Management (MDM)

      La gestion des données de référence (MDM) vise à définir et gérer les entités métiers clés (clients, produits…) pour garantir la cohérence entre systèmes. Elle renforce la qualité, la cohérence des rapports et l’efficacité opérationnelle.

      Envie d’explorer ? Ca peut vous intéresser :

    • Reference Data

      Les données de référence sont des valeurs standardisées non transactionnelles (ex. : codes pays, devises, catégories produits). Elles assurent la cohérence sémantique entre systèmes.

    Strategie & culture

    Explorez les dimensions organisationnelles et culturelles de la data : modèles de responsabilité, acculturation et conduite du changement.

    • Augmented FinOps

      Le FinOps augmenté utilise des outils et techniques basés sur l’IA pour optimiser la gestion financière des environnements cloud — notamment l’allocation des ressources, la prévision des coûts et le suivi des performances de l’infrastructure data.

    • Data Democratization

      La démocratisation des données consiste à rendre les données accessibles et compréhensibles pour tous dans l’entreprise — pas uniquement les profils techniques. Elle favorise l’autonomie, la collaboration et la prise de décision rapide.

    • Data Enablement

      L’activation des données (data enablement) garantit que les utilisateurs ont les bons outils, la formation et les accès pour exploiter efficacement les données. Elle connecte la stratégie data aux usages opérationnels.

    • Data Initiative Prioritization

      La priorisation des initiatives data consiste à classer les projets selon leur impact, leur faisabilité et leur alignement stratégique. Elle permet de concentrer les ressources sur ce qui crée le plus de valeur.

    • Data Literacy

      La culture data (data literacy) désigne la capacité à lire, comprendre, questionner et communiquer avec les données. Elle est essentielle pour instaurer une culture orientée données à tous les niveaux de l’organisation.

    • Data Portfolio Management

      La gestion de portefeuille data applique une logique d’investissement aux produits et projets data. Elle permet d’équilibrer risques, valeur et ressources sur l’ensemble des actifs ou programmes.

    • Data Product Portfolio

      Le portefeuille de produits data regroupe tous les actifs gérés comme des produits — dashboards, datasets certifiés, APIs — avec objectifs, propriétaires et SLA clairs.

    • Data Strategy

      La stratégie data définit comment l’entreprise va gérer et exploiter les données pour atteindre ses objectifs. Elle aligne les équipes, les processus et les technologies autour de résultats mesurables.

    • Digital Transformation

      La transformation numérique est le passage à des outils digitaux et des processus pilotés par la donnée pour améliorer l’efficacité, l’expérience client et l’innovation.

    • Investment Alignment

      L’alignement des investissements garantit que les budgets data sont alloués à des initiatives à fort retour stratégique, plutôt qu’à des projets techniques isolés.

    • Outcome-Driven Governance

      La gouvernance orientée résultats cible la création de valeur business, au-delà de la conformité. Elle rend la gouvernance plus agile, mesurable et stratégique.

    • Stakeholder Alignment

      L’alignement des parties prenantes consiste à s’assurer que tous les acteurs — dirigeants, équipes data, métiers — partagent les mêmes objectifs, attentes et définitions autour des projets data.

    • Value Governance

      La gouvernance de la valeur veille à ce que les initiatives data et IA soient alignées sur les priorités stratégiques et génèrent des résultats mesurables. Elle connecte gouvernance, investissements et décisions à grande échelle.

      Envie d’explorer ? Ca peut vous intéresser :

    • Value Management

      La gestion de la valeur dans les initiatives data consiste à planifier, mesurer et optimiser l’impact business. Elle fait évoluer le discours de la livraison technique vers les résultats concrets.

    • Value Tracking

      Le suivi de la valeur permet de mesurer les résultats concrets des usages data — croissance, efficacité, réduction des risques — et de démontrer le ROI.

    Produits data & IA

    Comprenez comment les produits alimentés par la data et l’IA sont conçus, gouvernés et améliorés pour générer de la valeur à grande échelle.

    • AI Product

      Un produit IA est une solution logicielle alimentée par l’intelligence artificielle ou le machine learning — moteur de recommandation, chatbot, système de détection de fraude — conçue pour résoudre un problème métier précis et évoluer dans le temps.

    • AI Product Lifecycle

      Le cycle de vie d’un produit IA comprend la définition du besoin, la collecte des données, l’entraînement du modèle, son déploiement, la supervision et les itérations. Bien le gérer est essentiel pour une adoption responsable et efficace de l’IA.

    • Data and Analytics Product Management

      La gestion de produit appliquée à la data et à l’analytique consiste à piloter le cycle de vie des produits data selon les principes du product management — de la conception à la gouvernance, en passant par la livraison de valeur et l’amélioration continue.

    • Data as a Product

      Data as a Product est un état d’esprit qui consiste à gérer les données avec la même rigueur que les produits destinés aux clients : clarté d’usage, fiabilité, documentation, gouvernance et objectifs business.

    • Data Product

      Un produit data est un actif clairement défini (dashboard, dataset, API…) qui apporte de la valeur aux utilisateurs. Il a un propriétaire, des SLA, une documentation et est géré comme un produit à part entière.

    • Data Product Lifecycle

      Le cycle de vie d’un produit data décrit ses différentes étapes : conception, développement, lancement, maintenance, fin de vie. Une gouvernance adaptée garantit qualité et traçabilité à chaque phase.

    • Marketplace

      Dans un contexte data, une marketplace est un espace centralisé où les utilisateurs peuvent rechercher, découvrir et demander l’accès à des produits data certifiés — souvent intégrée aux processus de gouvernance, droits d’accès et métadonnées métiers.