Politique en matière d’IA

Préambule

Cette page complète notre Politique de Confidentialité et décrit l’utilisation des systèmes d’intelligence artificielle (« IA ») que les visiteurs et clients peuvent rencontrer sur nos sites web et services.

En tant que signataire des engagements de l’AI Pact, DataGalaxy fait tout son possible pour se conformer aux réglementations relatives à l’IA.

DataGalaxy se réserve le droit de mettre à jour ou de modifier cette page en fonction de l’évolution de ses produits, des exigences légales et des changements réglementaires.

Sécurité et confidentialité

Chez DataGalaxy, nous nous engageons pleinement à garantir la confidentialité et la sécurité de vos données, en conformité avec toutes les réglementations applicables.

Tout traitement de données personnelles (le cas échéant) sera régi par notre Politique de Confidentialité.

Mission de l’IA chez DataGalaxy

Notre mission est de rendre les données accessibles et exploitables, en optimisant les processus métier de nos clients. Notre approche dépasse les simples catalogues de données : nous visons à améliorer tous les flux de travail liés aux données au sein d’une organisation, en commençant par la plateforme DataGalaxy et en s’étendant à tous les domaines où des données de haute qualité jouent un rôle essentiel.

Nous priorisons l’adoption de l’IA non pas pour sa nouveauté, mais pour générer une réelle efficacité, faire gagner du temps et améliorer les performances métier. Notre approche repose sur une application stratégique de l’IA pour apporter des améliorations significatives aux processus de données et aux flux de travail des utilisateurs.

Nos modèles

Nous utilisons des systèmes d’IA à usage général et spécialisés, en exploitant l’IA spécialisée pour des tâches spécifiques où elle surpasse l’IA généraliste. Aucun de nos modèles n’est considéré comme à haut risque au sens du Chapitre 3 du Règlement UE 2024/1689 sur l’Intelligence Artificielle.

Principes clés :

  • Aucune donnée client n’est partagée avec des tiers.
  • Nous recherchons une grande précision dans les fonctionnalités alimentées par l’IA.
  • Nos modèles sont continuellement améliorés sans perturber les opérations des clients.
  • Un plan de réduction des risques est en place pour tous les modèles d’IA.

Fonctionnalités basées sur la GenIA

Modèles utilisés :

  • Llama 3.1 70B – pour les catalogues de données multilingues et la génération automatique de descriptions.
  • Qwen 72B – pour l’IA conversationnelle (chatbot et recherche en langage naturel).

Remarque : cette liste est sujette à des mises à jour au fur et à mesure de l’évolution de la technologie IA.

Nous utilisons une approche auto-hébergée pour les LLM, garantissant qu’aucune donnée client n’est partagée avec des tiers.

Catalogue de données multilingue

La fonctionnalité multilingue de DataGalaxy brise les barrières linguistiques, permettant aux membres des équipes d’accéder aux informations du catalogue de données dans leur langue maternelle.

  • Sécurité avant tout : aucune donnée client n’est transmise à un fournisseur IA externe.
  • Haute précision : les modèles de pointe atteignent une précision de 95 % pour les traductions, avec possibilité d’édition par les utilisateurs.
  • Mises à jour instantanées : les nouveaux objets sont traduits en 1 à 2 secondes. Les traductions historiques sont réalisées en 6 heures en moyenne, avec un maximum de 48 heures pour les grands catalogues.
  • Lexiques personnalisables : les clients peuvent améliorer la qualité des traductions en ajoutant leur propre terminologie.
  • Actuellement disponible en 7 langues, avec d’autres langues disponibles sur demande.
  • Fonction contrôlée par l’administrateur : activation requise par un administrateur.

Génération automatique de descriptions

Cette fonctionnalité améliore l’exhaustivité du catalogue en générant automatiquement des descriptions pour les objets.

  • Prise en charge de plusieurs langues.
  • Catégorise les descriptions comme métier ou technique, en fonction du module et du type d’objet.
  • Deux modes de génération :
    • Validation manuelle – les utilisateurs peuvent examiner, accepter, rejeter ou régénérer les suggestions générées par l’IA.
    • Génération entièrement automatisée – l’IA génère les descriptions automatiquement si suffisamment d’informations connexes sont disponibles.

IA conversationnelle

Pour rendre la connaissance des données facilement accessible, DataGalaxy intègre une IA conversationnelle dans son chatbot et son moteur de recherche en langage naturel.

  • Système multi-agents : détecte l’intention de l’utilisateur, la classe, la transmet à l’agent de recherche ou d’analyse approprié, et fournit une information pertinente.

Gardiens IA chez DataGalaxy

L’éthique de l’IA est au cœur de notre approche. DataGalaxy met en œuvre un système de protection à trois niveaux : Prompt Guard, NeMo Guardrails et Llama Guard, assurant une expérience IA sécurisée et éthique.

Prompt Guard : sécurisation et structuration des entrées

Objectif : garantir que les entrées utilisateur soient sûres, conformes et bien structurées avant d’atteindre le modèle LLM.

  • Empêche les attaques : détecte et bloque les tentatives d’injection de prompt.
  • Élimine les biais : nettoie les entrées pour supprimer les erreurs involontaires.
  • Améliore la précision : reformate et structure les requêtes pour de meilleures réponses.

Lorsqu’un utilisateur soumet une requête, Prompt Guard analyse le texte, le reformate si nécessaire, et s’assure qu’il respecte les normes de sécurité et de conformité avant de le transmettre au LLM.

NeMo Guardrails : gestion des réponses et du flux de conversation

Objectif : appliquer des règles strictes de comportement pour que les réponses du LLM restent précises, pertinentes et sûres.

  • Régule les sujets : contrôle les domaines autorisés ou restreints.
  • Empêche les contenus nuisibles : filtre les hallucinations, contenus toxiques et désinformation.
  • Redirige les réponses hors sujet : garantit que les réponses restent dans le périmètre défini.

Après la génération de réponse par le LLM, NeMo Guardrails révise et modifie la réponse si nécessaire, selon les règles éthiques et métiers préétablies.

Llama Guard : validation et filtrage des sorties

Objectif : agir en tant que couche finale de sécurité, s’assurant que tout contenu généré respecte les normes éthiques et de conformité.

  • Supprime les contenus inappropriés : filtre la violence, la discrimination et la désinformation.
  • Élimine les hallucinations : garantit l’exactitude factuelle des réponses.
  • Applique les politiques de sécurité : vérifie la conformité avant de présenter le résultat final à l’utilisateur.

Fonctionnalités basées sur l’IA spécialisée

Génération de liens automatique

Un des piliers de la gouvernance est de rendre les actifs de données compréhensibles et accessibles. DataGalaxy utilise des modèles propriétaires pour détecter les similarités lexicales et suggérer des liens pertinents entre les objets.

  • Liens d’implémentation : entre objets de glossaire et dictionnaire.
  • Liens d’usage : entre objets de glossaire et d’usage.
    Fonction disponible pour les utilisateurs ayant des droits d’édition.

Classification des données : détection des PII

Notre IA aide à classer les Informations Personnellement Identifiables (PII) selon les métadonnées de l’objet (nom technique, description, résumé, balises, mots-clés).

  • Classe les objets en quatre groupes PII.
  • L’utilisateur peut accepter ou rejeter les classifications pour affiner la précision du modèle.

Suggestions de balises (tags)

À partir des métadonnées de l’objet, l’IA génère automatiquement des balises pour une classification métier.

Génération automatique de glossaire

L’automatisation pilotée par l’IA simplifie la création et la gestion des termes de glossaire.

  • Détecte et ajoute des objets depuis les dictionnaires de données et les applications d’usage.
  • Crée des liens entre termes de glossaire et objets associés.
  • Identifie les doublons et propose des fusions pour plus de cohérence.

Clause de non-responsabilité sur les capacités IA

Toutes les fonctionnalités IA sont conçues comme des outils d’assistance automatisés, fournissant des informations basées sur :

  • Le catalogue de données du client
  • D’autres informations validées par le client
  • La documentation DataGalaxy
  • Les bonnes pratiques et connaissances open source

Bien que nous cherchions à garantir la précision, nous ne pouvons garantir que toutes les réponses générées soient complètes, précises ou à jour. Les suggestions IA doivent être considérées comme un soutien, et non comme des réponses définitives.

Réduction des biais et gouvernance de l’IA

Chez DataGalaxy, nous sommes engagés à un usage fiable et équitable de l’IA. Nos systèmes sont conçus pour minimiser les biais de manière intrinsèque, appuyés par une surveillance continue et des mécanismes de correction automatisée.

Mesures clés :

  • Surveillance continue des modèles : nous utilisons des outils spécialisés pour suivre la performance des LLM, détecter les dérives et garantir des réponses constantes et de qualité.
  • Correction automatisée via les Gardiens IA : les systèmes de protection (Prompt Guard, NeMo Guardrails, Llama Guard) filtrent et ajustent les sorties pour atténuer les biais involontaires.
  • Suivi des modèles généraux : n’entraînant pas nous-mêmes les LLM, nous surveillons étroitement les mises à jour des fournisseurs pour anticiper tout biais ou comportement non conforme.
  • Recalibrage périodique de nos IA spécialisées : pour la classification, la détection de PII, les suggestions de liens et la gestion du glossaire, nous organisons des sessions de réentraînement périodiques pour éviter l’accumulation de biais.

Ces mécanismes sont intégrés dès la conception pour garantir une IA fiable, conforme aux meilleures pratiques et aux exigences réglementaires de transparence et d’équité.

Explicabilité des décisions IA

Chez DataGalaxy, nous donnons la priorité à la transparence dans les processus pilotés par l’IA et fournissons aux utilisateurs les moyens de :

  • Accéder aux justifications des décisions IA : nous expliquons le fonctionnement du modèle et les critères pris en compte.
  • Demander un examen humain : si une décision automatisée impacte un processus critique, un expert DataGalaxy peut être consulté via notre support.
  • Rester informé sur les mises à jour des modèles : tout changement important sera communiqué aux utilisateurs concernés.

Responsabilité de l’utilisateur

Les utilisateurs sont seuls responsables des actions entreprises sur la base de suggestions générées par l’IA. Il est essentiel d’interpréter ces recommandations avec prudence et discernement.

Nous contacter

Pour toute question, commentaire ou demande relative à nos outils IA, au traitement des données ou à la confidentialité, vous pouvez contacter notre Délégué à la Protection des Données :

  • Par email : dpo@datagalaxy.com
  • Par courrier : DataGalaxy, Délégué à la Protection des Données, 47 rue Vivienne, 75002 Paris, France

Conformément aux réglementations applicables, une preuve d’identité pourra être demandée. Merci d’inclure votre nom complet, votre adresse email et la nature de votre demande. Une réponse vous sera apportée dans un délai d’un (1) mois, pouvant être prolongé à deux (2) mois pour les demandes complexes.