⚡
Formations IA
  • Modules
  • Connecteurs
  • Mes Agents
0%
← Retour aux modules
Module 13 — Confidentialité & Bonnes Pratiques
0/6
  • 1 La politique de confidentialité d'Anthropic
  • 2 Chat : vos données et leur usage
  • 3 Cowork : confidentialité en mode agent
  • 4 Claude Code : données et télémétrie
  • 5 Comparatif des plans et niveaux de protection
  • 6 Checklist des bonnes pratiques
  • ? Quiz du module
Module 13 › Leçon 1 sur 6

La politique de confidentialité d'Anthropic

📖 ~7 min de lecture 🎯 Tous niveaux

Avant d'utiliser Claude pour des tâches sensibles — données clients, documents internes, code propriétaire — il est essentiel de comprendre comment Anthropic collecte, stocke et utilise vos données. Cette leçon résume les points clés de la politique de confidentialité officielle d'Anthropic, sans interprétation.

ℹ️ Sources officielles

Toutes les informations de ce module proviennent exclusivement de la documentation officielle d'Anthropic : anthropic.com/privacy, privacy.claude.com, support.claude.com, code.claude.com/docs et trust.anthropic.com. Rien n'a été inventé ni extrapolé.

Ce qu'Anthropic collecte

Lorsque vous utilisez un produit Claude (Chat, Cowork ou Code), Anthropic collecte plusieurs catégories de données :

👤
Données d'identité
Nom, email, numéro de téléphone, informations de paiement pour les plans payants.
💬
Entrées et sorties
Tout ce que vous envoyez à Claude (prompts) et tout ce que Claude vous répond (réponses). C'est le point le plus important à comprendre.
📊
Données techniques
Adresse IP, type d'appareil, navigateur, FAI, logs d'accès, données de diagnostic et d'erreur.
👍
Feedback utilisateur
Vos évaluations (pouce haut/bas), rapports de bugs, signalements de contenu.

Durées de rétention des données

L'un des aspects les plus importants : combien de temps Anthropic conserve vos données. Les durées varient selon le type de données et votre plan :

Type de données Durée de rétention
Conversations supprimées Retirées de l'historique immédiatement, purgées du backend sous 30 jours
Données consommateur (entraînement désactivé) 30 jours
Données consommateur (entraînement activé) 5 ans
Logs API (depuis sept. 2025) 7 jours
Données Team/Enterprise (défaut) 30 jours
Enterprise avec rétention personnalisée Minimum 30 jours, configurable
Enterprise avec Zero Data Retention (ZDR) Aucun stockage (sauf scores de sécurité)
Violations de politique d'usage Jusqu'à 2 ans
Scores de classification Trust & Safety Jusqu'à 7 ans
Feedback utilisateur (pouce haut/bas) 5 ans
Rapports de bug (commande /bug) 5 ans
⚠️ Point critique : la différence 30 jours vs 5 ans

Si vous avez activé l'option "Améliorer le modèle" (model improvement), vos conversations sont conservées 5 ans. Si vous l'avez désactivée, elles sont purgées après 30 jours. C'est un écart majeur. Vérifiez votre paramètre dans claude.ai > Paramètres > Confidentialité des données.

Qui peut voir vos conversations ?

C'est une question fréquente et légitime. Voici la réponse officielle d'Anthropic :

1
Par défaut, personne chez Anthropic ne voit vos conversations

Les employés d'Anthropic n'ont pas accès à vos échanges dans leur fonctionnement normal.

↓
2
Exceptions : Trust & Safety uniquement

L'accès est possible uniquement quand : vous consentez explicitement, un signalement est fait, ou qu'une révision est nécessaire pour appliquer la politique d'usage. Seule l'équipe Trust & Safety y a accès, sur une base "need to know".

↓
3
Données dé-liées pour l'entraînement

Quand des données sont utilisées pour l'amélioration des modèles, elles sont automatiquement dé-liées de votre identifiant utilisateur (email). En revanche, les révisions Trust & Safety peuvent être reliées à votre compte.

Protection des données

Anthropic met en place plusieurs couches de protection technique :

🔒
Chiffrement en transit
Toutes les communications utilisent le protocole TLS (Transport Layer Security).
🗄️
Chiffrement au repos
Les données stockées sur les serveurs d'Anthropic sont chiffrées avec AES 256 bits.
📋
Certifications
SOC 2 Type II, ISO 27001:2022, ISO/IEC 42001:2023 (gestion IA). Détails sur trust.anthropic.com.
🏥
HIPAA (Enterprise)
Configurations compatibles HIPAA disponibles sur les plans Enterprise (nécessite un BAA).

Deux régimes juridiques distincts

Anthropic distingue clairement deux types de clients, avec des conditions juridiques différentes :

Aspect Consommateur (Free/Pro/Max) Commercial (Team/Enterprise/API)
Responsable des données Anthropic L'organisation cliente
Conditions applicables Consumer Terms + Privacy Policy Commercial Terms of Service
Entraînement du modèle Opt-in (l'utilisateur choisit) Jamais par défaut
Contrôles admin Non Oui (Team et Enterprise)
💡 À retenir

La distinction fondamentale : sur les plans consommateur (Free, Pro, Max), c'est Anthropic qui est responsable de vos données. Sur les plans commerciaux (Team, Enterprise, API), c'est votre organisation. Cela change tout en termes de droits et de contrôle.

Module 13 › Leçon 2 sur 6

Chat : vos données et leur usage

📖 ~7 min de lecture 🎯 Tous niveaux

Le mode Chat (claude.ai) est le point d'entrée le plus utilisé. C'est aussi celui où les questions de confidentialité sont les plus fréquentes : est-ce que mes conversations entraînent le modèle ? Qui peut les lire ? Comment me protéger ?

Entraînement du modèle : comment ça marche

Anthropic utilise un système opt-in pour les plans consommateur (Free, Pro, Max). Cela signifie que vous devez activement consentir pour que vos conversations servent à améliorer Claude.

⚙️ Paramètres claude.ai/settings
→
🔒 Data Privacy Confidentialité
→
✅ Model Improvement ON ou OFF

Si "Model Improvement" est activé (ON)

  • L'ensemble de la conversation (prompts + réponses) peut être utilisé pour améliorer les modèles
  • Le contenu, les styles personnalisés et les préférences de conversation peuvent être inclus
  • Les données sont automatiquement dé-liées de votre identifiant (email) avant utilisation
  • Rétention : 5 ans

Si "Model Improvement" est désactivé (OFF)

  • Vos conversations ne sont pas utilisées pour entraîner les modèles
  • Rétention : 30 jours uniquement (pour des raisons opérationnelles et de sécurité)
⚠️ Exceptions importantes — même si vous désactivez

Même avec "Model Improvement" désactivé, certaines données peuvent encore être utilisées dans les cas suivants :

  • Conversations signalées par les classificateurs de sécurité (utilisées pour améliorer les modèles internes Trust & Safety)
  • Contenu explicitement signalé par l'utilisateur
  • Évaluations pouce haut/bas
  • Participation au Trusted Tester Program

Le mode Incognito

Claude propose un mode Incognito disponible sur tous les plans (Free, Pro, Max, Team, Enterprise). C'est l'option la plus protectrice pour une conversation ponctuelle.

👻
Conversations Incognito
  • Jamais utilisées pour l'entraînement du modèle, même si Model Improvement est activé
  • Non sauvegardées dans l'historique des conversations
  • Non intégrées dans la mémoire de Claude
  • Ne peuvent pas être rouvertes une fois fermées
  • Toujours soumises à la rétention standard (30 jours pour la sécurité)
ℹ️ Comment activer le mode Incognito

Sur claude.ai, activez le mode Incognito lors de la création d'une nouvelle conversation. Une indication visuelle vous rappelle que vous êtes en mode Incognito tout au long de la session.

Données des connecteurs

Un point important souvent négligé : les données brutes provenant des connecteurs (Google Drive, serveurs MCP) sont exclues de l'entraînement, sauf si vous les copiez manuellement dans une conversation.

1
Google Drive connecté → Claude lit un fichier

Le contenu brut du fichier n'est PAS utilisé pour l'entraînement.

↓
2
Vous copiez un extrait du fichier dans le chat

Cet extrait fait maintenant partie de la conversation et PEUT être utilisé (si Model Improvement est activé).

Supprimer vos données

Vous avez le droit de supprimer vos conversations à tout moment :

Action Effet immédiat Effet backend
Supprimer une conversation Disparaît de l'historique Purgée des serveurs sous 30 jours
Supprimer toutes les conversations Historique vidé Purgées des serveurs sous 30 jours
Supprimer son compte Compte désactivé Toutes les données purgées sous 30 jours
💡 Bonne pratique Chat

Pour les conversations contenant des données sensibles : 1) Utilisez le mode Incognito, 2) Si ce n'est pas fait, supprimez la conversation après usage, 3) Vérifiez que "Model Improvement" est désactivé dans vos paramètres.

Module 13 › Leçon 3 sur 6

Cowork : confidentialité en mode agent

📖 ~6 min de lecture 🎯 Intermédiaire

Le mode Cowork (application desktop) est un agent autonome qui exécute du code dans une VM sandbox, crée des fichiers et accède à votre système de fichiers. Cette puissance accrue soulève des questions spécifiques de confidentialité.

Comment Cowork gère vos données

Le mode Cowork suit les mêmes règles de confidentialité que le mode Chat, avec quelques spécificités liées à son fonctionnement en sandbox :

🖥️
VM isolée
Cowork exécute le code dans une machine virtuelle Linux isolée. Les fichiers créés restent dans cette sandbox jusqu'à ce que vous les téléchargiez.
📤
Données transmises
Comme pour le Chat, vos prompts et les réponses de Claude sont envoyés aux serveurs d'Anthropic pour le traitement par le modèle.
📁
Fichiers uploadés
Les fichiers que vous chargez dans Cowork sont transmis au serveur pour que le modèle puisse les analyser et les traiter.

Spécificités du mode Cowork

ℹ️ Mêmes règles, contexte différent

Le mode Cowork est soumis aux mêmes conditions que le Chat concernant l'entraînement des modèles (opt-in pour les consommateurs, jamais par défaut pour les commerciaux). La différence est que Cowork manipule souvent des fichiers plus volumineux et plus sensibles (tableurs de données, documents internes, scripts).

Ce qui est partagé avec Anthropic

Élément Transmis aux serveurs ? Détail
Vos instructions (prompts) Oui Nécessaire pour le traitement par le modèle
Les réponses de Claude Oui Générées côté serveur
Fichiers uploadés Oui Pour analyse et traitement
Fichiers créés par Claude dans la VM Oui Créés sur l'infrastructure serveur
Code exécuté dans la sandbox Oui Exécuté côté serveur dans la VM

Bonnes pratiques spécifiques à Cowork

1
Attention aux fichiers uploadés

Ne chargez pas de fichiers contenant des mots de passe, des clés API, des numéros de sécurité sociale ou des données bancaires dans Cowork.

↓
2
Anonymisez avant de charger

Si vous devez analyser des données sensibles (fichier clients, données RH), anonymisez les données personnelles AVANT de les charger dans Cowork.

↓
3
Plan Team/Enterprise pour l'usage professionnel

Si vous utilisez Cowork avec des données d'entreprise, un plan Team ou Enterprise garantit que vos données ne sont jamais utilisées pour l'entraînement.

⚠️ Les connecteurs dans Cowork

Quand Cowork accède à vos services via des connecteurs (Gmail, Google Drive, etc.), les données transitent par les serveurs d'Anthropic. Soyez conscient que tout document lu, tout email consulté passe par cette infrastructure, même si les données brutes des connecteurs sont exclues de l'entraînement par défaut.

💡 À retenir pour Cowork

Cowork est puissant mais traite potentiellement des données plus sensibles que le Chat classique. La règle d'or : ne chargez jamais dans Cowork un fichier que vous ne seriez pas prêt à envoyer par email. Si le fichier est trop sensible pour un email, il est trop sensible pour Cowork sur un plan consommateur.

Module 13 › Leçon 4 sur 6

Claude Code : données et télémétrie

📖 ~8 min de lecture 🎯 Intermédiaire

Claude Code fonctionne dans votre terminal et accède directement à votre codebase. Il s'exécute localement sur votre machine, mais communique avec les serveurs d'Anthropic. Comprendre exactement ce qui est envoyé et ce qui reste local est crucial, surtout pour du code propriétaire.

Architecture : local + cloud

Claude Code a une architecture hybride :

💻 Votre machine CLI locale
→
🔒 TLS Chiffré en transit
→
☁️ API Anthropic Traitement modèle

Ce qui est transmis aux serveurs

📡
Connexions requises
Ne peuvent pas être désactivées
  • NPM — Installation et mises à jour
  • Anthropic Console Auth — Authentification
  • Anthropic Public API — Tous les prompts et réponses (votre code y compris)
⚠️ Point essentiel

Tous vos prompts et toutes les réponses du modèle sont transmis à l'API Anthropic. Cela signifie que si Claude Code lit un fichier de votre codebase pour vous aider, le contenu de ce fichier transite par les serveurs d'Anthropic.

Télémétrie : ce qui est collecté en arrière-plan

En plus des échanges avec l'API, Claude Code se connecte à des services tiers pour la télémétrie. Voici le détail complet :

Service Objectif Ce qui est collecté Variable d'opt-out
Statsig Métriques opérationnelles Latence, fiabilité, patterns d'usage. Pas de code ni de chemins de fichiers DISABLE_TELEMETRY=1
Sentry Logs d'erreur Données d'erreur opérationnelles DISABLE_ERROR_REPORTING=1
Bug reports (/bug) Rapports de bugs Copie complète de l'historique de conversation, code inclus DISABLE_BUG_COMMAND=1
Enquêtes de session Satisfaction Note numérique uniquement (1, 2, 3 ou dismiss). Aucun code ni contenu CLAUDE_CODE_DISABLE_FEEDBACK_SURVEY=1

Opt-out global

Pour désactiver tout le trafic non-essentiel d'un coup, utilisez cette variable d'environnement :

Variable d'environnement
export CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC=1
ℹ️ Ajoutez-la à votre profil shell

Pour que cette variable soit permanente, ajoutez-la à votre fichier ~/.zshrc (Mac) ou ~/.bashrc (Linux). Elle sera active à chaque nouvelle session terminal.

Le piège de la commande /bug

La commande /bug dans Claude Code est pratique pour signaler un problème, mais elle envoie une copie complète de votre historique de conversation à Anthropic, y compris tout le code que Claude a lu pendant la session.

⚠️ Attention au /bug avec du code propriétaire

Si vous travaillez sur du code confidentiel et que vous utilisez /bug, tout le code vu par Claude pendant la session sera envoyé à Anthropic et conservé 5 ans. Désactivez-le avec DISABLE_BUG_COMMAND=1 si nécessaire.

Fournisseurs tiers (Bedrock, Vertex, Foundry)

Si vous utilisez Claude Code via AWS Bedrock, Google Vertex ou Foundry, tout le trafic non-essentiel est automatiquement désactivé. Pas de Statsig, pas de Sentry, pas de bug reporting, pas d'enquêtes.

🛡️
Sandboxing de sécurité
Claude Code utilise des primitives de sécurité au niveau OS : bubblewrap sur Linux, seatbelt sur macOS. Isolation du système de fichiers (seul le répertoire de travail est accessible) et du réseau.
📉
-84% de prompts de permission
Le sandboxing réduit les demandes de permission de 84% tout en maintenant la sécurité, car Claude peut agir librement dans la sandbox.

Claude Code sur le web (exécution cloud)

Quand Claude Code s'exécute dans le cloud (pas localement) :

  • Le dépôt est cloné dans une VM isolée
  • Les credentials GitHub n'entrent jamais dans la sandbox — l'authentification passe par un proxy sécurisé
  • Tout le trafic sortant passe par un proxy de sécurité avec audit logging
  • Les mêmes politiques de rétention et d'usage s'appliquent
💡 Configuration recommandée pour du code sensible

Si vous travaillez sur du code propriétaire, ajoutez ces variables à votre profil shell :

~/.zshrc (configuration recommandée)
# Désactive tout le trafic non-essentiel de Claude Code export CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC=1
Module 13 › Leçon 5 sur 6

Comparatif des plans et niveaux de protection

📖 ~6 min de lecture 🎯 Tous niveaux

Tous les plans Claude ne se valent pas en matière de confidentialité. Cette leçon vous donne une vue comparative complète pour choisir le plan adapté à votre niveau de sensibilité.

Le grand comparatif confidentialité

Fonctionnalité Free Pro Max Team Enterprise API
Entraînement opt-in/out Choix utilisateur Choix utilisateur Choix utilisateur Non (défaut) Non (défaut) Jamais
Rétention (sans entr.) 30 j 30 j 30 j 30 j Configurable 7 j
Rétention (avec entr.) 5 ans 5 ans 5 ans N/A N/A N/A
Zero Data Retention Non Non Non Non Oui Oui (avec accord)
Rétention personnalisée Non Non Non Non Oui (min 30 j) Via ZDR
Incognito (Chat uniquement) Oui Oui Oui Oui Oui N/A
Contrôles admin Non Non Non Oui Oui N/A
Désactiver le feedback Non Non Non Oui (admin) Oui (admin) N/A
Audit logs Non Non Non Limité Oui N/A
Compatible HIPAA Non Non Non Non Oui (avec BAA) Oui (avec BAA)
Rapport SOC 2 détaillé Non Non Non Non Sous NDA Sous NDA

Quel plan pour quel usage ?

🏠
Usage personnel
Free / Pro / Max
Suffisant pour un usage personnel. Désactivez Model Improvement et utilisez le mode Incognito pour les sujets sensibles. Rétention 30 jours.
Désactivez l'entraînement
🏢
PME / Équipe
Team
Données jamais utilisées pour l'entraînement par défaut. Contrôles admin pour gérer le feedback. Idéal pour les équipes avec des données clients.
Pas d'entraînement
🏛️
Grande entreprise / Réglementé
Enterprise
Toutes les protections Team + rétention personnalisable, Zero Data Retention, audit logs complets, compatibilité HIPAA. Le maximum de contrôle.
Contrôle total

Zoom sur les plans Team et Enterprise

Plan Team

  • Données jamais utilisées pour l'entraînement par défaut
  • Rétention standard de 30 jours
  • Les admins peuvent désactiver la soumission de feedback (pouce haut/bas) pour toute l'organisation via Paramètres > Données et confidentialité > "Évaluer les chats"
  • Suppression des conversations visible côté utilisateur, mais Anthropic conserve les données backend selon la politique de rétention

Plan Enterprise

  • Toutes les protections du plan Team, plus :
  • Rétention personnalisable : configurable par le Primary Owner/Owner (minimum 30 jours)
  • Zero Data Retention : aucun stockage (sauf les résultats des classificateurs de sécurité). Activé par l'équipe Anthropic pour votre organisation
  • Audit logs : traçabilité complète de toutes les activités de rétention
  • HIPAA : configurations compatibles disponibles (nécessite un BAA, avec certaines limitations comme l'exclusion de la recherche web)
  • Rapport SOC 2 détaillé disponible sous NDA
ℹ️ Produits couverts par les conditions commerciales

Les conditions commerciales (pas d'entraînement par défaut) couvrent : Claude for Work (Team et Enterprise), l'API Anthropic, Amazon Bedrock, Google Cloud Vertex API, Claude Gov, et Claude for Education.

💡 La question clé

Posez-vous la question : "Si ces données étaient publiées demain, quel serait l'impact ?" Si la réponse est "grave", vous avez besoin d'un plan Team minimum, et probablement Enterprise.

Module 13 › Leçon 6 sur 6

Checklist des bonnes pratiques

📖 ~6 min de lecture 🎯 Tous niveaux

Cette dernière leçon rassemble toutes les bonnes pratiques en une checklist actionnable. Imprimez-la, partagez-la avec votre équipe, et appliquez-la systématiquement.

Les données à ne JAMAIS partager avec Claude

Anthropic recommande explicitement de ne jamais partager les types de données suivants, quel que soit votre plan :

🚫
Numéros de sécurité sociale
Ni les vôtres, ni ceux de vos clients ou employés.
🚫
Numéros de cartes bancaires
Numéros complets, CVV, dates d'expiration.
🚫
Coordonnées bancaires
IBAN, RIB, numéros de compte.
🚫
Données médicales
Dossiers médicaux, informations de santé (sauf plan Enterprise avec HIPAA).
🚫
Mots de passe et identifiants
Mots de passe, clés API, tokens d'accès, secrets de connexion.
🚫
Documents confidentiels
Documents propriétaires d'entreprise, fichiers personnels confidentiels (sauf plan adapté).

Checklist par mode d'utilisation

Mode Chat (claude.ai)

✓
Vérifiez votre paramètre "Model Improvement"

Allez dans claude.ai > Paramètres > Confidentialité des données. Désactivez si vous ne souhaitez pas que vos conversations servent à l'entraînement.

↓
✓
Utilisez le mode Incognito pour les données sensibles

Cliquez sur l'icône fantôme lors de la création d'une conversation. Jamais utilisé pour l'entraînement, pas sauvegardé dans l'historique.

↓
✓
Supprimez les conversations sensibles après usage

Les conversations supprimées sont retirées de l'historique immédiatement et purgées des serveurs sous 30 jours.

↓
✓
Anonymisez les données avant de les coller

Remplacez les vrais noms, emails et numéros par des données fictives quand c'est possible.

Mode Cowork (application desktop)

✓
Vérifiez les fichiers avant de les charger

Assurez-vous qu'aucun fichier ne contient de mots de passe, clés API ou données personnelles sensibles.

↓
✓
Anonymisez les jeux de données

Si vous chargez un fichier Excel de clients, remplacez d'abord les données personnelles par des données fictives.

↓
✓
Utilisez un plan Team/Enterprise pour les données d'entreprise

Sur un plan consommateur, les données pourraient être utilisées pour l'entraînement (si activé). Un plan commercial l'interdit par défaut.

Claude Code (terminal)

✓
Configurez les variables d'environnement

Ajoutez export CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC=1 à votre profil shell pour désactiver toute la télémétrie non-essentielle.

↓
✓
N'utilisez pas /bug avec du code sensible

La commande /bug envoie l'intégralité de l'historique de conversation (code inclus) à Anthropic, conservé 5 ans.

↓
✓
Ajoutez les fichiers secrets au .gitignore ET au .claudeignore

Assurez-vous que les fichiers .env, credentials.json, et autres secrets ne sont pas accessibles par Claude Code.

↓
✓
Envisagez Bedrock/Vertex pour du code très sensible

Sur ces plateformes, tout le trafic non-essentiel est automatiquement désactivé et Anthropic ne voit pas directement vos données.

Résumé des stratégies de protection par niveau

Niveau de sensibilité Configuration recommandée
Faible (usage général, pas de données sensibles) Plan Free/Pro avec Model Improvement désactivé
Moyen (données clients, documents internes) Plan Team + mode Incognito pour les sujets sensibles
Élevé (code propriétaire, données réglementées) Plan Enterprise + rétention personnalisée
Maximum (données médicales, financières réglementées) Enterprise + Zero Data Retention + Bedrock/Vertex
⚠️ L'exception universelle : la sécurité

Quel que soit votre plan, vos paramètres, et même en mode Incognito : si une conversation est signalée par les classificateurs de sécurité d'Anthropic, elle peut être examinée par l'équipe Trust & Safety. Cette exception existe pour tous les plans, y compris Enterprise. C'est une mesure de sécurité, pas une violation de confidentialité.

Sources officielles

Toutes les informations de ce module proviennent de ces sources officielles Anthropic :

  • anthropic.com/privacy — Politique de confidentialité
  • privacy.claude.com — Centre de confidentialité (FAQ détaillées)
  • support.claude.com — Centre d'aide (guides pratiques)
  • code.claude.com/docs/en/data-usage — Documentation Claude Code sur l'usage des données
  • trust.anthropic.com — Centre de confiance (certifications, compliance)
  • anthropic.com/engineering/claude-code-sandboxing — Blog technique sur le sandboxing
💡 Récapitulatif du Module 13

Vous connaissez maintenant les règles de confidentialité de Claude dans leur intégralité :

  • Politique Anthropic — Ce qui est collecté, combien de temps, qui peut voir
  • Chat — Opt-in pour l'entraînement, mode Incognito, suppression des conversations
  • Cowork — Mêmes règles que Chat, mais attention aux fichiers uploadés
  • Code — Tout passe par l'API, télémétrie désactivable, piège du /bug
  • Plans — Free/Pro/Max vs Team vs Enterprise : des niveaux de protection très différents
  • Bonnes pratiques — Ne jamais partager : mots de passe, cartes bancaires, données médicales, SSN

Testez vos connaissances avec le quiz ci-dessous.

Formations IA © 2025