diff --git a/content/fr/containers/guide/datadogoperator_migration.md b/content/fr/containers/guide/datadogoperator_migration.md
new file mode 100644
index 00000000000..5d2710ffd17
--- /dev/null
+++ b/content/fr/containers/guide/datadogoperator_migration.md
@@ -0,0 +1,200 @@
+---
+aliases:
+- /fr/agent/guide/datadogoperator_migration
+description: Guide pour effectuer la migration de v1alpha1 vers v2alpha1 de la ressource
+ personnalisée DatadogAgent à l'aide du webhook de conversion
+title: Effectuer la migration vers la version 1.0 de l'opérateur Datadog
+---
+
+## Effectuer la migration vers la version 1.0 de l'opérateur Datadog
+
+
+La réconciliation v1alpha1 DatadogAgent dans l'opérateur est obsolète depuis la v1.2.0+ et sera supprimée dans la v1.7.0. Après sa suppression, vous ne pourrez plus configurer l'opérateur Datadog pour réconcilier la CRD v1alpha1 DatadogAgent. Toutefois, vous pourrez toujours appliquer un manifeste v1alpha1 avec le webhook de conversion activé en utilisant datadogCRDs.migration.datadogAgents.conversionWebhook.enabled.
+
+
+
+DatadogAgent v1alpha1 et le webhook de conversion seront supprimés dans la v1.8.0. Après leur suppression, vous ne pourrez plus effectuer la migration sauf si vous utilisez une version antérieure de l'opérateur.
+
+
+
+L'opérateur Datadog v0.X utilise `v1alpha1` de la ressource personnalisée DatadogAgent. L'opérateur Datadog v1.X réconcilie `v2alpha1`.
+
+Ce guide décrit comment effectuer la migration vers la ressource personnalisée `v2alpha1/DatadogAgent` depuis `v1alpha1/DatadogAgent`.
+
+### Prérequis
+
+Si vous utilisez `v1alpha1` avec une version 0.X de l'opérateur Datadog et que vous souhaitez effectuer une mise à niveau, vous devez utiliser la fonctionnalité de webhook de conversion.
+
+Commencez par vous assurer de disposer de la version minimale requise du chart et de ses dépendances :
+
+```
+NAME CHART VERSION APP VERSION DESCRIPTION
+datadog/datadog-crds 1.0.0 1 Datadog Kubernetes CRDs chart
+```
+
+Pour le chart de l'opérateur Datadog :
+
+```
+NAME CHART VERSION APP VERSION DESCRIPTION
+datadog/datadog-operator 1.0.0 1.0.0 Datadog Operator
+```
+
+#### Installer cert manager
+Si vous ne disposez pas déjà de cert manager, installez-le avec Helm.
+
+Ajoutez le chart :
+
+```
+helm repo add jetstack https://charts.jetstack.io
+```
+
+Ensuite, installez ce dernier :
+
+```
+ helm install \
+ cert-manager jetstack/cert-manager \
+ --version v1.11.0 \
+ --set installCRDs=true
+```
+
+### Migration
+
+Exécutez la commande suivante pour redéployer l'opérateur Datadog et configurer Kubernetes pour stocker la version `v2alpha1` de DatadogAgent :
+
+```
+helm upgrade \
+ datadog-operator datadog/datadog-operator \
+ --set image.tag=1.0.0 \
+ --set datadogCRDs.migration.datadogAgents.version=v2alpha1 \
+ --set datadogCRDs.migration.datadogAgents.useCertManager=true \
+ --set datadogCRDs.migration.datadogAgents.conversionWebhook.enabled=true
+```
+
+Avec cela, le serveur de webhook de conversion (exécuté par l'opérateur Datadog) convertit les objets DatadogAgent existants.
+
+Si vous disposez de versions `v1alpha1` et effectuez la migration, il est recommandé d'enregistrer la version convertie et de commencer à déployer uniquement la version convertie. Une fois que vous déployez uniquement le DatadogAgent `v2alpha1`, vous pouvez désactiver le webhook de conversion.
+
+### Remarques
+
+À partir de la version 1.0.0 du chart `datadog-operator`, le champ `image.tag` possède une valeur par défaut de `1.0.0`, et `datadogCRDs.migration.datadogAgents.version` est `v2alpha1`.
+
+Ceux-ci sont définis dans la commande ici pour illustrer la migration depuis une version de l'opérateur Datadog < 1.0.0 avec une version stockée de `v1alpha1` vers la version GA de `1.0.0` avec une version stockée de `v2alpha1`.
+
+### Détails de l'implémentation
+
+Cela crée un certificat auto-signé (à l'aide d'un Issuer) qui est utilisé par Certificate Manager pour muter la CRD DatadogAgent afin de documenter le `caBundle` que le serveur API utilise pour contacter le webhook de conversion.
+
+L'opérateur Datadog exécute le réconciliateur pour l'objet `v2alpha1` et démarre un serveur de webhook de conversion, exposé sur le port 9443. Le serveur API utilise ce serveur pour convertir `v1alpha1` DatadogAgent en `v2alpha1`.
+
+### Cycle de vie
+
+Le webhook de conversion n'est pas destiné à fonctionner indéfiniment. Datadog le recommande uniquement pour migrer vos objets pendant une période de transition.
+
+Une fois convertis, vous pouvez stocker la nouvelle version de votre DatadogAgent, désactiver la conversion et déployer uniquement des objets `v2alpha1`.
+
+### Dépannage
+
+#### Je ne vois pas la version `v2alpha1` de la ressource DatadogAgent.
+
+Étant donné que `v1alpha1` et `v2alpha1` sont _servis_, vous devrez peut-être spécifier la version que vous souhaitez voir :
+
+```
+kubectl get datadogagents.v2alpha1.datadoghq.com datadog-agent
+```
+
+#### La conversion ne fonctionne pas.
+
+Les logs du pod de l'opérateur Datadog doivent indiquer que le webhook de conversion est activé, que le serveur est en cours d'exécution et que les certificats sont surveillés.
+
+```
+kubectl logs datadog-operator-XXX-YYY
+[...]
+{"level":"INFO","ts":"2023-02-16T16:47:07Z","logger":"controller-runtime.webhook","msg":"Registering webhook","path":"/convert"}
+{"level":"INFO","ts":"2023-02-16T16:47:07Z","logger":"controller-runtime.builder","msg":"Conversion webhook enabled","GVK":"datadoghq.com/v2alpha1, Kind=DatadogAgent"}
+{"level":"INFO","ts":"2023-02-16T16:47:07Z","logger":"setup","msg":"starting manager"}
+{"level":"INFO","ts":"2023-02-16T16:47:07Z","logger":"controller-runtime.webhook.webhooks","msg":"Starting webhook server"}
+{"level":"INFO","ts":"2023-02-16T16:47:07Z","logger":"controller-runtime.certwatcher","msg":"Updated current TLS certificate"}
+{"level":"INFO","ts":"2023-02-16T16:47:07Z","logger":"controller-runtime.webhook","msg":"Serving webhook server","host":"","port":9443}
+{"level":"INFO","ts":"2023-02-16T16:47:07Z","msg":"Starting server","path":"/metrics","kind":"metrics","addr":"0.0.0.0:8383"}
+{"level":"INFO","ts":"2023-02-16T16:47:07Z","msg":"Starting server","kind":"health probe","addr":"0.0.0.0:8081"}
+{"level":"INFO","ts":"2023-02-16T16:47:07Z","logger":"controller-runtime.certwatcher","msg":"Starting certificate watcher"}
+[...]
+```
+
+#### Comment vérifier le service enregistré pour la conversion pour un endpoint enregistré ?
+
+```
+kubectl describe service datadog-operator-webhook-service
+[...]
+Name: datadog-operator-webhook-service
+Namespace: default
+[...]
+Selector: app.kubernetes.io/instance=datadog-operator,app.kubernetes.io/name=datadog-operator
+[...]
+Port: 443/TCP
+TargetPort: 9443/TCP
+Endpoints: 10.88.3.28:9443
+```
+
+#### Comment vérifier le service enregistré pour le webhook de conversion ?
+
+```
+kubectl describe crd datadogagents.datadoghq.com
+[...]
+ Conversion:
+ Strategy: Webhook
+ Webhook:
+ Client Config:
+ Ca Bundle: LS0t[...]UtLS0tLQo=
+ Service:
+ Name: datadog-operator-webhook-service
+ Namespace: default
+ Path: /convert
+ Port: 443
+ Conversion Review Versions:
+ v1
+```
+
+#### La CRD ne dispose pas du `caBundle`.
+
+Assurez-vous que la CRD possède l'annotation correcte : `cert-manager.io/inject-ca-from: default/datadog-operator-serving-cert`. Vérifiez également les logs du pod `cert-manager-cainjector`.
+
+Si vous ne voyez rien de particulier, définir le niveau de log sur 5 (debug) peut être utile :
+
+```
+kubectl edit deploy cert-manager-cainjector -n cert-manager
+[...]
+ spec:
+ containers:
+ - args:
+ - --v=5
+[...]
+```
+
+Vous devriez voir des logs tels que :
+
+```
+[...]
+I0217 08:11:15.582479 1 controller.go:178] cert-manager/certificate/customresourcedefinition/generic-inject-reconciler "msg"="updated object" "resource_kind"="CustomResourceDefinition" "resource_name"="datadogagents.datadoghq.com" "resource_namespace"="" "resource_version"="v1"
+I0217 08:25:24.989209 1 sources.go:98] cert-manager/certificate/customresourcedefinition/generic-inject-reconciler "msg"="Extracting CA from Certificate resource" "certificate"="default/datadog-operator-serving-cert" "resource_kind"="CustomResourceDefinition" "resource_name"="datadogagents.datadoghq.com" "resource_namespace"="" "resource_version"="v1"
+[...]
+```
+### Rollback
+
+Si vous avez effectué la migration vers la nouvelle version de l'opérateur Datadog en utilisant `v2alpha1` mais que vous souhaitez revenir à l'ancienne version, Datadog recommande de :
+- Mettre à l'échelle le déploiement de l'opérateur Datadog à 0 réplicas.
+ ```
+ kubectl scale deploy datadog-operator --replicas=0
+ ```
+- Mettre à niveau le chart pour que `v1alpha1` soit stocké et pour que l'opérateur Datadog utilise l'image 0.8.X.
+ ```
+ helm upgrade \
+ datadog-operator datadog/datadog-operator \
+ --set image.tag=0.8.4 \
+ --set datadogCRDs.migration.datadogAgents.version=v1alpha1 \
+ --set datadogCRDs.migration.datadogAgents.useCertManager=false \
+ --set datadogCRDs.migration.datadogAgents.conversionWebhook.enabled=false
+ ```
+- Redéployez l'objet DatadogAgent `v1alpha1` précédent.
+
+**Remarque** : le DaemonSet des Agents Datadog est restauré dans le processus.
\ No newline at end of file
diff --git a/content/fr/containers/guide/kubernetes-cluster-name-detection.md b/content/fr/containers/guide/kubernetes-cluster-name-detection.md
new file mode 100644
index 00000000000..67e43d2816b
--- /dev/null
+++ b/content/fr/containers/guide/kubernetes-cluster-name-detection.md
@@ -0,0 +1,121 @@
+---
+aliases:
+- /fr/agent/faq/kubernetes-cluster-name-detection
+- /fr/agent/guide/kubernetes-cluster-name-detection
+description: Détection automatique du nom de cluster pour les clusters Kubernetes
+ sur GKE, AKS et EKS afin d'améliorer l'identification des nœuds
+further_reading:
+- link: /agent/autodiscovery/
+ tag: documentation
+ text: Autodiscovery avec l'Agent Docker
+- link: /agent/kubernetes/host_setup/
+ tag: documentation
+ text: Exécuter l'Agent sur un host avec Kubernetes
+- link: /agent/kubernetes/integrations/
+ tag: documentation
+ text: Intégrations personnalisées
+title: Détection automatique du nom de cluster Kubernetes
+---
+
+À partir de la version 6.11+ de l'Agent, l'Agent Datadog peut détecter automatiquement le nom de cluster Kubernetes sur Google Kubernetes Engine (GKE), Azure Kubernetes Service (AKS) et Amazon Elastic Kubernetes Service (EKS). Le nom de cluster peut également être fourni directement ou découvert à partir des étiquettes de nœud Kubernetes. S'il est détecté, le nom de cluster est ajouté en tant que suffixe au nom de nœud pour toutes les données collectées. Cela facilite l'identification des nœuds dans les clusters Kubernetes.
+
+
+Ce nom de cluster doit être un nom unique et respecter les restrictions suivantes :
+
+ Ne doit contenir que des lettres minuscules, des chiffres et des traits d'union
+ Doit commencer par une lettre
+ Doit se terminer par un chiffre ou une lettre
+ Doit contenir au maximum 80 caractères
+
+
+
+## Configuration
+
+Vous pouvez fournir un nom de cluster directement dans votre configuration Datadog. Lorsqu'il est fourni, celui-ci est prioritaire sur toutes les autres options.
+
+{{< tabs >}}
+{{% tab "Operator Datadog" %}}
+
+Dans l'opérateur Datadog, définissez la valeur sous `global.clusterName`.
+
+```yaml
+apiVersion: datadoghq.com/v2alpha1
+kind: DatadogAgent
+metadata:
+ name: datadog
+spec:
+ global:
+ clusterName:
+```
+{{% /tab %}}
+{{% tab "Helm" %}}
+
+Dans votre chart Helm, définissez la valeur sous `datadog.clusterName`.
+
+```yaml
+datadog:
+ clusterName:
+```
+
+{{% /tab %}}
+{{< /tabs >}}
+
+
+## Fournisseurs de cloud
+Si un nom de cluster n'est pas fourni dans la configuration, l'Agent et l'Agent de cluster contactent les services de métadonnées du fournisseur de cloud pour le récupérer.
+
+### GKE
+Sur GKE, le nom de cluster est récupéré à partir du [serveur de métadonnées de VM][1]. L'Agent effectue une requête pour récupérer les attributs de l'instance et utilise la valeur renvoyée en cas de réussite.
+
+Vous pouvez tester cette requête en utilisant `kubectl exec` dans le pod de l'Agent et en exécutant une requête `curl` comme suit.
+
+```shell
+curl -v "http://169.254.169.254/computeMetadata/v1/instance/attributes/cluster-name" -H "Metadata-Flavor: Google"
+```
+
+Une requête réussie renvoie une réponse 200 et le nom de cluster Kubernetes tel qu'il apparaît dans la console GKE. L'activation de certaines fonctionnalités GKE telles que Workload Identity peut restreindre cet accès.
+
+### AKS
+Sur AKS, le nom de cluster est récupéré à partir d'[Azure Instance Metadata Service][2]. L'Agent demande le nom de groupe de ressources de la VM, puis analyse cette valeur pour déterminer le nom de cluster Kubernetes.
+
+Vous pouvez tester cette requête en utilisant `kubectl exec` dans le pod de l'Agent et en exécutant une requête `curl` comme suit.
+
+```shell
+curl -v "http://169.254.169.254/metadata/instance/compute/resourceGroupName?api-version=2017-08-01&format=text" -H "Metadata: true"
+```
+Une requête réussie renvoie une réponse 200 et le nom de groupe de ressources AKS qui doit être analysé. Par exemple, l'Agent analyse `example-cluster-name` à partir du `MC_MyResourceGroup_example-cluster-name_eastus` renvoyé.
+
+### EKS
+Sur l'EKS, le site Agent récupère le nom du cluster en récupérant les balises de l'instance EC2 et en identifiant la balise `kubernetes.io/cluster/: owned` préremplie pour déterminer le nom du cluster.
+
+Par défaut, l'Agent utilise l'[Instance Metadata Service (IMDS)][3] pour obtenir l'identité de l'instance, qui est utilisée par l'Agent et le SDK AWS pour décrire les tags sur l'instance. Sur l'Agent `7.64.0` et versions ultérieures, il utilise IMDSv2 par défaut pour récupérer cette identité. Cela nécessite que l'instance EC2 et son rôle IAM disposent de l'autorisation `ec2:DescribeTags`. L'Agent ne prend pas en charge [EKS Pod Identity][4] pour les autorisations IAM.
+
+L'Agent peut également récupérer les tags EC2 directement depuis IMDS lorsque la variable d'environnement suivante est fournie.
+```yaml
+- name: DD_COLLECT_EC2_TAGS_USE_IMDS
+ value: "true"
+```
+*Toutefois*, IMDS n'accorde pas l'accès aux tags EC2 par défaut. Vous devez [activer l'accès aux tags][5] et définir votre limite de sauts sur 2 (ou plus).
+
+## Étiquettes de nœud
+
+La dernière méthode de détection utilise les étiquettes de nœud Kubernetes. L'Agent inspecte son nœud Kubernetes actuel et recherche les étiquettes suivantes :
+
+- `alpha.eksctl.io/cluster-name`
+- `kubernetes.azure.com/cluster`
+- `ad.datadoghq.com/cluster-name`
+
+Des étiquettes supplémentaires peuvent être ajoutées avec la variable d'environnement :
+
+```yaml
+- name: DD_KUBERNETES_NODE_LABEL_AS_CLUSTER_NAME
+ value: ""
+```
+
+Si l'étiquette de nœud est trouvée, la valeur est utilisée comme nom de cluster.
+
+[1]: https://cloud.google.com/compute/docs/metadata/querying-metadata
+[2]: https://learn.microsoft.com/en-us/azure/virtual-machines/instance-metadata-service?tabs=linux
+[3]: https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/instancedata-data-retrieval.html
+[4]: https://docs.aws.amazon.com/eks/latest/userguide/pod-id-how-it-works.html
+[5]: https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/work-with-tags-in-IMDS.html#allow-access-to-tags-in-IMDS
\ No newline at end of file
diff --git a/content/fr/containers/guide/kubernetes_daemonset.md b/content/fr/containers/guide/kubernetes_daemonset.md
new file mode 100644
index 00000000000..e29922988a6
--- /dev/null
+++ b/content/fr/containers/guide/kubernetes_daemonset.md
@@ -0,0 +1,382 @@
+---
+description: Installation et configuration manuelles de l'Agent Datadog sur Kubernetes
+ à l'aide du déploiement DaemonSet
+further_reading:
+- link: /containers/kubernetes/installation
+ tag: Documentation
+ text: Installer l'Agent Datadog sur Kubernetes
+title: Installer et configurer manuellement l'Agent Datadog sur Kubernetes avec DaemonSet
+---
+
+
+ Datadog déconseille d'utiliser des DaemonSets pour déployer l'Agent Datadog, car le processus manuel est sujet aux erreurs. Datadog recommande d'
utiliser l'opérateur Datadog ou Helm pour installer l'Agent sur Kubernetes.
+
+
+## Installation
+Vous pouvez utiliser des DaemonSets pour déployer l'Agent Datadog sur tous vos nœuds (ou sur des nœuds spécifiques en [utilisant des nodeSelectors][1]).
+
+Pour installer l'Agent Datadog sur votre cluster Kubernetes :
+
+1. **Configurez les autorisations de l'Agent** : si le contrôle d'accès basé sur des rôles (RBAC) est activé pour votre déploiement Kubernetes, configurez les autorisations RBAC pour le compte de service de votre Agent Datadog. Depuis la version 1.6 de Kubernetes, le RBAC est activé par défaut. Créez les ClusterRole, ServiceAccount et ClusterRoleBinding appropriés à l'aide de la commande suivante :
+
+ ```shell
+ kubectl apply -f "https://raw.githubusercontent.com/DataDog/datadog-agent/master/Dockerfiles/manifests/rbac/clusterrole.yaml"
+
+ kubectl apply -f "https://raw.githubusercontent.com/DataDog/datadog-agent/master/Dockerfiles/manifests/rbac/serviceaccount.yaml"
+
+ kubectl apply -f "https://raw.githubusercontent.com/DataDog/datadog-agent/master/Dockerfiles/manifests/rbac/clusterrolebinding.yaml"
+ ```
+
+ **Remarque** : ces configurations RBAC sont définies pour l'espace de nommage `default`. Si vous utilisez un espace de nommage personnalisé, modifiez le paramètre `namespace` avant d'appliquer les configurations.
+
+
+2. **Créez le manifeste de l'Agent Datadog**. Créez le manifeste `datadog-agent.yaml` à partir de l'un des modèles suivants :
+
+ | Métriques | Logs | APM | Processus | NPM | Sécurité | Linux | Windows |
+ |---------------------------------|---------------------------------|---------------------------------|---------------------------------|---------------------------------|---------------------------------|-------------------------|--------------------------------------|
+ | | | | | | | [Modèle de manifeste][2] | [Modèle de manifeste][3] (sans sécurité) |
+ | | | | | | | [Modèle de manifeste][4] | [Modèle de manifeste][5] |
+ | | | | | | | [Modèle de manifeste][6] | [Modèle de manifeste][7] |
+ | | | | | | | [Modèle de manifeste][8] | [Modèle de manifeste][9] |
+ | | | | | | | [Modèle de manifeste][10] | aucun modèle |
+ | | | | | | | [Modèle de manifeste][11] | [Modèle de manifeste][12] |
+
+ Pour activer complètement la collecte de traces, [des étapes supplémentaires sont requises sur la configuration du Pod de votre application][13]. Consultez également les pages de documentation [logs][14], [APM][15], [processus][16], [Cloud Network Monitoring][17] et [sécurité][18] pour apprendre à activer chaque fonctionnalité individuellement.
+
+ **Remarque** : ces manifestes sont définis pour l'espace de nommage `default`. Si vous utilisez un espace de nommage personnalisé, modifiez le paramètre `metadata.namespace` avant d'appliquer les manifestes.
+
+3. Dans le manifeste `secret-api-key.yaml`, remplacez `PUT_YOUR_BASE64_ENCODED_API_KEY_HERE` par [votre clé d'API Datadog][19] encodée en base64. Pour obtenir la version base64 de votre clé d'API, exécutez la commande suivante :
+
+ ```shell
+ echo -n '' | base64
+ ```
+4. Si vous utilisez le modèle de manifeste `datadog-agent-all-features.yaml` : dans le manifeste `secret-cluster-agent-token.yaml`, remplacez `PUT_A_BASE64_ENCODED_RANDOM_STRING_HERE` par une chaîne aléatoire encodée en base64. Pour obtenir sa version en base64, vous pouvez exécuter :
+
+ ```shell
+ echo -n 'Random string' | base64
+ ```
+
+ **Remarque** : la chaîne aléatoire doit inclure au moins 32 caractères alphanumériques, afin de sécuriser les communications entre l'Agent de cluster et l'Agent.
+
+5. **Définissez votre site Datadog** sur {{< region-param key="dd_site" code="true" >}} en utilisant la variable d'environnement `DD_SITE` dans le manifeste `datadog-agent.yaml`.
+
+ **Note** : Si la variable d'environnement `DD_SITE` n'est pas explicitement définie, la valeur par défaut est le site `US` `datadoghq.com` . Si vous utilisez l'un des autres sites, vous recevrez un message indiquant que votre clé API n'est pas valide. Utilisez le [sélecteur de site de documentation][20] pour consulter la documentation correspondant au site que vous utilisez.
+
+6. **Déployez le DaemonSet** avec cette commande :
+
+ ```shell
+ kubectl apply -f datadog-agent.yaml
+ ```
+
+7. **Vérification** : pour vérifier que l'Agent Datadog s'exécute dans votre environnement en tant que DaemonSet, exécutez ce qui suit :
+
+ ```shell
+ kubectl get daemonset
+ ```
+
+ Si l'Agent est déployé, une sortie similaire au texte ci-dessous s'affiche. Les valeurs `DESIRED` et `CURRENT` correspondent au nombre de nœuds exécutés dans votre cluster.
+
+ ```shell
+ NAME DESIRED CURRENT READY UP-TO-DATE AVAILABLE NODE SELECTOR AGE
+ datadog 2 2 2 2 2 10s
+ ```
+
+## Configuration
+
+### Collecte de traces
+
+{{< tabs >}}
+{{% tab "TCP" %}}
+
+Pour activer la collecte de traces APM via TCP, ouvrez le fichier de configuration DaemonSet et modifiez les éléments suivants :
+
+- Autorisez la réception de données sur le port `8126` (transmission du trafic du host à l'Agent) dans le conteneur `trace-agent` :
+ ```yaml
+ # (...)
+ containers:
+ - name: trace-agent
+ # (...)
+ ports:
+ - containerPort: 8126
+ hostPort: 8126
+ name: traceport
+ protocol: TCP
+ # (...)
+ ```
+
+- **Si vous utilisez la version 7.17 ou une version antérieure de l'Agent**, en plus des étapes ci-dessus, définissez les variables `DD_APM_NON_LOCAL_TRAFFIC` et `DD_APM_ENABLED` sur `true` dans votre section `env` du manifeste de l'Agent de trace `datadog.yaml` :
+
+ ```yaml
+ # (...)
+ containers:
+ - name: trace-agent
+ # (...)
+ env:
+ - name: DD_APM_ENABLED
+ value: 'true'
+ - name: DD_APM_NON_LOCAL_TRAFFIC
+ value: "true"
+ # (...)
+ ```
+
+**Attention** : le paramètre `hostPort` ouvre un port sur votre host. Assurez-vous que votre pare-feu accorde uniquement un accès à vos applications ou à d'autres sources de confiance. Si votre plug-in réseau ne prend pas en charge `hostPorts`, ajoutez `hostNetwork: true` aux spécifications de pod de votre Agent afin de partager l'espace de nommage réseau de votre host avec l'Agent Datadog. Cela signifie également que tous les ports ouverts sur le conteneur sont également ouverts sur le host. Si un port est utilisé sur le host et dans votre conteneur, ces derniers peuvent entrer en conflit (puisqu'ils partagent le même espace de nommage réseau), empêchant ainsi le pod de démarrer. Cela n'est pas possible avec certaines installations Kubernetes.
+
+
+{{% /tab %}}
+{{% tab "Socket de domaine Unix (UDS)" %}}
+
+Pour activer la collecte de traces APM via UDS, ouvrez le fichier de configuration DaemonSet et modifiez les éléments suivants :
+
+ ```yaml
+ # (...)
+ containers:
+ - name: trace-agent
+ # (...)
+ env:
+ - name: DD_APM_ENABLED
+ value: "true"
+ - name: DD_APM_RECEIVER_SOCKET
+ value: "/var/run/datadog/apm.socket"
+ # (...)
+ volumeMounts:
+ - name: apmsocket
+ mountPath: /var/run/datadog/
+ volumes:
+ - hostPath:
+ path: /var/run/datadog/
+ type: DirectoryOrCreate
+ # (...)
+ ```
+
+Cette configuration crée un répertoire sur le host et le monte dans l'Agent. L'Agent crée ensuite un fichier de socket dans ce répertoire avec la valeur `DD_APM_RECEIVER_SOCKET` de `/var/run/datadog/apm.socket` et effectue une écoute sur ce fichier. Les pods d'application peuvent alors être montés de la même façon sur ce volume et écrire des données sur ce socket.
+
+{{% /tab %}}
+{{< /tabs >}}
+
+### Collecte de logs
+
+**Remarque** : cette option n'est pas prise en charge sous Windows. Utilisez plutôt l'option [Helm][22].
+
+Pour activer la collecte de logs avec votre DaemonSet :
+
+1. Définissez les variables `DD_LOGS_ENABLED` et `DD_LOGS_CONFIG_CONTAINER_COLLECT_ALL` sur true dans la section *env* du manifeste de l'Agent `datadog.yaml` :
+
+ ```yaml
+ # (...)
+ env:
+ # (...)
+ - name: DD_LOGS_ENABLED
+ value: "true"
+ - name: DD_LOGS_CONFIG_CONTAINER_COLLECT_ALL
+ value: "true"
+ - name: DD_CONTAINER_EXCLUDE_LOGS
+ value: "name:datadog-agent"
+ # (...)
+ ```
+
+ **Note** : Le réglage de `DD_CONTAINER_EXCLUDE_LOGS` empêche le Datadog Agent de collecter et d'envoyer ses propres journaux. Supprimez ce paramètre si vous souhaitez collecter les Datadog Agent journaux. Voir la [variable d'environnement pour ignorer les conteneurs][21] pour en savoir plus. Lorsque vous utilisez ImageStreams dans des environnements OpenShift, définissez `DD_CONTAINER_INCLUDE_LOGS` avec le conteneur `name` pour collecter les journaux. Ces deux valeurs de paramètres Exclure/Inclure prennent en charge les expressions régulières.
+
+2. Montez le volume `pointerdir` pour empêcher la perte de logs de conteneur lors des redémarrages ou en cas de problèmes réseau. Montez également `/var/lib/docker/containers` pour recueillir des logs via le fichier de logs Kubernetes, car `/var/log/pods` est un lien symbolique vers ce répertoire :
+
+ ```yaml
+ # (...)
+ volumeMounts:
+ # (...)
+ - name: pointerdir
+ mountPath: /opt/datadog-agent/run
+ - name: logpodpath
+ mountPath: /var/log/pods
+ # Docker runtime directory, replace this path
+ # with your container runtime logs directory,
+ # or remove this configuration if `/var/log/pods`
+ # is not a symlink to any other directory.
+ - name: logcontainerpath
+ mountPath: /var/lib/docker/containers
+ # (...)
+ volumes:
+ # (...)
+ - hostPath:
+ path: /opt/datadog-agent/run
+ name: pointerdir
+ - hostPath:
+ path: /var/log/pods
+ name: logpodpath
+ # Docker runtime directory, replace this path
+ # with your container runtime logs directory,
+ # or remove this configuration if `/var/log/pods`
+ # is not a symlink to any other directory.
+ - hostPath:
+ path: /var/lib/docker/containers
+ name: logcontainerpath
+ # (...)
+ ```
+
+ Le `pointerdir` est utilisé pour stocker un fichier avec un pointeur vers tous les conteneurs à partir desquels l'Agent recueille des logs. Ce volume permet de s'assurer qu'aucun log n'est perdu lorsque l'Agent est redémarré ou lors d'un problème réseau.
+
+### Sans privilèges
+
+(Facultatif) Pour exécuter une installation sans privilèges, ajoutez le bloc suivant à votre [modèle de pod][2] :
+
+```yaml
+ spec:
+ securityContext:
+ runAsUser:
+ supplementalGroups:
+ -
+```
+
+`` correspond à l'UID utilisé pour exécuter l'agent et `` à l'ID du groupe auquel appartient le socket containerd ou docker.
+
+Lorsque l'Agent s'exécute avec un utilisateur non root, il ne peut pas lire directement les fichiers de log contenus dans `/var/lib/docker/containers`. Dans la plupart des cas, il est nécessaire de monter le socket Docker sur le conteneur de l'Agent, afin de pouvoir récupérer les logs du conteneur depuis le daemon Docker.
+
+
+
+### Collecte d'événements de l'Agent de cluster
+
+Si vous souhaitez que les événements Kubernetes soient collectés par l'Agent de cluster de Datadog, suivez les étapes suivantes :
+
+1. Désactivez l'élection de leader dans votre Agent de nœud en définissant la variable `leader_election` ou la variable d'environnement `DD_LEADER_ELECTION` sur `false`.
+
+2. Dans le fichier de déploiement de l'Agent de cluster, définissez les variables d'environnement `DD_COLLECT_KUBERNETES_EVENTS` et `DD_LEADER_ELECTION` sur `true` :
+
+ ```yaml
+ - name: DD_COLLECT_KUBERNETES_EVENTS
+ value: "true"
+ - name: DD_LEADER_ELECTION
+ value: "true"
+ ```
+
+En configurant l'élection de leader conformément aux étapes ci-dessus, vous aurez l'assurance que la collecte des événements est assurée par un seul Agent de cluster.
+
+Pour recueillir les événements Kubernetes avec un Agent de nœud, il est également possible de définir les variables d'environnement `DD_COLLECT_KUBERNETES_EVENTS` et `DD_LEADER_ELECTION` sur `true` dans le manifeste de votre Agent.
+
+```yaml
+- name: DD_COLLECT_KUBERNETES_EVENTS
+ value: "true"
+- name: DD_LEADER_ELECTION
+ value: "true"
+```
+
+## Variables d'environnement
+
+Voici la liste des variables d'environnement disponibles pour l'Agent Datadog qui utilise un DaemonSet.
+
+### Options globales
+
+| Variable d'environnement | Rôle |
+|----------------------|--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
+| `DD_API_KEY` | Votre clé d'API Datadog (**obligatoire**). |
+| `DD_ENV` | Définit le tag `env` global pour toutes les données émises. |
+| `DD_HOSTNAME` | Le hostname à utiliser pour les métriques (si la détection automatique échoue). |
+| `DD_TAGS` | Tags de host séparés par des espaces. Exemple : `tag-simple-0 clé-tag-1:valeur-tag-1`. |
+| `DD_SITE` | Le site auquel vous transmettez vos métriques, traces et logs. Votre `DD_SITE` est {{< region-param key="dd_site" code="true">}}. Valeur par défaut : `datadoghq.com`. |
+| `DD_DD_URL` | Paramètre facultatif pour remplacer l'URL utilisée pour l'envoi de métriques. |
+| `DD_URL` (versions 6.36/7.36 ou ultérieures) | Alias de `DD_DD_URL`. Ignoré si la valeur `DD_DD_URL` est déjà définie. |
+| `DD_CHECK_RUNNERS` | Par défaut, l'Agent exécute tous les checks simultanément (valeur par défaut : `4` runners). Pour exécuter les checks de manière séquentielle, définissez la valeur sur `1`. Si vous devez exécuter un grand nombre de checks (ou plusieurs checks lents), le composant `collector-queue` peut prendre du retard, ce qui entraîne l'échec potentiel du check de santé. Vous pouvez accroître le nombre de runners pour exécuter davantage de checks en parallèle. |
+| `DD_LEADER_ELECTION` | Si vous exécutez plusieurs instances de l'Agent dans votre cluster, définissez cette variable sur `true` pour éviter de recueillir deux fois chaque événement. |
+
+### Paramètres de proxy
+
+Depuis la version 6.4.0 de l'Agent (et 6.5.0 de l'Agent de trace), vous pouvez remplacer les paramètres de proxy de l'Agent via les variables d'environnement suivantes :
+
+| Variable d'environnement | Rôle |
+|--------------------------|------------------------------------------------------------------------|
+| `DD_PROXY_HTTP` | URL HTTP à utiliser comme proxy pour les requêtes `http`. |
+| `DD_PROXY_HTTPS` | URL HTTPS à utiliser comme proxy pour les requêtes `https`. |
+| `DD_PROXY_NO_PROXY` | Liste d'URL, séparées par des espaces, pour lesquelles aucun proxy ne doit être utilisé. |
+| `DD_SKIP_SSL_VALIDATION` | Option permettant de tester si l'Agent a des difficultés à se connecter à Datadog. |
+
+Pour en savoir plus sur les paramètres de proxy, consultez la [documentation sur les proxys de l'Agent v6][23].
+
+
+
+### DogStatsD (métriques custom)
+
+Envoyer des métriques custom avec [le protocole StatsD][24] :
+
+| Variable d'environnement | Rôle |
+|----------------------------------|------------------------------------------------------------------------------------------------------------------------------------------------------------|
+| `DD_DOGSTATSD_NON_LOCAL_TRAFFIC` | Effectue une écoute des paquets DogStatsD issus d'autres conteneurs (requis pour envoyer des métriques custom). |
+| `DD_HISTOGRAM_PERCENTILES` | Les centiles à calculer pour l'histogramme (séparés par des espaces). Valeur par défaut : `0.95`. |
+| `DD_HISTOGRAM_AGGREGATES` | Les agrégations à calculer pour l'histogramme (séparées par des espaces). Valeur par défaut : `"max median avg count"`. |
+| `DD_DOGSTATSD_SOCKET` | Le chemin vers le socket Unix à écouter. Doit être dans le volume `rw` monté. |
+| `DD_DOGSTATSD_ORIGIN_DETECTION` | Active la détection des conteneurs et le tagging pour les métriques de socket Unix. |
+| `DD_DOGSTATSD_TAGS` | Les tags supplémentaires à ajouter à l'ensemble des métriques, événements et checks de service reçus par ce serveur DogStatsD. Exemple : `"env:golden group:retrievers"`. |
+
+En savoir plus sur [DogStatsD via les sockets de domaine Unix][25].
+
+### Tags
+
+Datadog recueille automatiquement les tags courants à partir de Kubernetes. Pour extraire des tags supplémentaires, utilisez les options suivantes :
+
+| Variable d'environnement | Rôle |
+|-----------------------------------------|-------------------------|
+| `DD_KUBERNETES_POD_LABELS_AS_TAGS` | Permet d'extraire les étiquettes de pod. |
+| `DD_KUBERNETES_POD_ANNOTATIONS_AS_TAGS` | Extrait les annotations de pod. |
+
+Consultez la documentation sur l'[extraction de tags Kubernetes][26] pour en savoir plus.
+
+### Ignorer des conteneurs
+
+Vous pouvez exclure des conteneurs de la collecte de logs, de la collecte de métriques et d'Autodiscovery. Par défaut, Datadog exclut les conteneurs `pause` de Kubernetes et d'OpenShift. Ces listes d'inclusion et d'exclusion s'appliquent uniquement à Autodiscovery. Elles n'ont aucun impact sur les traces ni sur DogStatsD. Il est possible d'utiliser des expressions régulières pour les valeurs de ces variables d'environnement.
+
+| Variable d'environnement | Rôle |
+|--------------------------------|------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
+| `DD_CONTAINER_INCLUDE` | Liste des conteneurs à inclure (séparés par des espaces). Utilisez `.*` pour tous les inclure. Exemple : `"image:nom_image_1 image:nom_image_2"`, `image:.*`. |
+| `DD_CONTAINER_EXCLUDE` | Liste des conteneurs à exclure (séparés par des espaces). Utilisez `.*` pour tous les exclure. Exemple : `"image:nom_image_3 image:nom_image_4"`, `image:.*`. |
+| `DD_CONTAINER_INCLUDE_METRICS` | Liste des conteneurs dont vous souhaitez inclure les métriques. |
+| `DD_CONTAINER_EXCLUDE_METRICS` | Liste des conteneurs dont vous souhaitez exclure les métriques. |
+| `DD_CONTAINER_INCLUDE_LOGS` | Liste des conteneurs dont vous souhaitez inclure les logs. |
+| `DD_CONTAINER_EXCLUDE_LOGS` | Liste des conteneurs dont vous souhaitez exclure les logs. |
+| `DD_AC_INCLUDE` | **Obsolète**. Liste des conteneurs à inclure (séparés par des espaces). Utilisez `.*` pour tous les inclure. Exemple : `"image:nom_image_1 image:nom_image_2"`, `image:.*`. |
+| `DD_AC_EXCLUDE` | **Obsolète**. Liste des conteneurs à exclure (séparés par des espaces). Utilisez `.*` pour tous les exclure. Exemple : `"image:nom_image_3 image:nom_image_4"` (cette variable est seulement traitée pour Autodiscovery), `image:.*`. |
+
+Des exemples supplémentaires sont disponibles sur la page [Gestion de la découverte de conteneurs][27].
+
+**Remarque** : ces paramètres n'ont aucun effet sur les métriques `kubernetes.containers.running`, `kubernetes.pods.running`, `docker.containers.running`, `.stopped`, `.running.total` et `.stopped.total`, qui prennent en compte l'ensemble des conteneurs.
+
+### Autodiscovery
+
+| Variable d'environnement | Rôle |
+|------------------------------|--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
+| `DD_LISTENERS` | Écouteurs Autodiscovery à exécuter. |
+| `DD_EXTRA_LISTENERS` | Les écouteurs Autodiscovery supplémentaires à exécuter. Ils s'ajoutent aux variables définies dans la section `listeners` du fichier de configuration `datadog.yaml`. |
+| `DD_CONFIG_PROVIDERS` | Les fournisseurs que l'Agent doit appeler pour collecter les configurations de checks. Les fournisseurs disponibles sont :
`kubelet` - Gère les modèles intégrés dans les annotations de pod.
`docker` - Gère les modèles intégrés dans les étiquettes de conteneur.
`clusterchecks` - Récupère les configurations de checks au niveau du cluster depuis l'Agent de cluster.
`kube_services` - Surveille les services Kubernetes pour les checks de cluster. |
+| `DD_EXTRA_CONFIG_PROVIDERS` | Les fournisseurs de configuration Autodiscovery supplémentaires à utiliser. Ils s'ajoutent aux variables définies dans la section `config_providers` du fichier de configuration `datadog.yaml`. |
+
+### Divers
+
+| Variable d'environnement | Rôle |
+|-------------------------------------|---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
+| `DD_PROCESS_AGENT_CONTAINER_SOURCE` | Remplace la détection automatique de la source de conteneur pour forcer une source unique. Exemple : `"docker"`, `"ecs_fargate"`, `"kubelet"`. Cela n'est plus nécessaire depuis l'Agent v7.35.0. |
+| `DD_HEALTH_PORT` | Définissez cette variable sur `5555` pour exposer le check de santé de l'Agent sur le port `5555`. |
+| `DD_CLUSTER_NAME` | Définissez un identifiant de cluster Kubernetes personnalisé pour éviter les conflits entre les alias de host. Le nom du cluster peut contenir jusqu'à 40 caractères correspondants à des lettres minuscules, des chiffres et des traits d'union. Il doit également commencer par une lettre et se terminer par un chiffre ou une lettre. |
+
+
+[1]: https://kubernetes.io/docs/concepts/configuration/assign-pod-node/#nodeselector
+[2]: /resources/yaml/datadog-agent-all-features.yaml
+[3]: /resources/yaml/datadog-agent-windows-all-features.yaml
+[4]: /resources/yaml/datadog-agent-logs-apm.yaml
+[5]: /resources/yaml/datadog-agent-windows-logs-apm.yaml
+[6]: /resources/yaml/datadog-agent-logs.yaml
+[7]: /resources/yaml/datadog-agent-windows-logs.yaml
+[8]: /resources/yaml/datadog-agent-apm.yaml
+[9]: /resources/yaml/datadog-agent-windows-apm.yaml
+[10]: /resources/yaml/datadog-agent-npm.yaml
+[11]: /resources/yaml/datadog-agent-vanilla.yaml
+[12]: /resources/yaml/datadog-agent-windows-vanilla.yaml
+[13]: /fr/agent/kubernetes/apm/#setup
+[14]: /fr/agent/kubernetes/log/
+[15]: /fr/agent/kubernetes/apm/
+[16]: /fr/infrastructure/process/?tab=kubernetes#installation
+[17]: /fr/network_monitoring/cloud_network_monitoring/setup/
+[18]: /fr/data_security/agent/
+[19]: https://app.datadoghq.com/organization-settings/api-keys
+[20]: /fr/getting_started/site/
+[21]: /fr/agent/docker/?tab=standard#ignore-containers
+[22]: /fr/containers/kubernetes/log
+[23]: /fr/agent/configuration/proxy/#agent-v6
+[24]: /fr/developers/dogstatsd/
+[25]: /fr/developers/dogstatsd/unix_socket/
+[26]: /fr/containers/kubernetes/tag/
+[27]: /fr/agent/guide/autodiscovery-management/
\ No newline at end of file
diff --git a/content/fr/containers/guide/operator-advanced.md b/content/fr/containers/guide/operator-advanced.md
new file mode 100644
index 00000000000..30d04da7946
--- /dev/null
+++ b/content/fr/containers/guide/operator-advanced.md
@@ -0,0 +1,148 @@
+---
+aliases:
+- /fr/agent/guide/operator-advanced
+description: Options avancées de configuration et de déploiement pour l'opérateur
+ Datadog sur Kubernetes et OpenShift
+further_reading:
+- link: agent/kubernetes/log
+ tag: Documentation
+ text: Datadog et Kubernetes
+title: Configuration avancée de l'Operator Datadog
+---
+
+[L'Operator Datadog][1] est une fonctionnalité permettant de déployer l'Agent Datadog sur Kubernetes et OpenShift. L'Operator transmet des données sur le statut, la santé et les erreurs du déploiement dans le statut de sa ressource personnalisée. Ses paramètres de niveau supérieur permettent également de réduire les erreurs de configuration.
+
+## Prérequis
+
+L'utilisation de l'Operator Datadog nécessite les prérequis suivants :
+
+- **Version de cluster Kubernetes >= v1.20.X** : les tests ont été effectués sur les versions >= `1.20.0`. Néanmoins, cela devrait fonctionner sur les versions `>= v1.11.0`. Pour les versions antérieures, en raison d'une prise en charge limitée des CRD, l'opérateur peut ne pas fonctionner comme prévu.
+- [`Helm`][2] pour le déploiement de `datadog-operator`.
+- [Interface de ligne de commande `Kubectl`][3] pour l'installation de `datadog-agent`.
+
+## Déployer l'Operator Datadog
+
+Pour faciliter l'exécution des commandes, définir une variable d'environnement appelée `DD_NAMESPACE` dans votre shell.
+Pour utiliser l'opérateur Datadog, déployer ce dernier dans votre cluster Kubernetes. Ensuite, créer une ressource Kubernetes `DatadogAgent` contenant la configuration de déploiement Datadog :
+
+1. Ajoutez le référentiel du Helm Datadog :
+ ```
+ helm repo add datadog https://helm.datadoghq.com
+ ```
+
+2. Installez l'Operator Datadog :
+ ```
+ helm install my-datadog-operator datadog/datadog-operator -n $DD_NAMESPACE
+ ```
+
+## Déployer les Agents Datadog avec l'Operator
+
+Après avoir déployé l'Operator Datadog, créez la ressource `DatadogAgent` qui déclenche le déploiement de l'Agent Datadog dans votre cluster Kubernetes. Lorsque cette ressource est créée dans l'espace de nommage `Datadog-Operator`, l'Agent est déployé en tant que `DaemonSet` sur chaque `Node` de votre cluster.
+
+Créez le manifeste `datadog-agent.yaml` à partir de l'un des modèles suivants :
+
+* [Manifeste avec activation des logs, de l'APM, des processus et de la collecte des métriques][4]
+* [Manifeste avec activation des logs, de l'APM et de la collecte des métriques][5]
+* [Manifeste avec activation de l'APM et de la collecte des métriques][7]
+* [Manifeste avec Agent de cluster][8]
+* [Manifeste avec tolérances][9]
+
+Remplacez `` et `` par vos [clés d'API et d'application Datadog][10], puis lancez l'installation de l'Agent avec la commande suivante :
+
+```shell
+$ kubectl apply -n $DD_NAMESPACE -f datadog-agent.yaml
+datadogagent.datadoghq.com/datadog created
+```
+
+Vous pouvez vérifier l'état de la ressource `DatadogAgent` avec ce qui suit :
+
+```shell
+kubectl get -n $DD_NAMESPACE dd datadog
+
+NAME ACTIVE AGENT CLUSTER-AGENT CLUSTER-CHECKS-RUNNER AGE
+datadog-agent True Running (2/2/2) 110m
+```
+
+Dans un cluster comportant 2 nœuds worker, les pods de l'Agent créés devraient s'afficher sur chaque nœud.
+
+```shell
+$ kubectl get -n $DD_NAMESPACE daemonset
+NAME DESIRED CURRENT READY UP-TO-DATE AVAILABLE NODE SELECTOR AGE
+datadog-agent 2 2 2 2 2 5m30s
+
+$ kubectl get -n $DD_NAMESPACE pod -owide
+NAME READY STATUS RESTARTS AGE IP NODE
+agent-datadog-operator-d897fc9b-7wbsf 1/1 Running 0 1h 10.244.2.11 kind-worker
+datadog-agent-k26tp 1/1 Running 0 5m59s 10.244.2.13 kind-worker
+datadog-agent-zcxx7 1/1 Running 0 5m59s 10.244.1.7 kind-worker2
+```
+
+
+## Nettoyage
+
+La commande suivante permet de supprimer toutes les ressources Kubernetes créées par les instructions ci-dessus :
+
+```shell
+kubectl delete datadogagent datadog
+helm delete my-datadog-operator -n $DD_NAMESPACE
+```
+
+Il est important de supprimer la ressource `DatadogAgent` et de laisser l'opérateur effectuer un nettoyage. Lorsque la ressource `DatadogAgent` est créée dans un cluster, l'opérateur ajoute un finalisateur pour empêcher la suppression jusqu'à ce qu'il termine le nettoyage des ressources qu'il a créées. Si l'opérateur est désinstallé en premier, les tentatives de suppression de la ressource `DatadogAgent` sont bloquées indéfiniment ; cela bloquera également la suppression de l'espace de nommage. Une solution de contournement dans cette situation consiste à supprimer la valeur `metadata.finalizers` de la ressource `DatadogAgent`.
+
+### Tolérances
+
+Mettez à jour votre fichier `datadog-agent.yaml` avec la configuration suivante pour ajouter la tolérance dans le `Daemonset.spec.template` de votre `DaemonSet` :
+
+```yaml
+kind: DatadogAgent
+apiVersion: datadoghq.com/v2alpha1
+metadata:
+ name: datadog
+spec:
+ global:
+ credentials:
+ apiKey:
+ appKey:
+ override:
+ nodeAgent:
+ image:
+ name: gcr.io/datadoghq/agent:latest
+ tolerations:
+ - operator: Exists
+```
+
+Appliquez cette nouvelle configuration :
+
+```shell
+$ kubectl apply -f datadog-agent.yaml
+datadogagent.datadoghq.com/datadog updated
+```
+
+La mise à jour du DaemonSet peut être validée en observant la nouvelle valeur de pod souhaitée :
+
+```shell
+$ kubectl get -n $DD_NAMESPACE daemonset
+NAME DESIRED CURRENT READY UP-TO-DATE AVAILABLE NODE SELECTOR AGE
+datadog-agent 3 3 3 3 3 7m31s
+
+$ kubectl get -n $DD_NAMESPACE pod
+NAME READY STATUS RESTARTS AGE
+agent-datadog-operator-d897fc9b-7wbsf 1/1 Running 0 15h
+datadog-agent-5ctrq 1/1 Running 0 7m43s
+datadog-agent-lkfqt 0/1 Running 0 15s
+datadog-agent-zvdbw 1/1 Running 0 8m1s
+```
+
+## Pour aller plus loin
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: https://github.com/DataDog/datadog-operator
+[2]: https://helm.sh
+[3]: https://kubernetes.io/docs/tasks/tools/install-kubectl/
+[4]: https://github.com/DataDog/datadog-operator/blob/main/examples/datadogagent/datadog-agent-all.yaml
+[5]: https://github.com/DataDog/datadog-operator/blob/main/examples/datadogagent/datadog-agent-with-logs-apm.yaml
+[7]: https://github.com/DataDog/datadog-operator/blob/main/examples/datadogagent/datadog-agent-with-apm-hostport.yaml
+[8]: https://github.com/DataDog/datadog-operator/blob/main/examples/datadogagent/datadog-agent-with-clusteragent.yaml
+[9]: https://github.com/DataDog/datadog-operator/blob/main/examples/datadogagent/datadog-agent-with-tolerations.yaml
+[10]: https://app.datadoghq.com/organization-settings/api-keys
\ No newline at end of file
diff --git a/content/fr/containers/guide/operator-eks-addon.md b/content/fr/containers/guide/operator-eks-addon.md
index 0e6a92ee984..cb45a4ecf84 100644
--- a/content/fr/containers/guide/operator-eks-addon.md
+++ b/content/fr/containers/guide/operator-eks-addon.md
@@ -1,6 +1,8 @@
---
aliases:
- /fr/agent/guide/operator-eks-addon
+description: Installer et configurer l'Agent Datadog sur Amazon EKS en utilisant l'opérateur
+ Datadog comme add-on EKS
further_reading:
- link: agent/kubernetes/log
tag: Documentation
@@ -8,6 +10,10 @@ further_reading:
title: Installer l'Agent Datadog sur Amazon EKS avec l'Operator Datadog
---
+À partir de la v0.1.9, l'add-on de l'opérateur Datadog prend en charge l'injection automatique de sidecar de l'Agent dans les pods planifiés sur des instances Fargate. Consultez
ce guide pour plus de détails.
+
+
+
Vous pouvez installer l'Agent Datadog sur un cluster Amazon EKS. Pour ce faire, installez l'[Operator Datadog](/containers/datadog_operator) en tant que [module complémentaire Amazon EKS](https://docs.aws.amazon.com/eks/latest/userguide/eks-add-ons.html) et appliquez le manifeste `DatadogAgent`.
Les Agents installés avec l'Operator en tant que module complémentaire recueillent uniquement les données des pods exécutés sur des instances EC2. Pour les pods exécutés sur AWS Fargate, reportez-vous à la [documentation d'Amazon EKS relative à AWS Fargate][10].
@@ -38,12 +44,12 @@ Ces restrictions sont nécessaires pour rendre l'Operator conforme aux politique
Pour installer l'Operator en tant que module, exécutez :
```bash
- aws eks create-addon --addon-name datadog_operator --region --cluster-name
+ aws eks create-addon --addon-name datadog_operator --region --cluster-name
```
Le processus d'installation est asynchrone. Pour vérifier le statut de l'installation, exécutez :
```bash
- aws eks describe-addon --addon-name datadog_operator --region --cluster-name
+ aws eks describe-addon --addon-name datadog_operator --region --cluster-name
```
{{% /tab %}}
{{< /tabs >}}
@@ -79,7 +85,7 @@ Suivez les instructions pour configurer l'Agent Datadog en utilisant la ressourc
global:
# Required in case the Agent cannot resolve the cluster name through IMDS. See the note below.
clusterName:
- registry: 709825985650.dkr.ecr.us-east-1.amazonaws.com/datadog
+ registry:
credentials:
apiSecret:
secretName: datadog-secret
@@ -127,7 +133,7 @@ Vérifiez que toutes les ressources de l'Agent ont été supprimées et continue
Pour supprimer le module, exécutez :
```bash
- aws eks delete-addon --addon-name datadog_operator --region --cluster-name
+ aws eks delete-addon --addon-name datadog_operator --region --cluster-name
```
{{% /tab %}}
diff --git a/content/fr/containers/guide/sync_container_images.md b/content/fr/containers/guide/sync_container_images.md
new file mode 100644
index 00000000000..3aaa22245a2
--- /dev/null
+++ b/content/fr/containers/guide/sync_container_images.md
@@ -0,0 +1,58 @@
+---
+aliases:
+- /fr/agent/guide/sync_container_images
+description: Synchroniser les images de conteneurs Datadog depuis les registres publics
+ vers votre registre privé à l'aide de Crane ou d'outils similaires
+title: Synchroniser les images Datadog avec un registre privé
+---
+
+Datadog publie des images de conteneurs dans plusieurs registres de conteneurs publics. Bien que cela soit pratique pour de nombreux utilisateurs, certaines organisations peuvent souhaiter utiliser un registre de conteneurs privé. Ce guide explique comment synchroniser les images de conteneurs Datadog vers un registre privé.
+
+{{% container-images-table %}}
+
+## Synchroniser les images vers votre registre privé
+
+### Utiliser Crane
+
+[Crane][1] est un outil créé par Google pour gérer les images et les registres de conteneurs et peut être utilisé pour synchroniser les images entre différents registres de conteneurs. Pour en savoir plus sur Crane, consultez la [documentation Crane][2].
+
+#### Installer Crane
+
+Pour obtenir des instructions détaillées sur l'installation de Crane, consultez le [fichier README.md de Crane][1].
+
+#### Copier une image vers un autre registre à l'aide de Crane
+
+Crane peut copier des images entre différents registres de conteneurs tout en préservant le condensé de l'image.
+
+Cela signifie que la copie conserve le même manifeste et fonctionne avec les images multiplateformes.
+
+Pour copier une image d'un registre vers un autre, utiliser la commande `crane copy`.
+
+```shell
+crane copy /: /:
+```
+
+Vous pouvez utiliser le flag `-n` pour éviter d'écraser un tag existant dans le registre de destination.
+
+Par exemple, pour copier les images par défaut nécessaires à l'opérateur Datadog depuis Docker Hub vers un registre privé :
+```shell
+AGENT_VERSION=
+OPERATOR_VERSION=
+REGISTRY=
+crane copy gcr.io/datadoghq/operator:$OPERATOR_VERSION $REGISTRY/operator:$OPERATOR_VERSION
+crane copy gcr.io/datadoghq/agent:$AGENT_VERSION $REGISTRY/agent:$AGENT_VERSION
+crane copy gcr.io/datadoghq/cluster-agent:$AGENT_VERSION $REGISTRY/cluster-agent:$AGENT_VERSION
+```
+
+## Utiliser un registre privé
+
+Une fois que vous avez synchronisé les images, vous pouvez utiliser ce guide pour [modifier le registre de conteneurs][3] utilisé par votre environnement.
+
+**Remarque** : si vous utilisez votre registre privé, vous devrez peut-être créer un pull secret pour pouvoir extraire les images.
+Pour en savoir plus sur la création d'un pull secret, consultez la [documentation Kubernetes][4].
+
+
+[1]: https://github.com/google/go-containerregistry/tree/main/cmd/crane
+[2]: https://github.com/google/go-containerregistry/blob/main/cmd/crane/doc/crane.md
+[3]: https://docs.datadoghq.com/fr/containers/guide/changing_container_registry
+[4]: https://kubernetes.io/docs/tasks/configure-pod-container/pull-image-private-registry/#registry-secret-existing-credentials
\ No newline at end of file
diff --git a/content/fr/containers/guide/template_variables.md b/content/fr/containers/guide/template_variables.md
index ac8aaebd8cc..810c53fcf2a 100644
--- a/content/fr/containers/guide/template_variables.md
+++ b/content/fr/containers/guide/template_variables.md
@@ -3,10 +3,15 @@ aliases:
- /fr/agent/autodiscovery/template_variables
- /fr/agent/faq/template_variables
- /fr/agent/guide/template_variables
+description: Guide de référence pour les variables de modèle disponibles dans la configuration
+ d'intégration Autodiscovery pour les environnements de conteneurs dynamiques
further_reading:
-- link: /agent/kubernetes/integrations/
+- link: /containers/kubernetes/integrations/
tag: Documentation
- text: Créer et charger un modèle d'intégration Autodiscovery
+ text: Configurer les intégrations avec Autodiscovery sur Kubernetes
+- link: /containers/docker/integrations/
+ tag: Documentation
+ text: Configurer les intégrations avec Autodiscovery sur Docker
- link: /agent/guide/ad_identifiers/
tag: Documentation
text: Associer un conteneur au modèle d'intégration correspondant
@@ -16,26 +21,28 @@ further_reading:
title: Template variables Autodiscovery
---
-Utilisez les template variables suivantes lors de la configuration d'Autodiscovery afin d'attribuer de façon dynamique les valeurs de votre conteneur :
-
-| Template variable | Description |
-| -------------------------- | --- |
-| `"%%host%%"` | Détecte automatiquement le réseau. Dans le cas des conteneurs à réseau unique, cette template variable renvoie l'adresse IP correspondante. |
-| `"%%host_%%"` | Indique le nom du réseau à utiliser, en cas d'association à plusieurs réseaux. |
-| `"%%port%%"` | Utilise le port exposé le plus élevé lorsque les ports sont **triés numériquement par ordre croissant**.
Exemple : `8443` pour un conteneur qui expose les ports `80`, `443` et `8443`. |
-| `"%%port_%%"` | Utilise le port `` **trié numériquement par ordre croissant**.
Exemple : si un conteneur expose les ports `80`, `443` et `8443`, `"%%port_0%%` correspond au port `80` et `"%%port_1%%"` au port `443`. |
-| `"%%port_%%"` | Utilise le port associé au nom du port ``. |
-| `"%%pid%%"` | Récupère l'ID du processus de conteneur renvoyé par `docker inspect --format '{{.State.Pid}}' `. |
-| `"%%hostname%%"` | Récupère la valeur `hostname` à partir de la configuration du conteneur. À n'utiliser que lorsque la variable `"%%host%%"` ne parvient pas à récupérer une adresse IP fiable (par exemple : [ECS en mode AWSVPC][1]). |
-| `"%%env_%%"` | Utilise le contenu de la variable d'environnement `$` **comme l'indique le processus de l'Agent**. |
-| `"%%kube_namespace%%"` | Détecte automatiquement l'espace de nommage Kubernetes. |
-| `"%%kube_pod_name%%"` | Détecte automatiquement le nom du pod Kubernetes. |
-| `"%%kube_pod_uid%%"` | Détecte automatiquement l'UID du pod Kubernetes. |
+[Autodiscovery][1] vous permet de définir des configurations statiques pour des ressources dynamiques comme les conteneurs.
+
+Vous pouvez utiliser les variables de modèle suivantes pour attribuer dynamiquement les valeurs de votre conteneur :
+
+| Template variable | Rôle |
+| -------------------------- | --- |
+| `"%%host%%"` | L'adresse IP réseau du conteneur. |
+| `"%%host_%%"` | Lorsque le conteneur est attaché à plusieurs réseaux, renvoie le nom de réseau à utiliser. |
+| `"%%port%%"` | Le port exposé le plus élevé **trié numériquement et par ordre croissant**.
Par exemple, renvoie `8443` pour un conteneur qui expose les ports `80`, `443` et `8443`. |
+| `"%%port_%%"` | Le port `` **trié numériquement et par ordre croissant**.
Par exemple, si un conteneur expose les ports `80`, `443` et `8443`, `"%%port_0%%` fait référence au port `80` et `"%%port_1%%"` fait référence au port `443`. |
+| `"%%port_%%"` | Le port associé au nom de port ``. |
+| `"%%pid%%"` | L'ID de processus du conteneur, tel que renvoyé par `docker inspect --format '{{.State.Pid}}' `. |
+| `"%%hostname%%"` | La valeur `hostname` de la configuration du conteneur. Utilisez cette variable uniquement si la variable `"%%host%%"` ne peut pas récupérer une adresse IP fiable (par exemple, en [mode ECS awsvpc][2]). |
+| `"%%env_%%"` | Le contenu de la variable d'environnement `$` **tel que vu par le processus de l'Agent**. |
+| `"%%kube_namespace%%"` | L'espace de nommage Kubernetes. |
+| `"%%kube_pod_name%%"` | Le nom de pod Kubernetes. |
+| `"%%kube_pod_uid%%"` | L'UID de pod Kubernetes. |
**Alternative** :
-* Pour `"%%host%%"` : si l'Agent n'est pas capable de la trouver, l'IP de réseau `bridge` est utilisée comme valeur alternative pour cette template variable.
-* Pour `"%%host_%%" : si le `` spécifié n'a pas été trouvé, cette template variable se comporte comme `"%%host%%"`.
+* Pour la variable de modèle `"%%host%%"` : si l'Agent n'est pas en mesure de trouver l'adresse IP, cette variable de modèle revient à l'adresse IP du réseau `bridge`.
+* Pour `"%%host_%%"` : si le `` spécifié est introuvable, cette variable de modèle se comporte comme `"%%host%%"`.
Les template variables ne sont pas toutes prises en charge, selon votre plateforme :
@@ -49,4 +56,5 @@ Les template variables ne sont pas toutes prises en charge, selon votre platefor
{{< partial name="whats-next/whats-next.html" >}}
-[1]: https://docs.aws.amazon.com/AmazonECS/latest/developerguide/task-networking.html
\ No newline at end of file
+[1]: /fr/getting_started/containers/autodiscovery
+[2]: https://docs.aws.amazon.com/AmazonECS/latest/developerguide/task-networking.html
\ No newline at end of file
diff --git a/content/fr/containers/guide/v2alpha1_migration.md b/content/fr/containers/guide/v2alpha1_migration.md
new file mode 100644
index 00000000000..e4d84cef843
--- /dev/null
+++ b/content/fr/containers/guide/v2alpha1_migration.md
@@ -0,0 +1,76 @@
+---
+dependencies:
+- https://github.com/DataDog/datadog-operator/blob/main/docs/v2alpha1_migration.md
+title: Migrer les CRD DatadogAgent vers v2alpha1
+---
+Cette page explique comment convertir vos Custom Resources Definitions (CRD) DatadogAgent de `v1alpha1` vers la version `v2alpha1` utilisée par l'opérateur Datadog v1.0.0+.
+
+## Prérequis
+
+* Avoir terminé la migration du chart Helm de l'opérateur Datadog v1.0.0+. Pour plus de détails, consultez le [guide de migration][1].
+* Exécuter `cert-manager` avec `installCRDs` défini sur `true` :
+ ```shell
+ helm install \
+ cert-manager jetstack/cert-manager \
+ --version v1.11.0 \
+ --set installCRDs=true
+ ```
+* Exécuter l'opérateur Datadog v1.0.0+ avec le Conversion Webhook Server activé :
+ ```shell
+ helm install \
+ datadog-operator datadog/datadog-operator \
+ --set image.tag=1.0.0 \
+ --set datadogCRDs.migration.datadogAgents.version=v2alpha1 \
+ --set datadogCRDs.migration.datadogAgents.useCertManager=true \
+ --set datadogCRDs.migration.datadogAgents.conversionWebhook.enabled=true
+ ```
+
+## Convertir DatadogAgent/v1alpha1 en DatadogAgent/v2alpha1
+
+L'opérateur Datadog exécute un réconciliateur pour les objets v2alpha1 et démarre également un Conversion Webhook Server, exposé sur le port 9443. L'API Server utilise ce serveur pour convertir les CRD DatadogAgent v1alpha1 en v2alpha1.
+
+1. Transférer un port local vers le Conversion Webhook Server exposé sur le port 9443 :
+
+ ```shell
+ kubectl port-forward 2345:9443
+ ```
+
+2. Enregistrez une définition DatadogAgent `v1alpha1` au format JSON. Vous pouvez utiliser un outil comme `yq`.
+
+3. Exécuter une commande `curl` ciblant l'endpoint `/convert` avec votre JSON DatadogAgent.v1alpha1 :
+
+ ``` shell
+ curl -k https://localhost:2345/convert -X POST -d '{"request":{"uid":"123", "desiredAPIVersion":"datadoghq.com/v2alpha1", "objects":[{
+ "apiVersion": "datadoghq.com/v1alpha1",
+ "kind": "DatadogAgent",
+ "metadata": {
+ "name": "datadog"
+ },
+ "spec": {
+ "credentials": {
+ "apiKey": "DATADOG_API_KEY",
+ "appKey": "DATADOG_APP_KEY"
+ }
+ }
+ }]}}'
+ ```
+
+ Cela renvoie une réponse avec votre définition DatadogAgent `v2alpha1` convertie :
+
+ ```yaml
+ kind: DatadogAgent
+ apiVersion: datadoghq.com/v2alpha1
+ metadata:
+ name: datadog
+ creationTimestamp: null
+ spec:
+ features: {}
+ global:
+ credentials:
+ apiKey:
+ appKey:
+ status:
+ conditions: null
+ ```
+
+[1]: https://github.com/DataDog/helm-charts/blob/main/charts/datadog-operator/README.md#migrating-to-the-version-10-of-the-datadog-operator
\ No newline at end of file
diff --git a/content/fr/containers/kubernetes/control_plane.md b/content/fr/containers/kubernetes/control_plane.md
index 9a2ff2bb124..6844043ae20 100644
--- a/content/fr/containers/kubernetes/control_plane.md
+++ b/content/fr/containers/kubernetes/control_plane.md
@@ -1,6 +1,8 @@
---
aliases:
- /fr/agent/kubernetes/control_plane
+description: Surveiller les composants du plan de contrôle Kubernetes, notamment l'API
+ Server, etcd, le Controller Manager et le Scheduler
further_reading:
- link: agent/kubernetes/log
tag: Documentation
@@ -33,8 +35,9 @@ Grâce aux intégrations Datadog pour le [serveur d'API][1], [Etcd][2], [Control
* [Kubernetes sur Amazon EKS](#EKS)
* [Kubernetes sur OpenShift 4](#OpenShift4)
* [Kubernetes sur OpenShift 3](#OpenShift3)
+* [Kubernetes sur Talos Linux](#TalosLinux)
* [Kubernetes sur Rancher Kubernetes Engine (version 2.5+)](#RKE)
-* [Kubernetes sur Rancher Kubernetes Engine (version antérieure à 2.5)](#RKEAvant2_5)
+* [Kubernetes on Rancher Kubernetes Engine (\}}
-{{% tab "Helm" %}}
-
-`values.yaml` personnalisé :
-
-```yaml
-datadog:
- apiKey:
- appKey:
- clusterName:
- kubelet:
- tlsVerify: false
- ignoreAutoConfig:
- - etcd
- confd:
- etcd.yaml: |-
- ad_identifiers:
- - etcd
- instances:
- - prometheus_url: https://%%host%%:2379/metrics
- tls_ca_cert: /host/etc/kubernetes/pki/etcd/ca.crt
- tls_cert: /host/etc/kubernetes/pki/etcd/server.crt
- tls_private_key: /host/etc/kubernetes/pki/etcd/server.key
-agents:
- volumes:
- - hostPath:
- path: /etc/kubernetes/pki/etcd
- name: etcd-certs
- volumeMounts:
- - name: etcd-certs
- mountPath: /host/etc/kubernetes/pki/etcd
- readOnly: true
- tolerations:
- - effect: NoSchedule
- key: node-role.kubernetes.io/master
- operator: Exists
-```
+{{% tab "Operator Datadog" %}}
-{{% /tab %}}
-{{% tab "Operator" %}}
-
-Ressource Kubernetes DatadogAgent :
-
-```yaml
+{{< code-block lang="yaml" filename="datadog-agent.yaml" >}}
kind: DatadogAgent
apiVersion: datadoghq.com/v2alpha1
metadata:
@@ -100,9 +63,9 @@ metadata:
spec:
global:
credentials:
- apiKey:
- appKey:
- clusterName:
+ apiKey:
+ appKey:
+ clusterName:
kubelet:
tlsVerify: false
override:
@@ -148,37 +111,20 @@ data:
tls_ca_cert: /host/etc/kubernetes/pki/etcd/ca.crt
tls_cert: /host/etc/kubernetes/pki/etcd/server.crt
tls_private_key: /host/etc/kubernetes/pki/etcd/server.key
-```
+{{< /code-block >}}
{{% /tab %}}
-{{< /tabs >}}
-
-### Controller Manager et Scheduler
-
-#### Ports non sécurisés
-
-Si les ports non sécurisés de vos instances Controller Manager et Scheduler sont activés, l'Agent Datadog découvre les intégrations et commence à recueillir des métriques sans nécessiter de configuration supplémentaire.
-
-#### Ports sécurisés
-
-Les ports sécurisés activent des processus d'authentification et d'autorisation afin de protéger les composants de votre plan de contrôle. L'Agent Datadog peut recueillir des métriques à partir de Controller Manager et Scheduler en ciblant leurs ports sécurisés.
-
-{{< tabs >}}
{{% tab "Helm" %}}
-`values.yaml` personnalisé :
-
-```yaml
+{{< code-block lang="yaml" filename="datadog-values.yaml" >}}
datadog:
- apiKey:
- appKey:
- clusterName:
+ apiKey:
+ appKey:
+ clusterName:
kubelet:
tlsVerify: false
ignoreAutoConfig:
- etcd
- - kube_scheduler
- - kube_controller_manager
confd:
etcd.yaml: |-
ad_identifiers:
@@ -188,20 +134,6 @@ datadog:
tls_ca_cert: /host/etc/kubernetes/pki/etcd/ca.crt
tls_cert: /host/etc/kubernetes/pki/etcd/server.crt
tls_private_key: /host/etc/kubernetes/pki/etcd/server.key
- kube_scheduler.yaml: |-
- ad_identifiers:
- - kube-scheduler
- instances:
- - prometheus_url: https://%%host%%:10259/metrics
- ssl_verify: false
- bearer_token_auth: true
- kube_controller_manager.yaml: |-
- ad_identifiers:
- - kube-controller-manager
- instances:
- - prometheus_url: https://%%host%%:10257/metrics
- ssl_verify: false
- bearer_token_auth: true
agents:
volumes:
- hostPath:
@@ -215,14 +147,26 @@ agents:
- effect: NoSchedule
key: node-role.kubernetes.io/master
operator: Exists
-```
+{{< /code-block >}}
{{% /tab %}}
-{{% tab "Operator" %}}
-Ressource Kubernetes DatadogAgent :
+{{< /tabs >}}
+
+### Controller Manager et Scheduler
-```yaml
+#### Ports non sécurisés
+
+Si les ports non sécurisés de vos instances Controller Manager et Scheduler sont activés, l'Agent Datadog découvre les intégrations et commence à collecter les métriques sans configuration supplémentaire.
+
+#### Ports sécurisés
+
+Les ports sécurisés activent des processus d'authentification et d'autorisation afin de protéger les composants de votre plan de contrôle. L'Agent Datadog peut recueillir des métriques à partir de Controller Manager et Scheduler en ciblant leurs ports sécurisés.
+
+{{< tabs >}}
+{{% tab "Operator Datadog" %}}
+
+{{< code-block lang="yaml" filename="datadog-agent.yaml" >}}
kind: DatadogAgent
apiVersion: datadoghq.com/v2alpha1
metadata:
@@ -230,9 +174,9 @@ metadata:
spec:
global:
credentials:
- apiKey:
- appKey:
- clusterName:
+ apiKey:
+ appKey:
+ clusterName:
kubelet:
tlsVerify: false
override:
@@ -300,9 +244,62 @@ data:
- prometheus_url: https://%%host%%:10257/metrics
ssl_verify: false
bearer_token_auth: true
-```
+{{< /code-block >}}
+
+{{% /tab %}}
+{{% tab "Helm" %}}
+
+{{< code-block lang="yaml" filename="datadog-values.yaml" >}}
+datadog:
+ apiKey:
+ appKey:
+ clusterName:
+ kubelet:
+ tlsVerify: false
+ ignoreAutoConfig:
+ - etcd
+ - kube_scheduler
+ - kube_controller_manager
+ confd:
+ etcd.yaml: |-
+ ad_identifiers:
+ - etcd
+ instances:
+ - prometheus_url: https://%%host%%:2379/metrics
+ tls_ca_cert: /host/etc/kubernetes/pki/etcd/ca.crt
+ tls_cert: /host/etc/kubernetes/pki/etcd/server.crt
+ tls_private_key: /host/etc/kubernetes/pki/etcd/server.key
+ kube_scheduler.yaml: |-
+ ad_identifiers:
+ - kube-scheduler
+ instances:
+ - prometheus_url: https://%%host%%:10259/metrics
+ ssl_verify: false
+ bearer_token_auth: true
+ kube_controller_manager.yaml: |-
+ ad_identifiers:
+ - kube-controller-manager
+ instances:
+ - prometheus_url: https://%%host%%:10257/metrics
+ ssl_verify: false
+ bearer_token_auth: true
+agents:
+ volumes:
+ - hostPath:
+ path: /etc/kubernetes/pki/etcd
+ name: etcd-certs
+ volumeMounts:
+ - name: etcd-certs
+ mountPath: /host/etc/kubernetes/pki/etcd
+ readOnly: true
+ tolerations:
+ - effect: NoSchedule
+ key: node-role.kubernetes.io/master
+ operator: Exists
+{{< /code-block >}}
{{% /tab %}}
+
{{< /tabs >}}
**Remarques :**
@@ -323,31 +320,255 @@ scheduler:
## Kubernetes sur Amazon EKS {#EKS}
-Sur Amazon Elastic Kubernetes Service (EKS), les [métriques du serveur d'API sont exposées][5]. Ainsi, l'Agent Datadog peut récupérer ces métriques à l'aide de checks d'endpoint, tel que décrit dans la [section relative aux checks de métriques du serveur d'API de Kubernetes][1]. Pour configurer le check, ajoutez les annotations suivantes au service `default/kubernetes` :
+### Méthode recommandée
+
+Cette fonctionnalité est en version Preview.
+
+Datadog prend en charge la surveillance des composants du plan de contrôle Kubernetes, notamment l'API Server, le Controller Manager et le Scheduler.
+
+{{< tabs >}}
+{{% tab "Operator Datadog" %}}
+
+#### Prérequis
+
+1. Opérateur Datadog >= `v1.18.0`
+1. Agent Datadog >= `v7.69`
+
+#### Configuration générale
+
+La surveillance du plan de contrôle est activée par défaut, mais nécessite l'activation de l'introspection.
+
+Vous pouvez activer l'introspection en utilisant le [chart Helm datadog-operator](https://github.com/DataDog/helm-charts/tree/main/charts/datadog-operator) :
+
+{{< code-block lang="yaml" filename="datadog-agent.yaml" >}}
+introspection:
+ enabled: true
+{{< /code-block >}}
+
+En utilisant la ligne de commande :
+```shell
+helm install datadog-operator datadog/datadog-operator --set introspection.enabled=true
+```
+
+Étant donné que cette fonctionnalité est activée par défaut, vous pouvez déployer une spec DatadogAgent minimale.
+
+{{% /tab %}}
+
+{{% tab "Helm" %}}
+
+#### Prérequis
+
+1. Version du chart Helm >= `3.150.0`
+1. Agent Datadog >= `v7.69`
+
+#### Configuration générale
+
+Activez la surveillance du plan de contrôle en utilisant l'option `providers.eks.controlPlaneMonitoring` :
+
+{{< code-block lang="yaml" filename="datadog-values.yaml" >}}
+datadog:
+ apiKey:
+ appKey:
+ clusterName:
+providers:
+ eks:
+ controlPlaneMonitoring: true
+{{< /code-block >}}
+
+{{% /tab %}}
+{{< /tabs >}}
+
+#### Validation
+Vérifier que les checks sont en cours d'exécution :
+```shell
+kubectl exec -- agent clusterchecks
+```
+
+Recherchez :
+- `kube_apiserver_metrics`
+- `kube_controller_manager`
+- `kube_scheduler`
+
+Vous devriez voir les métriques du plan de contrôle dans Datadog, notamment :
+- `kube_apiserver.*`
+- `kube_controller_manager.*`
+- `kube_scheduler.*`
+
+### Configuration héritée
+
+Amazon Elastic Kubernetes Service (EKS) prend en charge la surveillance de tous les composants du plan de contrôle à l'aide de cluster checks.
+
+#### Prérequis
+- Un cluster EKS exécutant Kubernetes version >= 1.28
+- Déployer l'Agent en utilisant l'un des éléments suivants :
+ - Version du chart Helm >= `3.90.1`
+ - Opérateur Datadog >= `v1.13.0`
+- Activez l'[Agent de cluster][6] Datadog.
+
+Ajouter les annotations suivantes au service `default/kubernetes` :
```yaml
annotations:
- ad.datadoghq.com/endpoints.check_names: '["kube_apiserver_metrics"]'
- ad.datadoghq.com/endpoints.init_configs: '[{}]'
- ad.datadoghq.com/endpoints.instances:
- '[{ "prometheus_url": "https://%%host%%:%%port%%/metrics", "bearer_token_auth": "true" }]'
+ ad.datadoghq.com/endpoints.checks: |-
+ {
+ "kube_apiserver_metrics": {
+ "init_config": {},
+ "instances": [
+ {
+ "prometheus_url": "https://%%host%%:%%port%%/metrics",
+ "bearer_token_auth": "true"
+ }
+ ]
+ }
+ }
+ ad.datadoghq.com/service.checks: |-
+ {
+ "kube_controller_manager": {
+ "init_config": {},
+ "instances": [
+ {
+ "prometheus_url": "https://%%host%%:%%port%%/apis/metrics.eks.amazonaws.com/v1/kcm/container/metrics",
+ "extra_headers": {"accept":"*/*"},
+ "bearer_token_auth": "true",
+ "tls_ca_cert": "/var/run/secrets/kubernetes.io/serviceaccount/ca.crt"
+ }
+ ]
+ },
+ "kube_scheduler": {
+ "init_config": {},
+ "instances": [
+ {
+ "prometheus_url": "https://%%host%%:%%port%%/apis/metrics.eks.amazonaws.com/v1/ksh/container/metrics",
+ "extra_headers": {"accept":"*/*"},
+ "bearer_token_auth": "true",
+ "tls_ca_cert": "/var/run/secrets/kubernetes.io/serviceaccount/ca.crt"
+ }
+ ]
+ }
+ }
```
-Les autres composants du plan de contrôle ne sont pas exposés dans EKS, et ne peuvent donc pas être surveillés.
-
+**Remarques :**
+- Amazon expose les métriques `kube_controller_manager` et `kube_scheduler` sous le groupe d'API [`metrics.eks.amazonaws.com`][11].
+- L'ajout de `"extra_headers":{"accept":"*/*"}` empêche les erreurs `HTTP 406` lors de l'interrogation de l'API de métriques EKS.
## Kubernetes sur OpenShift 4 {#OpenShift4}
+Cette fonctionnalité est en version Preview.
+
+Datadog prend en charge la surveillance des composants du plan de contrôle Kubernetes, notamment l'API Server, etcd, le Controller Manager et le Scheduler.
+
+{{< tabs >}}
+{{% tab "Operator Datadog" %}}
+
+#### Prérequis
+
+1. Opérateur Datadog >= `v1.18.0`
+1. Agent Datadog >= `v7.69`
+
+**Remarque** : `etcd` n'est pas pris en charge sur les versions 4.0-4.13.
+
+#### Configuration générale
+
+La surveillance du plan de contrôle est activée par défaut, mais nécessite l'activation de l'introspection.
+
+Vous pouvez activer l'introspection en utilisant le [chart Helm datadog-operator][12] :
+
+{{< code-block lang="yaml" filename="datadog-agent.yaml" >}}
+introspection:
+ enabled: true
+{{< /code-block >}}
+
+En utilisant la ligne de commande :
+```shell
+helm install datadog-operator datadog/datadog-operator --set introspection.enabled=true
+```
+
+Ou, pour les **utilisateurs d'OpenShift** qui ont installé l'opérateur via OperatorHub/Marketplace (la [méthode recommandée](install-openshift.md)), en patchant la version de service de cluster de l'opérateur :
+
+```shell
+oc patch csv -n \
+ --type='json' \
+ -p='[{"op": "add", "path": "/spec/install/spec/deployments/0/spec/template/spec/containers/0/args/-", "value": "--introspectionEnabled=true"}]'
+```
+
+Étant donné que cette fonctionnalité est activée par défaut, vous pouvez déployer une spec DatadogAgent minimale.
+
+Activer `features.clusterChecks.useClusterChecksRunners` pour planifier les checks ici ; sinon, les checks du plan de contrôle s'exécutent sur l'Agent de nœud.
+
+Pour OpenShift 4.14 et versions ultérieures, la surveillance etcd nécessite de copier les certificats etcd. Vérifiez les logs de l'opérateur pour obtenir la commande exacte. Consultez l'exemple suivant (ajustez l'espace de nommage si nécessaire) :
+
+```shell
+oc get secret etcd-metric-client -n openshift-etcd-operator -o yaml | \
+ sed 's/namespace: openshift-etcd-operator/namespace: datadog/' | \
+ oc apply -f -
+```
+
+[12]: https://github.com/DataDog/helm-charts/tree/main/charts/datadog-operator
+
+{{% /tab %}}
+{{% tab "Helm" %}}
+
+#### Prérequis
+
+1. Version du chart Helm >= `3.150.0`
+1. Agent Datadog >= `v7.69`
+
+**Remarque** : `etcd` n'est pas pris en charge sur les versions 4.0-4.13.
+
+#### Configuration générale
+
+Activez la surveillance du plan de contrôle en utilisant l'option `providers.openshift.controlPlaneMonitoring` :
+
+{{< code-block lang="yaml" filename="datadog-values.yaml" >}}
+datadog:
+ apiKey:
+ appKey:
+ clusterName:
+providers:
+ openshift:
+ controlPlaneMonitoring: true
+{{< /code-block >}}
+
+Pour OpenShift 4.14 et versions ultérieures, la surveillance etcd nécessite de copier les certificats etcd. Pour les copier dans le même espace de nommage que l'Agent Datadog :
+
+```shell
+oc get secret etcd-metric-client -n openshift-etcd-operator -o yaml | sed 's/namespace: openshift-etcd-operator/namespace: /' | oc create -f -
+```
+
+{{% /tab %}}
+{{< /tabs >}}
+
+#### Validation
+Vérifiez que les checks sont en cours d'exécution :
+```shell
+kubectl exec -- agent clusterchecks
+```
+
+Cherchez :
+- `kube_apiserver_metrics`
+- `kube_controller_manager`
+- `kube_scheduler`
+- `etcd`
+
+Vous devriez voir les métriques du plan de contrôle dans Datadog, notamment :
+- `kube_apiserver.*`
+- `kube_controller_manager.*`
+- `kube_scheduler.*`
+- `etcd.*`
+
+### Configuration héritée
+
Sur OpenShift 4, tous les composants du plan de contrôle peuvent être surveillés à l'aide de checks d'endpoint.
-### Prérequis
+#### Prérequis
1. Activez l'[Agent de cluster][6] Datadog.
1. Activez les [checks de cluster][7].
1. Activez les [checks d'endpoint][8].
1. Vérifiez que votre compte dispose de suffisamment d'autorisations pour pouvoir modifier des services et créer des secrets.
-### Serveur d'API
+#### Serveur d'API
Le serveur d'API s'exécute derrière le service `kubernetes` dans l'espace de nommage `default`. Annotez ce service avec la configuration `kube_apiserver_metrics` :
@@ -362,16 +583,16 @@ oc annotate service kubernetes -n default 'ad.datadoghq.com/endpoints.resolve=ip
La dernière annotation `ad.datadoghq.com/endpoints.resolve` est requise, car le service est exécuté devant les pods statiques. L'Agent de cluster Datadog planifie les checks en tant que checks d'endpoint et les distribue aux exécuteurs de checks de cluster. Pour identifier les nœuds sur lesquels ils s'exécutent, utilisez la commande suivante :
```shell
-oc exec -it -n -- agent clusterchecks
+oc exec -it -n -- agent clusterchecks
```
+#### Etcd
-### Etcd
-
-Pour communiquer avec le service Etcd, vous devez utiliser des certificats. Vous trouverez les certificats requis dans le secret `kube-etcd-client-certs` de l'espace de nommage `openshift-monitoring`. Pour que l'Agent Datadog puisse accéder à ces certificats, commencez par les copier dans le même espace de nommage que celui dans lequel l'Agent Datadog s'exécute :
+{{% collapse-content title= "Etcd OpenShift 4.0 - 4.13" level="h4" %}}
+Des certificats sont nécessaires pour communiquer avec le service Etcd, qui peuvent être trouvés dans le secret `kube-etcd-client-certs` dans l'espace de nommage `openshift-monitoring`. Pour donner à l'Agent Datadog l'accès à ces certificats, copiez-les d'abord dans le même espace de nommage dans lequel l'Agent Datadog est exécuté :
```shell
-oc get secret kube-etcd-client-certs -n openshift-monitoring -o yaml | sed 's/namespace: openshift-monitoring/namespace: /' | oc create -f -
+oc get secret kube-etcd-client-certs -n openshift-monitoring -o yaml | sed 's/namespace: openshift-monitoring/namespace: /' | oc create -f -
```
@@ -381,9 +602,36 @@ Ces certificats doivent être montés sur les pods des exécuteurs de checks de
{{< tabs >}}
+{{% tab "Operator Datadog" %}}
+
+{{< code-block lang="yaml" filename="datadog-agent.yaml" >}}
+kind: DatadogAgent
+apiVersion: datadoghq.com/v2alpha1
+metadata:
+ name: datadog
+spec:
+ override:
+ clusterChecksRunner:
+ containers:
+ agent:
+ volumeMounts:
+ - name: etcd-certs
+ readOnly: true
+ mountPath: /etc/etcd-certs
+ - name: disable-etcd-autoconf
+ mountPath: /etc/datadog-agent/conf.d/etcd.d
+ volumes:
+ - name: etcd-certs
+ secret:
+ secretName: kube-etcd-client-certs
+ - name: disable-etcd-autoconf
+ emptyDir: {}
+{{< /code-block >}}
+
+{{% /tab %}}
{{% tab "Helm" %}}
-```yaml
+{{< code-block lang="yaml" filename="datadog-values.yaml" >}}
...
clusterChecksRunner:
volumes:
@@ -398,12 +646,45 @@ clusterChecksRunner:
readOnly: true
- name: disable-etcd-autoconf
mountPath: /etc/datadog-agent/conf.d/etcd.d
-```
+{{< /code-block >}}
{{% /tab %}}
-{{% tab "Operator" %}}
-```yaml
+{{< /tabs >}}
+
+Annotez ensuite le service s'exécutant devant Etcd :
+
+```shell
+oc annotate service etcd -n openshift-etcd 'ad.datadoghq.com/endpoints.check_names=["etcd"]'
+oc annotate service etcd -n openshift-etcd 'ad.datadoghq.com/endpoints.init_configs=[{}]'
+oc annotate service etcd -n openshift-etcd 'ad.datadoghq.com/endpoints.instances=[{"prometheus_url": "https://%%host%%:%%port%%/metrics", "tls_ca_cert": "/etc/etcd-certs/etcd-client-ca.crt", "tls_cert": "/etc/etcd-certs/etcd-client.crt",
+ "tls_private_key": "/etc/etcd-certs/etcd-client.key"}]'
+oc annotate service etcd -n openshift-etcd 'ad.datadoghq.com/endpoints.resolve=ip'
+
+```
+
+L'Agent de cluster Datadog planifie les checks en tant que checks d'endpoint et les distribue aux exécuteurs de check de cluster.
+
+{{% /collapse-content %}}
+
+
+{{% collapse-content title="Etcd OpenShift 4.14 et versions ultérieures" level="h4" %}}
+
+Des certificats sont nécessaires pour communiquer avec le service Etcd, qui peuvent être trouvés dans le secret `etcd-metric-client` dans l'espace de nommage `openshift-etcd-operator`. Pour donner à l'Agent Datadog l'accès à ces certificats, copiez-les dans le même espace de nommage que l'Agent Datadog :
+
+```shell
+oc get secret etcd-metric-client -n openshift-etcd-operator -o yaml | sed 's/namespace: openshift-etcd-operator/namespace: /' | oc create -f -
+```
+
+Ces certificats doivent être montés sur les pods des exécuteurs de checks de cluster, en ajoutant les volumes et volumeMounts tel que décrit ci-dessous.
+
+**Remarque** : des montages sont également inclus pour désactiver le fichier d'autoconfiguration du check Etcd fourni avec l'Agent.
+
+
+{{< tabs >}}
+{{% tab "Operator Datadog" %}}
+
+{{< code-block lang="yaml" filename="datadog-agent.yaml" >}}
kind: DatadogAgent
apiVersion: datadoghq.com/v2alpha1
metadata:
@@ -422,14 +703,35 @@ spec:
volumes:
- name: etcd-certs
secret:
- secretName: kube-etcd-client-certs
+ secretName: etcd-metric-client
- name: disable-etcd-autoconf
emptyDir: {}
-```
+{{< /code-block >}}
{{% /tab %}}
-{{< /tabs >}}
+{{% tab "Helm" %}}
+{{< code-block lang="yaml" filename="datadog-values.yaml" >}}
+...
+clusterChecksRunner:
+ volumes:
+ - name: etcd-certs
+ secret:
+ secretName: etcd-metric-client
+ - name: disable-etcd-autoconf
+ emptyDir: {}
+ volumeMounts:
+ - name: etcd-certs
+ mountPath: /host/etc/etcd
+ readOnly: true
+ - name: disable-etcd-autoconf
+ mountPath: /etc/datadog-agent/conf.d/etcd.d
+
+{{< /code-block >}}
+
+{{% /tab %}}
+
+{{< /tabs >}}
Annotez ensuite le service s'exécutant devant Etcd :
@@ -439,13 +741,14 @@ oc annotate service etcd -n openshift-etcd 'ad.datadoghq.com/endpoints.init_conf
oc annotate service etcd -n openshift-etcd 'ad.datadoghq.com/endpoints.instances=[{"prometheus_url": "https://%%host%%:%%port%%/metrics", "tls_ca_cert": "/etc/etcd-certs/etcd-client-ca.crt", "tls_cert": "/etc/etcd-certs/etcd-client.crt",
"tls_private_key": "/etc/etcd-certs/etcd-client.key"}]'
oc annotate service etcd -n openshift-etcd 'ad.datadoghq.com/endpoints.resolve=ip'
-
```
L'Agent de cluster Datadog planifie les checks en tant que checks d'endpoint et les distribue aux exécuteurs de check de cluster.
+{{% /collapse-content %}}
-### Controller Manager
+
+#### Controller Manager
Le Controller Manager s'exécute derrière le service `kube-controller-manager` dans l'espace de nommage `openshift-kube-controller-manager`. Annotez ce service avec la configuration de check :
@@ -462,7 +765,7 @@ L'Agent de cluster Datadog planifie les checks en tant que checks d'endpoint et
-### Scheduler
+#### Scheduler
Le Scheduler s'exécute derrière le service `scheduler` dans l'espace de nommage `openshift-kube-scheduler`. Annotez ce service avec la configuration de check :
@@ -504,7 +807,7 @@ oc annotate service kubernetes -n default 'ad.datadoghq.com/endpoints.resolve=ip
La dernière annotation `ad.datadoghq.com/endpoints.resolve` est requise, car le service est exécuté devant les pods statiques. L'Agent de cluster Datadog planifie les checks en tant que checks d'endpoint et les distribue aux exécuteurs de checks de cluster. Pour identifier les nœuds sur lesquels ils s'exécutent, utilisez la commande suivante :
```shell
-oc exec -it -n -- agent clusterchecks
+oc exec -it -n -- agent clusterchecks
```
@@ -515,29 +818,9 @@ Pour communiquer avec le service Etcd, vous devez utiliser des certificats. Vous
**Remarque** : des montages sont également inclus pour désactiver le fichier d'autoconfiguration du check Etcd fourni avec l'Agent.
{{< tabs >}}
-{{% tab "Helm" %}}
+{{% tab "Operator Datadog" %}}
-```yaml
-...
-clusterChecksRunner:
- volumes:
- - hostPath:
- path: /etc/etcd
- name: etcd-certs
- - name: disable-etcd-autoconf
- emptyDir: {}
- volumeMounts:
- - name: etcd-certs
- mountPath: /host/etc/etcd
- readOnly: true
- - name: disable-etcd-autoconf
- mountPath: /etc/datadog-agent/conf.d/etcd.d
-```
-
-{{% /tab %}}
-{{% tab "Operator" %}}
-
-```yaml
+{{< code-block lang="yaml" filename="datadog-agent.yaml" >}}
kind: DatadogAgent
apiVersion: datadoghq.com/v2alpha1
metadata:
@@ -559,7 +842,27 @@ spec:
path: /etc/etcd
- name: disable-etcd-autoconf
emptyDir: {}
-```
+{{< /code-block >}}
+
+{{% /tab %}}
+{{% tab "Helm" %}}
+
+{{< code-block lang="yaml" filename="datadog-values.yaml" >}}
+...
+clusterChecksRunner:
+ volumes:
+ - hostPath:
+ path: /etc/etcd
+ name: etcd-certs
+ - name: disable-etcd-autoconf
+ emptyDir: {}
+ volumeMounts:
+ - name: etcd-certs
+ mountPath: /host/etc/etcd
+ readOnly: true
+ - name: disable-etcd-autoconf
+ mountPath: /etc/datadog-agent/conf.d/etcd.d
+{{< /code-block >}}
{{% /tab %}}
{{< /tabs >}}
@@ -608,7 +911,134 @@ oc annotate service kube-controllers-copy -n kube-system 'ad.datadoghq.com/endpo
L'Agent de cluster Datadog planifie les checks en tant que checks d'endpoint et les distribue aux exécuteurs de check de cluster.
+## Kubernetes sur Talos Linux {#TalosLinux}
+
+Helm est la méthode d'installation recommandée pour Talos Linux. Utiliser Helm en définissant le flag `providers.talos.enabled` sur `true`.
+
+### Serveur d'API
+
+L'intégration du serveur d'API est automatiquement configurée. L'Agent Datadog la découvre automatiquement.
+
+### Etcd
+
+En fournissant un accès en lecture aux certificats etcd situés sur l'hôte, le check de l'Agent Datadog peut communiquer avec etcd et commencer à collecter les métriques etcd.
+{{< code-block lang="yaml" filename="datadog-values.yaml" >}}
+datadog:
+ apiKey:
+ appKey:
+ clusterName:
+ kubelet:
+ tlsVerify: false
+ ignoreAutoConfig:
+ - etcd
+ confd:
+ etcd.yaml: |-
+ # Vous pouvez configurer l'Agent pour exécuter ce check uniquement sur l'hôte où etcd est en cours d'exécution
+ # en utilisant `ad_identifiers` pour un pod qui ne serait en cours d'exécution que sur un nœud control plane.
+ # Cela permet d'éviter les erreurs lorsque l'Agent est exécuté sur des nœuds worker.
+ # Une autre approche consiste à exécuter un pod minimal sur le nœud control plane et à l'utiliser pour `ad_identifiers`.
+ ad_identifiers:
+ - kube-scheduler
+ instances:
+ # Il s'agit de l'adresse IP du nœud où les métriques sont exposées car kube-scheduler s'exécute en mode réseau host.
+ # Sinon, l'adresse IP peut être codée en dur sur l'adresse IP du nœud master (également dans la variable d'environnement `DD_KUBERNETES_KUBELET_HOST`).
+ - prometheus_url : https://%%host%%:2379/metrics
+ tls_ca_cert : /host/etc/kubernetes/pki/etcd/ca.crt
+ tls_cert : /host/etc/kubernetes/pki/etcd/server.crt
+ tls_private_key : /host/etc/kubernetes/pki/etcd/server.key
+agents:
+ # Des tolérances sont nécessaires pour être planifié sur les nœuds de plan de contrôle exécutant etcd
+ tolerations:
+ - key: node-role.kubernetes.io/control-plane
+ operator: Exists
+ effect: NoSchedule
+ volumes:
+ # Sur Talos, les certificats etcd sont stockés dans /system/secrets/etcd
+ - hostPath:
+ path: /system/secrets/etcd
+ name: etcd-certs
+ volumeMounts:
+ - name: etcd-certs
+ mountPath: /host/etc/kubernetes/pki/etcd
+ readOnly: true
+providers:
+ talos:
+ enabled: true
+{{< /code-block >}}
+
+### Controller Manager et Scheduler
+
+#### Ports sécurisés
+
+Les ports sécurisés activent des processus d'authentification et d'autorisation afin de protéger les composants de votre plan de contrôle. L'Agent Datadog peut recueillir des métriques à partir de Controller Manager et Scheduler en ciblant leurs ports sécurisés.
+
+{{< code-block lang="yaml" filename="datadog-values.yaml" >}}
+datadog:
+ apiKey:
+ appKey:
+ clusterName:
+ kubelet:
+ tlsVerify: false
+ ignoreAutoConfig:
+ - etcd
+ - kube_scheduler
+ - kube_controller_manager
+ confd:
+ etcd.yaml: |-
+ ad_identifiers:
+ - kube-scheduler
+ instances:
+ - prometheus_url: https://%%host%%:2379/metrics
+ tls_ca_cert: /host/etc/kubernetes/pki/etcd/ca.crt
+ tls_cert: /host/etc/kubernetes/pki/etcd/server.crt
+ tls_private_key: /host/etc/kubernetes/pki/etcd/server.key
+ kube_scheduler.yaml: |-
+ ad_identifiers:
+ - kube-scheduler
+ instances:
+ - prometheus_url: https://%%host%%:10259/metrics
+ ssl_verify: false
+ bearer_token_auth: true
+ kube_controller_manager.yaml: |-
+ ad_identifiers:
+ - kube-controller-manager
+ instances:
+ - prometheus_url: https://%%host%%:10257/metrics
+ ssl_verify: false
+ bearer_token_auth: true
+agents:
+ tolerations:
+ - key: node-role.kubernetes.io/control-plane
+ operator: Exists
+ effect: NoSchedule
+ volumes:
+ - hostPath:
+ path: /system/secrets/etcd
+ name: etcd-certs
+ volumeMounts:
+ - name: etcd-certs
+ mountPath: /host/etc/kubernetes/pki/etcd
+ readOnly: true
+providers:
+ talos:
+ enabled: true
+{{< /code-block >}}
+
+**Remarques :**
+
+- Si vous utilisez des certificats autosignés, le champ `ssl_verify` des configurations `kube_controller_manager` et `kube_scheduler` doit être défini sur `false`.
+- Lors du ciblage de ports sécurisés, l'option `bind-address` dans votre configuration Controller Manager et Scheduler doit être accessible par l'Agent Datadog. Appliquez le patch ci-dessous aux nœuds control-plane lors de la génération du cluster ; ou, pour les nœuds Talos en cours d'exécution, exécutez `talosctl patch mc -n --patch @controlplane-datadog-monitoring-patch.yaml`.
+
+{{< code-block lang="yaml" filename="controlplane-datadog-monitoring-patch.yaml" >}}
+cluster:
+ controllerManager:
+ extraArgs:
+ bind-address: 0.0.0.0
+ scheduler:
+ extraArgs:
+ bind-address: 0.0.0.0
+{{< /code-block >}}
## Kubernetes sur Rancher Kubernetes Engine (version 2.5+) {#RKE}
@@ -630,7 +1060,7 @@ annotations:
ad.datadoghq.com/endpoints.instances: '[{ "prometheus_url": "https://%%host%%:%%port%%/metrics", "bearer_token_auth": "true" }]'
```
-### Ajouter des services Kubernetes pour configurer les checks de découverte automatique
+### Ajouter des services Kubernetes pour configurer les checks Autodiscovery
Si vous ajoutez des services Kubernetes headless pour définir des configuration de check, l'Agent Datadog pourra cibler les pods `pushprox` et recueillir des métriques.
@@ -710,41 +1140,9 @@ spec:
Déployez l'Agent Datadog avec des manifestes basés sur les configurations suivantes :
{{< tabs >}}
-{{% tab "Helm" %}}
-
-`values.yaml` personnalisé :
-
-```yaml
-datadog:
- apiKey:
- appKey:
- clusterName:
- kubelet:
- tlsVerify: false
-agents:
- volumes:
- - hostPath:
- path: /opt/rke/etc/kubernetes/ssl
- name: etcd-certs
- volumeMounts:
- - name: etcd-certs
- mountPath: /host/opt/rke/etc/kubernetes/ssl
- readOnly: true
- tolerations:
- - effect: NoSchedule
- key: node-role.kubernetes.io/controlplane
- operator: Exists
- - effect: NoExecute
- key: node-role.kubernetes.io/etcd
- operator: Exists
-```
-
-{{% /tab %}}
-{{% tab "Operator" %}}
-
-Ressource Kubernetes DatadogAgent :
+{{% tab "Operator Datadog" %}}
-```yaml
+{{< code-block lang="yaml" filename="datadog-agent.yaml" >}}
kind: DatadogAgent
apiVersion: datadoghq.com/v2alpha1
metadata:
@@ -755,9 +1153,9 @@ spec:
enabled: true
global:
credentials:
- apiKey:
- appKey:
- clusterName:
+ apiKey:
+ appKey:
+ clusterName:
kubelet:
tlsVerify: false
override:
@@ -779,13 +1177,41 @@ spec:
- key: node-role.kubernetes.io/etcd
operator: Exists
effect: NoExecute
-```
+{{< /code-block >}}
+
+{{% /tab %}}
+{{% tab "Helm" %}}
+
+{{< code-block lang="yaml" filename="datadog-values.yaml" >}}
+datadog:
+ apiKey:
+ appKey:
+ clusterName:
+ kubelet:
+ tlsVerify: false
+agents:
+ volumes:
+ - hostPath:
+ path: /opt/rke/etc/kubernetes/ssl
+ name: etcd-certs
+ volumeMounts:
+ - name: etcd-certs
+ mountPath: /host/opt/rke/etc/kubernetes/ssl
+ readOnly: true
+ tolerations:
+ - effect: NoSchedule
+ key: node-role.kubernetes.io/controlplane
+ operator: Exists
+ - effect: NoExecute
+ key: node-role.kubernetes.io/etcd
+ operator: Exists
+{{< /code-block >}}
{{% /tab %}}
{{< /tabs >}}
-## Kubernetes sur Rancher Kubernetes Engine (version antérieure à 2.5) {#RKEAvant2_5}
+## Kubernetes sur Rancher Kubernetes Engine (avant la v2.5) {#RKEBefore2_5}
### API Server, Controller Manager et Scheduler
@@ -830,41 +1256,9 @@ Vous trouverez ci-dessous des exemples de configuration de l'Agent Datadog avec
{{< tabs >}}
-{{% tab "Helm" %}}
-
-`values.yaml` personnalisé :
-
-```yaml
-datadog:
- apiKey:
- appKey:
- clusterName:
- kubelet:
- tlsVerify: false
-agents:
- volumes:
- - hostPath:
- path: /opt/rke/etc/kubernetes/ssl
- name: etcd-certs
- volumeMounts:
- - name: etcd-certs
- mountPath: /host/opt/rke/etc/kubernetes/ssl
- readOnly: true
- tolerations:
- - effect: NoSchedule
- key: node-role.kubernetes.io/controlplane
- operator: Exists
- - effect: NoExecute
- key: node-role.kubernetes.io/etcd
- operator: Exists
-```
-
-{{% /tab %}}
-{{% tab "Operator" %}}
-
-Ressource Kubernetes DatadogAgent :
+{{% tab "Operator Datadog" %}}
-```yaml
+{{< code-block lang="yaml" filename="datadog-agent.yaml" >}}
kind: DatadogAgent
apiVersion: datadoghq.com/v2alpha1
metadata:
@@ -875,9 +1269,9 @@ spec:
enabled: true
global:
credentials:
- apiKey:
- appKey:
- clusterName:
+ apiKey:
+ appKey:
+ clusterName:
kubelet:
tlsVerify: false
override:
@@ -899,7 +1293,35 @@ spec:
- key: node-role.kubernetes.io/etcd
operator: Exists
effect: NoExecute
-```
+{{< /code-block >}}
+
+{{% /tab %}}
+{{% tab "Helm" %}}
+
+{{< code-block lang="yaml" filename="datadog-values.yaml" >}}
+datadog:
+ apiKey:
+ appKey:
+ clusterName:
+ kubelet:
+ tlsVerify: false
+agents:
+ volumes:
+ - hostPath:
+ path: /opt/rke/etc/kubernetes/ssl
+ name: etcd-certs
+ volumeMounts:
+ - name: etcd-certs
+ mountPath: /host/opt/rke/etc/kubernetes/ssl
+ readOnly: true
+ tolerations:
+ - effect: NoSchedule
+ key: node-role.kubernetes.io/controlplane
+ operator: Exists
+ - effect: NoExecute
+ key: node-role.kubernetes.io/etcd
+ operator: Exists
+{{< /code-block >}}
{{% /tab %}}
{{< /tabs >}}
@@ -950,7 +1372,7 @@ spec:
Pour déployer le DaemonSet et la configuration de check, exécutez la commande suivante :
```shell
-kubectl apply -f
+kubectl apply -f
```
@@ -967,5 +1389,6 @@ Sur d'autres services gérés, comme Azure Kubernetes Service (AKS) et Google
[6]: https://docs.datadoghq.com/fr/agent/cluster_agent/setup
[7]: https://docs.datadoghq.com/fr/agent/cluster_agent/clusterchecks/
[8]: https://docs.datadoghq.com/fr/agent/cluster_agent/endpointschecks/
-[9]: https://rancher.com/docs/rancher/v2.0-v2.4/en/cluster-admin/nodes
-[10]: https://github.com/DataDog/helm-charts/blob/main/examples/datadog/agent_on_rancher_values.yaml
\ No newline at end of file
+[9]: https://ranchermanager.docs.rancher.com/how-to-guides/new-user-guides/manage-clusters/nodes-and-node-pools
+[10]: https://github.com/DataDog/helm-charts/blob/main/examples/datadog/agent_on_rancher_values.yaml
+[11]: https://docs.aws.amazon.com/eks/latest/userguide/view-raw-metrics.html
\ No newline at end of file
diff --git a/content/fr/containers/kubernetes/distributions.md b/content/fr/containers/kubernetes/distributions.md
index 8e40c828a9d..6919befaea2 100644
--- a/content/fr/containers/kubernetes/distributions.md
+++ b/content/fr/containers/kubernetes/distributions.md
@@ -1,6 +1,8 @@
---
aliases:
- /fr/agent/kubernetes/distributions
+description: Instructions d'installation et de configuration spécifiques à la plateforme
+ pour l'Agent Datadog sur diverses distributions Kubernetes
further_reading:
- link: agent/kubernetes/log
tag: Documentation
@@ -28,7 +30,8 @@ title: Distributions Kubernetes
## Présentation
-Cette section présente les particularités des principales distributions Kubernetes et propose des modèles de configuration dont vous pouvez vous servir comme de point de départ. Chacune de ces configurations peut être personnalisée afin d'intégrer des fonctionnalités Datadog.
+Cette section vise à documenter les spécificités et à fournir une bonne configuration de base pour toutes les principales distributions Kubernetes.
+Ces configurations peuvent ensuite être personnalisées pour ajouter n'importe quelle fonctionnalité Datadog.
* [AWS Elastic Kubernetes Service (EKS)](#EKS)
* [Azure Kubernetes Service (AKS)](#AKS)
@@ -42,25 +45,40 @@ Cette section présente les particularités des principales distributions Kubern
Aucune configuration particulière n'est requise.
-Si vous utilisez le système d'exploitation AWS Bottlerocket sur vos nœuds, ajoutez ce qui suit pour activer la surveillance des conteneurs (check `containerd`) :
-
{{< tabs >}}
-{{% tab "Helm" %}}
+{{% tab "Operator Datadog" %}}
+
+Dans un cluster EKS, vous pouvez installer l'opérateur en utilisant [Helm][1] ou en tant qu'[add-on EKS][2].
-`values.yaml` personnalisé :
+La configuration ci-dessous est conçue pour fonctionner avec les deux configurations (Helm ou add-on EKS) lorsque l'Agent est installé dans le même espace de nommage que l'opérateur Datadog.
```yaml
-datadog:
- apiKey:
- appKey:
- criSocketPath: /run/dockershim.sock
- env:
- - name: DD_AUTOCONFIG_INCLUDE_FEATURES
- value: "containerd"
+kind: DatadogAgent
+apiVersion: datadoghq.com/v2alpha1
+metadata:
+ name: datadog
+spec:
+ global:
+ clusterName:
+ credentials:
+ apiKey:
+ appKey:
```
+[1]:/fr/containers/kubernetes/installation/?tab=datadogoperator
+[2]: /fr/agent/guide/operator-eks-addon
+
{{% /tab %}}
-{{% tab "Operator" %}}
+
+{{< /tabs >}}
+
+## Azure Kubernetes Service (AKS) {#AKS}
+
+### Contrôleur d'admission
+La fonctionnalité [contrôleur d'admission][1] facultative nécessite une configuration spécifique pour éviter une erreur lors de la réconciliation du webhook.
+
+{{< tabs >}}
+{{% tab "Operator Datadog" %}}
Ressource Kubernetes DatadogAgent :
@@ -70,45 +88,137 @@ apiVersion: datadoghq.com/v2alpha1
metadata:
name: datadog
spec:
- features:
- admissionController:
- enabled: false
- externalMetricsServer:
- enabled: false
- useDatadogMetrics: false
global:
+ clusterName:
+ site:
credentials:
- apiKey:
- appKey:
- criSocketPath: /run/dockershim.sock
+ apiKey:
+ appKey:
override:
clusterAgent:
- image:
- name: gcr.io/datadoghq/cluster-agent:latest
+ containers:
+ cluster-agent:
+ env:
+ - name: DD_ADMISSION_CONTROLLER_ADD_AKS_SELECTORS
+ value: "true"
```
+Remplacez `` par votre [site Datadog][1]. Votre site est {{< region-param key="dd_site" code="true" >}}. (Assurez-vous que le SITE correct pour votre compte est sélectionné à droite de cette page).
+
+[1]: /fr/getting_started/site
+{{% /tab %}}
+{{% tab "Helm" %}}
+
+`datadog-values.yaml` personnalisé :
+
+```yaml
+datadog:
+ clusterName:
+ apiKey:
+ appKey:
+
+providers:
+ aks:
+ enabled: true
+```
+
+L'option `providers.aks.enabled` définit la variable d'environnement nécessaire `DD_ADMISSION_CONTROLLER_ADD_AKS_SELECTORS="true"` pour vous.
+
{{% /tab %}}
{{< /tabs >}}
-## Azure Kubernetes Service (AKS) {#AKS}
+### Rotation des certificats de service Kubelet
+Si votre cluster **n'a pas** la [rotation des certificats de service Kubelet][13] activée, vous devez fournir une configuration supplémentaire pour permettre à l'Agent Datadog de se connecter au Kubelet. La rotation des certificats de service Kubelet est activée dans les clusters Kubernetes 1.27 et versions ultérieures sur les pools de nœuds mis à jour après juillet 2025.
+
+Vos nœuds disposent de cette fonctionnalité si ils possèdent l'étiquette `kubernetes.azure.com/kubelet-serving-ca=cluster`. Vérifiez si tous vos nœuds possèdent cette étiquette en exécutant :
+
+```shell
+kubectl get nodes -L kubernetes.azure.com/kubelet-serving-ca
+```
+
+Assurez-vous que tous vos nœuds affichent `cluster`.
-L'intégration `Kubelet` nécessite une configuration spécifique afin de prendre en charge les certificats AKS.
+#### Sans rotation des certificats de service Kubelet
+
+Si la rotation des certificats de service Kubelet n'est pas activée, fournissez la configuration Kubelet supplémentaire suivante :
{{< tabs >}}
+{{% tab "Operator Datadog" %}}
+
+Ressource Kubernetes DatadogAgent :
+
+```yaml
+kind: DatadogAgent
+apiVersion: datadoghq.com/v2alpha1
+metadata:
+ name: datadog
+spec:
+ global:
+ clusterName:
+ site:
+ credentials:
+ apiKey:
+ appKey:
+ kubelet:
+ host:
+ fieldRef:
+ fieldPath: spec.nodeName
+ hostCAPath: /etc/kubernetes/certs/kubeletserver.crt
+ override:
+ clusterAgent:
+ containers:
+ cluster-agent:
+ env:
+ - name: DD_ADMISSION_CONTROLLER_ADD_AKS_SELECTORS
+ value: "true"
+```
+{{% /tab %}}
{{% tab "Helm" %}}
-`values.yaml` personnalisé :
+`datadog-values.yaml` personnalisé :
```yaml
datadog:
- apiKey:
- appKey:
+ clusterName:
+ apiKey:
+ appKey:
kubelet:
- tlsVerify: false # Obligatoire à partir de l'Agent 7.35. Voir la section Remarques.
-```
+ host:
+ valueFrom:
+ fieldRef:
+ fieldPath: spec.nodeName
+ hostCAPath: /etc/kubernetes/certs/kubeletserver.crt
+providers:
+ aks:
+ enabled: true
+```
{{% /tab %}}
-{{% tab "Operator" %}}
+{{< /tabs >}}
+
+Dans ces versions de nœud AKS, le certificat Kubelet AKS nécessite de modifier le host Kubelet sur le `spec.nodeName` et l'emplacement `hostCAPath` du certificat, comme indiqué dans les extraits précédents. Cela active la vérification TLS. Sans ces modifications, l'Agent ne peut pas se connecter au Kubelet.
+
+Une fois que la rotation des certificats de service Kubelet est activée dans votre cluster, supprimez cette configuration.
+
+Lorsque vous mettez à niveau votre cluster AKS, vous pouvez voir la fonctionnalité de rotation des certificats de service Kubelet activée automatiquement pour vous, ce qui peut avoir un impact négatif sur votre Agent Datadog si vous utilisez la configuration spéciale ci-dessus pour référencer le certificat `/etc/kubernetes/certs/kubeletserver.crt`. Lorsque la rotation des certificats de service Kubelet est activée, ce certificat est supprimé, ce qui entraîne :
+
+- Dans l'opérateur Datadog : le conteneur de l'Agent s'arrête en `Error`, car il ne peut pas se connecter au Kubelet, et il enregistre `Error while getting hostname, exiting: unable to reliably determine the host name`
+- Dans Helm : le pod de l'Agent ne parvient pas à démarrer avec l'événement d'avertissement `MountVolume.SetUp failed for volume "kubelet-ca" : hostPath type check failed: /etc/kubernetes/certs/kubeletserver.crt is not a file`
+
+Dans ces cas, supprimez les configurations Kubelet supplémentaires.
+
+En alternative, vous pouvez également [vous connecter au Kubelet sans vérification TLS](#without-tls-verification).
+
+### Sans vérification TLS
+
+Dans certains clusters, la résolution DNS pour `spec.nodeName` à l'intérieur des pods ne fonctionne pas dans AKS. Cela affecte :
+ - Les nœuds Windows
+ - Les nœuds Linux, lorsque le cluster est configuré dans un réseau virtuel utilisant un DNS personnalisé
+
+Dans ce cas, utilisez la configuration AKS fournie ci-dessous pour définir `tlsVerify: false` et supprimer tous les paramètres pour le chemin host Kubelet (qui est défini par défaut sur `status.hostIP`). **Ne définissez pas le chemin host Kubelet et `tlsVerify: false` dans la même configuration**.
+
+{{< tabs >}}
+{{% tab "Operator Datadog" %}}
Ressource Kubernetes DatadogAgent :
@@ -118,15 +228,13 @@ apiVersion: datadoghq.com/v2alpha1
metadata:
name: datadog
spec:
- features:
- admissionController:
- enabled: true
global:
+ clusterName:
credentials:
- apiKey:
- appKey:
+ apiKey:
+ appKey:
kubelet:
- tlsVerify: false # Obligatoire à partir de l'Agent 7.35. Voir la section Remarques.
+ tlsVerify: false
override:
clusterAgent:
containers:
@@ -137,28 +245,26 @@ spec:
```
{{% /tab %}}
-{{< /tabs >}}
-
-**Remarques** :
-
-- Depuis la version 7.35 de l'Agent, `tlsVerify: false` est requis, car aucun autre nom de l'objet (Subject Alternative Name ou SAN) n'est défini pour les certificats Kubelet dans AKS.
-
-- Avec certaines configurations, il est possible que la résolution DNS pour `spec.nodeName` dans les nœuds ne fonctionne pas dans AKS. Ce problème a été signalé sur tous les nœuds AKS Windows, et lorsque le cluster est configuré dans un réseau virtuel avec un DNS personnalisé sur des nœuds Linux. Dans ce cas, vous devez **impérativement** supprimer le champ `agent.config.kubelet.host` (valeur par défaut : `status.hostIP`) et utiliser `tlsVerify: false`. La variable d'environnement `DD_KUBELET_TLS_VERIFY=false` résout également ce problème. Ces deux méthodes permettent de désactiver la vérification du certificat du serveur.
+{{% tab "Helm" %}}
- ```yaml
- env:
- - name: DD_KUBELET_TLS_VERIFY
- value: "false"
- ```
-- La fonctionnalité Contrôleur d'admission sur AKS nécessite d'ajouter des sélecteurs pour éviter une erreur lors du rapprochement du webhook :
+`datadog-values.yaml` personnalisé :
```yaml
-clusterAgent:
- env:
- - name: "DD_ADMISSION_CONTROLLER_ADD_AKS_SELECTORS"
- value: "true"
+datadog:
+ clusterName:
+ apiKey:
+ appKey:
+ kubelet:
+ tlsVerify: false
+
+providers:
+ aks:
+ enabled: true
```
+{{% /tab %}}
+{{< /tabs >}}
+
## Google Kubernetes Engine (GKE) {#GKE}
Il est possible de configurer deux modes d'opération pour GKE :
@@ -179,57 +285,64 @@ Depuis la version 7.26 de l'Agent, aucune spécification spécifique n'est requ
Le mode Autopilot de GKE requiert une configuration précise, indiquée ci-dessous.
-Datadog vous conseille de spécifier des limites de ressources pour le conteneur de l'Agent. La limite par défaut d'Autopilot est relativement basse (50 mCPU et 100 Mi pour la mémoire) et peut rapidement entraîner l'OOMKill du conteneur de l'Agent, en fonction de votre environnement. Le cas échéant, définissez d'autres limites de ressources pour les conteneurs de l'Agent de trace et de l'Agent de processus.
+Datadog recommande de spécifier des limites de ressources pour le conteneur de l'Agent. Autopilot définit une limite par défaut relativement faible (50m CPU, 100Mi mémoire) qui peut amener le conteneur de l'Agent à rapidement atteindre OOMKill en fonction de votre environnement. Le cas échéant, spécifiez également les limites de ressources pour les conteneurs Trace Agent, Process Agent et System-Probe. De plus, vous pouvez souhaiter créer une classe de priorité pour l'Agent afin de garantir sa planification.
+
+À partir de l'Agent `7.65.0+` et de la version `3.113.0+` du chart Helm, Datadog recommande d'utiliser `datadog.kubelet.useApiServer` pour que l'Agent interroge la liste des pods depuis l'API Server. Évitez d'utiliser le [port Kubelet en lecture seule obsolète][12].
+
{{< tabs >}}
{{% tab "Helm" %}}
-`values.yaml` personnalisé :
+`datadog-values.yaml` personnalisé :
```yaml
datadog:
- apiKey:
- appKey:
- clusterName:
-
- # Activer le nouveau check `kubernetes_state_core`.
- kubeStateMetricsCore:
- enabled: true
- # Éviter de déployer le chart kube-state-metrics.
- # Le nouveau `kubernetes_state_core` ne nécessite plus le déploiement de kube-state-metrics.
- kubeStateMetricsEnabled: false
+ apiKey:
+ appKey:
+ clusterName:
+
+ # The site of the Datadog intake to send Agent data to (example: `us3.datadoghq.com`)
+ # Default value is `datadoghq.com' (the US1 site)
+ # Documentation: https://docs.datadoghq.com/getting_started/site/
+ site:
+
+ # This option uses the API server to retrieve the node-level pod list from the API server.
+ # This setting is necessary to migrate away from the deprecated read-only kubelet port.
+ # Requires Agent 7.65.0+ and Datadog Helm chart version 3.113.0+.
+ kubelet:
+ useApiServer: true
agents:
containers:
agent:
- # Ressources pour le conteneur de l'Agent
+ # resources for the Agent container
resources:
requests:
cpu: 200m
memory: 256Mi
- limits:
- cpu: 200m
- memory: 256Mi
traceAgent:
- # Ressources pour le conteneur de l'Agent de trace
+ # resources for the Trace Agent container
resources:
requests:
cpu: 100m
memory: 200Mi
- limits:
- cpu: 100m
- memory: 200Mi
processAgent:
- # Ressources pour le conteneur de l'Agent de processus
+ # resources for the Process Agent container
resources:
requests:
cpu: 100m
memory: 200Mi
- limits:
+
+ systemProbe:
+ # resources for the System Probe container
+ resources:
+ requests:
cpu: 100m
- memory: 200Mi
+ memory: 400Mi
+
+ priorityClassCreate: true
providers:
gke:
@@ -239,101 +352,103 @@ providers:
{{% /tab %}}
{{< /tabs >}}
+### Pods Spot et classes de calcul
-## Red Hat OpenShift {#Openshift}
-
-OpenShift est doté par défaut d'une sécurité renforcée (SELinux et SecurityContextConstraints) et nécessite donc une configuration particulière :
-- Créez une SCC pour l'Agent de nœud et l'Agent de cluster.
-- Indiquez le chemin du socket CRI, car OpenShift utilise le runtime de conteneur CRI-O.
-- Il arrive que les certificats d'API Kubelet ne soient pas signés par l'autorité de certification du cluster.
-- Vous devez définir des tolérances pour planifier l'Agent de nœud sur les nœuds `master` et `infra`.
-- Le nom du cluster doit être défini et ne peut pas être récupéré automatiquement à partir du fournisseur de cloud.
-
-Cette configuration est disponible pour OpenShift 3.11 et 4, mais est optimisée pour OpenShift 4.
+L'utilisation de [pods Spot][10] dans les clusters GKE Autopilot introduit des [taints][9] sur les nœuds GKE Spot correspondants. Lors de l'utilisation de pods Spot, une configuration supplémentaire est requise pour fournir au DaemonSet de l'Agent une tolérance correspondante.
{{< tabs >}}
{{% tab "Helm" %}}
+```yaml
+agents:
+ #(...)
+ # agents.tolerations -- Allow the DaemonSet to schedule on tainted nodes (requires Kubernetes >= 1.6)
+ tolerations:
+ - effect: NoSchedule
+ key: cloud.google.com/gke-spot
+ operator: Equal
+ value: "true"
+```
+{{% /tab %}}
+{{< /tabs >}}
-`values.yaml` personnalisé :
+De même, lors de l'utilisation de [classes de calcul GKE Autopilot][11] pour exécuter des workloads ayant des exigences matérielles spécifiques, prenez note des [taints][9] que GKE Autopilot applique à ces nœuds spécifiques et ajoutez des tolérances correspondantes au DaemonSet de l'Agent. Vous pouvez faire correspondre les tolérances sur vos pods correspondants. Par exemple, pour la classe de calcul `Scale-Out`, utilisez une tolérance comme :
+{{< tabs >}}
+{{% tab "Helm" %}}
```yaml
-datadog:
- apiKey:
- appKey:
- clusterName:
- criSocketPath: /var/run/crio/crio.sock
- # Selon votre configuration DNS/SSL, il n'est pas forcément possible de vérifier correctement le certificat.
- # Si vous utilisez une autorité de certification adéquate, vous pouvez définir ce paramètre sur true.
- kubelet:
- tlsVerify: false
agents:
- podSecurity:
- securityContextConstraints:
- create: true
+ #(...)
+ # agents.tolerations -- Allow the DaemonSet to schedule on tainted nodes (requires Kubernetes >= 1.6)
tolerations:
- effect: NoSchedule
- key: node-role.kubernetes.io/master
- operator: Exists
- - effect: NoSchedule
- key: node-role.kubernetes.io/infra
- operator: Exists
-clusterAgent:
- podSecurity:
- securityContextConstraints:
- create: true
-kube-state-metrics:
- securityContext:
- enabled: false
+ key: cloud.google.com/compute-class
+ operator: Equal
+ value: Scale-Out
```
-
{{% /tab %}}
-{{% tab "Operator" %}}
+{{< /tabs >}}
+
+
+## Red Hat OpenShift {#Openshift}
+
+OpenShift est livré avec une sécurité renforcée par défaut avec SELinux et SecurityContextConstraints (SCC). Par conséquent, il nécessite certaines configurations spécifiques :
+- Accès SCC élevé pour l'Agent de nœud et l'Agent de cluster
+- Il arrive que les certificats d'API Kubelet ne soient pas signés par l'autorité de certification du cluster.
+- Vous devez définir des tolérances pour planifier l'Agent de nœud sur les nœuds `master` et `infra`.
+- Le nom du cluster doit être défini et ne peut pas être récupéré automatiquement à partir du fournisseur de cloud.
+- *(Facultatif)* Définir `hostNetwork: true` dans l'Agent de nœud pour permettre à l'Agent d'effectuer des requêtes vers les services de métadonnées du fournisseur de cloud (IMDS)
+
+Cette configuration de base prend en charge OpenShift 3.11 et OpenShift 4, mais elle fonctionne mieux avec OpenShift 4.
-Si vous utilisez l'Operator Datadog dans OpenShift, il est conseillé de l'installer par l'intermédiaire d'OperatorHub ou du Marketplace Redhat. La configuration ci-dessous a été conçue pour un environnement où l'Agent est installé dans le même espace de nommage que l'Operator Datadog (en raison des paramètres SCC/ServiceAccount).
+De plus, la collecte de logs et APM ont également des exigences légèrement différentes.
+
+L'utilisation de Socket de domaine Unix (UDS) pour APM et DogStatsD peut fonctionner dans OpenShift. Toutefois, Datadog ne recommande pas cela, car cela nécessite des autorisations privilégiées supplémentaires et un accès SCC pour **à la fois** votre pod de l'Agent Datadog et votre pod d'application. Sans celles-ci, votre pod d'application peut ne pas parvenir à se déployer. Datadog recommande de désactiver l'option UDS pour éviter cela, permettant au contrôleur d'admission d'injecter le [paramètre TCP/IP][7] ou le [paramètre de service][8] approprié pour la connectivité APM.
+
+{{< tabs >}}
+{{% tab "Operator Datadog" %}}
+
+Lors de l'utilisation de l'opérateur Datadog dans OpenShift, Datadog recommande d'utiliser l'Operator Lifecycle Manager pour déployer l'opérateur Datadog depuis OperatorHub dans la console web de votre cluster OpenShift. Consultez les [étapes d'installation de l'opérateur][1]. La configuration ci-dessous fonctionne avec cette configuration, qui crée l'[accès basé sur ClusterRole et ClusterRoleBinding au SCC][2] pour le ServiceAccount spécifié `datadog-agent-scc`. Cette configuration `DatadogAgent` doit être déployée dans le même espace de nommage que l'opérateur Datadog.
```yaml
kind: DatadogAgent
apiVersion: datadoghq.com/v2alpha1
metadata:
name: datadog
+ namespace: openshift-operators # set as the same namespace where the Datadog Operator was deployed
spec:
features:
logCollection:
- enabled: false
- liveProcessCollection:
- enabled: false
- liveContainerCollection:
enabled: true
+ containerCollectAll: true
apm:
- enabled: false
- cspm:
- enabled: false
- cws:
- enabled: false
- npm:
- enabled: false
- admissionController:
- enabled: false
- externalMetricsServer:
- enabled: false
- useDatadogMetrics: false
- port: 8443
+ enabled: true
+ hostPortConfig:
+ enabled: true
+ unixDomainSocketConfig:
+ enabled: false
+ dogstatsd:
+ unixDomainSocketConfig:
+ enabled: false
global:
credentials:
- apiKey:
- appKey:
- clusterName:
+ apiKey:
+ appKey:
+ clusterName:
kubelet:
tlsVerify: false
- criSocketPath: /var/run/crio/crio.sock
override:
clusterAgent:
- image:
- name: gcr.io/datadoghq/cluster-agent:latest
+ serviceAccountName: datadog-agent-scc
nodeAgent:
serviceAccountName: datadog-agent-scc
- image:
- name: gcr.io/datadoghq/agent:latest
+ hostNetwork: true
+ securityContext:
+ runAsUser: 0
+ seLinuxOptions:
+ level: s0
+ role: system_r
+ type: spc_t
+ user: system_u
tolerations:
- key: node-role.kubernetes.io/master
operator: Exists
@@ -343,39 +458,57 @@ spec:
effect: NoSchedule
```
-{{% /tab %}}
-{{< /tabs >}}
-
-## Rancher {#Rancher}
-
-Les installations Rancher sont semblables aux installations Kubernetes de base. Leur configuration requiert uniquement quelques ajustements :
-- Vous devez définir des tolérances pour planifier l'Agent de nœud sur les nœuds `controlplane` et `etcd`.
-- Le nom du cluster doit être défini et ne peut pas être récupéré automatiquement à partir du fournisseur de cloud.
+**Remarque** : le remplacement `nodeAgent.securityContext.seLinuxOptions` est nécessaire pour la collecte de logs lors du déploiement avec l'opérateur. Si la collecte de logs n'est pas activée, vous pouvez omettre ce remplacement.
-{{< tabs >}}
+[1]: https://github.com/DataDog/datadog-operator/blob/main/docs/install-openshift.md
+[2]: https://docs.openshift.com/container-platform/4.10/authentication/managing-security-context-constraints.html#role-based-access-to-ssc_configuring-internal-oauth
+{{% /tab %}}
{{% tab "Helm" %}}
-`values.yaml` personnalisé :
+La configuration ci-dessous crée des SCC personnalisés pour les ServiceAccounts de l'Agent et de l'Agent de cluster.
+
+`datadog-values.yaml` personnalisé :
```yaml
datadog:
- apiKey:
- appKey:
- clusterName:
+ apiKey:
+ appKey:
+ clusterName:
kubelet:
tlsVerify: false
+ apm:
+ portEnabled: true
+ socketEnabled: false
agents:
+ podSecurity:
+ securityContextConstraints:
+ create: true
+ useHostNetwork: true
tolerations:
- - effect: NoSchedule
- key: node-role.kubernetes.io/controlplane
- operator: Exists
- - effect: NoExecute
- key: node-role.kubernetes.io/etcd
- operator: Exists
+ - effect: NoSchedule
+ key: node-role.kubernetes.io/master
+ operator: Exists
+ - effect: NoSchedule
+ key: node-role.kubernetes.io/infra
+ operator: Exists
+clusterAgent:
+ podSecurity:
+ securityContextConstraints:
+ create: true
```
{{% /tab %}}
-{{% tab "Operator" %}}
+
+{{< /tabs >}}
+
+## Rancher {#Rancher}
+
+Les installations Rancher sont similaires aux installations Kubernetes standard, nécessitant seulement une configuration mineure :
+- Des tolérances sont requises pour planifier l'Agent de nœud sur les nœuds `controlplane` et `etcd`.
+- Le nom de cluster doit être défini car il ne peut pas être récupéré automatiquement depuis le fournisseur de cloud.
+
+{{< tabs >}}
+{{% tab "Operator Datadog" %}}
Ressource Kubernetes DatadogAgent :
@@ -407,9 +540,9 @@ spec:
useDatadogMetrics: false
global:
credentials:
- apiKey:
- appKey:
- clusterName:
+ apiKey:
+ appKey:
+ clusterName:
kubelet:
tlsVerify: false
override:
@@ -429,61 +562,34 @@ spec:
```
{{% /tab %}}
-{{< /tabs >}}
-
-## Oracle Container Engine for Kubernetes (OKE) {#OKE}
-
-Aucune configuration particulière n'est requise.
-
-Pour activer la surveillance des conteneurs, ajoutez ce qui suit (check `containerd`) :
-
-{{< tabs >}}
{{% tab "Helm" %}}
-`values.yaml` personnalisé :
+`datadog-values.yaml` personnalisé :
```yaml
datadog:
- apiKey:
- appKey:
- criSocketPath: /run/dockershim.sock
- env:
- - name: DD_AUTOCONFIG_INCLUDE_FEATURES
- value: "containerd"
+ apiKey:
+ appKey:
+ clusterName:
+ kubelet:
+ tlsVerify: false
+agents:
+ tolerations:
+ - effect: NoSchedule
+ key: node-role.kubernetes.io/controlplane
+ operator: Exists
+ - effect: NoExecute
+ key: node-role.kubernetes.io/etcd
+ operator: Exists
```
{{% /tab %}}
-{{% tab "Operator" %}}
-Ressource Kubernetes DatadogAgent :
-
-```yaml
-kind: DatadogAgent
-apiVersion: datadoghq.com/v2alpha1
-metadata:
- name: datadog
-spec:
- features:
- admissionController:
- enabled: false
- externalMetricsServer:
- enabled: false
- useDatadogMetrics: false
- global:
- credentials:
- apiKey:
- appKey:
- criSocketPath: /run/dockershim.sock
- override:
- clusterAgent:
- image:
- name: gcr.io/datadoghq/cluster-agent:latest
-```
-
-{{% /tab %}}
{{< /tabs >}}
-Le [référentiel helm-charts][1] contient d'autres exemples de fichier `values.yaml`. Le [référentiel datadog-operator][2] contient d'autres exemples de `DatadogAgent`.
+## Oracle Container Engine for Kubernetes (OKE) {#OKE}
+
+Aucune configuration particulière n'est requise.
## vSphere Tanzu Kubernetes Grid (TKG) {#TKG}
@@ -491,31 +597,7 @@ TKG nécessite quelques légères modifications de la configuration, visibles ci
{{< tabs >}}
-{{% tab "Helm" %}}
-
-`values.yaml` personnalisé :
-
-```yaml
-datadog:
- apiKey:
- appKey:
- kubelet:
- # Définir tlsVerify sur false étant donné que les certificats Kubelet sont autosignés
- tlsVerify: false
- # Désactiver l'installation du chart de la dépendance `kube-state-metrics`.
- kubeStateMetricsEnabled: false
- # Activer le nouveau check `kubernetes_state_core`.
- kubeStateMetricsCore:
- enabled: true
-# Ajouter une tolérance pour que l'Agent puisse être planifié sur les nœuds du plan de contrôle.
-agents:
- tolerations:
- - key: node-role.kubernetes.io/master
- effect: NoSchedule
-```
-
-{{% /tab %}}
-{{% tab "Operator" %}}
+{{% tab "Operator Datadog" %}}
Ressource Kubernetes DatadogAgent :
@@ -529,9 +611,9 @@ spec:
eventCollection:
collectKubernetesEvents: true
kubeStateMetricsCore:
- # Activer le nouveau check `kubernetes_state_core`.
enabled: true
global:
+ clusterName:
credentials:
apiSecret:
secretName: datadog-secret
@@ -540,21 +622,56 @@ spec:
secretName: datadog-secret
keyName: app-key
kubelet:
- # Définir tlsVerify sur false étant donné que les certificats Kubelet sont autosignés
tlsVerify: false
override:
nodeAgent:
- # Ajouter une tolérance pour que l'Agent puisse être planifié sur les nœuds du plan de contrôle.
tolerations:
- key: node-role.kubernetes.io/master
effect: NoSchedule
```
{{% /tab %}}
+{{% tab "Helm" %}}
+
+`datadog-values.yaml` personnalisé :
+
+```yaml
+datadog:
+ clusterName:
+ apiKey:
+ appKey:
+ kubelet:
+ # Set tlsVerify to false since the Kubelet certificates are self-signed
+ tlsVerify: false
+ # Disable the `kube-state-metrics` dependency chart installation.
+ kubeStateMetricsEnabled: false
+ # Enable the new `kubernetes_state_core` check.
+ kubeStateMetricsCore:
+ enabled: true
+# Add a toleration so that the agent can be scheduled on the control plane nodes.
+agents:
+ tolerations:
+ - key: node-role.kubernetes.io/master
+ effect: NoSchedule
+```
+
+{{% /tab %}}
+
{{< /tabs >}}
{{< partial name="whats-next/whats-next.html" >}}
-[1]: https://github.com/DataDog/helm-charts/tree/main/examples/datadog
-[2]: https://github.com/DataDog/datadog-operator/tree/main/examples/datadogagent/v2alpha1
\ No newline at end of file
+[1]: /fr/containers/cluster_agent/admission_controller
+[2]: https://github.com/Azure/AKS/releases/tag/2022-10-30
+[3]: https://github.com/DataDog/helm-charts/tree/main/examples/datadog
+[4]: https://github.com/DataDog/datadog-operator/tree/main/examples/datadogagent/v2alpha1
+[5]: /fr/getting_started/containers/datadog_operator
+[6]: /fr/agent/guide/operator-eks-addon
+[7]: /fr/containers/kubernetes/apm/?tab=tcp
+[8]: /fr/tracing/guide/setting_up_apm_with_kubernetes_service
+[9]: https://kubernetes.io/docs/concepts/scheduling-eviction/taint-and-toleration/
+[10]: https://cloud.google.com/kubernetes-engine/docs/how-to/autopilot-spot-pods
+[11]: https://cloud.google.com/kubernetes-engine/docs/concepts/autopilot-compute-classes
+[12]: https://cloud.google.com/kubernetes-engine/docs/how-to/disable-kubelet-readonly-port
+[13]: https://learn.microsoft.com/en-us/azure/aks/certificate-rotation#kubelet-serving-certificate-rotation
\ No newline at end of file
diff --git a/content/fr/containers/troubleshooting/_index.md b/content/fr/containers/troubleshooting/_index.md
new file mode 100644
index 00000000000..2794249c8f1
--- /dev/null
+++ b/content/fr/containers/troubleshooting/_index.md
@@ -0,0 +1,181 @@
+---
+description: Dépannage des problèmes liés aux conteneurs
+further_reading:
+- link: /containers/troubleshooting/duplicate_hosts
+ tag: Documentation
+ text: Dupliquer des hosts avec Kubernetes sur AWS (EC2 ou EKS)
+title: Dépannage des conteneurs
+---
+
+Cette page fournit des informations de dépannage pour la surveillance des conteneurs.
+
+
+Il existe trois méthodes pour déployer l'Agent :
+1. En tant que [**conteneur dans un runtime**][1]
+
+2. Dans un **environnement cloud**, tel qu'[Amazon ECS][2], [Fargate dans un environnement Amazon ECS][3] ou [Amazon EKS][4]
+
+3. Dans un [environnement Kubernetes][16]
+
+Ces différentes méthodes présentent des défis de déploiement uniques. Utilisez cette page comme point de départ pour résoudre les problèmes. Si vous continuez à rencontrer des difficultés, contactez [l'assistance Datadog][6] pour obtenir de l'aide supplémentaire.
+
+Pour plus de détails sur les mises à jour ou modifications des versions de l'Agent, consultez les [notes de version][7] de Datadog.
+
+## Problèmes généraux
+
+### Les variables d'environnement ne sont pas définies et les tags ne sont pas injectés
+
+Une méthode utile pour injecter des [variables d'environnement][8] ou pour configurer une bibliothèque DogStatsD consiste à implémenter la fonctionnalité [contrôleur d'admission][9] sur l'Agent de cluster. **Remarque** : l'Agent de cluster doit être déployé et en cours d'exécution _avant_ le déploiement de l'application.
+
+### Les métriques n'apparaissent pas sur la plateforme Web Datadog
+
+Vérifiez que les éléments suivants sont vrais :
+
+- L'endpoint de métriques est exposé et ouvert pour que l'Agent puisse l'atteindre.
+
+- Il n'y a pas de proxys ou de pare-feu susceptibles d'empêcher l'Agent d'accéder à l'endpoint.
+
+- L'Agent a [Autodiscovery][10] activé.
+
+
+### Les logs ne sont pas collectés
+
+Il existe deux [variables d'environnement][8] qui peuvent affecter la collecte des logs et depuis quels conteneurs :
+
+- Définissez `DD_LOGS_ENABLED` sur `true` pour collecter les logs.
+- De plus, définissez `DD_LOGS_CONFIG_CONTAINER_COLLECT_ALL` sur `true` pour collecter tous les logs de tous les conteneurs.
+
+Pour exclure les logs (et autres fonctionnalités) de la collecte, consultez le [guide de gestion de la découverte de conteneurs][11].
+
+### Impossible de se connecter au Kubelet
+
+L'erreur la plus courante qui empêche la connexion à l'API Kubelet est la vérification du certificat TLS Kubelet.
+
+La vérification TLS est activée par défaut et peut empêcher l'Agent de se connecter à l'API Kubelet via HTTPS. Vous pouvez désactiver la vérification TLS en utilisant des paramètres dédiés ou en définissant la variable `DD_KUBELET_TLS_VERIFY` pour tous les conteneurs dans le manifeste de l'Agent :
+
+ - Définissez `TLS_VERIFY` sur `false`.
+
+### Les métriques HPA n'apparaissent pas ou ne correspondent pas à la valeur attendue
+
+Tout d'abord, assurez-vous que l'Agent de cluster est déployé et capable d'envoyer des données à l'Agent de nœud.
+
+Ensuite, examinez la requête utilisée pour mettre à l'échelle les métriques externes dans le récapitulatif des métriques. Seules les requêtes valides effectuent une mise à l'échelle automatique. S'il y a plusieurs requêtes, **toutes** les requêtes sont ignorées si **l'une** des requêtes est invalide.
+
+Lorsque vous contactez l'assistance pour obtenir de l'aide supplémentaire concernant les métriques HPA, fournissez les éléments suivants à [l'assistance Datadog][6] :
+ - Une sortie `describe` du manifeste HPA :
+ ```
+ $ kubectl describe hpa > hpa.log
+ ```
+ - Une sortie `describe` de la Custom Resource Definition DatadogMetric :
+ ```
+ $ kubectl describe DatadogMetric > DatadogMetric.log
+ ```
+
+
+## Runtime
+
+ Pour les logs, assurez-vous que la commande de déploiement de l'Agent a `DD_LOGS_CONFIG_CONTAINER_COLLECT_ALL` et `DD_LOGS_ENABLED` activés.
+
+## Cloud
+
+Assurez-vous que votre stratégie IAM est mise à jour.
+
+### Les logs ne sont pas collectés dans Fargate
+
+ - [ECS][12] : assurez-vous que le routeur de logs est attaché au conteneur depuis lequel vous souhaitez collecter les logs.
+
+ - [EKS][13] : il existe deux méthodes courantes pour que l'Agent collecte les logs dans un environnement EKS Fargate : le transfert de logs avec les logs CloudWatch et le transfert de logs via [Amazon Data Firehose][14]. L'utilisation d'Amazon Data Firehose pour collecter les logs nécessite l'implémentation réussie du flux de distribution Amazon Data Firehose, ainsi que certains outils de ligne de commande.
+
+
+## Kubernetes
+
+### Le conteneur ne se déploie pas ou ne collecte pas de métriques
+
+Tout d'abord, assurez-vous que votre clé API est valide.
+
+Ensuite, dans votre pod d'Agent de nœud, exécutez la commande `agent status` et examinez les résultats.
+
+### Métriques `kubeapi_server`, `kube_controller_manager` ou `etcd` non reçues
+
+Sur les services managés tels qu'Azure Kubernetes Service (AKS) et Google Kubernetes Engine (GKE), l'utilisateur ne peut pas accéder aux composants du control plane. Par conséquent, il n'est pas possible d'exécuter les checks `kube_apiserver`, `kube_controller_manager`, `kube_scheduler` ou `etcd` dans ces environnements.
+
+## ECS Fargate
+
+### L'Agent Windows expire lors du démarrage du service
+
+```text
+[ENTRYPOINT][ERROR] Could not start the service: The service did not respond to the start or control request in a timely fashion.
+. Error: [1053 (0x41d)]
+```
+
+Pour éviter cette erreur, assurez-vous d'avoir défini une réservation d'**unités CPU** d'au moins `512` pour l'Agent Datadog.
+
+# Données de dépannage demandées par l'assistance Datadog
+
+Après avoir ouvert un ticket d'assistance, il peut vous être demandé les types d'informations suivants :
+
+### Agent Flare
+
+Vous pouvez utiliser la commande [`flare`][15] pour envoyer des informations de dépannage à l'assistance Datadog.
+
+**Flare de l'Agent de nœud**
+
+```
+$ kubectl exec -it agent flare
+```
+
+**Flare de l'Agent de cluster**
+
+```
+$ kubectl exec -it agent flare
+```
+
+
+### Sortie de describe Pod
+
+Cela fournit à l'équipe un aperçu de la manière dont l'Agent de nœud ou l'Agent de cluster a été déployé, quels étaient les événements les plus récents pour le pod et si certaines qualités (telles que les tags custom) ont été injectées et appliquées aux métriques de host. La section `> .yaml` de la commande crée une sortie de fichier qui peut être envoyée à l'assistance Datadog en tant que pièce jointe :
+
+```
+$ kubectl describe pod > .yaml
+```
+
+### Manifeste/déploiement
+
+Il s'agit du fichier utilisé pour déployer l'Agent dans votre environnement. Il informe Datadog des tags configurés, si les logs ont été activés et si certains conteneurs sont définis pour être ignorés.
+
+Dans le cas du déploiement de l'Agent dans un environnement runtime, envoyez à l'assistance la ligne de commande utilisée pour déployer l'Agent.
+
+Les trois méthodes de déploiement les plus courantes sont : chart Helm, DaemonSet et opérateur.
+
+### Sortie cURL
+
+Si vous rencontrez des métriques manquantes ou inexactes, l'assistance Datadog peut demander le résultat d'une sortie cURL de l'Agent de nœud tentant d'atteindre l'endpoint de métriques. Cela se fait en exécutant la commande depuis l'intérieur du conteneur de l'Agent et peut informer l'assistance si l'Agent a accès aux métriques. **Remarque** : cela n'est pas possible dans Fargate ou les services managés :
+
+```
+$ kubectl exec -it curl -k -v """"
+```
+
+```
+$ docker exec -it curl -k -v ""
+```
+
+## Pour aller plus loin
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: https://docs.datadoghq.com/fr/containers/docker/?tab=standard
+[2]: https://docs.datadoghq.com/fr/containers/amazon_ecs/?tab=awscli
+[3]: https://docs.datadoghq.com/fr/integrations/ecs_fargate/?tab=webui#
+[4]: https://docs.datadoghq.com/fr/integrations/eks_fargate
+[5]: https://docs.datadoghq.com/fr/containers/kubernetes/
+[6]: https://docs.datadoghq.com/fr/help/
+[7]: https://app.datadoghq.com/release-notes
+[8]: https://docs.datadoghq.com/fr/agent/guide/environment-variables/#overview
+[9]: https://docs.datadoghq.com/fr/containers/cluster_agent/admission_controller/?tab=operator
+[10]: https://docs.datadoghq.com/fr/getting_started/containers/autodiscovery/?tab=adannotationsv2agent736
+[11]: https://docs.datadoghq.com/fr/agent/guide/autodiscovery-management/?tab=containerizedagent
+[12]: https://docs.datadoghq.com/fr/integrations/ecs_fargate/?tab=webui#log-collection
+[13]: https://docs.datadoghq.com/fr/integrations/eks_fargate/#log-collection
+[14]: https://docs.datadoghq.com/fr/logs/guide/aws-eks-fargate-logs-with-kinesis-data-firehose/#overview
+[15]: https://docs.datadoghq.com/fr/agent/troubleshooting/send_a_flare
+[16]: https://docs.datadoghq.com/fr/containers/kubernetes/installation/?tab=operator
\ No newline at end of file
diff --git a/content/fr/containers/troubleshooting/admission-controller.md b/content/fr/containers/troubleshooting/admission-controller.md
new file mode 100644
index 00000000000..c457d34988a
--- /dev/null
+++ b/content/fr/containers/troubleshooting/admission-controller.md
@@ -0,0 +1,424 @@
+---
+description: Dépanner les problèmes courants avec le contrôleur d'admission de l'Agent
+ de cluster de Datadog et l'injection de bibliothèque
+further_reading:
+- link: https://www.datadoghq.com/blog/auto-instrument-kubernetes-tracing-with-datadog/
+ tag: Blog
+ text: Instrumenter automatiquement le tracing Kubernetes
+- link: /containers/cluster_agent/admission_controller/
+ tag: Documentation
+ text: Contrôleur d'admission de lʼAgent de cluster
+- link: /tracing/trace_collection/library_injection_local/?tab=kubernetes
+ tag: Documentation
+ text: Injection de bibliothèque Kubernetes
+title: Dépannage du contrôleur d'admission
+---
+
+## Présentation
+
+Cette page fournit des informations de dépannage pour le [contrôleur d'admission][1] de l'Agent de cluster de Datadog.
+
+## Problèmes courants
+
+### Mettre à jour les pods préexistants
+Le contrôleur d'admission répond à la création de nouveaux pods dans votre cluster Kubernetes : lors de la création d'un pod, l'Agent de cluster reçoit une requête de Kubernetes et répond avec les détails des modifications (le cas échéant) à apporter au pod.
+
+Par conséquent, **le contrôleur d'admission ne mute pas les pods existants dans votre cluster**. Si vous avez récemment activé le contrôleur d'admission ou effectué d'autres modifications environnementales, supprimez votre pod existant et laissez Kubernetes le recréer. Cela garantit que le contrôleur d'admission met à jour votre pod.
+
+### Étiquettes et annotations
+L'Agent de cluster répond aux étiquettes et annotations sur le pod créé—**pas** la workload (Deployment, DaemonSet, CronJob, etc.) qui a créé ce pod. Assurez-vous que votre modèle de pod référence cela en conséquence.
+
+Par exemple, le modèle suivant définit l'[étiquette pour la configuration APM][2] et l'[annotation pour l'injection de bibliothèque][3] :
+
+```yaml
+apiVersion: apps/v1
+kind: Deployment
+metadata:
+ name: example-deployment
+spec:
+ #(...)
+ template:
+ metadata:
+ labels:
+ admission.datadoghq.com/enabled: "true"
+ annotations:
+ admission.datadoghq.com/-lib.version:
+ spec:
+ containers:
+ #(...)
+```
+
+### Les pods d'application ne sont pas créés
+
+Le mode d'injection du contrôleur d'admission (`socket`, `hostip`, `service`) est défini par la configuration de votre Agent de cluster. Par exemple, si vous avez le mode `socket` activé dans votre Agent, le contrôleur d'admission utilise également le mode `socket`.
+
+Si vous utilisez GKE Autopilot ou OpenShift, vous devez utiliser un mode d'injection spécifique.
+
+#### GKE Autopilot
+
+GKE Autopilot restreint l'utilisation de tous les `volumes` avec un `hostPath`. Par conséquent, si le contrôleur d'admission utilise le mode `socket`, les pods sont bloqués de la planification par le GKE Warden.
+
+L'activation du mode GKE Autopilot dans le chart Helm désactive le mode `socket` pour éviter que cela ne se produise. Pour activer APM, activez le port et utilisez plutôt la méthode `hostip` ou `service`. Le contrôleur d'admission utilisera par défaut `hostip` pour correspondre.
+
+{{< tabs >}}
+{{% tab "Helm" %}}
+```yaml
+datadog:
+ apm:
+ portEnabled: true
+ #(...)
+
+providers:
+ gke:
+ autopilot: true
+```
+{{% /tab %}}
+{{< /tabs >}}
+
+Consultez les [distributions Kubernetes][17] pour plus de détails de configuration concernant Autopilot.
+
+#### OpenShift
+
+OpenShift dispose de `SecurityContextConstraints` (SCC) qui sont requis pour déployer des pods avec des autorisations supplémentaires, tels qu'un `volume` avec un `hostPath`. Les composants Datadog sont déployés avec des SCC pour permettre une activité spécifique aux pods Datadog, mais Datadog ne crée pas de SCC pour d'autres pods. Le contrôleur d'admission peut ajouter la configuration basée sur socket à vos pods d'application, ce qui entraîne leur échec de déploiement.
+
+Si vous utilisez OpenShift, utilisez le mode `hostip`. La configuration suivante active le mode `hostip` en désactivant les options socket :
+
+{{< tabs >}}
+{{% tab "Operator Datadog" %}}
+```yaml
+apiVersion: datadoghq.com/v2alpha1
+kind: DatadogAgent
+metadata:
+ name: datadog
+spec:
+ features:
+ apm:
+ enabled: true
+ hostPortConfig:
+ enabled: true
+ unixDomainSocketConfig:
+ enabled: false
+ dogstatsd:
+ hostPortConfig:
+ enabled: true
+ unixDomainSocketConfig:
+ enabled: false
+```
+En alternative, vous pouvez définir `features.admissionController.agentCommunicationMode` sur `hostip` ou `service` directement.
+
+{{% /tab %}}
+{{% tab "Helm" %}}
+```yaml
+datadog:
+ apm:
+ portEnabled: true
+ socketEnabled: false
+```
+En alternative, vous pouvez définir `clusterAgent.admissionController.configMode` sur `hostip` ou `service` directement.
+{{% /tab %}}
+{{< /tabs >}}
+
+Consultez les [distributions Kubernetes][18] pour plus de détails de configuration concernant OpenShift.
+
+## Afficher le statut du contrôleur d'admission
+
+La sortie de statut de l'Agent de cluster fournit des informations pour vérifier qu'il a créé le `datadog-webhook` pour la `MutatingWebhookConfiguration` et dispose d'un certificat valide.
+
+Exécutez la commande suivante :
+
+```bash
+% kubectl exec -it -- agent status
+```
+
+Votre sortie ressemble à ce qui suit :
+
+```
+...
+Admission Controller
+====================
+
+ Webhooks info
+ -------------
+ MutatingWebhookConfigurations name: datadog-webhook
+ Created at: 2023-09-25T22:32:07Z
+ ---------
+ Name: datadog.webhook.auto.instrumentation
+ CA bundle digest: f24b6c0c40feaad2
+ Object selector: &LabelSelector{MatchLabels:map[string]string{admission.datadoghq.com/enabled: true,},MatchExpressions:[]LabelSelectorRequirement{},}
+ Rule 1: Operations: [CREATE] - APIGroups: [] - APIVersions: [v1] - Resources: [pods]
+ Service: default/datadog-admission-controller - Port: 443 - Path: /injectlib
+ ---------
+ Name: datadog.webhook.config
+ CA bundle digest: f24b6c0c40feaad2
+ Object selector: &LabelSelector{MatchLabels:map[string]string{admission.datadoghq.com/enabled: true,},MatchExpressions:[]LabelSelectorRequirement{},}
+ Rule 1: Operations: [CREATE] - APIGroups: [] - APIVersions: [v1] - Resources: [pods]
+ Service: default/datadog-admission-controller - Port: 443 - Path: /injectconfig
+ ---------
+ Name: datadog.webhook.tags
+ CA bundle digest: f24b6c0c40feaad2
+ Object selector: &LabelSelector{MatchLabels:map[string]string{admission.datadoghq.com/enabled: true,},MatchExpressions:[]LabelSelectorRequirement{},}
+ Rule 1: Operations: [CREATE] - APIGroups: [] - APIVersions: [v1] - Resources: [pods]
+ Service: default/datadog-admission-controller - Port: 443 - Path: /injecttags
+
+ Secret info
+ -----------
+ Secret name: webhook-certificate
+ Secret namespace: default
+ Created at: 2023-09-25T22:32:07Z
+ CA bundle digest: f24b6c0c40feaad2
+ Duration before certificate expiration: 8643h34m2.557676864s
+...
+```
+
+Cette sortie est relative à l'Agent de cluster déployé dans l'espace de nommage `default`. Le `Service` et le `Secret` doivent correspondre à l'espace de nommage utilisé.
+
+## Afficher les logs du contrôleur d'admission
+
+Les logs de debug aident à valider que vous avez configuré correctement le contrôleur d'admission. [Activez les logs de debug][3] avec la configuration suivante :
+
+{{< tabs >}}
+{{% tab "Operator Datadog" %}}
+
+```yaml
+apiVersion: datadoghq.com/v2alpha1
+kind: DatadogAgent
+metadata:
+ name: datadog
+spec:
+ global:
+ credentials:
+ apiKey:
+ site:
+ logLevel: debug
+```
+
+{{% /tab %}}
+{{% tab "Helm" %}}
+
+```yaml
+datadog:
+ logLevel: debug
+```
+
+{{% /tab %}}
+{{< /tabs >}}
+
+### Valider `datadog-webhook`
+
+**Exemples de logs** :
+
+```
+ | CLUSTER | INFO | (pkg/clusteragent/admission/controllers/secret/controller.go:73 in Run) | Starting secrets controller for default/webhook-certificate
+ | CLUSTER | DEBUG | (pkg/clusteragent/admission/controllers/webhook/controller_base.go:148 in enqueue) | Adding object with key default/webhook-certificate to the queue
+ | CLUSTER | DEBUG | (pkg/clusteragent/admission/controllers/secret/controller.go:140 in enqueue) | Adding object with key default/webhook-certificate to the queue
+ | CLUSTER | DEBUG | (pkg/clusteragent/admission/controllers/webhook/controller_base.go:148 in enqueue) | Adding object with key datadog-webhook to the queue
+ | CLUSTER | DEBUG | (pkg/util/kubernetes/apiserver/util.go:47 in func1) | Sync done for informer admissionregistration.k8s.io/v1/mutatingwebhookconfigurations in 101.116625ms, last resource version: 152728
+ | CLUSTER | DEBUG | (pkg/clusteragent/admission/controllers/webhook/controller_v1.go:140 in reconcile) | The Webhook datadog-webhook was found, updating it
+ | CLUSTER | DEBUG | (pkg/clusteragent/admission/controllers/secret/controller.go:211 in reconcile) | The certificate is up-to-date, doing nothing. Duration before expiration: 8558h17m27.909792831s
+ | CLUSTER | DEBUG | (pkg/clusteragent/admission/controllers/secret/controller.go:174 in processNextWorkItem) | Secret default/webhook-certificate reconciled successfully
+ | CLUSTER | DEBUG | (pkg/clusteragent/admission/controllers/webhook/controller_base.go:176 in processNextWorkItem) | Webhook datadog-webhook reconciled successfully
+```
+
+Si vous ne voyez pas que le webhook `datadog-webhook` a été réconcilié avec succès, assurez-vous d'avoir correctement activé le contrôleur d'admission conformément aux [instructions de configuration][1].
+
+### Valider l'injection
+
+**Exemples de logs** :
+
+```
+ | CLUSTER | DEBUG | (pkg/clusteragent/admission/controllers/secret/controller.go:140 in enqueue) | Adding object with key default/webhook-certificate to the queue
+ | CLUSTER | DEBUG | (pkg/clusteragent/admission/controllers/secret/controller.go:211 in reconcile) | The certificate is up-to-date, doing nothing. Duration before expiration: 8558h12m28.007769373s
+ | CLUSTER | DEBUG | (pkg/clusteragent/admission/controllers/secret/controller.go:174 in processNextWorkItem) | Secret default/webhook-certificate reconciled successfully
+ | CLUSTER | DEBUG | (pkg/clusteragent/admission/mutate/common.go:74 in injectEnv) | Injecting env var 'DD_TRACE_AGENT_URL' into pod with generate name example-pod-123456789-
+ | CLUSTER | DEBUG | (pkg/clusteragent/admission/mutate/common.go:74 in injectEnv) | Injecting env var 'DD_DOGSTATSD_URL' into pod with generate name example-pod-123456789-
+ | CLUSTER | DEBUG | (pkg/clusteragent/admission/mutate/common.go:74 in injectEnv) | Injecting env var 'DD_ENTITY_ID' into pod with generate name example-pod-123456789-
+ | CLUSTER | DEBUG | (pkg/clusteragent/admission/mutate/common.go:74 in injectEnv) | Injecting env var 'DD_SERVICE' into pod with generate name example-pod-123456789-
+ | CLUSTER | DEBUG | (pkg/clusteragent/admission/mutate/auto_instrumentation.go:336 in injectLibInitContainer) | Injecting init container named "datadog-lib-python-init" with image "gcr.io/datadoghq/dd-lib-python-init:v1.18.0" into pod with generate name example-pod-123456789-
+```
+
+Si vous voyez des erreurs avec l'injection pour un pod donné, contactez l'assistance Datadog avec votre configuration Datadog et votre configuration de pod.
+
+Si vous ne voyez pas les tentatives d'injection pour *aucun* pod, vérifiez vos paramètres `mutateUnlabelled` et assurez-vous que vos étiquettes de pod correspondent aux valeurs attendues. Si celles-ci correspondent, votre problème est probablement lié au réseau entre le control plane, le webhook et le service. Consultez [Réseau](#networking) pour plus d'informations.
+
+## Réseau
+
+### Politiques réseau
+
+Les [politiques réseau][5] Kubernetes vous aident à contrôler différents flux de trafic entrant (inbound) et sortant (outbound) vers vos pods.
+
+Si vous utilisez des politiques réseau, Datadog recommande de créer des politiques correspondantes pour l'Agent de cluster afin de garantir la connectivité au pod sur ce port. Vous pouvez le faire avec la configuration suivante :
+
+{{< tabs >}}
+{{% tab "Operator Datadog" %}}
+```yaml
+apiVersion: datadoghq.com/v2alpha1
+kind: DatadogAgent
+metadata:
+ name: datadog
+spec:
+ global:
+ #(...)
+ networkPolicy:
+ create: true
+ flavor: kubernetes
+```
+{{% /tab %}}
+{{% tab "Helm" %}}
+```yaml
+datadog:
+ #(...)
+ networkPolicy:
+ create: true
+ flavor: kubernetes
+```
+{{% /tab %}}
+{{< /tabs >}}
+
+Définissez `flavor` sur `kubernetes` pour créer une ressource `NetworkPolicy`.
+
+En alternative, pour les environnements basés sur Cilium, définissez `flavor` sur `cilium` pour créer une ressource `CiliumNetworkPolicy`.
+
+### Dépannage réseau pour les distributions Kubernetes
+
+Lorsqu'un pod est créé, le cluster Kubernetes envoie une requête depuis le control plane, vers `datadog-webhook`, via le service, et enfin vers le pod de l'Agent de cluster. Cette requête nécessite une connectivité entrante depuis le control plane vers le nœud sur lequel se trouve l'Agent de cluster, sur son port de contrôleur d'admission (`8000`). Une fois cette requête résolue, l'Agent de cluster mute votre pod pour configurer la connexion réseau pour le traceur Datadog.
+Le service de contrôleur d'admission reçoit le trafic sur le port 443 et le transfère au pod de l'Agent de cluster sur le port 8000.
+
+Selon votre distribution Kubernetes, cela peut avoir des exigences supplémentaires pour vos règles de sécurité et paramètres de contrôleur d'admission.
+
+#### Amazon Elastic Kubernetes Service (EKS)
+
+Dans un cluster EKS, vous pouvez déployer le pod de l'Agent de cluster sur n'importe lequel de vos nœuds basés sur Linux par défaut. Ces nœuds et leurs instances EC2 nécessitent un [groupe de sécurité][6] avec la [règle entrante][7] suivante :
+- **Protocole** : TCP
+- **Plage de ports** : `8000`, ou une plage qui couvre `8000`
+- **Source** : l'ID du groupe de sécurité du cluster _ou_ l'un des groupes de sécurité supplémentaires de votre cluster. Vous pouvez trouver ces ID dans la console EKS, sous l'onglet _Networking_ pour votre cluster EKS.
+
+Cette règle de groupe de sécurité permet au control plane d'accéder au nœud et à l'Agent de cluster en aval sur le port `8000`.
+
+Si vous disposez de plusieurs [groupes de nœuds managés][8], chacun avec des groupes de sécurité distincts, ajoutez cette règle entrante à chaque groupe de sécurité.
+
+##### Journalisation du control plane
+
+Pour valider votre configuration réseau, activez la [journalisation du control plane EKS][9] pour l'API Server. Vous pouvez afficher ces logs dans la [console CloudWatch][10].
+
+Ensuite, supprimez l'un de vos pods pour redéclencher une requête via le contrôleur d'admission. Lorsque la requête échoue, vous pouvez afficher des logs ressemblant à ce qui suit :
+
+```
+W0908 10 dispatcher.go:202] Failed calling webhook, failing open datadog.webhook.auto.instrumentation: failed calling webhook "datadog.webhook.auto.instrumentation": failed to call webhook: Post "https://datadog-cluster-agent-admission-controller.default.svc:443/injectlib?timeout=10s": context deadline exceeded
+E0908 10 dispatcher.go:206] failed calling webhook "datadog.webhook.auto.instrumentation": failed to call webhook: Post "https://datadog-cluster-agent-admission-controller.default.svc:443/injectlib?timeout=10s": context deadline exceeded
+```
+
+Ces échecs sont relatifs à un Agent de cluster déployé dans l'espace de nommage `default` ; le nom DNS s'ajuste en fonction de l'espace de nommage utilisé.
+
+Vous pouvez également voir des échecs pour les autres webhooks du contrôleur d'admission, tels que `datadog.webhook.tags` et `datadodg.webhook.config`.
+
+**Remarque** : EKS génère souvent deux flux de logs dans le groupe de logs CloudWatch pour le cluster. Assurez-vous de vérifier les deux pour ces types de logs.
+
+#### Azure Kubernetes Service (AKS)
+
+Pour utiliser des [webhooks de contrôleur d'admission sur AKS][11], utilisez la configuration suivante :
+
+{{< tabs >}}
+{{% tab "Operator Datadog" %}}
+
+```yaml
+kind: DatadogAgent
+apiVersion: datadoghq.com/v2alpha1
+metadata:
+ name: datadog
+spec:
+ #(...)
+ override:
+ clusterAgent:
+ containers:
+ cluster-agent:
+ env:
+ - name: DD_ADMISSION_CONTROLLER_ADD_AKS_SELECTORS
+ value: "true"
+```
+{{% /tab %}}
+{{% tab "Helm" %}}
+
+```yaml
+datadog:
+ #(...)
+
+providers:
+ aks:
+ enabled: true
+```
+
+L'option `providers.aks.enabled` définit la variable d'environnement `DD_ADMISSION_CONTROLLER_ADD_AKS_SELECTORS="true"`.
+{{% /tab %}}
+{{< /tabs >}}
+
+#### Google Kubernetes Engine (GKE)
+
+Si vous utilisez un [cluster privé GKE][12], vous devez ajuster vos règles de pare-feu pour autoriser l'accès entrant depuis le control plane vers le port `8000`.
+
+[Ajoutez une règle de pare-feu][13] pour autoriser l'entrée via TCP sur le port `8000`.
+
+Vous pouvez également modifier une règle existante. Par défaut, le réseau de votre cluster dispose d'une règle de pare-feu nommée `gke--master`. Assurez-vous que les _filtres source_ de cette règle incluent [le bloc CIDR du control plane de votre cluster][14]. Modifiez cette règle pour autoriser l'accès via le protocole `tcp` sur le port `8000`.
+
+Pour plus d'informations, consultez [Ajout de règles de pare-feu pour des cas d'utilisation spécifiques][15] dans la documentation GKE.
+
+#### Rancher
+
+Si vous utilisez Rancher avec un cluster EKS ou un cluster privé GKE, une configuration supplémentaire est requise. Pour plus d'informations, consultez [Rancher Webhook - Common Issues][16] dans la documentation Rancher.
+
+**Remarque** : étant donné que le webhook du contrôleur d'admission de Datadog fonctionne de manière similaire au webhook Rancher, Datadog a besoin d'un accès au port `8000` au lieu du `9443` de Rancher.
+
+##### Rancher et EKS
+Pour utiliser Rancher dans un cluster EKS, déployez le pod de l'Agent de cluster avec la configuration suivante :
+
+{{< tabs >}}
+{{% tab "Operator Datadog" %}}
+```yaml
+apiVersion: datadoghq.com/v2alpha1
+kind: DatadogAgent
+metadata:
+ name: datadog
+spec:
+ #(...)
+ override:
+ clusterAgent:
+ hostNetwork: true
+```
+{{% /tab %}}
+{{% tab "Helm" %}}
+```yaml
+datadog:
+ #(...)
+
+clusterAgent:
+ useHostNetwork: true
+```
+{{% /tab %}}
+{{< /tabs >}}
+
+Vous devez également ajouter une règle entrante de groupe de sécurité, comme décrit dans la section [Amazon EKS](#amazon-elastic-kubernetes-service-eks) sur cette page.
+
+##### Rancher et GKE
+Pour utiliser Rancher dans un cluster privé GKE, modifiez vos règles de pare-feu pour autoriser l'accès entrant via TCP sur le port `8000`. Consultez la section [GKE](#google-kubernetes-engine-gke) sur cette page.
+
+## Pour aller plus loin
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: /fr/containers/cluster_agent/admission_controller
+[2]: /fr/containers/cluster_agent/admission_controller/#apm-and-dogstatsd
+[3]: /fr/tracing/trace_collection/library_injection_local/?tab=kubernetes
+[4]: /fr/agent/troubleshooting/debug_mode/
+[5]: https://kubernetes.io/docs/concepts/services-networking/network-policies/#networkpolicy-resource
+[6]: https://docs.aws.amazon.com/vpc/latest/userguide/vpc-security-groups.html
+[7]: https://docs.aws.amazon.com/vpc/latest/userguide/security-group-rules.html#security-group-rule-components
+[8]: https://docs.aws.amazon.com/eks/latest/userguide/managed-node-groups.html
+[9]: https://docs.aws.amazon.com/eks/latest/userguide/control-plane-logs.html
+[10]: https://console.aws.amazon.com/cloudwatch/home#logs:prefix=/aws/eks
+[11]: https://docs.microsoft.com/en-us/azure/aks/faq#can-i-use-admission-controller-webhooks-on-aks
+[12]: https://cloud.google.com/kubernetes-engine/docs/concepts/private-cluster-concept
+[13]: https://cloud.google.com/kubernetes-engine/docs/how-to/private-clusters#step_3_add_a_firewall_rule
+[14]: https://cloud.google.com/kubernetes-engine/docs/how-to/private-clusters#step_1_view_control_planes_cidr_block
+[15]: https://cloud.google.com/kubernetes-engine/docs/how-to/private-clusters#add_firewall_rules
+[16]: https://ranchermanager.docs.rancher.com/reference-guides/rancher-webhook#common-issues
+[17]: /fr/containers/kubernetes/distributions/#autopilot
+[18]: /fr/containers/kubernetes/distributions/#Openshift
\ No newline at end of file
diff --git a/content/fr/continuous_delivery/_index.md b/content/fr/continuous_delivery/_index.md
new file mode 100644
index 00000000000..44099558fbe
--- /dev/null
+++ b/content/fr/continuous_delivery/_index.md
@@ -0,0 +1,61 @@
+---
+cascade:
+ algolia:
+ rank: 70
+ tags:
+ - ci/cd
+ - continuous delivery
+ - deployment visibility
+ - deployments
+ - deployment executions
+disable_sidebar: true
+further_reading:
+- link: continuous_delivery/deployments
+ tag: Documentation
+ text: Découvrir comment configurer Deployment Visibility
+- link: /continuous_delivery/explorer
+ tag: Documentation
+ text: Découvrir comment interroger et visualiser les déploiements
+- link: /continuous_delivery/features
+ tag: Documentation
+ text: Découvrir les fonctionnalités de CD Visibility
+- link: https://www.datadoghq.com/blog/best-practices-for-ci-cd-monitoring/
+ tag: Blog
+ text: Meilleures pratiques pour la surveillance CI/CD
+- link: https://app.datadoghq.com/release-notes?category=Software%20Delivery
+ tag: Notes de version
+ text: Découvrez les dernières versions de la livraison de logiciels (connexion à
+ l'application requise).
+title: Continuous Delivery Visibility
+---
+
+{{< callout url="https://docs.google.com/forms/d/e/1FAIpQLScNhFEUOndGHwBennvUp6-XoA9luTc27XBwtSgXhycBVFM9yA/viewform?usp=sf_link" btn_hidden="false" header="Rejoignez la version Preview !" >}}
+CD Visibility est en version Preview. Si cette fonctionnalité vous intéresse, remplissez le formulaire pour demander l'accès.
+{{< /callout >}}
+
+Datadog Continuous Delivery (CD) Visibility offre une observabilité sur vos déploiements. CD Visibility intègre les métriques et données de déploiement dans Datadog afin que vous puissiez communiquer l'état de santé de vos déploiements et concentrer vos efforts sur l'amélioration de la capacité de votre équipe à fournir du code de qualité à chaque fois.
+
+Avec CD Visibility, vous pouvez surveiller les déploiements dans les environnements CD en suivant chaque événement de déploiement. Vous pouvez comprendre les modifications déployées et leur impact sur vos services.
+
+## Gagner en efficacité grâce aux intégrations directes
+
+Datadog s'intègre aux [fournisseurs CI][3] et aux fournisseurs CD comme [Argo CD][4] pour suivre les performances d'exécution et les résultats de vos déploiements.
+
+{{< partial name="continuous_delivery/cd-getting-started.html" >}}
+
+
+
+Utilisez les données agrégées au fil du temps pour identifier les tendances et améliorer vos stratégies de déploiement afin d'améliorer l'efficacité opérationnelle.
+
+## Prêt à vous lancer ?
+
+Consultez [Deployment Visibility][1] pour obtenir des instructions sur la configuration de CD Visibility avec vos fournisseurs CD, des informations sur les exigences de compatibilité et les étapes d'instrumentation et de configuration de la collecte de données. Consultez [Explorer les déploiements CD Visibility][2] pour comprendre comment interroger et visualiser les déploiements.
+
+## Pour aller plus loin
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: /fr/continuous_delivery/deployments
+[2]: /fr/continuous_delivery/explorer
+[3]: /fr/continuous_delivery/deployments/ciproviders
+[4]: /fr/continuous_delivery/deployments/argocd
\ No newline at end of file
diff --git a/content/ja/account_management/saml/entra.md b/content/ja/account_management/saml/entra.md
index fe35ae8b76e..c64608cec93 100644
--- a/content/ja/account_management/saml/entra.md
+++ b/content/ja/account_management/saml/entra.md
@@ -2,6 +2,7 @@
aliases:
- /ja/account_management/saml/azure/
- /ja/account_management/faq/how-do-i-configure-azure-ad-as-a-saml-idp/
+description: Datadog のシングル サインオン認証用の SAML アイデンティティ プロバイダーとして Microsoft Entra ID を構成する。
further_reading:
- link: /account_management/saml/
tag: ドキュメント
@@ -40,7 +41,7 @@ Datadog ボタンまたはリンクで SSO を使用している場合は、サ
2. Microsoft Entra ID で、アプリケーションの SSO Configuration セクションに移動し、**Show advanced URL settings** をチェックして、シングル サインオン URL を追加します。
-## その他の参考資料
+## 参考資料
{{< partial name="whats-next/whats-next.html" >}}
diff --git a/content/ja/account_management/scim/_index.md b/content/ja/account_management/scim/_index.md
index 40c2aaf687b..adbd9d858e7 100644
--- a/content/ja/account_management/scim/_index.md
+++ b/content/ja/account_management/scim/_index.md
@@ -4,6 +4,8 @@ algolia:
- scim
- アイデンティティプロバイダー
- IdP
+description: Microsoft Entra ID と Okta (いずれもアイデンティティ プロバイダー) との SCIM 統合を使用して、Datadog
+ でユーザーのプロビジョニングとデプロビジョニングを自動化します。
further_reading:
- link: /account_management/scim/azure/
tag: ドキュメント
@@ -21,7 +23,7 @@ SCIM は Infrastructure Pro プランおよび Infrastructure Enterprise プラ
## 概要
-SCIM (System for Cross-domain Identity Management) は、ユーザープロビジョニングの自動化を可能にするオープンスタンダードです。SCIM を使用すると、組織のアイデンティティプロバイダー (IdP) と同期して、Datadog 組織のユーザーを自動的にプロビジョニングおよびデプロビジョニングすることができます。
+[SCIM][9] (System for Cross-domain Identity Management) は、ユーザー プロビジョニングの自動化を可能にするオープン スタンダードです。SCIM を使用すると、組織のアイデンティティ プロバイダー (IdP) と同期して、Datadog 組織のユーザーを自動的にプロビジョニングおよびデプロビジョニングできます。
### サポートされる機能
@@ -31,7 +33,9 @@ SCIM (System for Cross-domain Identity Management) は、ユーザープロビ
- Datadog へのシングルサインオン (推奨)
- Managed Teams: IdP のグループから Datadog チームを作成し、Datadog チームのメンバーシップを IdP のグループメンバーシップと同期させます。
-Datadog では、Microsoft Entra ID と Okta アイデンティティプロバイダーを使用した SCIM がサポートされています。SCIM を構成するには、お使いの IdP のドキュメントを参照してください。
+Datadog は SCIM サーバー プロトコルを実装しています。Datadog は Microsoft Entra ID と Okta (いずれもアイデンティティ プロバイダー) での SCIM の使用をサポートしています。その他のアイデンティティ プロバイダーでも動作する可能性はありますが、明示的にはサポートされていません。
+
+サポート対象のアイデンティティ プロバイダー向けに SCIM を構成するには、お使いの IdP のドキュメントを参照してください:
- [Microsoft Entra ID][2]
- [Okta][3]
@@ -53,11 +57,7 @@ SCIM を有効化するためにユーザーに紐付けられているアプリ
データへのアクセスを失わないために、Datadog は SCIM 専用の[サービスアカウント][6]を作成することを強く推奨します。そのサービスアカウント内で、SCIM インテグレーションで使用するアプリケーションキーを作成します。
-## メール認証
-
-SCIM で新規ユーザーを作成すると、そのユーザーにメールが送信されます。初めてアクセスする場合は、メールで共有された招待リンクからログインする必要があります。リンクは 2 日間有効です。有効期限が切れた場合は、[ユーザー設定ページ][7]に移動し、ユーザーを選択して招待リンクを再送信してください。
-
-## その他の参考資料
+## 参考資料
{{< partial name="whats-next/whats-next.html" >}}
@@ -68,4 +68,5 @@ SCIM で新規ユーザーを作成すると、そのユーザーにメールが
[5]: /ja/account_management/api-app-keys
[6]: /ja/account_management/org_settings/service_accounts
[7]: https://app.datadoghq.com/organization-settings/users
-[8]: /ja/help/
\ No newline at end of file
+[8]: /ja/help/
+[9]: https://scim.cloud/
\ No newline at end of file
diff --git a/content/ja/continuous_integration/explorer/search_syntax.md b/content/ja/continuous_integration/explorer/search_syntax.md
index 99a6cea4a43..3f4d4c767a6 100644
--- a/content/ja/continuous_integration/explorer/search_syntax.md
+++ b/content/ja/continuous_integration/explorer/search_syntax.md
@@ -1,6 +1,9 @@
---
description: CI Visibility Explorer でパイプライン実行のすべてを検索する方法を説明します。
further_reading:
+- link: /getting_started/search/
+ tag: ドキュメント
+ text: Datadog で検索を始める
- link: /continuous_integration/search
tag: ドキュメント
text: パイプラインをフィルターおよびグループ化する
@@ -74,7 +77,7 @@ title: CI Visibility Explorer の検索構文
タグが[タグのベストプラクティス][5]に従わず、`key:value` 構文も使用していない場合は、`tags:` の検索クエリを使用します。
-## 参考資料
+## 関連情報
{{< partial name="whats-next/whats-next.html" >}}
diff --git a/content/ja/coscreen/troubleshooting.md b/content/ja/coscreen/troubleshooting.md
index 5fe34fe0ce6..0fe81afde06 100644
--- a/content/ja/coscreen/troubleshooting.md
+++ b/content/ja/coscreen/troubleshooting.md
@@ -1,15 +1,16 @@
---
+description: 音声品質、画面共有の最適化、ネットワーク接続、プラットフォーム固有の問題など、CoScreen の問題のトラブルシューティングを行います。
is_beta: false
title: CoScreen の最適化およびトラブルシューティング
---
-### Why does the audio quality degrade when using the microphone of my Bluetooth headset as input in CoScreen, Zoom, and other tools?
+### CoScreen、Zoom、またはその他のツールで Bluetooth ヘッドセットのマイクを入力として使用すると、音質が低下するのはなぜですか?
-If you're using a Bluetooth headset, the playback quality may degrade when your headset's microphone is selected as an audio input device. You may notice this if you play audio (for example, play a YouTube video) while you are in a CoScreen session. This can occur because your Bluetooth headset has switched to using a different Bluetooth profile.
+Bluetooth ヘッドセットを使用している場合、ヘッドセットのマイクがオーディオ入力のデバイスとして選択されていると、再生品質が低下することがあります。CoScreen セッション中にオーディオを再生 (例えば YouTube ビデオの再生) すると、この現象に気付くことがあります。これは、Bluetooth ヘッドセットが別の Bluetooth プロファイルの使用に切り替えたために起こる可能性があります。
-When only playing audio, Bluetooth headsets typically use the [A2DP profile][2], which is optimized for high audio quality but does not support using the microphone. If you choose your headset microphone as audio input (for example, during a CoScreen session or Zoom meeting) the headset switches to a different profile, usually [HFP][3] or [HSP][4], which supports microphone usage but has lower sound quality. Most Bluetooth headsets can use only one profile at a time.
+オーディオ再生のみの場合、Bluetooth ヘッドセットは通常 [A2DP プロファイル][2]を使用しており、高音質に最適化されていますが、マイクの使用には対応していません。たとえば CoScreen セッションや Zoom ミーティングなどでオーディオ入力としてヘッドセットマイクを選択すると、ヘッドセットは別のプロファイル、通常だと [HFP][3] または [HSP][4] に切り替わり、マイクの使用をサポートしますが、音質は低くなります。ほとんどの Bluetooth ヘッドセットは一度に 1 つのプロファイルしか使用できません。
-To avoid this issue, you can use a different audio input—such as a laptop's built-in microphone. You may need to restart your application to regain high quality audio.
+この問題を回避するために、ノートパソコンの内蔵マイクなど別の音声入力を使うことができます。高音質を取り戻すためにアプリケーションを再起動する必要がある場合があります。
### 画面共有の品質やリモートコントロールのレイテンシーを最適化するにはどうすればよいですか?
diff --git a/content/ja/dashboards/widgets/timeseries.md b/content/ja/dashboards/widgets/timeseries.md
index 67cc3523e9c..cd3bccef007 100644
--- a/content/ja/dashboards/widgets/timeseries.md
+++ b/content/ja/dashboards/widgets/timeseries.md
@@ -37,7 +37,9 @@ widget_type: Timeseries
## 表示オプション
-グラフは、折れ線、面積、棒グラフで表示することができます。折れ線グラフには、さらにパラメーターが含まれています。
+グラフは、折れ線グラフ、面グラフ、棒グラフとして表示できます。Datadog のグラフでは、1 時間ごとの合計など、データが[一定間隔][15]で集計されます。デフォルトでは、時系列グラフで最後の時間間隔が未完了の場合、その区間は影付きで表示され、「partial data」とラベル付けされます。
+
+折れ線グラフには、次の追加パラメーターがあります:
| パラメーター | オプション |
|-----------|--------------------------|
@@ -133,17 +135,21 @@ Y 軸コントロールは、UI と JSON エディタで使用できます。Y
### 全画面
-[標準の全画面オプション][11]のほかに、前回の期間と比較する、Y 軸の目盛を調整する、変更を保存する、新しいグラフとして保存するなどの簡単な関数を適用できます。
+[標準の全画面オプション][11]に加えて、クイック関数を適用したり、Y 軸のスケールを調整したり、変更を保存したり、新しいグラフとして保存したりできます。
詳しくは、[フルスクリーングラフモードでデータを探る][12]をご覧ください。
+### メトリクス情報
+
+メトリクス グラフで、コンテキスト メニュー(縦に並んだ 3 つのドット)をクリックし、**Metrics Info** オプションを選択します。このオプションを選択すると、メトリクスの説明を含むパネルが開きます。このパネル内のメトリクス名をクリックすると、メトリクス サマリー ページでメトリクスが開き、さらに分析したり編集したりできます。
+
## API
このウィジェットは **[Dashboards API][13]** で使用できます。[ウィジェット JSON スキーマ定義][14]については、以下の表を参照してください。
{{< dashboards-widgets-api >}}
-## その他の参考資料
+## 参考情報
{{< partial name="whats-next/whats-next.html" >}}
@@ -160,4 +166,5 @@ Y 軸コントロールは、UI と JSON エディタで使用できます。Y
[11]: /ja/dashboards/widgets/#full-screen
[12]: https://www.datadoghq.com/blog/full-screen-graphs
[13]: /ja/api/latest/dashboards/
-[14]: /ja/dashboards/graphing_json/widget_json/
\ No newline at end of file
+[14]: /ja/dashboards/graphing_json/widget_json/
+[15]: /ja/dashboards/functions/rollup/
\ No newline at end of file
diff --git a/content/ja/developers/authorization/oauth2_in_datadog.md b/content/ja/developers/authorization/oauth2_in_datadog.md
index 5def24a210a..6fa35c67098 100644
--- a/content/ja/developers/authorization/oauth2_in_datadog.md
+++ b/content/ja/developers/authorization/oauth2_in_datadog.md
@@ -49,7 +49,7 @@ title: Datadog の OAuth2
`API_KEYS_WRITE` スコープがクライアントに追加されていない場合、このステップは失敗します。このエンドポイントでは、一度だけ表示される API キーを生成し、ユーザーが Datadog アカウント内で削除しない限り、再生成することはできません。**この値は安全なデータベースまたは場所に保存してください**。
-OAuth クライアントの作成、テスト、公開については、[Datadog インテグレーションのための OAuth][5] を参照してください。
+OAuth クライアントの作成、テスト、公開については、[API ベースのインテグレーションを作成する][5] を参照してください。
### サードパーティロケーションからの認可の開始
@@ -101,7 +101,7 @@ OAuth2 プロトコルはいくつかの付与フローをサポートしてい
[2]: /ja/api/latest/scopes/
[3]: /ja/developers/datadog_apps/#oauth-api-access
[4]: https://datatracker.ietf.org/doc/html/rfc6749#section-3.2.1
-[5]: /ja/developers/integrations/oauth_for_integrations
+[5]: /ja/developers/integrations/api_integration
[6]: /ja/developers/authorization/oauth2_endpoints/?tab=authorizationendpoints#request-authorization-from-a-user
[7]: /ja/developers/authorization/oauth2_endpoints/?tab=apikeycreationendpoints#create-an-api-key-on-behalf-of-a-user
[8]: https://tools.ietf.org/html/rfc6749#section-4.1
diff --git a/content/ja/infrastructure/process/increase_process_retention.md b/content/ja/infrastructure/process/increase_process_retention.md
index 9e0f7cb2720..483190efb61 100644
--- a/content/ja/infrastructure/process/increase_process_retention.md
+++ b/content/ja/infrastructure/process/increase_process_retention.md
@@ -14,6 +14,9 @@ further_reading:
- link: https://www.datadoghq.com/blog/rightsize-kubernetes-workloads/
tag: ブログ
text: Kubernetes のワークロードをライトサイジングするための実践的なヒント
+- link: https://www.datadoghq.com/blog/process-tag-rules/
+ tag: ブログ
+ text: プロセス タグ ルールでインフラストラクチャー上のプロセスの可視性を高める
title: プロセスの保持を増やす
---
@@ -36,17 +39,17 @@ title: プロセスの保持を増やす
{{< img src="infrastructure/process/process2metrics_create.png" alt="プロセスベースのメトリクスを作成" style="width:80%;">}}
-1. **タグを選択してクエリにフィルターを適用**: クエリ構文は[ライブプロセス][2]と同じです。フィルターのスコープに一致するプロセスのみが集計対象と認識されます。テキスト検索フィルターはライブプロセスページのみでサポートされています。
+1. **タグを選択してクエリにフィルターを適用**: 利用可能なタグは [Live Processes][2] と同じです。フィルターのスコープに一致するプロセスのみが集計対象となります。テキスト検索フィルターは Live Processes ページでのみサポートされています。
2. **追跡するメジャーを選択**: `Total CPU %` などのメジャーを入力して数値を集計し、対応する `count`、`min`、`max`、`sum`、`avg` の集計メトリクスを作成します。
3. **`group by` にタグを追加**: 選択したタグをディメンションとしてメトリクスに追加し、フィルターの適用、集計、および比較を行います。デフォルトでは、プロセスから生成されたメトリクスに (明示的に追加しない限り) タグは付与されません。ライブプロセスのクエリに対して利用可能なタグは、すべてこのフィールドで使用することができます。
4. **メトリクスに名前を付与**: メトリクスの名前を入力します。プロセスベースのメトリクスには常にプレフィックス _proc._ とサフィックス _[measure_selection]_ が付与されます。
-5. **パーセンタイル集計を追加**: _Include percentile aggregations_ チェックボックスを選択して、p50、p75、p90、p95、p99 パーセンタイルを生成します。パーセンタイルのメトリクスはカスタマーメトリクスとしても扱われ、適宜請求に追加されます。
+5. **パーセンタイル集計を追加**: _Include percentile aggregations_ チェック ボックスを選択して、p50、p75、p90、p95、p99 のパーセンタイルを生成します。パーセンタイル メトリクスもカスタム メトリクスとして扱われ、それに応じて課金されます。
メトリクス作成モーダルの一番下にある **Create Another** チェックボックスを選択することで、同じクエリを使用して複数のメトリクスを作成できます。このボックスを選択すると、モーダルはメトリクスが作成された後も開いたままの状態となり、フィルターと集計グループが事前に入力されます。
**注**: プロセスベースのメトリクスのデータポイントは 10 秒間隔で生成されます。そのため、メトリクスが作成または更新されてから最初のデータポイントが報告されるまでに最大 3 分の遅延が生じる場合があります。
-