Skip to content

Commit

Permalink
Merge branch 'master' into aliciascott/DOCS-6373-ASM-Signals-Explorer
Browse files Browse the repository at this point in the history
  • Loading branch information
aliciascott authored Dec 12, 2023
2 parents 78aad94 + b21ac08 commit 4cf221a
Show file tree
Hide file tree
Showing 20 changed files with 2,124 additions and 311 deletions.
2 changes: 1 addition & 1 deletion content/en/agent/guide/windows-agent-ddagent-user.md
Original file line number Diff line number Diff line change
Expand Up @@ -64,7 +64,7 @@ On domain joined machines, the Agent installer can use a user supplied account,

If a domain account is specified on the command line, it must exist prior to the installation since only domain controllers can create domain accounts.

If a user account is specified on the command line, but this user account is not found on the system, the installer attempts to create it. If a password was specified, the installer uses that password, otherwise it generate a random password.
If a user account is specified on the command line, but this user account is not found on the system, the installer attempts to create it. If a password was specified, the installer uses that password, otherwise it generates a random password.

To specify a username from a domain account, use the following form for the `DDAGENTUSER_NAME` property:

Expand Down
9 changes: 7 additions & 2 deletions content/en/cloud_cost_management/aws.md
Original file line number Diff line number Diff line change
Expand Up @@ -19,13 +19,18 @@ further_reading:

## Overview

To use AWS Cloud Cost Management, you must have an AWS account with access to Cost and Usage Reports (CURs), and have the AWS integration installed in Datadog. To set up Cloud Cost Management in Datadog, you need to generate a Cost and Usage report.
To set up Cloud Cost Management in Datadog, you should:
1. Have an AWS account with billing access
2. Have the AWS integration installed in Datadog
3. Follow the steps below to create a Cost and Usage report

## Setup

### Prerequisite: generate a Cost and Usage Report

Follow AWS instructions for [Creating Cost and Usage Reports][1], and select the following content options for use with Datadog Cloud Cost Management:
[Create a Cost and Usage Report][1] in AWS under the **Legacy Pages** section. At this time, there is no support for creating Cost and Usage Report data exports.

Select the following content options:

* **Include resource IDs**
* **Split cost allocation data** (Enables ECS Cost Allocation. You must also opt in to [AWS Split Cost Allocation][10] in Cost Explorer preferences).
Expand Down
2 changes: 1 addition & 1 deletion content/en/continuous_testing/explorer/search_runs.md
Original file line number Diff line number Diff line change
Expand Up @@ -23,7 +23,7 @@ The facets panel on the left lists several facets you can use to search through

### Common test run attributes

**Commmon** facets allow you to filter on your test runs' attributes.
**Common** facets allow you to filter on your test runs' attributes.

| Facet | Description |
|------------------|---------------------------------------------------------------------------------------------------------|
Expand Down
33 changes: 16 additions & 17 deletions content/en/network_monitoring/performance/setup.md
Original file line number Diff line number Diff line change
Expand Up @@ -407,29 +407,28 @@ If using `docker-compose`, make the following additions to the Datadog Agent ser
```
version: '3'
services:
..
datadog:
image: "gcr.io/datadoghq/agent:latest"
environment:
DD_SYSTEM_PROBE_NETWORK_ENABLED=true
DD_PROCESS_AGENT_ENABLED=true
DD_API_KEY=<DATADOG_API_KEY>
- DD_SYSTEM_PROBE_NETWORK_ENABLED=true
- DD_PROCESS_AGENT_ENABLED=true
- DD_API_KEY=<DATADOG_API_KEY>
volumes:
- /var/run/docker.sock:/var/run/docker.sock:ro
- /proc/:/host/proc/:ro
- /sys/fs/cgroup/:/host/sys/fs/cgroup:ro
- /sys/kernel/debug:/sys/kernel/debug
- /var/run/docker.sock:/var/run/docker.sock:ro
- /proc/:/host/proc/:ro
- /sys/fs/cgroup/:/host/sys/fs/cgroup:ro
- /sys/kernel/debug:/sys/kernel/debug
cap_add:
- SYS_ADMIN
- SYS_RESOURCE
- SYS_PTRACE
- NET_ADMIN
- NET_BROADCAST
- NET_RAW
- IPC_LOCK
- CHOWN
- SYS_ADMIN
- SYS_RESOURCE
- SYS_PTRACE
- NET_ADMIN
- NET_BROADCAST
- NET_RAW
- IPC_LOCK
- CHOWN
security_opt:
- apparmor:unconfined
- apparmor:unconfined
```
[1]: https://app.datadoghq.com/organization-settings/api-keys
Expand Down
11 changes: 0 additions & 11 deletions content/en/tracing/trace_collection/proxy_setup/_index.md
Original file line number Diff line number Diff line change
Expand Up @@ -570,17 +570,6 @@ spec:
apm.datadoghq.com/env: '{ "DD_ENV": "prod", "DD_SERVICE": "my-service", "DD_VERSION": "v1.1"}'
```

The available [environment variables][11] depend on the version of the C++ tracer embedded in the Istio sidecar's proxy.

| Istio Version | C++ Tracer Version |
|---------------|--------------------|
| v1.9.x - v1.17.x | v1.2.1 |
| v1.7.x - v1.8.x | v1.1.5 |
| v1.6.x | v1.1.3 |
| v1.3.x - v1.5.x | v1.1.1 |
| v1.1.3 - v1.2.x | v0.4.2 |


## Deployment and service

If the Agents on your cluster are running as a deployment and service instead of the default DaemonSet, then an additional option is required to specify the DNS address and port of the Agent.
Expand Down
109 changes: 109 additions & 0 deletions content/fr/continuous_integration/pipelines/azure.md
Original file line number Diff line number Diff line change
@@ -0,0 +1,109 @@
---
aliases:
- /fr/continuous_integration/setup_pipelines/azure
further_reading:
- link: https://www.datadoghq.com/blog/azure-pipelines-ci-visibility/
tag: Blog
text: Surveiller des pipelines Azure avec la solution CI Visibility Datadog
- link: /continuous_integration/troubleshooting/
tag: Documentation
text: Dépannage CI
- link: /continuous_integration/pipelines/custom_tags_and_metrics/
tag: Documentation
text: Gagner en visibilité sur les pipelines en ajoutant des tags et des métriques
personnalisés
kind: documentation
title: Configurer le tracing sur un pipeline Azure
---

<div class="alert alert-warning">
Azure DevOps Server n'est pas officiellement pris en charge.
</div>

{{< site-region region="gov" >}}
<div class="alert alert-warning">La solution CI Visibility n'est pas encore disponible pour le site sélectionné ({{< region-param key="dd_site_name" >}}).</div>
{{< /site-region >}}

## Compatibilité

- **Tags personnalisés et métriques à l'exécution** : configurez des [tags personnalisés][6] et des métriques à l'exécution.

## Configurer l'intégration Datadog

L'intégration Datadog pour les [pipelines Azure][1] repose sur l'utilisation de [hooks de service][2] pour envoyer des données à Datadog.

1. Installez l'extension [CI Visibility Datadog][8] à partir du Marketplace Azure.

2. Pour chaque projet, accédez à **Project settings > Service hooks** dans Azure DevOps, puis sélectionnez l'icône plus (+) verte pour créer un abonnement.

3. Créez un abonnement au service `Datadog CI Visibility` pour chacun des types de webhooks suivants :
- **Run state changed**
- **Run stage state changed**
- **Run job state changed**

4. Cliquez sur **Next** pour passer à l'étape suivante et définir ce qui suit :
- **Datadog Site** : {{< region-param key="dd_site" >}}
- **Datadog API Key** : votre [clé d'API Datadog][3]

5. Cliquez sur **Finish**.

<div class="alert alert-info">
Les trois types d'événements pris en charge sont requis. Ils doivent être activés un par un.
Si vous n'activez pas un ou plusieurs événements, l'installation ne peut pas se terminer, ce qui donne lieu à des comportements inattendus dans Datadog.
</div>

### Configurer plusieurs projets à la fois


Si vous souhaitez activer les hooks d'un grand nombre de projets Azure, ou de tous vos projets Azure, Datadog propose un [script](https://raw.githubusercontent.com/DataDog/ci-visibility-azure-pipelines/main/service_hooks.py) vous permettant d'accomplir ces opérations via l'API Azure.

Pour exécuter le script, vous devez fournir les éléments suivants :

- Un nom d'utilisateur Azure DevOps
- Un [token d'API](https://learn.microsoft.com/fr-fr/azure/devops/organizations/accounts/use-personal-access-tokens-to-authenticate?view=azure-devops&tabs=Windows#create-a-pat) Azure DevOps
- Un nom d'organisation Azure DevOps

Le script nécessite uniquement Python 3 et le package des requêtes. Pour obtenir plus d'informations, exécutez ce qui suit :
```shell
./service_hooks.py --help
```

Le script prend en charge les variables d'environnement `DD_API_KEY` et `DD_SITE`, ainsi que les paramètres de flag `--dd-api-key` et `--dd-site`.

Exemple d'activation de hooks dans l'ensemble des projets
```
./service_hooks.py \
--dd-api-key ******************** \
--az-user "John Doe" \
--az-token ********************** \
--az-org datadoghq \
--threads 4
```

Exemple d'activation de hooks dans certains projets
```
./service_hooks.py \
--dd-api-key ******************** \
--az-user "John Doe" \
--az-token ********************** \
--az-org datadoghq \
projectName1 projectName2
```

## Visualiser des données de pipeline dans Datadog

Les pages [Pipelines][4] et [Pipeline Executions][5] affichent des données après l'exécution des workflows.

**Remarque** : la page Pipelines affiche des données uniquement pour la branche par défaut de chaque référentiel.

## Pour aller plus loin

{{< partial name="whats-next/whats-next.html" >}}

[1]: https://azure.microsoft.com/en-us/products/devops/pipelines
[2]: https://learn.microsoft.com/en-us/azure/devops/service-hooks/services/webhooks?view=azure-devops
[3]: https://app.datadoghq.com/organization-settings/api-keys
[4]: https://app.datadoghq.com/ci/pipelines
[5]: https://app.datadoghq.com/ci/pipeline-executions
[6]: /fr/continuous_integration/pipelines/custom_tags_and_metrics/?tab=linux
[8]: https://marketplace.visualstudio.com/items?itemName=Datadog.ci-visibility
102 changes: 102 additions & 0 deletions content/fr/integrations/aws_verified_access.md
Original file line number Diff line number Diff line change
@@ -0,0 +1,102 @@
---
categories:
- cloud
- aws
- log collection
dependencies: []
description: Recueillez les logs AWS Verified Access.
doc_link: https://docs.datadoghq.com/integrations/aws_verified_access/
draft: false
further_reading:
- link: https://www.datadoghq.com/blog/verified-access-datadog/
tag: Blog
text: Renforcer la sécurité des applications professionnelles grâce à AWS Verified Access
et Datadog
git_integration_title: aws_verified_access
has_logo: true
integration_id: amazon-verified-access
integration_title: AWS Verified Access
integration_version: ''
is_public: true
kind: integration
manifest_version: '1.0'
name: aws_verified_access
public_title: Intégration Datadog/AWS Verified Access
short_description: Recueillez les logs AWS Verified Access.
version: '1.0'
---

## Présentation

Grâce à AWS Verified Access, vous pouvez sécuriser l'accès à vos applications professionnelles sans avoir à recourir à un réseau privé virtuel (VPN). Verified Access examine chaque requête d'application et veille à ce que l'accès à chaque application soit accordé uniquement aux utilisateurs qui respectent les exigences de sécurité définies.


## Configuration

### Installation

Si vous ne l'avez pas déjà fait, configurez d'abord [l'intégration Amazon Web Services][1].

### Collecte de logs

#### Activer les logs Verified Access

1. Ouvrez la console Amazon VPC.
2. Dans le volet de navigation, sélectionnez **Verified Access instances**.
3. Sélectionnez l'instance Verified Access.
4. Dans l'onglet Verified Access instance logging configuration, sélectionnez **Modify Verified Access instance logging configuration**.
5. Activez l'option **Deliver to Amazon Cloudwatch Logs**. Choisissez le groupe de logs de destination.

**Remarque** : ajoutez la chaîne `verified-access` au nom du groupe de logs pour activer le parsing automatique des logs.

Pour en savoir plus, consultez la section [Activer ou désactiver les journaux][2].

#### Envoyer des logs à Datadog

**Remarque** : si vous utilisez l'[intégration Amazon Security Lake][3] de Datadog, vous pouvez envoyer des logs Verified Access via cette intégration au lieu de suivre les étapes ci-dessous.

1. Si ce n'est pas déjà fait, configurez la [fonction Lambda du Forwarder Datadog][4] dans votre compte AWS.
2. Une fois la fonction Lambda configurée, accédez-y. Dans la section Function Overview, cliquez sur **Add Trigger**.
3. Sélectionnez le déclencheur **CloudWatch Logs** pour le champ Trigger Configuration.
4. Sélectionnez le groupe de logs où se trouvent vos logs Verified Access.
5. Attribuez un nom au filtre.
6. Cliquez sur **Add** pour ajouter le déclencheur à votre fonction Lambda.

Accédez au [Log Explorer][5] pour commencer à explorer vos logs.

Pour en savoir plus sur la collecte de logs de services AWS, consultez la section [Envoyer des logs de services AWS avec la fonction Lambda Datadog][6].

## Données collectées

### Métriques

L'intégration AWS Verified Access n'inclut aucune collecte de métriques.

### Événements

L'intégration AWS Verified Access n'inclut aucun événement.

### Logs

L'intégration AWS Verified Access inclut [les logs Verified Access][7].

### Checks de service

L'intégration AWS Verified Access n'inclut aucun check de service.

## Dépannage

Besoin d'aide ? Contactez [l'assistance Datadog][8].

## Pour aller plus loin

{{< partial name="whats-next/whats-next.html" >}}

[1]: https://docs.datadoghq.com/fr/integrations/amazon_web_services/
[2]: https://docs.aws.amazon.com/verified-access/latest/ug/access-logs-enable.html
[3]: https://docs.datadoghq.com/fr/integrations/amazon_security_lake/
[4]: https://docs.datadoghq.com/fr/logs/guide/forwarder/
[5]: https://app.datadoghq.com/logs
[6]: https://docs.datadoghq.com/fr/logs/guide/send-aws-services-logs-with-the-datadog-lambda-function/
[7]: https://docs.aws.amazon.com/verified-access/latest/ug/access-logs.html
[8]: https://docs.datadoghq.com/fr/help/
Loading

0 comments on commit 4cf221a

Please sign in to comment.