diff --git a/content/es/account_management/audit_trail/guides/track_dashboard_access_and_configuration_changes.md b/content/es/account_management/audit_trail/guides/track_dashboard_access_and_configuration_changes.md
new file mode 100644
index 0000000000000..a8a6c7c8f5125
--- /dev/null
+++ b/content/es/account_management/audit_trail/guides/track_dashboard_access_and_configuration_changes.md
@@ -0,0 +1,72 @@
+---
+aliases:
+- /es/track_dashboard_usage/
+disable_toc: false
+further_reading:
+- link: account_management/audit_trail/
+  tag: Documentación
+  text: Configurar Audit Trail
+title: Rastrear el acceso a un dashboard y los cambios en su configuración
+---
+
+## Información general
+
+Audit Trail brinda a los administradores de Datadog visibilidad sobre quién dentro de la organización está utilizando Datadog y cómo lo está haciendo. En esta guía, se explica cómo ver la información del uso de un dashboard específico.
+
+## Ver la información del uso de un dashboard específico
+
+### Obtener el ID del dashboard
+
+Necesitas el ID del dashboard para obtener información sobre su uso.
+
+1. Navega hasta [dashboards][1].
+1. Selecciona tu dashboard.
+1. El ID del dashboard se encuentra en la URL del dashboard, situada después de `https://app.datadoghq.com/dashboard/`. Por ejemplo, si la URL del dashboard es `https://app.datadoghq.com/dashboard/pte-tos-7kc/escalations-report`, el ID del dashboard es `pte-tos-7kc`.
+1. Copia el ID del dashboard.
+
+### Ver el uso del dashboard en Audit Trail
+
+Para ver la información del uso del dashboard, utiliza Audit Trail para buscar todas las solicitudes de API `GET` de ese ID de dashboard.
+
+1. Navega hasta [Audit Trail][2].
+2. En la barra de búsqueda, ingresa la consulta `@http.status_code:200 @http.method:GET @http.url_details.path:/api/v1/dashboard/<dashboard_id>`. Sustituye `<dashboard_id>` por el ID de dashboard que copiaste antes.<br>Por ejemplo, si el ID de dashboard es `pte-tos-7kc`, la consulta de búsqueda se verá de la siguiente forma:
+{{< img src="account_management/audit_logs/dashboard_access_query.png" alt="Consulta de búsqueda de todas las solicitudes GET exitosas para el ID de dashboard pte-tos-7kc" style="width:100%;" >}}
+`@http.status_code:200` limita los resultados a las solicitudes exitosas.
+<br>**Nota**: También puedes utilizar el panel de facetas de la parte izquierda de la página para formular la consulta de búsqueda.
+3. Selecciona el marco temporal en la parte superior derecha de la página para ver los eventos de un periodo específico.
+4. Puedes configurar la sección **Group into fields** (Agrupar en campos) y seleccionar diferentes herramientas de visualización para desglosar y analizar los datos en función de tu caso de uso. Por ejemplo, si estableces el campo `group by` en `User Email` y haces clic en **Top List** (Lista de principales) en la sección **Visualize as** (Visualizar como), obtendrás una lista de los usuarios principales que accedieron al dashboard.
+5. Consulta [Crear un dashboard o un gráfico][3] si deseas incluir esta información en un dashboard o un gráfico.
+
+## Ver los cambios recientes en la configuración del dashboard
+
+Puedes utilizar las [consultas de eventos][7] en Audit Trail para ver una lista de los dashboards con cambios recientes en sus configuraciones.
+
+1. Navega hasta [Audit Trail][2].
+1. En el campo **Search for** (Buscar), pega una consulta para filtrar el tipo de cambios que deseas ver. Los siguientes son algunos ejemplos comunes:
+
+   | Evento de auditoría                       | Consulta en el explorador de auditorías                                      |
+   |-----------------------------------|--------------------------------------------------------------|
+   | [Dashboards creados recientemente][4]  | `@evt.name:Dashboard @asset.type:dashboard @action:created`  |
+   | [Dashboards modificados recientemente][5] | `@evt.name:Dashboard @asset.type:dashboard @action:modified` |
+   | [Dashboards eliminados recientemente][6]  | `@evt.name:Dashboard @asset.type:dashboard @action:deleted`  |
+
+1. De manera opcional, en el panel de facetas, utiliza filtros como **Asset ID** (ID de activo) o **Asset Name** (Nombre de activo) para restringir los resultados a un dashboard específico.
+1. Para cada evento de la tabla, puedes ver la dirección de correo electrónico del usuario que realizó el último cambio y un resumen de lo sucedido. 
+
+   Para ver información adicional sobre un cambio concreto, haz clic en la fila de la tabla. Luego, haz clic en la pestaña **Inspect Changes (Diff)** (Inspeccionar cambios [diferencias]) para ver los cambios realizados en la configuración del dashboard:
+
+   {{< img src="account_management/audit_logs/dashboard_change_diff.png" alt="Una diferencia de texto en la que se muestra la adición de un nuevo widget al dashboard" style="width:100%;" >}}
+
+1. Consulta [Crear un dashboard o un gráfico][3] si deseas incluir esta información en un dashboard o un gráfico.
+
+## Referencias adicionales
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: https://app.datadoghq.com/dashboard/lists
+[2]: https://app.datadoghq.com/audit-trail
+[3]: /es/account_management/audit_trail/#create-a-dashboard-or-a-graph
+[4]: https://app.datadoghq.com/audit-trail?query=%40evt.name%3ADashboard%20%40asset.type%3Adashboard%20%40action%3Acreated
+[5]: https://app.datadoghq.com/audit-trail?query=%40evt.name%3ADashboard%20%40asset.type%3Adashboard%20%40action%3Amodified
+[6]: https://app.datadoghq.com/audit-trail?query=%40evt.name%3ADashboard%20%40asset.type%3Adashboard%20%40action%3Adeleted
+[7]: /es/account_management/audit_trail/events
\ No newline at end of file
diff --git a/content/es/account_management/audit_trail/guides/track_monitor_access_and_configuration_changes.md b/content/es/account_management/audit_trail/guides/track_monitor_access_and_configuration_changes.md
new file mode 100644
index 0000000000000..5dd7e6357b446
--- /dev/null
+++ b/content/es/account_management/audit_trail/guides/track_monitor_access_and_configuration_changes.md
@@ -0,0 +1,73 @@
+---
+disable_toc: false
+further_reading:
+- link: account_management/audit_trail/
+  tag: Documentación
+  text: Configurar Audit Trail
+title: Rastrear el acceso a un monitor y los cambios en su configuración
+---
+
+## Información general
+
+Audit Trail brinda a los administradores de Datadog visibilidad sobre quién dentro de la organización está utilizando Datadog y cómo lo está haciendo. En esta guía, se explica cómo ver la información del uso de un monitor específico.
+
+## Ver la información del uso de un monitor específico
+
+### Obtener el ID del monitor
+
+Necesitas el ID del monitor para obtener información sobre su uso.
+
+1. Navega hasta [Monitors][1] (Monitores).
+1. Selecciona tu monitor.
+1. El ID del monitor se encuentra en la URL del monitor, situada después de `https://app.datadoghq.com/monitors/`. Por ejemplo, si la URL del monitor es `https://app.datadoghq.com/monitors/123456789`, el ID del monitor es `123456789`.
+1. Copia el ID del monitor.
+
+### Ver el uso del monitor en Audit Trail
+
+Para ver la información del uso del monitor, utiliza Audit Trail para buscar todas las solicitudes de API `GET` de ese ID de monitor.
+
+1. Navega hasta [Audit Trail][2].
+2. En la barra de búsqueda, ingresa la consulta `@http.status_code:200 @http.method:GET @http.url_details.path:/api/v1/monitor/<monitor_id>`. Sustituye `<monitor_id>` por el ID de monitor que copiaste antes.
+
+   Por ejemplo, si el ID de monitor es `123456789`, la consulta de búsqueda debe ser `@http.status_code:200 @http.method:GET @http.url_details.path:/api/v1/monitor/123456789`. `@http.status_code:200` limita los resultados a las solicitudes exitosas.
+
+   **Nota**: También puedes utilizar el panel de facetas de la parte izquierda de la página para formular la consulta de búsqueda.
+3. Selecciona el marco temporal en la parte superior derecha de la página para ver los eventos de un periodo específico.
+4. Puedes configurar la sección **Group into fields** (Agrupar en campos) y seleccionar diferentes herramientas de visualización para desglosar y analizar los datos en función de tu caso de uso. Por ejemplo, si estableces el campo `group by` en `User Email` y haces clic en **Top List** (Lista de principales) en la sección **Visualize as** (Visualizar como), obtendrás una lista de los usuarios principales que accedieron al monitor.
+5. Consulta [Crear un dashboard o un gráfico][3] si deseas incluir esta información en un dashboard o un gráfico.
+
+## Ver los cambios recientes en la configuración del monitor
+
+Puedes utilizar las [consultas de eventos][8] en Audit Trail para ver una lista de los monitores con cambios recientes en sus configuraciones.
+
+1. Navega hasta [Audit Trail][2].
+1. En el campo **Search for** (Buscar), pega una consulta para filtrar el tipo de cambios que deseas ver. Los siguientes son algunos ejemplos comunes:
+
+   | Evento de auditoría           | Consulta en el explorador de auditorías                                  |
+   |-----------------------|----------------------------------------------------------|
+   | [Monitor creado][4]  | `@evt.name:Monitor @asset.type:monitor @action:created`  |
+   | [Monitor modificado][5] | `@evt.name:Monitor @asset.type:monitor @action:modified` |
+   | [Monitor eliminado][6]  | `@evt.name:Monitor @asset.type:monitor @action:deleted`  |
+   | [Monitor resuelto][7] | `@evt.name:Monitor @asset.type:monitor @action:resolved` |
+
+1. De manera opcional, en el panel de facetas, utiliza filtros como **Asset ID** (ID de activo) o **Asset Name** (Nombre de activo) para restringir los resultados a un monitor específico.
+1. Para cada evento de la tabla, puedes ver la dirección de correo electrónico del usuario que realizó el último cambio y un resumen de lo sucedido. 
+
+   Para ver información adicional sobre un cambio concreto, haz clic en la fila de la tabla. Luego, haz clic en la pestaña **Inspect Changes (Diff)** (Inspeccionar cambios [diferencias]) para ver los cambios realizados en la configuración del monitor:
+
+   {{< img src="account_management/audit_logs/monitor_change_diff.png" alt="Una diferencia de texto en la que se muestra la adición de una etiqueta (tag) `check_type: api` al monitor" style="width:100%;" >}}
+
+1. Consulta [Crear un dashboard o un gráfico][3] si deseas incluir esta información en un dashboard o un gráfico.
+
+## Referencias adicionales
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: https://app.datadoghq.com/monitors/manage
+[2]: https://app.datadoghq.com/audit-trail
+[3]: /es/account_management/audit_trail/#create-a-dashboard-or-a-graph
+[4]: https://app.datadoghq.com/audit-trail?query=%40evt.name%3AMonitor%20%40asset.type%3Amonitor%20%40action%3Acreated
+[5]: https://app.datadoghq.com/audit-trail?query=%40evt.name%3AMonitor%20%40asset.type%3Amonitor%20%40action%3Amodified
+[6]: https://app.datadoghq.com/audit-trail?query=%40evt.name%3AMonitor%20%40asset.type%3Amonitor%20%40action%3Adeleted
+[7]: https://app.datadoghq.com/audit-trail?query=%40evt.name%3AMonitor%20%40asset.type%3Amonitor%20%40action%3Aresolved
+[8]: /es/account_management/audit_trail/events/#monitor-events
\ No newline at end of file
diff --git a/content/es/account_management/plan_and_usage/cost_details.md b/content/es/account_management/plan_and_usage/cost_details.md
new file mode 100644
index 0000000000000..074368cfe3a75
--- /dev/null
+++ b/content/es/account_management/plan_and_usage/cost_details.md
@@ -0,0 +1,159 @@
+---
+further_reading:
+- link: https://docs.datadoghq.com/account_management/billing/
+  tag: Documentación
+  text: Facturación
+- link: https://docs.datadoghq.com/account_management/billing/usage_details/
+  tag: Documentación
+  text: Detalles de uso
+- link: https://docs.datadoghq.com/account_management/multi_organization/
+  tag: Documentación
+  text: Gestión de cuentas de varias organizaciones
+title: Detalles de costes
+---
+
+## Información general
+
+El resumen de costes y las devoluciones de costes te ayudan a entender tus costes estimados del mes hasta la fecha, aquellos previstos para final de mes y los costes históricos de Datadog. Están disponibles los datos de los costes de los últimos 15 meses.
+
+Puedes desglosar tus costes por suborganización y por producto para:
+- Asignar los costes en función de su origen
+- Obtener información sobre el seguimiento de los costes
+
+### Permisos
+
+Los usuarios con los [permisos][1] de lectura de facturación (`billing_read`) y lectura de uso (`usage_read`) pueden ver los datos de resumen de costes y devoluciones de costes. Los usuarios con el rol de administrador de Datadog tienen estos permisos por defecto.
+
+
+## Resumen de costes
+
+Utiliza el resumen de costes para:
+- Ver los costes estimados del mes hasta la fecha y aquellos previstos para final de mes
+- Ver los costes históricos
+- Filtrar y agrupar costes por producto o suborganización
+- Ver las variaciones intermensuales en % y $ de los costes
+- Ver las tendencias de los costes durante el mes
+- Ver los costes acumulados día a día
+
+### Costes previstos (organización principal)
+
+Los costes previstos para final de mes se calculan aplicando a las tarifas contratadas los datos de uso previstos del mes anterior y del mes actual. Los costes previstos para final de mes se actualizan diariamente y pueden cambiar con el tiempo, dependiendo de tu consumo a lo largo de ese mes. Dado que los costes son una predicción, el importe puede diferir de tu coste mensual final. 
+
+### Resumen de costes (organización principal)
+
+La función de resumen de costes varía en función de si utilizas Datadog como organización única o como organización múltiple. Como organización múltiple, puedes ver los costes estimados, previstos e históricos de la organización principal y de cada suborganización. 
+
+{{< img src="account_management/plan_and_usage/multiorg-current-month-historical-costs.png" alt="Captura de pantalla de resumen de costes del mes actual de una organización principal, que muestra el coste total del mes hasta la fecha, el coste previsto, un gráfico con desgloses de costes acumulados y una tabla de resumen que incluye las variaciones de costes intermensuales." >}}
+
+Consulta los costes históricos volviendo a los meses anteriores o utiliza el desplegable de fechas para ver los costes de 1, 3, 6 o 12 meses.
+
+{{< img src="account_management/plan_and_usage/parent-org-multi-month-cost-changes.png" alt="Captura de pantalla de los costes históricos de una organización principal durante un periodo de tres meses, que muestra el coste total del mes, un gráfico con desgloses de costes acumulados y una tabla de resumen que incluye las variaciones de costes intermensuales." >}}
+
+1. Una vez iniciada la sesión en la organización principal, ve a [Plan y uso][2].
+1. Haz clic en la pestaña **Uso**.
+1. En el caso de una organización múltiple, asegúrate de que está seleccionada la pestaña **Total**.
+
+#### Ver y filtrar
+
+Utiliza las facetas de búsqueda de la izquierda para filtrar los costes por **Productos**, **Suborganizaciones** o **Desglose de costes**. Utiliza la pestaña **Coste diario** para ver cómo cambiaron los costes acumulados día a día en el mes actual. 
+
+
+#### Descargar
+
+Para descargar los datos como archivo de valores separados por comas, haz clic en **Download as CSV** (Descargar como CSV). Los datos están disponibles para el mes actual y los meses anteriores definidos previamente. Utiliza el campo `Cost Type` para distinguir los registros:
+- **Proyectado**: Los datos están disponibles para el mes actual.
+- **Estimado del mes hasta la fecha**: Los datos están disponibles desde el primer día del mes hasta la fecha actual. Si aún no se dispone de los datos de costes históricos del mes anterior, también se muestran los datos de costes estimados del mes anterior.
+- **Histórico**: Los datos están disponibles después del cierre del mes, que es aproximadamente 16 días después del final del mes.
+
+Para consultar datos de costes estimados a través de la API, consulta [Obtener costes estimados en tu cuenta][3]. Para consultar datos de costes previstos a través de la API, consulta [Obtener costes previstos en tu cuenta][6].
+
+### Resumen de costes (suborganización)
+
+<div class="alert alert-warning">Esta función tiene una disponibilidad limitada. Para solicitar acceso y confirmar que tu organización cumple los criterios de la función, ponte en contacto con tu representante de cuenta o con el <a href="https://docs.datadoghq.com/help/">servicio de atención al cliente</a>.</div>
+
+Como suborganización, sólo puedes ver los costes de tu organización. Esta restricción permite una propiedad más distribuida y elimina la necesidad de conceder permisos de administrador más amplios a la organización principal.
+
+{{< img src="account_management/plan_and_usage/suborg-cost-trends.png" alt="Captura de pantalla de resumen de costes del mes actual de una suborganización, que muestra el coste total del mes hasta la fecha, el coste previsto, un gráfico con desgloses de costes acumulados y una tabla de resumen que incluye las variaciones de costes intermensuales.">}}
+
+Consulta los costes históricos volviendo a los meses anteriores o utiliza el desplegable de fechas para ver los costes de 1, 3, 6 o 12 meses.
+
+{{< img src="account_management/plan_and_usage/suborg-multi-month-cost-changes.png" alt="Captura de pantalla de los costes históricos de una suborganización durante un periodo de seis meses, que muestra el coste total del mes, un gráfico con desgloses de costes acumulados y una tabla de resumen que incluye las variaciones de costes intermensuales." >}}
+
+1. Una vez iniciada la sesión en la suborganización, ve a [Plan y uso][2].
+1. Haz clic en la pestaña **Uso**.
+1. Asegúrate de que está seleccionada la pestaña **Total**.
+
+#### Ver y filtrar
+
+Utiliza las facetas de búsqueda de la izquierda para filtrar los costes por **Productos** o **Desglose de costes**. Utiliza la pestaña **Coste diario** para ver cómo cambiaron los costes acumulados día a día en el mes actual. 
+
+#### Descargar
+
+Para descargar los datos como archivo de valores separados por comas, haz clic en **Download as CSV** (Descargar como CSV).
+
+## Devolución de costes
+
+Utiliza las devoluciones de costes para:
+- Ver los costes estimados del mes hasta la fecha y los costes históricos de organizaciones múltiples
+- Atribuir costes a cada suborganización
+
+Las devoluciones de costes se derivan de:
+- Cálculo de la tasa de uso de la suborganización. Esto se hace dividiendo el uso por suborganización por el uso total de la organización principal.
+- Aplicando la tasa de uso de la suborganización a los costes de la organización principal, aplicando las devoluciones de costes por suborganización.
+
+### Devoluciones de costes históricos
+
+Desde una organización principal, visualiza los costes históricos finalizados, agregados por producto y suborganización.
+
+{{< img src="account_management/plan_and_usage/historical-cost-chargebacks.png" alt="Captura de pantalla de una tabla denominada 'Resumen de uso y costes', que muestra el uso total en dólares estadounidenses de cuatro suborganizaciones y el coste total." >}}
+
+1. Una vez iniciada la sesión en la organización principal, ve a [Plan y uso][2].
+1. Selecciona la pestaña **Uso**.
+1. Haz clic en **Individual Organizations** (Organizaciones individuales).
+1. Asegúrate de que los conmutadores **Facturable** y **Coste** están seleccionados.
+1. Utiliza el selector de fechas para ver un mes anterior para el que se haya completado la facturación.
+
+**Nota**: Los datos están disponibles tras el cierre del mes, que es aproximadamente 16 días después del final del mes.
+
+### Estimación de las devoluciones de costes
+
+Desde una organización principal, visualiza los costes estimados, agregados por producto y suborganización.
+
+Los datos de costes estimados están disponibles para el mes actual. Si aún no se dispone de los datos de costes históricos del mes anterior, también se mostrarán los datos de costes estimados del mes anterior.
+
+{{< img src="account_management/plan_and_usage/estimated-cost-chargebacks.png" alt="Captura de pantalla de una tabla denominada 'Resumen de uso y costes', que muestra el uso total en dólares estadounidenses de cuatro suborganizaciones y el coste total." >}}
+
+1. Una vez iniciada la sesión en la organización principal, ve a [Plan y uso][2].
+1. Selecciona la pestaña **Uso**.
+1. Haz clic en **Individual Organizations** (Organizaciones individuales).
+1. Asegúrate de que los conmutadores **Facturable** y **Coste** están seleccionados.
+1. Asegúrate de que el selector de fechas muestra el mes actual o el anterior.
+
+### Descargar
+
+- Para descargar datos históricos o estimados de devoluciones de costes como archivo de valores separados por comas, haz clic en **Download as CSV** (Descargar como CSV).
+- Para consultar los datos históricos de devoluciones de costes a través de la API, consulta [Obtener costes históricos en tu cuenta][4].
+- Para consultar los datos estimados de devoluciones de costes a través de la API, consulta [Obtener costes estimados en tu cuenta][3].
+
+## Cómo afectan las agregaciones de facturación a las variaciones de costes
+
+Tu factura estimada del mes hasta la fecha de Datadog varía a lo largo del mes. El tipo de agregación utilizada para facturar cada producto determina cómo se ven afectados los costes. Para una mejor visualización, consulta el gráfico de características del [resumen de costes][5]. Cada filtro **Productos** incluye el método de agregación de facturación correspondiente, junto al nombre del producto.
+
+### Facturación por porcentaje y uso medio
+
+Los productos facturados por el recuento máximo (marca de agua alta) del 99% inferior de uso del mes incluyen hosts de infraestructura y hosts APM. Los productos facturados por la media del mes incluyen métricas personalizadas y tareas de Fargate. Para estos dos tipos de productos, cabe esperar que sus costes se mantengan relativamente estables a lo largo del mes. Sin embargo, están sujetos a cambios de coste si se produce un pico o un descenso significativo en el uso.
+
+### Facturación por suma de uso
+
+Los productos facturados por la suma del uso a lo largo del mes incluyen logs indexados y logs ingeridos. Para este tipo de productos, cabe esperar que sus costes aumenten o disminuyan en función de los cambios en el volumen de uso.
+
+## Referencias adicionales
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: /es/account_management/rbac/
+[2]: https://app.datadoghq.com/billing/usage
+[3]: /es/api/latest/usage-metering/#get-estimated-cost-across-your-account
+[4]: /es/api/latest/usage-metering/#get-historical-cost-across-your-account
+[5]: /es/account_management/plan_and_usage/cost_details/#cost-summary
+[6]: /es/api/latest/usage-metering/#get-projected-cost-across-your-account
\ No newline at end of file
diff --git a/content/es/account_management/scim/okta.md b/content/es/account_management/scim/okta.md
new file mode 100644
index 0000000000000..94686242b90ed
--- /dev/null
+++ b/content/es/account_management/scim/okta.md
@@ -0,0 +1,138 @@
+---
+algolia:
+  tags:
+  - scim
+  - proveedor de identidad
+  - IdP
+  - Okta
+further_reading:
+- link: /account_management/scim/
+  tag: Documentación
+  text: Suministro de usuarios con SCIM
+- link: account_management/saml/mapping/#map-saml-attributes-to-datadog-roles
+  tag: Documentación
+  text: Asignación de atributos de grupos
+title: Configurar SCIM con Okta
+---
+
+Consulta las siguientes instrucciones para sincronizar tus usuarios de Datadog con Okta mediante SCIM.
+
+Para conocer las capacidades y limitaciones de esta característica, consulta [SCIM][1].
+
+## Requisitos previos
+
+SCIM en Datadog es una característica avanzada disponible con los planes Infrastructure Pro y Infrastructure Enterprise.
+
+Esta documentación presupone que tu organización gestiona las identidades de los usuarios utilizando un proveedor de identidad (IdP).
+
+Datadog recomienda utilizar la clave de aplicación de una cuenta de servicio al configurar SCIM, para evitar cualquier interrupción en el acceso. Para obtener más información, consulta el [uso de cuentas de servicio con SCIM][2].
+
+Al utilizar SAML y SCIM conjuntamente, Datadog recomienda encarecidamente deshabilitar el suministro justo-a-tiempo (JIT) de SAML, para evitar discrepancias en el acceso. Gestiona el suministro de usuarios únicamente a través del SCIM.
+
+## Seleccionar la aplicación de Datadog en la galería de aplicaciones de Okta
+
+1. En tu portal de Okta, ve a **Applications** (Aplicaciones).
+2. Haz clic en **Browse App Catalog** (Examinar el catálogo de aplicaciones).
+3. Escribe "Datadog" en la casilla de búsqueda.
+4. Selecciona la aplicación de Datadog.
+5. Haz clic en **Add Integration** (Añadir integración).
+
+**Nota:** Si ya tienes Datadog configurado con Okta, selecciona tu aplicación de Datadog existente.
+
+## Configurar el suministro automático de usuarios
+
+1. En la pantalla de gestión de aplicaciones, selecciona **Provisioning** (Suministrar) en el panel izquierdo
+2. Haz clic en **Configure API integration** (Configurar la integración de API).
+3. Selecciona **Enable API integration** (Activar la integración de API).
+4. Rellena la sección **Credentials** (Credenciales) del siguiente modo:
+    - **Base URL** (URL base): `https://{{< region-param key="dd_full_site" >}}/api/v2/scim` **Nota:** Utiliza el subdominio apropiado para tu sitio. Para encontrar tu URL, consulta los [sitios de Datadog][3].
+    - **API Token** (Token de API): utiliza una clave de aplicación válida de Datadog. Puedes crear una clave de aplicación en [la página de parámetros de tu organización][4]. Para mantener un acceso continuo a tus datos, utiliza una clave de aplicación de [cuenta de servicio][5].
+
+{{< img src="/account_management/scim/okta-admin-credentials.png" alt="Pantalla de configuración de credenciales del administrador de Okta">}}
+
+5. Haz clic en **Test API Credentials** (Probar credenciales de API) y espera a que aparezca el mensaje que confirma que se han verificado las credenciales.
+6. Haz clic en **Save** (Guardar). Aparece la sección de parámetros.
+7. Junto a **Provisioning to App** (Suministro de la aplicación), selecciona **Edit** (Editar) para activar las siguientes características:
+    - **Create Users** (Crear usuarios)
+    - **Update User Attributes** (Actualizar atributos de usuario)
+    - **Deactivate Users** (Desactivar usuarios)
+8. En **Datadog Attribute Mappings** (Asignación de atributos de Datadog), busca la asignación de atributos de Okta a atributos de Datadog ya preconfigurados. Puedes volver a asignarlos si es necesario, pero asigna los valores de Okta al mismo conjunto de valores de Datadog.
+
+## Configurar el suministro automático de equipos
+
+{{< callout url="/help/" header="false" >}}
+La característica Managed Teams (Equipos gestionados) está desactivada de forma predeterminada. Ponte en contacto con el servicio de asistencia para solicitar acceso.
+{{< /callout >}}
+
+Con [Managed Teams][6] (Equipos gestionados), tú controlas el suministro principal de un equipo de Datadog (su nombre, identificador y miembros) a través del proveedor de identidad. El proceso de configuración difiere en función de si el equipo ya existe en Datadog.
+
+**Nota:** Los usuarios deben existir en Datadog antes de poder añadirlos a un equipo. Por lo tanto, debes asignar usuarios a la aplicación de Datadog en Okta para asegurarte de que se creen en Datadog a través de SCIM. Asigna la aplicación de Datadog a tu grupo de Okta para asegurarte de que todos los miembros del equipo se creen en Datadog automáticamente.
+
+### Crear un nuevo equipo en Datadog
+
+1. En tu aplicación de Datadog en Okta, navega hasta la pestaña **Push Groups** (Enviar grupos).
+{{< img src="/account_management/scim/okta/pushed-groups.png" alt="Interfaz de configuración de grupos enviados de Okta">}}
+1. Haz clic en el botón **Push Groups** (Enviar grupos). Se abre la interfaz de grupos enviados.
+1. Selecciona el grupo de Okta que deseas enviar a Datadog.
+1. En la columna **Match result & push action** (Resultado de coincidencia y acción de envío), asegúrate de que la acción **Create group** (Crear grupo) esté seleccionada.
+1. Haz clic en **Save** (Guardar).
+
+Para verificar que la operación se haya completado correctamente, navega hasta [Teams list][7] (Lista de equipos) en Datadog. Busca un equipo de Datadog que coincida con el grupo de Okta que configuraste. Comprueba que el equipo existe en Datadog y que se gestiona de forma externa. Pueden pasar uno o dos minutos antes de que el equipo aparezca en Datadog.
+
+{{< img src="/account_management/scim/okta/managed-externally.png" alt="Lista de equipos de Datadog en la que se muestra un equipo llamado Equipo de identidad que se gestiona de forma externa.">}}
+
+### Sincronizar un equipo de Datadog existente con un grupo de Okta
+
+Puedes asignar un equipo de Datadog existente a un grupo de Okta. Al establecer un vínculo entre el grupo de Okta y el equipo de Datadog, el equipo de Datadog pasará a gestionarse en Okta.
+
+**Nota:** Para sincronizar un equipo de Datadog existente con un grupo de Okta, los dos nombres deben coincidir con exactitud.
+
+1. En tu aplicación de Datadog en Okta, navega hasta la pestaña **Push Groups** (Enviar grupos).
+1. Haz clic en el botón **Push Groups** (Enviar grupos). Se abre la interfaz de grupos enviados.
+1. Selecciona el grupo de Okta que deseas sincronizar con un equipo de Datadog.
+1. En la columna **Match result & push action** (Resultado de coincidencia y acción de envío), asegúrate de que la acción **Create group** (Crear grupo) esté seleccionada.
+1. Haz clic en **Save** (Guardar).
+
+**Nota:** Cuando seleccionas **Create group** (Crear grupo), en Okta se muestra un mensaje **No match found** (No se encontraron coincidencias). Puedes ignorar este mensaje y seguir con la creación del grupo para establecer la sincronización.
+
+### Eliminar la conexión entre un grupo de Okta y un equipo de Datadog
+
+Tienes dos opciones para desconectar un grupo de Okta de un equipo de Datadog, con diferentes efectos en la membresía del equipo de Datadog.
+
+#### Conservar a los miembros del equipo en Datadog
+
+Este procedimiento te permite gestionar la pertenencia de un equipo en Datadog en lugar de Okta. Los miembros del equipo no cambian.
+
+1. En tu aplicación de Datadog en Okta, navega hasta la pestaña **Push Groups** (Enviar grupos).
+1. Haz clic en el botón **Push Groups** (Enviar grupos). Se abre la interfaz de grupos enviados.
+1. Selecciona el grupo de Okta que deseas desvincular de su equipo de Datadog.
+1. En la columna **Match result & push action** (Resultado de coincidencia y acción de envío), selecciona la acción **Unlink Pushed Group** (Desvincular grupo enviado). Aparece un cuadro de diálogo.
+1. Selecciona **Leave the group in the target app** (Dejar el grupo en la aplicación de destino).
+1. Haz clic en **Unlink** (Desvincular).
+1. Haz clic en **Save** (Guardar).
+
+#### Eliminar a los miembros del equipo de Datadog
+
+Este procedimiento te permite gestionar la pertenencia de un equipo en Datadog en lugar de Okta y elimina a los miembros del equipo de Datadog.
+
+1. En tu aplicación de Datadog en Okta, navega hasta la pestaña **Push Groups** (Enviar grupos).
+1. Haz clic en el botón **Push Groups** (Enviar grupos). Se abre la interfaz de grupos enviados.
+1. Selecciona el grupo de Okta que deseas desvincular de tu equipo de Datadog.
+1. En la columna **Match result & push action** (Resultado de coincidencia y acción de envío), selecciona la acción **Unlink Pushed Group** (Desvincular grupo enviado). Aparece un cuadro de diálogo.
+1. Selecciona **Delete the group in the target app (recommended)** (Eliminar el grupo en la aplicación de destino [recomendado]).
+1. Haz clic en **Unlink** (Desvincular).
+1. Haz clic en **Save** (Guardar).
+
+**Nota:** Contrariamente al nombre de la opción, seleccionar **Delete the group in the target app** (Eliminar el grupo en la aplicación de destino) _no_ elimina el equipo en Datadog. En cambio, elimina a todos los miembros del equipo y elimina el vínculo entre el grupo en Okta y el equipo de Datadog.
+
+## Referencias adicionales
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: /es/account_management/scim/
+[2]: /es/account_management/scim/#using-a-service-account-with-scim
+[3]: /es/getting_started/site
+[4]: https://app.datadoghq.com/organization-settings/application-keys
+[5]: /es/account_management/org_settings/service_accounts
+[6]: /es/account_management/teams/manage/#manage-teams-through-an-identity-provider
+[7]: https://app.datadoghq.com/teams
\ No newline at end of file
diff --git a/content/es/agent/fleet_automation/remote_management.md b/content/es/agent/fleet_automation/remote_management.md
new file mode 100644
index 0000000000000..5fa40d4662dde
--- /dev/null
+++ b/content/es/agent/fleet_automation/remote_management.md
@@ -0,0 +1,114 @@
+---
+description: Actualizar y configurar Agents de forma remota
+further_reading:
+- link: /agent/fleet_automation/
+  tag: Documentación
+  text: Automatización de flotas
+- link: /agent/remote_config/
+  tag: Documentación
+  text: Configuración remota
+title: Gestión remota de Agents
+---
+
+{{< callout url="https://www.datadoghq.com/product-preview/agent-upgrades/" btn_hidden="false" header="Try the Preview!">}}
+La actualización de Agents con la gestión remota está en vista previa. Utiliza este formulario para solicitar acceso.
+{{< /callout >}}
+
+## Información general
+
+La gestión remota de Agents simplifica el proceso de actualización de tu flota de Agents, ya que reduce la necesidad de coordinar varias herramientas de despliegue o gestión de la configuración. La gestión remota de Agents te ofrece lo siguiente:
+* **Gestión centralizada**: actualiza los Agents en todos los entornos con una sola herramienta, lo que garantiza la coherencia con las últimas características y parches de seguridad.
+* **Visibilidad y monitorización**: haz un seguimiento del estado de las actualizaciones en tiempo real, lo que permite verificar rápidamente el éxito del despliegue.
+* **Eficiencia operativa**: agiliza el proceso de actualización, lo que elimina la coordinación entre equipos y unifica el despliegue en distintas plataformas.
+
+## Configuración
+
+Para activar la gestión remota de Agents:
+1. Si todavía no activaste la configuración remota en el Agent, sigue las [instrucciones de configuración][1] para activarla.
+1. Ve a la [página de instalación del Datadog Agent][3] de tu plataforma o herramienta de gestión de configuración.
+1. Activa **Remote Agent Management** (Gestión remota de Agents). La activación de la gestión remota de Agents añade la variable de entorno `DD_REMOTE_UPDATES` al comando de instalación del Agent generado.
+
+   {{< img src="/agent/fleet_automation/remote-agent-management-toggle.png" alt="Botón de activación de la gestión remota de Agents." style="width:100%;" >}}
+
+1. Utiliza el comando de instalación del Agent generado para actualizar tu Agent.
+
+   **Nota**: Debes ejecutar el comando de instalación generado con `DD_REMOTE_UPDATES` establecido en `true` para obtener acceso a la gestión remota de Agents. La activación de la gestión remota de Agents sin ejecutar el comando de instalación no concede acceso a la característica.
+
+## Actualizar Agents de forma remota
+### Plataformas compatibles
+
+- Máquinas virtuales Linux instaladas mediante el script de instalación o el rol de Ansible para Datadog
+- Máquinas virtuales Windows que utilizan el método de instalación predeterminado (gMSA o cuenta `ddagentuser` predeterminada)
+
+<div class="alert alert-info">La actualización remota de Agents en entornos de contenedores no es compatible.</div>
+
+### Requisitos previos
+
+* **Permisos de usuario**: los usuarios deben tener el permiso [Agent Upgrade][2] dentro de Fleet Automation (Automatización de flotas). El permiso está activado de forma predeterminada en el rol Datadog Admin.
+* **Espacio en disco**: Datadog sugiere tener al menos 2 GB para la instalación inicial del Agent y 2 GB adicionales para actualizar el Agent desde Fleet Automation (Automatización de flotas). En concreto, la actualización requiere 1,3 GB en el directorio `/opt/datadog-packages` en Linux, o `C:\ProgramData\Datadog Installer\packages` en Windows. El espacio adicional garantiza que haya espacio suficiente para mantener temporalmente dos instalaciones de Agent durante la actualización proceso en caso de que sea necesaria una reversión.
+
+### Actualizar los Agents
+
+<div class="alert alert-warning">Las actualizaciones remotas de Agents se encuentran en vista previa. Prueba la característica solo en hosts que no sean esenciales para las cargas de trabajo de producción. Intenta actualizar los Agents de uno en uno antes de probar las actualizaciones masivas.</div>
+
+Para actualizar tus Agents:
+1. [Activa la gestión remota de Agents](#setup).
+1. Desde la [pestaña **Upgrade Agents**][4] (Actualizar Agents), haz clic en **Start Agents Upgrade** (Iniciar actualización de Agents).
+
+   {{< img src="/agent/fleet_automation/upgrade-screen.png" alt="Selecciona los Agents que deseas actualizar." style="width:100%;" >}}
+1. Selecciona los Agents que deseas actualizar. Puedes filtrar por información de host o etiquetas (tags) para dirigirte a un grupo de Agents.
+
+   {{< img src="/agent/fleet_automation/start-agent-upgrade.png" alt="Selecciona los Agents que deseas actualizar." style="width:100%;" >}}
+1. Haz clic en **Upgrade Agents** (Actualizar Agents) para iniciar la actualización.
+1. Utiliza el dashboard [Deployments][10] (Despliegues) para hacer un seguimiento del proceso de actualización. Al hacer clic en un Agent en la tabla de despliegues, obtendrás más información sobre la actualización, incluido la duración, el progreso y el usuario que inició la actualización.
+   {{< img src="/agent/fleet_automation/deployments.png" alt="Selecciona los Agents que deseas actualizar." style="width:100%;" >}}
+
+### Proceso de actualización
+
+Al igual que en una actualización manual, se espera un caída del sistema de 5 a 30 segundos mientras se reinicia el Agent. El proceso de actualización completo tarda aproximadamente 5 minutos. Alrededor de 2 minutos de este tiempo se utilizan para el proceso de actualización. El resto del tiempo se dedica a la monitorización de la actualización para garantizar la estabilidad y determinar si es necesaria una reversión. Si la actualización falla y se requiere una reversión, el Agent vuelve automáticamente a su versión anterior.
+
+El proceso de actualización añade principalmente archivos a los siguientes directorios:
+
+Linux:
+* `/opt/datadog-packages`
+* `/etc/datadog-agent`
+* `/etc/systemd/system`
+
+Windows:
+* `C:\ProgramData\Datadog Installer\packages`
+* `C:\Program Files\Datadog\Datadog Agent`
+
+El Agent garantiza que se establezcan los permisos adecuados para estos archivos. No se altera ningún archivo de configuración durante el proceso de instalación.
+
+### Prioridad de las actualizaciones
+
+Para disfrutar de una experiencia de actualización más coherente, Datadog recomienda gestionar las actualizaciones de una fuente a la vez. Utiliza la actualización de flotas o una herramienta de gestión de configuración. Si ejecutas una herramienta de gestión de configuración en un Agent que ya se ha actualizado mediante la actualización de flotas, la actualización revierte el Agent a la [`DD_AGENT_MINOR_VERSION`][9] especificada en tu configuración. Si no se establece una `DD_AGENT_MINOR_VERSION`, el Agent se actualiza a la última versión disponible.
+
+### Duplicaciones y proxies
+
+Puede utilizar la gestión remota de Agents junto con un proxy o repositorios duplicados.
+
+Para obtener instrucciones sobre cómo configurar tu Agent para utilizar un proxy, consulta [Configuración del proxy del Agent][6]. Una vez configurado el proxy, reinicia el Agent para aplicar los parámetros.
+
+Para obtener instrucciones sobre el uso de repositorios duplicados o con air-gap, consulta las siguientes páginas:
+- [Sincroniza las imágenes de Datadog con un registro de contenedores privado][7].
+- [Instalar el Agent en un servidor con conectividad limitada a Internet][8]
+
+### Cambio a versiones anteriores de Agents
+
+Si necesitas cambiar un Agent a una versión anterior, sigue los pasos de [Actualizar los Agents](#downgrading-agents) y especifica la versión a la que deseas cambiar. Datadog recomienda utilizar la última versión del Agent y actualizarlo con regularidad para asegurarse de tener acceso a las últimas características.
+
+## Referencias adicionales
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: /es/agent/remote_config/#enabling-remote-configuration
+[2]: /es/account_management/rbac/permissions#fleet-automation
+[3]: https://app.datadoghq.com/account/settings/agent/latest
+[4]: https://app.datadoghq.com/fleet/agent-upgrades
+[5]: https://app.datadoghq.com/fleet/deployments
+[6]: /es/agent/configuration/proxy/
+[7]: /es/containers/guide/sync_container_images/
+[8]: https://docs.datadoghq.com/es/agent/guide/installing-the-agent-on-a-server-with-limited-internet-connectivity/
+[9]: https://github.com/DataDog/agent-linux-install-script?tab=readme-ov-file#install-script-configuration-options
+[10]: https://app.datadoghq.com/fleet/deployments
\ No newline at end of file
diff --git a/content/es/cloud_cost_management/budgets.md b/content/es/cloud_cost_management/budgets.md
new file mode 100644
index 0000000000000..8fb3fdbb49b9f
--- /dev/null
+++ b/content/es/cloud_cost_management/budgets.md
@@ -0,0 +1,67 @@
+---
+description: Después de empezar a ingerir costes en Cloud Cost Management, configura
+  presupuestos y visualiza cómo los estás rastreando.
+further_reading:
+- link: /cloud_cost_management/
+  tag: Documentación
+  text: Cloud Cost Management
+title: Presupuestos
+---
+
+## Información general
+Una vez que empieces a ingerir tus costes en Cloud Cost Management, configura los presupuestos y visualiza cómo los estás rastreando.
+
+## Crear un presupuesto
+
+1. Ve a [**Cloud Cost > Plan > Presupuestos**][1].
+2. Haz clic en el botón **Create a New Budget** (Crear un nuevo presupuesto).
+3. Introduce los siguientes datos:
+   - **Nombre del presupuesto**: Introduce un nombre para tu presupuesto.
+   - **Fecha de inicio**: Introduce una fecha de inicio para el presupuesto (puede ser un mes pasado). Los presupuestos se configuran a nivel del mes.
+   - **Fecha final**: Introduce una fecha final para el presupuesto (puede ser en el futuro).
+   - **Proveedor(es)**: Presupuesto de cualquier combinación de AWS, Azure, Google Cloud u otro SaaS (incluyendo los costes de Datadog o personalizados).
+   - **Dimensión del presupuesto**: Especifica una dimensión para rastrear el presupuesto, junto con sus valores correspondientes. Por ejemplo, si quieres crear presupuestos para los 4 equipos principales, debes seleccionar "equipo" en el primer desplegable y los equipos específicos en el segundo desplegable.
+
+    {{< img src="cloud_cost/budgets/budget-create-define-1.png" alt="Vista de creación del presupuesto: rellena los detalles del presupuesto." style="width:100%;" >}}
+
+4. Rellena todos los presupuestos de la tabla. Puedes copiar automáticamente los valores del primer mes al resto de los meses haciendo clic en el botón Copy (Copiar).
+
+5. Haz clic en **Save** (Guardar) en la parte inferior derecha.
+
+## Visualizar el estado del presupuesto
+La página [Presupuestos][1] enumera todos los presupuestos de tu organización, resaltando el creador del presupuesto, los presupuestos excedidos
+y otros detalles relevantes. Haz clic en **View Performance** (Ver rendimiento) para investigar el presupuesto y comprender qué puede estar causando que se sobrepase el presupuesto.
+
+   {{< img src="cloud_cost/budgets/budget-list.png" alt="Enumerar todos los presupuestos">}}
+
+En la página **Ver rendimiento** de un presupuesto individual, puedes alternar la opción de visualización desde la parte superior izquierda:
+
+<div class="alert alert-info">
+No puedes ver el presupuesto frente a los datos reales antes de los 15 meses, ya que las métricas de costes se conserva durante 15 meses.
+</div>
+
+- Puedes ver el estado del presupuesto para el **mes en curso**:
+
+   {{< img src="cloud_cost/budgets/budget-status-month.png" alt="Vista del estado del presupuesto: ver el mes en curso">}}
+
+- O puedes ver **toda la duración (todos)** del estado del presupuesto:
+
+   {{< img src="cloud_cost/budgets/budget-status-all.png" alt="Vista del estado del presupuesto: ver el presupuesto total">}}
+
+## Investigar presupuestos
+
+   {{< img src="cloud_cost/budgets/budget-investigate-1.png" alt="Utiliza el filtro desplegable o la opción Aplicar filtro de la tabla para investigar dimensiones de exceso de presupuesto. ">}}
+
+Para investigar presupuestos:
+1. Desde la página del presupuesto individual, filtra los presupuestos utilizando el desplegable de la parte superior o la opción "Aplicar filtro" de la tabla para investigar las dimensiones que exceden el presupuesto.
+2. Haz clic en **Copy Link** (Copiar enlace) para compartir el presupuesto con otras personas y ayudarles a entender por qué se están excediendo los presupuestos. O bien, comparte los presupuestos con el servicio de finanzas para mostrarles cómo los estás rastreando.
+
+## Eliminar presupuestos
+Para eliminar un presupuesto, haz clic en el icono de la papelera en la página Presupuestos.
+
+   {{< img src="cloud_cost/budgets/budget-delete.png" alt="Enumera todos los presupuestos">}}
+
+## Referencias adicionales
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: https://app.datadoghq.com/cost/plan/budgets
\ No newline at end of file
diff --git a/content/es/cloud_cost_management/container_cost_allocation.md b/content/es/cloud_cost_management/container_cost_allocation.md
new file mode 100644
index 0000000000000..17dab5c7eecfa
--- /dev/null
+++ b/content/es/cloud_cost_management/container_cost_allocation.md
@@ -0,0 +1,442 @@
+---
+description: Aprende a asignar los gastos de Cloud Cost Management en toda tu organización
+  con la Asignación de costes de contenedores.
+further_reading:
+- link: /cloud_cost_management/
+  tag: Documentación
+  text: Más información sobre Cloud Cost Management
+private: true
+title: Asignación de costes de contenedores
+---
+
+{{< jqmath-vanilla >}}
+
+## Información general
+
+Datadog Cloud Cost Management (CCM) asigna automáticamente los costes de tus clústeres en la nube a los servicios y las cargas de trabajo individuales que se ejecutan en esos clústeres. Utiliza métricas de costes enriquecidas con etiquetas (tags) de pods, nodos, contenedores y tareas para visualizar el coste de las cargas de trabajo de contenedores en el contexto de toda tu factura de nube.
+
+Nubes
+: CCM asigna los costes de tus instancias de host AWS, Azure o Google. Un host es un equipo (como una instancia EC2 en AWS, una máquina virtual en Azure o una instancia Compute Engine en Google Cloud) que aparece en el informe de costes y uso de tu proveedor de nube y que podría estar ejecutando pods Kubernetes.
+
+Recursos
+: CCM asigna los costes de clústeres Kubernetes e incluye análisis de costes de muchos recursos asociados como volúmenes Kubernetes persistentes utilizados por tus pods.
+
+CCM muestra los costes de los recursos, como CPU, memoria y otros, en función de la nube y el orquestador que estés utilizando en la página [**Contenedores**][1].
+
+{{< img src="cloud_cost/container_cost_allocation/container_allocation.png" alt="Tabla de asignación de costes de la nube que muestra las solicitudes y los costes de inactividad durante el último mes en la página Contenedores" style="width:100%;" >}}
+
+## Requisitos previos
+
+{{< tabs >}}
+{{% tab "AWS" %}}
+
+CCM asigna los costes de los clústeres AWS ECS, así como de todos los clústeres Kubernetes, incluidos los clústeres gestionados mediante Elastic Kubernetes Service (EKS).
+
+La siguiente tabla presenta la lista de características recopiladas y las versiones mínimas del Agent y el Cluster Agent de cada una de ellas.
+
+| Función | Versión mínima del Agent | Versión mínima del Cluster Agent |
+|---|---|---|
+| Asignación de costes de contenedores | 7.27.0 | 1.11.0 |
+| Asignación de costes de contenedores GPU | 7.54.0 | 7.54.0 |
+| Asignación de volúmenes persistentes AWS | 7.46.0 | 1.11.0 |
+| Asignación de costes de transferencia de datos    | 7.58.0 | 7.58.0 |
+
+1. Configura la integración AWS Cloud Cost Management en la página [Configuración de costes en la nube][101].
+1. Para una compatibilidad con Kubernetes, instala el [**Datadog Agent**][102] en un entorno Kubernetes y asegúrate de habilitar el [**Orchestrator Explorer**][103] en tu configuración del Agent.
+1. Para una compatibilidad con AWS ECS, configura la [**monitorización de contenedores de Datadog**][104] en las tareas ECS.
+1. Opcionalmente, habilita la [asignación de costes divididos de AWS][105] para la asignación de ECS basada en el uso.
+1. Para habilitar la asignación de costes de almacenamiento, configura la [recopilación de métricas EBS][108].
+1. Para habilitar la asignación de costes de contenedores GPU, instala la [integración Datadog DCGM][106].
+1. Para habilitar la asignación de costes de transferencia de datos, configura [Cloud Network Monitoring][107]. **Nota**: se aplican cargos adicionales.
+
+[101]: https://app.datadoghq.com/cost/setup
+[102]: /es/containers/kubernetes/installation/?tab=operator
+[103]: /es/infrastructure/containers/orchestrator_explorer?tab=datadogoperator
+[104]: /es/containers/amazon_ecs/
+[105]: https://docs.aws.amazon.com/cur/latest/userguide/enabling-split-cost-allocation-data.html
+[106]: /es/integrations/dcgm/?tab=kubernetes#installation
+[107]: /es/network_monitoring/cloud_network_monitoring/setup
+[108]: /es/integrations/amazon_ebs/#metric-collection
+
+{{% /tab %}}
+{{% tab "Azure" %}}
+
+CCM asigna los costes de todos los clústeres Kubernetes, incluidos los clústeres gestionados mediante Azure Kubernetes Service (AKS).
+
+La siguiente tabla presenta la lista de características recopiladas y las versiones mínimas del Agent y el Cluster Agent de cada una de ellas.
+
+| Función | Versión mínima del Agent | Versión mínima del Cluster Agent |
+|---|---|---|
+| Asignación de costes de contenedores | 7.27.0 | 1.11.0 |
+| Asignación de costes de contenedores GPU | 7.54.0 | 7.54.0 |
+
+1. Configura la integración Azure Cost Management en la página [Configuración de costes en la nube][101].
+1. Instala el [**Datadog Agent**][102] en un entorno Kubernetes y asegúrate de habilitar el [**Orchestrator Explorer**][103] en tu configuración del Agent.
+1. Para habilitar la asignación de costes de contenedores GPU, instala la [integración Datadog DCGM][104].
+
+[101]: https://app.datadoghq.com/cost/setup
+[102]: /es/containers/kubernetes/installation/?tab=operator
+[103]: /es/infrastructure/containers/orchestrator_explorer?tab=datadogoperator
+[104]: https://docs.datadoghq.com/es/integrations/dcgm/?tab=kubernetes#installation
+
+{{% /tab %}}
+{{% tab "Google" %}}
+
+CCM asigna los costes de todos los clústeres Kubernetes, incluidos los clústeres gestionados mediante Google Kubernetes Engine (GKE).
+
+La siguiente tabla presenta la lista de características recopiladas y las versiones mínimas del Agent y el Cluster Agent de cada una de ellas.
+
+| Función | Versión mínima del Agent | Versión mínima del Cluster Agent |
+|---|---|---|
+| Asignación de costes de contenedores | 7.27.0 | 1.11.0 |
+| Asignación de costes de contenedores GPU | 7.54.0 | 7.54.0 |
+
+1. Configura la integración Google Cloud Cost Management en la página [Configuración de costes en la nube][101].
+1. Instala el [**Datadog Agent**][102] en un entorno Kubernetes y asegúrate de habilitar el [**Orchestrator Explorer**][103] en tu configuración del Agent.
+1. Para habilitar la asignación de costes de contenedores GPU, instala la [integración Datadog DCGM][104].
+
+[101]: https://app.datadoghq.com/cost/setup
+[102]: /es/containers/kubernetes/installation/?tab=operator
+[103]: /es/infrastructure/containers/orchestrator_explorer?tab=datadogoperator
+[104]: https://docs.datadoghq.com/es/integrations/dcgm/?tab=kubernetes#installation
+
+{{% /tab %}}{{< /tabs >}}
+
+## Asignar costes
+
+La asignación de costes divide los costes de cálculo de hosts y otros recursos de tu proveedor de nube en tareas individuales o en pods asociados a ellas. Luego, estos costes divididos se enriquecen con las etiquetas (tags) de los recursos asociados para que puedas desglosar los costes por cualquier dimensión asociada.
+
+Utiliza la etiqueta (tag) `allocated_resource` para visualizar los recursos de los gastos asociados a tus costes en varios niveles, incluido el nodo Kubernetes, el host de orquestación de contenedores, el volumen de almacenamiento o a nivel de todo el clúster.
+
+{{< tabs >}}
+{{% tab "AWS" %}}
+
+Estos costes divididos se enriquecen con las etiquetas (tags) de nodos, pods, tareas y volúmenes. Puedes utilizar estas etiquetas (tags) para desglosar los costes por cualquier dimensión asociada.
+
+### Cálculo
+
+Para la asignación de cálculo de Kubernetes, se conecta un nodo Kubernetes a sus costes de instancia de host asociados. El nombre de clúster del nodo y todas las etiquetas (tags) del nodo se añaden a todo el coste de cálculo del nodo. Esto permite asociar dimensiones de nivel de clúster al coste de la instancia, sin tener en cuenta los pods programados para el nodo.
+
+A continuación, Datadog examina todos los pods ejecutados en ese nodo durante el día. El coste del nodo se asigna al pod en función de los recursos utilizados y del tiempo que estuvo en ejecución. Este coste calculado se enriquece con todas las etiquetas (tags) del pod.
+
+**Nota**: Sólo se añaden _etiquetas_ (tags) de pods y nodos a las métricas de costes. Para incluir etiquetas (labels), habilita las etiquetas (labels) como etiquetas (tags) para [nodos][101] y [pods][102].
+
+Todos los demás costes reciben el mismo valor y las mismas etiquetas (tags) que la métrica `aws.cost.amortized` de origen.
+
+### Almacenamiento de volúmenes persistentes
+
+Para la asignación del almacenamiento de volúmenes persistentes de Kubernetes, los volúmenes persistentes (PV), los reclamos de volúmenes persistentes (PVC), los nodos y los pods se conectan con sus costes de volúmenes EBS asociados. Todas las etiquetas (tags) de PV, PVC, nodos y pods asociadas se añaden a las partidas de costes de volúmenes EBS.
+
+A continuación, Datadog examina todos los pods que reclamaron el volumen ese día. El coste del volumen se asigna a un pod en función de los recursos que utilizó y del tiempo que estuvo en ejecución. Estos recursos incluyen la capacidad aprovisionada de almacenamiento, IOPS y rendimiento. Este coste asignado se enriquece con todas las etiquetas (tags) del pod.
+
+### AWS ECS en EC2
+
+Para la asignación de ECS, Datadog determina qué tareas se ejecutan en cada instancia EC2 utilizada para ECS. Si habilitas la asignación de costes divididos de AWS, las métricas asignan los costes de ECS por uso, en lugar de por reserva, lo que proporciona un detalle más específico.
+
+En función de los recursos utilizados por la tarea, Datadog asigna la parte apropiada del coste de cálculo de la instancia a esa tarea. El coste calculado se enriquece con todas las etiquetas (tags) de la tarea y con todas las etiquetas (tags) del contenedor (excepto los nombres de contenedor) que se ejecutan en la tarea.
+
+### AWS ECS en Fargate
+
+Las tareas ECS que se ejecutan en Fargate ya están totalmente asignadas en el [CUR][103]. CCM enriquece estos datos añadiendo etiquetas (tags) predefinidas y etiquetas (tags) de contenedor al coste de AWS Fargate.
+
+### Transferencia de datos
+
+Para la asignación de transferencia de datos de Kubernetes, se conecta un nodo Kubernetes con tus costes de transferencia de datos asociados del [CUR][103]. El nombre de clúster del nodo y todas las etiquetas (tags) del nodo se suman a todo el coste de transferencia de datos del nodo. Esto te permite asociar las dimensiones a nivel de clúster con el coste de la transferencia de datos, sin tener en cuenta los pods programados para el nodo.
+
+A continuación, Datadog examina los [recursos de carga de trabajo][104] diarios que se ejecutan en ese nodo. El coste del nodo se asigna al nivel de carga de trabajo en función del uso del volumen de tráfico de red. Este coste calculado se enriquece con todas las etiquetas (tags) de los recursos de carga de trabajo.
+
+**Nota**: Sólo se añaden _etiquetas_ (tags) de pods y nodos a las métricas de costes. Para incluir etiquetas (labels), habilita las etiquetas (labels) como etiquetas (tags) para [nodos][101] y [pods][102].
+
+[Cloud Network Monitoring][105] debe estar habilitado en todos los hosts AWS para permitir una asignación precisa de costes de transferencia de datos. Si algunos hosts no tienen habilitada la opción Cloud Network Monitoring, los costes de transferencia de datos de estos hosts no se asignan y pueden aparecer como un bucket `n/a`, dependiendo de las condiciones de filtrado y agrupación.
+
+Datadog sólo admite la asignación de costes de transferencia de datos utilizando [recursos de carga de trabajo estándar 6][104]. Para [recursos de carga de trabajo personalizados][106], los costes de transferencia de datos sólo pueden asignarse a nivel de clúster y no a nivel de nodo/espacio de nombres.
+
+[101]: /es/containers/kubernetes/tag/?tab=containerizedagent#node-labels-as-tags
+[102]: /es/containers/kubernetes/tag/?tab=containerizedagent#pod-labels-as-tags
+[103]: https://docs.aws.amazon.com/cur/latest/userguide/what-is-cur.html
+[104]: https://kubernetes.io/docs/concepts/workloads/
+[105]: /es/network_monitoring/cloud_network_monitoring/setup
+[106]: https://kubernetes.io/docs/concepts/extend-kubernetes/api-extension/custom-resources/
+
+{{% /tab %}}
+{{% tab "Azure" %}}
+
+### Cálculo
+
+Para la asignación de cálculo de Kubernetes, se conecta un nodo Kubernetes a sus costes de instancia de host asociados. El nombre de clúster del nodo y todas las etiquetas (tags) del nodo se añaden a todo el coste de cálculo del nodo. Esto permite asociar dimensiones de nivel de clúster al coste de la instancia, sin tener en cuenta los pods programados para el nodo.
+
+A continuación, Datadog examina todos los pods ejecutados en ese nodo durante el día. El coste del nodo se asigna al pod en función de los recursos utilizados y del tiempo que estuvo en ejecución. Este coste calculado se enriquece con todas las etiquetas (tags) del pod.
+
+**Nota**: Sólo se añaden _etiquetas_ (tags) de pods y nodos a las métricas de costes. Para incluir etiquetas (labels), habilita las etiquetas (labels) como etiquetas (tags) para [nodos][101] y [pods][102].
+
+Todos los demás costes reciben el mismo valor y las mismas etiquetas (tags) que la métrica `azure.cost.amortized` de origen.
+
+[101]: /es/containers/kubernetes/tag/?tab=containerizedagent#node-labels-as-tags
+[102]: /es/containers/kubernetes/tag/?tab=containerizedagent#pod-labels-as-tags
+
+{{% /tab %}}
+{{% tab "Google" %}}
+
+### Cálculo
+
+Para la asignación de cálculo de Kubernetes, se conecta un nodo Kubernetes a sus costes de instancia de host asociados. El nombre de clúster del nodo y todas las etiquetas (tags) del nodo se añaden a todo el coste de cálculo del nodo. Esto permite asociar dimensiones de nivel de clúster al coste de la instancia, sin tener en cuenta los pods programados para el nodo.
+
+A continuación, Datadog examina todos los pods ejecutados en ese nodo durante el día. El coste del nodo se asigna al pod en función de los recursos utilizados y del tiempo que estuvo en ejecución. Este coste calculado se enriquece con todas las etiquetas (tags) del pod.
+
+**Nota**: Sólo se añaden _etiquetas_ (tags) de pods y nodos a las métricas de costes. Para incluir etiquetas (labels), habilita las etiquetas (labels) como etiquetas (tags) para [nodos][101] y [pods][102].
+
+Todos los demás costes reciben el mismo valor y las mismas etiquetas (tags) que la métrica `gcp.cost.amortized` de origen.
+
+### Costes Kubernetes Agentless
+
+Para ver los costes de clústeres GKE sin habilitar Datadog Infrastructure Monitoring, utiliza la [asignación de costes de GKE][103]. Habilita la asignación de costes de GKE en clústeres GKE no monitorizados para acceder a este conjunto de funciones.
+
+#### Limitaciones y diferencias del Datadog Agent
+
+- No existe una compatibilidad para el seguimiento de los costes de inactividad de las cargas de trabajo.
+- No se hace un seguimiento del coste de pods individuales, sólo del coste agregado de una carga de trabajo y del espacio de nombres. No existe una etiqueta (tag) `pod_name`.
+- GKE enriquece los datos utilizando únicamente etiquetas (labels) de pods e ignora cualquier etiqueta (tag) de Datadog que añadas.
+- Puedes encontrar la lista completa de limitaciones en la [documentación oficial de GKE][104].
+
+Para habilitar la asignación de costes de GKE, consulta la [documentación oficial de GKE][105].
+
+[101]: /es/containers/kubernetes/tag/?tab=containerizedagent#node-labels-as-tags
+[102]: /es/containers/kubernetes/tag/?tab=containerizedagent#pod-labels-as-tags
+[103]: https://cloud.google.com/kubernetes-engine/docs/how-to/cost-allocations
+[104]: https://cloud.google.com/kubernetes-engine/docs/how-to/cost-allocations#limitations
+[105]: https://cloud.google.com/kubernetes-engine/docs/how-to/cost-allocations#enable_breakdown
+
+{{% /tab %}}{{< /tabs >}}
+
+## Para entender los gastos
+
+Utiliza la etiqueta (tag) `allocated_spend_type` para visualizar la categoría de gastos asociados a tus costes en varios niveles, incluido el nodo Kubernetes, el host de orquestación de contenedores, el volumen de almacenamiento o a nivel de todo el clúster.
+
+{{< tabs >}}
+{{% tab "AWS" %}}
+
+### Cálculo
+
+El coste de una instancia de host se divide en dos componentes: 60% para la CPU y 40% para la memoria. Si la instancia de host tiene GPU, el coste se divide en tres componentes: 95% para la GPU, 3% para la CPU y 2% para la memoria. Cada componente se asigna a cargas de trabajo individuales en función de sus reservas de recursos y su uso.
+
+Los costes se asignan a los siguientes tipos de gastos:
+
+| Tipo de gasto | Descripción    |
+| -----------| -----------    |
+| Utilización | Coste de los recursos (como memoria, CPU y GPU) utilizados por las cargas de trabajo, en función del uso medio de ese día. |
+| Carga de trabajo inactiva | Coste de los recursos (como memoria, CPU y GPU) reservados y asignados pero no utilizados por las cargas de trabajo. Es la diferencia entre el total de recursos solicitados y el uso medio. |
+| Clúster inactivo | Coste de los recursos (como memoria, CPU y GPU) que no están reservados por las cargas de trabajo en un clúster. Es la diferencia entre el coste total de los recursos y lo que se asigna a las cargas de trabajo. |
+
+### Volumen persistente
+
+El coste de un volumen EBS tiene tres componentes: IOPS, rendimiento y almacenamiento. Cada uno de ellos se asigna en función del uso de un pod cuando se monta el volumen.
+
+| Tipo de gasto | Descripción    |
+| -----------| -----------    |
+| Utilización | Coste de las IOPS, del rendimiento o del almacenamiento aprovisionados, utilizados por las cargas de trabajo. El coste de almacenamiento se basa en la cantidad máxima de volumen de almacenamiento utilizado ese día, mientras que los costes de IOPS y de rendimiento se basan en la cantidad media de volumen de almacenamiento utilizado ese día. |
+| Carga de trabajo inactiva | Coste de las IOPS, del rendimiento o del almacenamiento aprovisionados, reservados y asignados pero no utilizados por las cargas de trabajo. El coste de almacenamiento se basa en la cantidad máxima de volumen de almacenamiento utilizado ese día, mientras que los costes de IOPS y de rendimiento se basan en la cantidad media de volumen de almacenamiento utilizado ese día. Es la diferencia entre el total de recursos solicitados y el uso medio. **Nota:** Esta etiqueta (tag) sólo está disponible si ya habilitaste `Resource Collection` en tu [**integración AWS**][101]. Para evitar que se te cobre por `Cloud Security Posture Management`, asegúrate de que durante la configuración de `Resource Collection`, la casilla `Cloud Security Posture Management` no esté marcada. |
+| Clúster inactivo | Coste de las IOPS, del rendimiento o del almacenamiento aprovisionados, que no están reservados por ningún pod ese día. Es la diferencia entre el coste total de los recursos y lo que se asigna a las cargas de trabajo. |
+
+**Nota**: La asignación de volúmenes persistentes sólo se admite en clústeres Kubernetes y sólo está disponible para pods que forman parte de un StatefulSet Kubernetes.
+
+[101]: https://app.datadoghq.com/integrations/amazon-web-services
+
+### Transferencia de datos
+
+Los costes se asignan a los siguientes tipos de gastos:
+
+| Tipo de gasto | Descripción    |
+| -----------| -----------    |
+| Utilización | Coste de transferencia de datos monitorizado por Cloud Network Monitoring y asignado. |
+| No monitorizado | Coste de transferencia de datos que no son monitorizados por Cloud Network Monitoring. Este coste no se asigna. |
+
+{{% /tab %}}
+{{% tab "Azure" %}}
+
+### Cálculo
+
+El coste de una instancia de host se divide en dos componentes: 60% para la CPU y 40% para la memoria. Si la instancia de host tiene GPU, el coste se divide en tres componentes: 95% para la GPU, 3% para la CPU y 2% para la memoria. Cada componente se asigna a cargas de trabajo individuales en función de sus reservas de recursos y su uso.
+
+Los costes se asignan a los siguientes tipos de gastos:
+
+| Tipo de gasto | Descripción    |
+| -----------| -----------    |
+| Utilización | Coste de los recursos (como memoria, CPU y GPU) utilizados por las cargas de trabajo, en función del uso medio de ese día. |
+| Carga de trabajo inactiva | Coste de los recursos (como memoria, CPU y GPU) reservados y asignados pero no utilizados por las cargas de trabajo. Es la diferencia entre el total de recursos solicitados y el uso medio. |
+| Clúster inactivo | Coste de los recursos (como memoria, CPU y GPU) que no están reservados por las cargas de trabajo en un clúster. Es la diferencia entre el coste total de los recursos y lo que se asigna a las cargas de trabajo. |
+
+{{% /tab %}}
+{{% tab "Google" %}}
+
+### Cálculo
+
+El coste de una instancia de host se divide en dos componentes: 60% para la CPU y 40% para la memoria. Si la instancia de host tiene GPU, el coste se divide en tres componentes: 95% para la GPU, 3% para la CPU y 2% para la memoria. Cada componente se asigna a cargas de trabajo individuales en función de sus reservas de recursos y su uso.
+
+Los costes se asignan a los siguientes tipos de gastos:
+
+| Tipo de gasto | Descripción    |
+| -----------| -----------    |
+| Utilización | Coste de los recursos (como memoria, CPU y GPU) utilizados por las cargas de trabajo, en función del uso medio de ese día. |
+| Carga de trabajo inactiva | Coste de los recursos (como memoria, CPU y GPU) reservados y asignados pero no utilizados por las cargas de trabajo. Es la diferencia entre el total de recursos solicitados y el uso medio. |
+| Clúster inactivo | Coste de los recursos (como memoria, CPU y GPU) que no están reservados por las cargas de trabajo en un clúster. Es la diferencia entre el coste total de los recursos y lo que se asigna a las cargas de trabajo. |
+| No monitorizado | Coste de los recursos cuyo tipo de gasto se desconoce. Para resolverlo, instala el Datadog Agent en estos clústeres nodos. |
+
+{{% /tab %}}{{< /tabs >}}
+
+## Para entender los recursos
+
+Dependiendo del proveedor de la nube, ciertos recursos pueden o no estar disponibles para la asignación de costes.
+
+| Recurso | AWS | Azure | Google Cloud |
+|---:|---:|---|---|
+| CPU | {{< X >}} | {{< X >}} | {{< X >}} |
+| Memoria | {{< X >}} | {{< X >}} | {{< X >}} |
+| {{< ccm-details title="Volúmenes persistentes" >}}Almacena recursos dentro de un clúster, aprovisionados por administradores o dinámicamente, cuyos datos persisten independientemente de los ciclos de vida de los pods.{{< /ccm-details >}} | {{< X >}} |  |  |
+| {{< ccm-details title="Tarifas de servicios gestionados" >}}Costo de las tarifas asociadas, que cobra el proveedor de nube por la gestión del clúster, como tarifas de servicios gestionados por Kubernetes u otras opciones de orquestación de contenedores.{{< /ccm-details >}} | {{< X >}} | {{< X >}} | {{< X >}} |
+| Costes de ECS | {{< X >}} | N/A | N/A |
+| Costes de transferencia de datos | {{< X >}} | Limitado* | Limitado* |
+| GPU | {{< X >}} | {{< X >}} | {{< X >}}  |
+| {{< ccm-details title="Almacenamiento local" >}}Recursos de almacenamiento directamente asociados para un nodo.{{< /ccm-details >}} |  | Limitado* | Limitado* |
+
+Los recursos `Limited*` fueron identificados como parte de tus gastos en Kubernetes, pero no están totalmente asignados a cargas de trabajo o pods específicos. Estos recursos son costes a nivel de host, no a nivel de pod o de espacio de nombres, y se identifican con `allocated_spend_type:<resource>_not_supported`.
+
+## Métricas de costes
+
+Cuando se cumplen los requisitos previos, aparecen automáticamente las siguientes métricas de costes.
+
+{{< tabs >}}
+{{% tab "AWS" %}}
+
+| Métrica de costes                    | Descripción    |
+| ---                                | ----------- |
+| `aws.cost.amortized.shared.resources.allocated` | Costes de EC2 asignados según la CPU y la memoria utilizadas por un pod o tarea ECS, utilizando una división 60:40 para CPU y memoria respectivamente, y una división 95:3:2 para GPU, CPU y memoria respectivamente, si un pod utiliza una GPU. También incluye los costes de EBS asignados. <br> *Basados en `aws.cost.amortized`*. |
+| `aws.cost.net.amortized.shared.resources.allocated` | Costes netos de EC2 asignados según la CPU y la memoria utilizadas por un pod o tarea ECS, utilizando una división 60:40 para CPU y memoria respectivamente, y una división 95:3:2 para GPU, CPU y memoria respectivamente, si un pod utiliza una GPU. También incluye los costes de EBS asignados. <br> *Basados en `aws.cost.net.amortized`*. |
+
+{{% /tab %}}
+{{% tab "Azure" %}}
+
+| Métrica de costes                    | Descripción    |
+| ---                                | ----------- |
+| `azure.cost.amortized.shared.resources.allocated` | Costes de Azure VM asignados según la CPU y la memoria utilizadas por un pod o tarea de contenedor, utilizando una división 60:40 para CPU y memoria respectivamente, y una división 95:3:2 para GPU, CPU y memoria respectivamente, si un pod utiliza una GPU. También incluye los costes de Azure asignados. <br> *Basados en `azure.cost.amortized`*. |
+
+{{% /tab %}}
+{{% tab "Google" %}}
+
+| Métrica de costes                    | Descripción    |
+| ---                                | ----------- |
+| `gcp.cost.amortized.shared.resources.allocated` | Costes de Google Compute Engine asignados según la CPU y la memoria utilizadas por un pod, utilizando una división 60:40 para CPU y memoria respectivamente, y una división 95:3:2 para GPU, CPU y memoria respectivamente, si un pod utiliza una GPU. Este método de asignación se utiliza cunado la factura no proporciona una división específica entre el uso de CPU y de memoria. <br> *Basados en `gcp.cost.amortized`*. |
+
+{{% /tab %}}{{< /tabs >}}
+
+Estos costes de métricas incluyen todos tus costes de nube. Esto te permite seguir visualizando todos tus costes de nube de una sola vez.
+
+Por ejemplo, supongamos que tienes la etiqueta (tag) `team` en un bucket de almacenamiento, en una base de datos gestionada por un proveedor de nube y en pods Kubernetes. Puedes utilizar estas métricas para agrupar los costes por `team`, que incluye los costes de las tres ubicaciones mencionadas.
+
+## Aplicación de etiquetas (tags)
+
+Datadog consolida y aplica a las métricas de costes las siguientes etiquetas (tags) procedentes de diversas fuentes.
+
+{{< tabs >}}
+{{% tab "AWS" %}}
+
+### Kubernetes
+
+Además de las etiquetas (tags) de pods Kubernetes y de nodos Kubernetes, se aplica la siguiente lista no exhaustiva de etiquetas (tags) predefinidas a las métricas de costes:
+
+| Etiquetas (tags) predefinidas  |  Descripción |
+| ---                 | ------------ |
+| `orchestrator:kubernetes` | Plataforma de orquestación asociada a la partida es Kubernetes. |
+| `kube_cluster_name` | Nombre del clúster Kubernetes. |
+| `kube_namespace` | Espacio de nombres donde se ejecutan las cargas de trabajo. |
+| `kube_deployment` | Nombre del despliegue Kubernetes. |
+| `kube_stateful_set` | Nombre del StatefulSet Kubernetes. |
+| `pod_name` | Nombre de cualquier pod individual. |
+
+Los conflictos se resuelven favoreciendo las etiquetas (tags) de mayor especificidad, como las etiquetas (tags) de pods, sobre las etiquetas (tags) de menor especificidad, como las etiquetas (tags) de host. Por ejemplo, un pod Kubernetes con la etiqueta (tag) `service:datadog-agent` que se ejecuta en un nodo etiquetado como `service:aws-node` da como resultado final la etiqueta (tag) `service:datadog-agent`.
+
+#### Volumen persistente
+
+Además de las etiquetas (tags) de pods Kubernetes y de nodos Kubernetes, se aplican las siguientes etiquetas (tags) predefinidas a las métricas de costes.
+
+| Etiquetas (tags) predefinidas                      | Descripción                                                                                                                                  |
+| ---                                     |----------------------------------------------------------------------------------------------------------------------------------------------|
+| `persistent_volume_reclaim_policy`      | Política de reclamo de Kubernetes sobre volúmenes persistentes.                                                                                      |
+| `storage_class_name`                    | Clase de almacenamiento Kubernetes utilizada para instanciar volúmenes persistentes.                                                                      |
+| `volume_mode`                           | Modo de volumen del volumen persistente.                                                                                                    |
+| `ebs_volume_type`                       | Tipo del volumen EBS. Puede ser `gp3`, `gp2` u otros.                                                                              |
+
+### Amazon ECS
+
+Además de las etiquetas (tags) de tareas ECS, las siguientes etiquetas (tags) predefinidas se aplican a las métricas de costes.
+
+**Nota**: Se aplican la mayoría de las etiquetas (tags) de los contenedores ECS (excluyendo `container_name`).
+
+| Etiquetas (tags) predefinidas      |  Descripción |
+| ---                     | ------------ |
+| `orchestrator:ecs`      | Plataforma de orquestación asociada a la partida es AWS ECS. |
+| `ecs_cluster_name`      | Nombre del clúster ECS. |
+| `is_aws_ecs`            | Todos los costes asociados a la ejecución de ECS. |
+| `is_aws_ecs_on_ec2`     | Todos los costes de cálculo de EC2 asociados a la ejecución de ECS en EC2. |
+| `is_aws_ecs_on_fargate` | Todos los costes asociados a la ejecución de ECS en Fargate. |
+
+### Transferencia de datos
+
+La siguiente lista de etiquetas (tags) predefinidas se aplica a las métricas de costes asociadas a las cargas de trabajo Kubernetes:
+
+| Etiquetas (tags) predefinidas      |  Descripción |
+| ---                     | ------------ |
+| `source_availability_zone` | Nombre de la zona de disponibilidad donde se originó la transferencia de datos. |
+| `source_availability_zone_id` | ID de la zona de disponibilidad donde se originó la transferencia de datos. |
+| `source_region` | Región donde se originó la transferencia de datos. |
+| `destination_availability_zone` | Nombre de la zona de disponibilidad a la que se envió la transferencia de datos. |
+| `destination_availability_zone_id` | ID de la zona de disponibilidad a la que se envió la transferencia de datos. |
+| `destination_region` | Región a la que se envió la transferencia de datos. |
+| `allocated_resource:data_transfer` | Seguimiento y asignación de los costes asociados a las actividades de transferencia de datos. |
+
+Además, también se aplican algunas etiquetas (tags) de pod Kubernetes que son frecuentes entre todos los pods del mismo nodo.
+
+{{% /tab %}}
+{{% tab "Azure" %}}
+
+### Kubernetes
+
+Además de las etiquetas (tags) de pods Kubernetes y de nodos Kubernetes, se aplica la siguiente lista no exhaustiva de etiquetas (tags) predefinidas a las métricas de costes:
+
+| Etiquetas (tags) predefinidas                         | Descripción                                                                                                                                                   |
+| ------------------------------------------ | ------------------------------------------------------------------------------------------------------------------------------------------------------------  |
+| `orchestrator:kubernetes`                  | Plataforma de orquestación asociada a la partida es Kubernetes.                                                                                            |
+| `kube_cluster_name` | Nombre del clúster Kubernetes. |
+| `kube_namespace` | Espacio de nombres donde se ejecutan las cargas de trabajo. |
+| `kube_deployment` | Nombre del despliegue Kubernetes. |
+| `kube_stateful_set` | Nombre del StatefulSet Kubernetes. |
+| `pod_name` | Nombre de cualquier pod individual. |
+| `allocated_resource:data_transfer` | Seguimiento y asignación de los costes asociados a las actividades de transferencia de datos utilizadas por servicios o cargas de trabajo Azure. |
+| `allocated_resource:local_storage`         | Seguimiento y asignación de costes a nivel de host asociados a los recursos de almacenamiento local utilizados por servicios o cargas de trabajo Azure.                             |
+
+{{% /tab %}}
+{{% tab "Google" %}}
+
+### Kubernetes
+
+Además de las etiquetas (tags) de pods Kubernetes y de nodos Kubernetes, se aplica la siguiente lista no exhaustiva de etiquetas (tags) predefinidas a las métricas de costes:
+
+| Etiquetas (tags) predefinidas                         | Descripción                                                                                                                                                   |
+| ------------------------------------------ | ------------------------------------------------------------------------------------------------------------------------------------------------------------  |
+| `orchestrator:kubernetes`                  | Plataforma de orquestación asociada a la partida es Kubernetes.                                                                                            |
+| `kube_cluster_name` | Nombre del clúster Kubernetes. |
+| `kube_namespace` | Espacio de nombres donde se ejecutan las cargas de trabajo. |
+| `kube_deployment` | Nombre del despliegue Kubernetes. |
+| `kube_stateful_set` | Nombre del StatefulSet Kubernetes. |
+| `pod_name` | Nombre de cualquier pod individual. |
+| `allocated_spend_type:not_monitored` | Seguimiento y asignación de [costes de Kubernetes Agentless](#agentless-kubernetes-costs) asociados a los recursos utilizados por servicios o cargas de trabajo Google Cloud. El Datadog Agent no monitoriza estos recursos. |
+| `allocated_resource:data_transfer` | Seguimiento y asignación de los costes asociados a las actividades de transferencia de datos utilizadas por servicios o cargas de trabajo Google Cloud. |
+| `allocated_resource:gpu` | Seguimiento y asignación de costes a nivel de host asociados a los recursos de GPU utilizados por servicios o cargas de trabajo Google Cloud. |
+| `allocated_resource:local_storage` | Seguimiento y asignación de costes a nivel de host asociados a los recursos de almacenamiento local utilizados por servicios o cargas de trabajo Google Cloud. |
+
+{{% /tab %}}{{< /tabs >}}
+
+## Referencias adicionales
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: https://app.datadoghq.com/cost/containers
\ No newline at end of file
diff --git a/content/es/cloud_cost_management/google_cloud.md b/content/es/cloud_cost_management/google_cloud.md
new file mode 100644
index 0000000000000..9436912e715e6
--- /dev/null
+++ b/content/es/cloud_cost_management/google_cloud.md
@@ -0,0 +1,204 @@
+---
+disable_toc: false
+further_reading:
+- link: /cloud_cost_management/
+  tag: Documentación
+  text: Cloud Cost Management
+- link: /cloud_cost_management/aws
+  tag: Documentación
+  text: Obtener información sobre tu factura de AWS
+- link: /cloud_cost_management/azure
+  tag: Documentación
+  text: Obtener información sobre tu factura de Azure
+title: Google Cloud
+---
+
+
+## Información general
+
+Para utilizar Google Cloud Cost Management en Datadog, sigue estos pasos:
+1. Configura la [integración Google Cloud Platform][12].
+2. Configura la [exportación de costes detallados de uso][13] con los permisos necesarios (API de Google Service, acceso a la exportación de proyectos y acceso a conjuntos de datos de BigQuery).
+3. Crea o selecciona un [bucket de Google Cloud Storage][15] con los permisos necesarios (acceso a buckets).
+
+## Configuración
+
+### Configurar la integración Google Cloud Platform
+Ve a [Configuración][3] y selecciona una integración Google Cloud Platform.
+Si no ves la cuenta de servicio que buscas en la lista, ve a la [integración Google Cloud Platform][4] para configurarla.
+
+<div class="alert alert-warning">
+La integración Datadog Google Cloud Platform permite a Cloud Cost monitorizar automáticamente todos los proyectos a los que esta cuenta de servicio tiene acceso.
+Para limitar los hosts de monitorización de infraestructuras a estos proyectos, aplica etiquetas (tags) a los hosts. Luego, decide si las etiquetas deben incluirse o excluirse de la monitorización, en la sección <strong>Limitar los filtros para la recopilación de métricas</strong> de la página de la integración.
+</div>
+
+{{< img src="cloud_cost/gcp_integration_limit_metric_collection.png" alt="Sección Limitar los filtros para la recopilación de métricas, configurada en la página de la integración Google Cloud Platform" >}}
+
+### Habilitar la exportación de costes detallados de uso
+<div class="alert alert-info">
+Los <a href="https://cloud.google.com/billing/docs/how-to/export-data-bigquery-tables/detailed-usage">datos de costes detallados de uso</a> proporcionan toda la información incluida en los datos de costes de uso estándar, junto con campos adicionales que proporcionan datos granulares de costes a nivel de los recursos.
+</div>
+
+ 1. Ve a [Exportación de la facturación][1] en la consola de Google Cloud *Facturación*.
+ 2. Habilita la exportación de [costes detallados de uso][2] (selecciona o crea un proyecto y un conjunto de datos de BigQuery).
+ 3. Documenta el `Billing Account ID` de la cuenta de facturación donde se configuró la exportación, así como la exportación `Project ID` y `Dataset Name`.
+
+{{< img src="cloud_cost/billing_export.png" alt="Información resaltada del conjunto de datos y del proyecto de Google Cloud" >}}
+
+_La exportación de conjuntos de datos de facturación de BigQuery recién creada sólo contiene los datos de los dos meses más recientes. Estos datos pueden tardar uno o dos días en rellenarse en BigQuery._
+
+#### Habilitar las API de Google Service
+Los siguientes permisos permiten a Datadog acceder a la exportación de la facturación y transferirla al bucket de almacenamiento mediante una consulta programada a BigQuery.
+
+- Habilita la [API de BigQuery][5].
+  1. En la consola de Google Cloud, ve a la página del selector de proyectos y selecciona tu proyecto de Google Cloud.
+  2. Habilita la facturación en tu proyecto para todas las transferencias.
+
+- Habilita el [servicio de transferencia de datos de BigQuery][5].
+  1. Abre la página de la API de transferencia de datos de BigQuery en la biblioteca de la API.
+  2. En el menú desplegable, selecciona el proyecto que contiene la cuenta de servicio.
+  3. Haz clic en el botón ENABLE (Habilitar).
+
+  **Nota:** La API de transferencia de datos de BigQuery debe estar habilitada en el proyecto de Google que contiene la cuenta de servicio.
+
+
+#### Configurar el acceso a la exportación de proyectos
+[Añade la cuenta de servicio como elemento principal en el recurso del proyecto de exportación de conjuntos de datos][7]:
+1. Ve a la página de IAM en la consola de Google Cloud y selecciona el proyecto de exportación de conjuntos de datos.
+2. Selecciona la cuenta de servicio como elemento principal.
+3. Selecciona un rol con los siguientes permisos para otorgar desde la lista desplegable:
+  * `bigquery.jobs.create`
+  * `bigquery.transfers.get`
+  * `bigquery.transfers.update`
+
+  **Nota:** Puede ser un rol personalizado o puedes utilizar el rol de Google Cloud `roles/bigquery.admin` existente.
+
+#### Configurar el acceso a la exportación de conjuntos de datos de BigQuery
+[Añade la cuenta de servicio como elemento principal en el recurso de exportación de conjuntos de datos de BigQuery][8]:
+1. En el panel del Explorador de la página de BigQuery, expande tu proyecto y selecciona la exportación de conjuntos de datos de BigQuery.
+2. Haz clic en **Sharing > Permissions** (Compartir > Permisos) y luego en **add principal** (añadir elemento principal).
+3. En el campo de nuevos elementos principales, introduce la cuenta de servicio.
+4. Utilizando la lista de selección de un rol, asigna un rol con los siguientes permisos:
+  * `bigquery.datasets.get`
+  * `bigquery.tables.create`
+  * `bigquery.tables.delete`
+  * `bigquery.tables.export`
+  * `bigquery.tables.get`
+  * `bigquery.tables.getData`
+  * `bigquery.tables.list`
+  * `bigquery.tables.update`
+  * `bigquery.tables.updateData`
+
+  **Nota:** Puede ser un rol personalizado o puedes utilizar el rol de Google Cloud `roles/bigquery.dataEditor` existente.
+
+### Crear o seleccionar un bucket de Google Cloud Storage
+Utiliza un bucket de Google Cloud Storage existente o crea uno nuevo.
+Los datos se extraen periódicamente de tu conjunto de datos detallados de uso de BigQuery y se transfieren al bucket seleccionado, que tiene el prefijo `datadog_cloud_cost_detailed_usage_export`.
+
+**Nota:** El bucket [debe estar ubicado junto][9] al conjunto de datos de exportación de BigQuery.
+
+#### Configurar el acceso al bucket
+[Añade la cuenta de servicio como elemento principal en el recurso del bucket de GCS][6]:
+1. Accede a la página de buckets de Cloud Storage en la consola de Google Cloud y selecciona tu bucket.
+2. Selecciona la pestaña de permisos y haz clic en el botón **grant access** (conceder acceso).
+3. En el campo de nuevos elementos principales, introduce la cuenta de servicio.
+4. Asigna un rol con los siguientes permisos:
+   * `storage.buckets.get`
+   * `storage.objects.create`
+   * `storage.objects.delete`
+   * `storage.objects.get`
+   * `storage.objects.list`
+
+  **Nota:** Puede ser un rol personalizado o puedes utilizar los roles de Google Cloud `roles/storage.legacyObjectReader` y `roles/storage.legacyBucketWriter` existentes.
+
+### (Opcional) Configura la autorización de servicios entre proyectos:
+Si tu cuenta de servicio integrada ya existe en un proyecto de Google Cloud Platform diferente al de exportación del conjunto de datos de la facturación, debes [conceder una autorización de cuenta de servicio entre proyectos][10]:
+
+1. Activa la creación del agente de servicio siguiendo la [documentación oficial][11] y utilizando los siguientes valores:
+   * ENDPOINT: `bigquerydatatransfer.googleapis.com`
+   * TIPO_DE_RECURSO: `project`
+   * ID_DE_RECURSO: exportar el proyecto de conjunto de datos</br></br>
+
+     Esto crea un nuevo agente de servicio similar a `service-<billing project number>@gcp-sa-bigquerydatatransfer.iam.gserviceaccount.com`.
+
+
+2. Añade el rol de cuenta de servicio de transferencia de datos de BigQuery creado por el activador como elemento principal en tu cuenta de servicio.
+3. Asígnale el rol `roles/iam.serviceAccountTokenCreator`.
+
+### Configurar Cloud Cost
+Sigue los pasos indicados en [Configuración][3].
+
+**Nota**: Los datos pueden tardar entre 48 y 72 horas en estabilizarse en Datadog.
+
+## Tipos de costes
+Puedes visualizar tus datos ingeridos utilizando los siguientes tipos de costes:
+
+| Tipo de coste                                       | Descripción |
+|-------------------------------------------------| ----------------------------------|
+| `gcp.cost.amortized`                            | Coste total de los recursos asignados en el momento del uso en un intervalo. Los costes incluyen los créditos de promoción, así como los créditos de descuento por compromiso de uso. |
+| `gcp.cost.amortized.shared.resources.allocated` | Todos tus costes de Google Cloud Platform amortizados, con desgloses e información adicional de las cargas de trabajo de contenedor. Requiere la [asignación de costes de contenedor][14].|
+| `gcp.cost.ondemand`                             | Coste total público y a la carta de los recursos antes de aplicar los descuentos públicos y privados en un intervalo. |
+
+### Etiquetas predefinidas
+Datadog añade etiquetas a los datos de costes ingeridos para ayudarte a desglosar y asignar mejor tus costes. Estas etiquetas provienen de tu [informe de costes detallados de uso][16] y facilitan la detección y la comprensión de los datos de costes.
+
+Las siguientes etiquetas predefinidas están disponibles para filtrar y agrupar datos:
+
+| Nombre de la etiqueta                         | Descripción de la etiqueta       |
+| ---------------------------- | ----------------- |
+| `google_product`             | Servicio Google que se está facturando.|
+| `google_cost_type`           | Tipo de cargo cubierto por esta partida (por ejemplo, regular, impuesto, ajuste o error de redondeo).|
+| `google_usage_type`          | Detalles de uso de la partida (por ejemplo, Almacenamiento estándar US).|
+| `google_location`            | Localización asociada a la partida a nivel de varias regiones, país, región o zona.|
+| `google_region`              | Región asociada a la partida.|
+| `google_zone`                | Zona de disponibilidad asociada a la partida.|
+| `google_pricing_usage_unit`  | Unidad de precio utilizada para calcular el coste de uso (por ejemplo, gibibyte, tebibyte o año).|
+| `google_is_unused_reservation`| Si el uso se reservó pero no se utilizó.|
+| `service_description` | Servicio Google Cloud (como Compute Engine o BigQuery). |
+| `project_id` | ID del proyecto de Google Cloud que generó los datos de facturación de Cloud. |
+| `project_name` | Nombre del proyecto de Google Cloud que generó los datos de facturación de Cloud. |
+| `cost_type` | Tipo de coste que representa esta partida: `regular`, `tax`, `adjustment` o `rounding error`. |
+| `sku_description` | Descripción del tipo de recurso utilizado, que describe los detalles de uso del recurso. |
+| `resource_name` | Nombre que los clientes añaden a los recursos. Puede que no aparezca en todos los recursos. |
+| `global_resource_name` | Identificador de recurso único global generado por Google Cloud. |
+
+#### Correlación entre costes y observabilidad
+
+Visualizar los costes en el contexto de los datos de observabilidad es importante para comprender cómo afectan los cambios de infraestructura a los costes, identificar por qué cambian los costes y optimizar la infraestructura, tanto en los costes como en el rendimiento. Datadog actualiza el recurso identificando etiquetas en los datos de costes de los principales productos Google para simplificar la correlación entre la observabilidad y las métricas de costes.
+
+Por ejemplo, para ver el coste y el uso de cada base de datos Cloud SQL, puedes crear una tabla con `gcp.cost.amortized`, `gcp.cloudsql.database.cpu.utilization` y `gcp.cloudsql.database.memory.utilization` (o cualquier otra métrica de Cloud SQL) y agrupar por `database_id`. O, para ver el uso y los costes de Cloud Function uno al lado del otro, puedes hacer un gráfico con `gcp.cloudfunctions.function.execution_count` y `gcp.cost.amortized` agrupados por `function_name`.
+
+Están disponibles las siguientes etiquetas predefinidas:
+| Producto Google     | Etiqueta(s)                         |
+| -------------------| ----------------------------- |
+| Compute Engine     | `instance_id`, `instance-type`   |
+| Cloud Functions     | `function_name`                  |
+| Cloud Run           | `job_name`, `service_name`    |
+| Cloud SQL           | `database_id`                    |
+| Cloud Spanner      | `instance_id`                      |
+| App Engine          | `module_id`                      |
+| BigQuery            | `project_id`, `dataset_id`       |
+| Kubernetes Engine  | `cluster_name`                   |
+
+### Asignación de contenedor
+Las métricas de **Asignación de contenedor** contienen todos los mismos costes que las métricas de Google Cloud Platform, pero con desgloses e información adicional de las cargas de trabajo de contenedor. Para obtener más información, consulta [Asignación de costes de contenedor][14].
+
+## Referencias adicionales
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: https://console.cloud.google.com/billing/export/
+[2]: https://cloud.google.com/billing/docs/how-to/export-data-bigquery-setup
+[3]: https://app.datadoghq.com/cost/setup?cloud=gcp
+[4]: https://app.datadoghq.com/integrations/google-cloud-platform
+[5]: https://cloud.google.com/bigquery/docs/enable-transfer-service
+[6]: https://cloud.google.com/storage/docs/access-control/using-iam-permissions#bucket-add
+[7]: https://cloud.google.com/iam/docs/granting-changing-revoking-access#grant-single-role
+[8]: https://cloud.google.com/bigquery/docs/control-access-to-resources-iam#grant_access_to_a_dataset
+[9]: https://cloud.google.com/bigquery/docs/exporting-data#data-locations
+[10]: https://cloud.google.com/bigquery/docs/enable-transfer-service#cross-project_service_account_authorization
+[11]: https://cloud.google.com/iam/docs/create-service-agents#create
+[12]: /es/integrations/google_cloud_platform/
+[13]: /es/cloud_cost_management/google_cloud/#enable-detailed-usage-cost-export
+[14]: /es/cloud_cost_management/container_cost_allocation/
+[15]: /es/cloud_cost_management/google_cloud/#create-or-select-a-google-cloud-storage-bucket
+[16]: https://cloud.google.com/billing/docs/how-to/export-data-bigquery-tables/detailed-usage
\ No newline at end of file
diff --git a/content/es/cloud_cost_management/tag_pipelines.md b/content/es/cloud_cost_management/tag_pipelines.md
new file mode 100644
index 0000000000000..3df50f59eea85
--- /dev/null
+++ b/content/es/cloud_cost_management/tag_pipelines.md
@@ -0,0 +1,80 @@
+---
+further_reading:
+- link: /cloud_cost_management/
+  tag: Documentación
+  text: Más información sobre Cloud Cost Management
+- link: /getting_started/tagging/
+  tag: Documentación
+  text: Empezando con las etiquetas (tags)
+- link: /integrations/guide/reference-tables
+  tag: Documentación
+  text: Más información sobre las tablas de referencia
+title: Pipelines de etiquetas
+---
+
+## Información general
+
+Para monitorizar eficazmente los costes de la nube, se necesita una comprensión exhaustiva de cómo los distintos servicios, equipos y productos contribuyen al gasto global. Los pipelines de etiquetas imponen el uso de etiquetas estandarizadas en todos los recursos de la nube y garantizan una asignación de costes coherente y precisa en toda la organización.
+
+Con los [pipelines de etiquetas][1], puedes crear reglas de etiquetado para solucionar los errores u omisiones de etiquetas en tus facturas de la nube. También puedes crear nuevas etiquetas inferidas que se alineen con la lógica empresarial específica para mejorar la precisión de tu seguimiento de costes.
+
+Los pipelines de etiquetas se aplican a las métricas de costes de nube de todos los proveedores. Los pipelines de etiquetas no se aplican a las recomendaciones de costes de nube.
+
+## Crear un conjunto de reglas
+
+<div class="alert alert-warning">Puedes crear hasta 100 reglas. No se admiten tablas de referencia basadas en API.</div>
+
+Antes de crear reglas individuales, crea un conjunto de reglas (una carpeta para tus reglas) haciendo clic en **+ New Ruleset** (+ Nuevo conjunto de reglas).
+
+Dentro de cada conjunto de reglas, haz clic en **+ Add New Rule** (+ Añadir nueva regla) y selecciona un tipo de regla: **Añadir etiqueta**, **Claves de etiquetas de alias**, o **Asignar varias etiquetas**. Estas reglas se ejecutan en un orden secuencial y determinista de arriba a abajo.
+
+{{< img src="cloud_cost/tags_order.png" alt="Lista de reglas de etiquetado en la página de pipelines de etiquetas, que muestra varias categorías como equipo, cuenta, servicio, departamento, unidad de negocio y más" style="width:80%;" >}}
+
+Puedes organizar reglas y conjuntos de reglas para asegurarte de que el orden de ejecución coincide con tu lógica empresarial.
+
+### Añadir etiqueta
+
+Añade una nueva etiqueta (clave + valor) basada en la presencia de etiquetas existentes en tus datos de costes de nube.
+
+Por ejemplo, puedes crear una regla para etiquetar todos los recursos con su unidad de negocio en función de los servicios de los que esos recursos forman parte.
+
+{{< img src="cloud_cost/tags_addnew.png" alt="Añade una nueva etiqueta de unidad de negocio con service:processing, service:creditcard o service:payment-notification." style="width:60%;" >}}
+
+Para asegurarte de que la regla sólo se aplica si la etiqueta `business_unit` no existe, haz clic en el conmutador de la sección **Opciones adicionales**.
+
+### Claves de etiquetas de alias
+
+Asigna los valores de etiqueta existentes a una etiqueta más normalizada.
+
+Por ejemplo, si tu organización quiere utilizar la clave de etiqueta estándar `application`, pero varios equipos tienen una variante de esa etiqueta (como `app`, `webapp` o `apps`), puedes aplicar el alias `apps` para `application`. Cada regla de etiqueta de alias te permite aplicar alias para un máximo de 25 claves de etiqueta con una nueva etiqueta.
+
+{{< img src="cloud_cost/tags_alias.png" alt="Añade la etiqueta application (aplicación) a recursos con las etiquetas app, webapp o apps." style="width:60%;" >}}
+
+Añade la etiqueta application (aplicación) a los recursos con las etiquetas `app`, `webapp` o `apps`. La regla deja de ejecutarse para cada recurso después de encontrar una primera coincidencia. Por ejemplo, si un recurso ya tiene una etiqueta `app`, entonces la regla ya no intenta identificar una etiqueta `webapp` o `apps`.
+
+Para asegurarte de que la regla sólo se aplica si la etiqueta `application` no existe, haz clic en el conmutador de la sección **Opciones adicionales**.
+
+### Asignar varias etiquetas
+
+Utiliza [tablas de referencia][2] para añadir varias etiquetas a los datos de costes sin crear varias reglas. Esto asignará los valores de la columna de clave principal de tu tabla de referencia a los valores de etiquetas de costes. Si se encuentran, los pipelines añaden las columnas de la tabla de referencia seleccionada como etiquetas a los datos de costes.
+
+Por ejemplo, si quieres añadir información sobre a qué vicepresidentes, organizaciones y unidades de negocio pertenecen las distintas cuentas de AWS y Azure, puedes crear una tabla y asignar las etiquetas.
+
+{{< img src="cloud_cost/tags_mapmultiple.png" alt="Añadir metadatos de cuenta como vicepresidente, organización y unidad de negocio utilizando tablas de referencia para pipelines de etiquetas" style="width:60%;" >}}
+
+De forma similar a las [claves de etiquetas de alias](#alias-tag-keys), la regla deja de ejecutarse para cada recurso después de encontrar una primera coincidencia. Por ejemplo, si se encuentra un `aws_member_account_id`, la regla ya no intentará encontrar un `subscriptionid`.
+
+## Etiquetas reservadas
+
+Algunas etiquetas como `env` y `host` son [etiquetas reservadas][4] y forman parte del [Etiquetado unificado de servicios][3]. La etiqueta `host` no puede añadirse en pipelines de etiquetas.
+
+El uso de etiquetas te ayuda a correlacionar tus métricas, trazas (traces), procesos y logs. Las etiquetas reservadas como `host` te proporcionan una visibilidad y una monitorización eficaz de tu infraestructura. Para una correlación óptima e información práctica, utiliza estas etiquetas reservadas como parte de tu estrategia de etiquetado en Datadog.
+
+## Referencias adicionales
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: https://app.datadoghq.com/cost/tag-pipelines
+[2]: /es/integrations/guide/reference-tables/?tab=manualupload
+[3]: /es/getting_started/tagging/unified_service_tagging/
+[4]: /es/getting_started/tagging/
\ No newline at end of file
diff --git a/content/es/cloudcraft/components-aws/network-acl.md b/content/es/cloudcraft/components-aws/network-acl.md
new file mode 100644
index 0000000000000..08ad45094bc1d
--- /dev/null
+++ b/content/es/cloudcraft/components-aws/network-acl.md
@@ -0,0 +1,119 @@
+---
+title: Network ACL (Lista de control de acceso a la red)
+---
+
+## Información general
+
+Utiliza el componente Network ACL para visualizar las listas de control de acceso a la red de tu arquitectura Amazon Web Services.
+
+{{< img src="cloudcraft/components-aws/network-acl/component-network-acl-diagram.png" alt="Captura de pantalla de un diagrama isométrico de Cloudcraft que muestra el componente 'Network ACL' de AWS." responsive="true" style="width:60%;">}}
+
+## Barra de herramientas
+
+Utiliza la barra de herramientas para configurar y personalizar el componente. Están disponibles las siguientes opciones:
+
+- **Visibilidad**: Cambia la visibilidad del componente en el diagrama.
+- **Color**: Selecciona un color de relleno para el cuerpo del componente y un color acentuado para su símbolo. Puedes utilizar los mismos colores en las vistas 2D y 3D o colores diferentes en cada una.
+- **Nombre**: Dale un nombre a la NACL (lista de control de acceso a la red).
+- **Forma**: Selecciona una forma para el componente.
+- **Relleno**: Aumenta o disminuye la cantidad de espacio dentro del componente.
+- **Reglas**: Consulta las reglas de entrada y salida de la NACL.
+
+## API
+
+Utiliza la [API Cloudcraft][1] para acceder mediante programación y representar tus diagramas de arquitectura como objetos JSON.
+
+### Esquema
+
+A continuación se muestra un ejemplo JSON de un componente de ACL a la red:
+
+```json
+{
+    "type": "networkacl",
+    "id": "acl-0mqj0d4dxpmf9iru3",
+    "arn": "arn:aws:ec2:us-east-1:762056483071:network-acl/acl-0mqj0d4dxpmf9iru3",
+    "region": "us-east-1",
+    "visible": true,
+    "name": "acl-0mqj0d4dxpmf9iru3",
+    "shape": "rectangular",
+    "padding": 2,
+    "nodes": [
+        "1ae68ef4-f3cb-4e07-8660-2a4a4bc30e36",
+        "subnet-0752f314ffbf0126e"
+    ],
+    "inboundRules": [
+        {
+            "ruleNumber": 100,
+            "protocol": "-1",
+            "portRange": "0",
+            "target": "0.0.0.0/0",
+            "targetType": "ip",
+            "access": "allow"
+        },
+        {
+            "ruleNumber": 32767,
+            "protocol": "-1",
+            "portRange": "0",
+            "target": "0.0.0.0/0",
+            "targetType": "ip",
+            "access": "deny"
+        }
+    ],
+    "outboundRules": [
+        {
+            "ruleNumber": 100,
+            "protocol": "-1",
+            "portRange": "0",
+            "target": "0.0.0.0/0",
+            "targetType": "ip",
+            "access": "allow"
+        },
+        {
+            "ruleNumber": 32767,
+            "protocol": "-1",
+            "portRange": "0",
+            "target": "0.0.0.0/0",
+            "targetType": "ip",
+            "access": "deny"
+        }
+    ],
+    "color": {
+        "isometric": "#5698ff",
+        "2d": "#5698ff"
+    },
+    "link": "https://aws.amazon.com/",
+    "locked": true
+}
+```
+
+- **type: string**: Tipo de componente.
+- **id: string**: Identificador único del componente formado por la cadena `acl-` seguida de una cadena alfanumérica aleatoria de 17 caracteres.
+- **arn: string**: Identificador único global del componente en AWS, conocido como [Nombre de recurso de Amazon][2].
+- **region: string**: Región AWS del componente. Se admiten todas las regiones globales excepto las regiones `cn-`.
+- **visible: boolean**: Si es `false`, el componente se vuelve semitransparente en el diagrama. Por defecto es `true`.
+- **name: string**: Nombre de la NACL.
+- **shape: string**: Forma del componente. Acepta `dynamic` o `rectangular`. Por defecto es `retangular`.
+- **padding: number**: Valor de relleno del componente. Por defecto es `2`.
+- **nodes: array**: Matriz de los ID de componentes que están dentro de la NACL.
+- **inboundRules: array**: Reglas para el tráfico entrante de los componentes dentro de la NACL.
+  - **ruleNumber: number**: Número de la regla para la NACL.
+  - **protocol: string**: Protocolo de la regla. Acepta `-1`, que significa "Todo", o un protocolo específico.
+  - **portRange: string**: Puerto de escucha o rango de puertos para el tráfico.
+  - **target: string**: Origen del tráfico (rango CIDR).
+  - **targetType: string**: Tipo de destino de la regla. Acepta `ip` o `ipv6`.
+  - **access: string**: Tipo de acceso de la regla. Acepta `allow` o `deny`.
+- **outboundRules: array**: Reglas para el tráfico saliente de los componentes dentro de la NACL.
+  - **ruleNumber: number**: Número de regla para la NACL.
+  - **protocol: string**: Protocolo de la regla. Acepta `-1`, que significa "Todo", o un protocolo específico.
+  - **portRange: string**: Puerto de escucha o rango de puertos para el tráfico.
+  - **target: string**: Destino del tráfico (rango CIDR).
+  - **targetType: string**: Tipo de destino de la regla. Acepta `ip` o `ipv6`.
+  - **access: string**: Tipo de acceso de la regla. Acepta `allow` o `deny`.
+- **color: object**: Color de relleno para el cuerpo del componente.
+  - **isometric: string**: Color de relleno para el componente en la vista 3D. Debe ser un color hexadecimal. Por defecto es `#ECECED`.
+  - **2d: string**: Color de relleno para el componente en la vista 2D. Debe ser un color hexadecimal. Por defecto es `#CC2264`.
+- **link: uri**: Enlace del componente a otro diagrama utilizando el formato `blueprint://ID` o a un sitio web externo utilizando el formato `https://LINK`.
+- **locked: boolean**: Si es `true`, los cambios realizados en el componente mediante la aplicación se desactivan hasta que se desbloquean.
+
+[1]: /es/cloudcraft/api/
+[2]: https://docs.aws.amazon.com/general/latest/gr/aws-arns-and-namespaces.html
\ No newline at end of file
diff --git a/content/es/cloudcraft/components-common/icon.md b/content/es/cloudcraft/components-common/icon.md
new file mode 100644
index 0000000000000..6941508965c45
--- /dev/null
+++ b/content/es/cloudcraft/components-common/icon.md
@@ -0,0 +1,71 @@
+---
+title: Componente Icono
+---
+
+## Información general
+
+El componente Icono es uno de los componentes básicos disponibles. Junto con Imágenes** y Bloques, puede utilizarse para representar componentes de nube aún no disponibles.
+
+{{< img src="cloudcraft/components-common/icon/component-icon.png" alt="Captura de pantalla de una representación 3D del componente Icono en Cloudcraft" responsive="true" style="width:60%;">}}
+
+## Barra de herramientas
+
+Utiliza la barra de herramientas para configurar y personalizar el componente. Dispone de las siguientes opciones:
+
+- **Color**: selecciona un color de fondo y de icono predefinido o introduce el valor hexadecimal del color. Acepta el mismo color para las vistas 2D y 3D, o colores diferentes para cada una.
+- **Icon set** (Conjunto de iconos): selecciona el conjunto de iconos que contiene el icono necesario. Los conjuntos disponibles son AWS, AWS (legacy), Azure y Font Awesome.
+- **Icon name** (Nombre del icono): nombre del icono utilizado en el diagrama. Este campo también se puede utilizar para buscar iconos disponibles.
+- **Toggle 3D/2D projection** (Conmutar proyección 3D/2D): muestra el icono en una vista 3D o 2D cuando el propio diagrama está en vista 3D. No disponible para diagramas 2D.
+- **Toggle flat/standing projection** (Conmutar entre proyección plana y proyección vertical): muestra la etiqueta en plano o vertical. No disponible cuando la proyección 2D está activada o en diagramas 2D.
+- **Size** (Tamaño): aumenta o disminuye el tamaño de un icono.
+- **Rotate item** (Girar elemento): gira un icono y cambia su dirección.
+- **Raise** (Elevar): eleva el componente del icono por encima de otros iconos.
+- **Lower** (Bajar): baja el componente del icono debajo de otros iconos.
+
+## API
+
+Utiliza [la API de Cloudcraft][1] para acceder mediante programación y renderizar tus diagramas de arquitectura como objetos JSON. El siguiente es un ejemplo de objeto JSON de un componente Icono:
+
+```json
+{
+  "type": "icon",
+  "id": "a65bf697-3f17-46dd-8801-d38fcc3827b6",
+  "mapPos": [4.5, 13.5],
+  "iconSet": "fa",
+  "name": "firefox",
+  "iconSize": 6,
+  "isometric": true,
+  "standing": false,
+  "direction": "down",
+  "color": {
+    "2d": "#ffffff",
+    "isometric": "#ffffff"
+  },
+  "background": {
+    "2d": "#000000",
+    "isometric": "#0e141f"
+  },
+  "link": "blueprint://5dccf526-bb9b-44ba-abec-3b5e7c8076a6",
+  "locked": true
+}
+```
+
+- **type: icon**: el tipo de componente.
+- **id: string**: un identificador único para el componente en el formato `uuid`.
+- **mapPos: [number, number]**: la posición del componente en el plano, expresada como un par de coordenadas x,y.
+- **iconSet: string**: nombre del conjunto de iconos utilizado. Acepta uno de `aws, aws2, azure, fa` como valor.
+- **name: string**: nombre del icono dentro del conjunto de iconos. Los nombres se pueden encontrar dentro de la aplicación utilizando la barra de herramientas de componentes.
+- **iconSize: number**: tamaño del icono. Por defecto es 3.
+- **isometric: boolean**: si es true, el icono se muestra utilizando una proyección 3D, mientras que false muestra la etiqueta en una proyección 2D. Por defecto es true.
+- **standing: boolean**: si es true, muestra el icono vertical en lugar de plano. Por defecto es false.
+- **direction: string**: la rotación o dirección del icono. Acepta `down, up, right, left` como valor, con `down` por defecto.
+- **color: object**: el color de relleno para el cuerpo del componente.
+  - **isometric: string**: color de relleno para el componente en la vista 3D. Debe ser un color hexadecimal.
+  - **2d: string**: color de relleno para el componente en la vista 2D. Debe ser un color hexadecimal.
+- **background: object**: el color de fondo del componente.
+  - **isometric: string**: color de fondo para el icono en la vista 3D. Debe ser un color hexadecimal.
+  - **2d: string**: color de fondo para el icono en la vista 2D. Debe ser un color hexadecimal.
+- **link: uri**: componente de enlace a otro diagrama en el formato `blueprint://ID` o a un sitio web externo en el formato `https://LINK`.
+- **locked: boolean**: si es true, los cambios en el componente a través de la aplicación se desactivan hasta que se desbloquee.
+
+[1]: https://developers.cloudcraft.co/
\ No newline at end of file
diff --git a/content/es/code_analysis/github_pull_requests.md b/content/es/code_analysis/github_pull_requests.md
new file mode 100644
index 0000000000000..64ef15cdcedb7
--- /dev/null
+++ b/content/es/code_analysis/github_pull_requests.md
@@ -0,0 +1,101 @@
+---
+aliases:
+- /es/static_analysis/github_pull_requests
+description: Aprende a utilizar Code Analysis en solicitudes pull de GitHub.
+further_reading:
+- link: /integrations/github/
+  tag: Documentación
+  text: Más información sobre la integración GitHub
+- link: /code_analysis/
+  tag: Documentación
+  text: Más información sobre Code Analysis
+title: Solicitudes pull de GitHub
+---
+
+## Información general
+
+Code Analysis se integra con las solicitudes pull de GitHub de dos maneras:
+- [Comentarios en solicitudes pull para señalar infracciones](#enable-code-analysis-pr-comments-for-your-repositories): Durante las revisiones de código en GitHub, Datadog puede automáticamente comprobar infracciones de Static Analysis en solicitudes pull de repositorios que tienen al menos un conjunto de reglas aplicado. Las infracciones se señalan con un comentario de revisión en línea en la(s) línea(s) de código pertinente(s), junto con sugerencias de corrección (cuando corresponde) que pueden aplicarse directamente en la solicitud pull. Esta opción sólo está disponible para Static Analysis (SAST).
+{{< img src="ci/static-analysis-pr-comment-example.png" alt="Ejemplo de comentario de Code Analysis en una solicitud pull" style="width:90%;" >}}
+
+- [Apertura de una solicitud pull para solucionar un problema directamente desde Datadog](#fixing-a-vulnerability-directly-from-Datadog): Puedes crear una solicitud pull desde la interfaz de usuario para solucionar una vulnerabilidad de seguridad o un problema de calidad de código basándote en el método de reparación de código sugerido por Datadog. Esta opción sólo está disponible para Static Analysis (SAST).
+{{< img src="ci/sast_one_click_light.png" alt="Ejemplo de reparación en un clic para Code Analysis" style="width:90%;" >}}
+
+Para activar estas funciones, asegúrate de que tienes los permisos de GitHub necesarios (lectura y escritura) para tu repositorio.
+
+## Configurar Code Analysis para solicitudes pull de GitHub
+
+### Activar Datadog Code Analysis
+
+Para utilizar Datadog Code Analysis, añade los archivos de configuración adecuados a tu repositorio, tal y como se describe en las [instrucciones de configuración][1].
+
+### Configuración de una aplicación de GitHub
+
+Para utilizar Code Analysis en GitHub, puedes realizar una de las siguientes acciones:
+
+- Crear una aplicación GitHub en Datadog.
+- Actualizar una aplicación GitHub existente, si ya creaste una en Datadog.
+
+Los permisos que concedes a la aplicación GitHub determinan qué funciones de la [integración GitHub][2] están disponibles para la configuración.
+
+#### Crear e instalar una aplicación GitHub
+
+1. En Datadog, ve a [**Integraciones** > **Aplicaciones GitHub** > **Añadir una nueva aplicación GitHub**][3].
+1. Rellena los datos necesarios, como el nombre de la organización GitHub.
+1. En **Seleccionar funciones**, marca la casilla **Code Analysis: Comentarios de revisión de solicitudes pull**.
+1. En **Editar permisos**, comprueba que el permiso **Solicitudes pull** está configurado para **Lectura y escritura**.
+1. Haz clic en **Create App in GitHub** (Crear aplicación en GitHub).
+1. Introduce un nombre para tu aplicación y envíalo.
+1. Haz clic en **Install GitHub App** (Instalar aplicación GitHub).
+1. Elige en qué repositorios debe instalarse la aplicación y luego haz clic en **Install & Authorize** (Instalar y autorizar).
+
+{{< img src="ci/static-analysis-install-github-app.png" alt="Pantalla de instalación de la aplicación GitHub" style="width:50%;" >}}
+
+#### Actualizar una aplicación GitHub existente
+
+1. En Datadog, ve a [**Integraciones > Aplicaciones GitHub**][5] y busca la aplicación GitHub que quieres utilizar para Code Analysis.
+{{< img src="ci/static-analysis-existing-github-app.png" alt="Ejemplo de comentario de Static Analysis en una solicitud pull" style="width:90%;" >}}
+1. En la pestaña **Funciones**, consulta la sección **Code Analysis: Comentarios en solicitudes pull** para determinar si tu aplicación GitHub necesita permisos adicionales. Si es así, haz clic en **Update permissions in GitHub** (Actualizar permisos en GitHub) para editar los parámetros de la aplicación.
+1. En **Permisos de repositorio**, configura el acceso a **Solicitudes pull** como **Lectura y escritura**.
+{{< img src="ci/static-analysis-pr-read-write-permissions.png" alt="Desplegable correspondiente al permiso de lectura y escritura en solicitudes pull" style="width:90%;" >}}
+1. Bajo el título **Suscribirse a eventos**, marca la casilla **Solicitud pull**.
+{{< img src="ci/static-analysis-pr-review-comment.png" alt="Casilla correspondiente al permiso para comentarios de revisión en solicitudes pull" style="width:90%;" >}}
+
+### Habilitar comentarios de Code Analysis en solicitudes pull para tus repositorios
+
+1. En Datadog, ve a [**Parámetros de CI** > **Parámetros de Code Analysis**][4].
+1. Haz clic en el interruptor junto a un repositorio dado para activar **Comentarios de GitHub**. En el siguiente ejemplo, los comentarios están habilitados para el repositorio `demo-static-analysis-gates`.
+
+{{< img src="ci/static-analysis-github-comments.png" alt="Ejemplo de comentario de Code Analysis en una solicitud pull" style="width:100%;" >}}
+
+**Nota:** Si utilizas [GitHub Actions][6] para ejecutar tus análisis, activa la acción en `push` para que aparezcan los comentarios.
+
+### Solucionar una vulnerabilidad directamente desde Datadog 
+
+Si el permiso para **Solicitudes pull** de tu aplicación GitHub está configurado para **Lectura y escritura**, la corrección en un clic se habilita para todas las detecciones de Static Analysis con una solución sugerida disponible.
+
+Sigue estos pasos para corregir una vulnerabilidad y abrir una solicitud pull:
+1. Visualiza un resultado específico en Code Analysis.
+2. Haz clic en **Fix Violation** (Corregir infracción) en el panel lateral del resultado. 
+3. Selecciona **Abrir una solicitud pull**.
+4. Introduce el título de la solicitud y el mensaje de confirmación.
+5. Haz clic en **Create PR** (Crear solicitud pull).
+
+También puedes corregir una vulnerabilidad confirmándola directamente en la rama en la que se encontró el resultado.
+
+Para confirmar una corrección sugerida:
+
+1. Visualiza un resultado específico en Code Analysis.
+2. Haz clic en ***Fix Violation** (Solucionar infracción) en el panel lateral del resultado.
+3. Haz clic en **Commit to current branch** (Confirmar en la rama actual).
+
+## Referencias adicionales
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: /es/code_analysis#setup
+[2]: /es/integrations/github/
+[3]: https://app.datadoghq.com/integrations/github/add
+[4]: https://app.datadoghq.com/ci/settings/static-analysis
+[5]: https://app.datadoghq.com/integrations/github/configuration
+[6]: /es/code_analysis/static_analysis/github_actions/
\ No newline at end of file
diff --git a/content/es/containers/datadog_operator/crd_dashboard.md b/content/es/containers/datadog_operator/crd_dashboard.md
new file mode 100644
index 0000000000000..ea363a4cb30a7
--- /dev/null
+++ b/content/es/containers/datadog_operator/crd_dashboard.md
@@ -0,0 +1,97 @@
+---
+title: CRD para dashboards Datadog
+---
+Para desplegar un dashboard Datadog, puedes utilizar el Datadog Operator y la definición personalizada de recursos (CRD) `DatadogDashboard`.
+
+### Requisitos previos
+- [Helm][1]
+- [CLI `kubectl`][2]
+- [Datadog Operator][3] v0.6 o posterior
+
+### Configuración
+
+1. Crea un archivo con las especificaciones de configuración de despliegue de tu`DatadogDashboard`.
+
+   **Ejemplo**:
+
+   {{< code-block lang="yaml" filename="datadog-dashboard.yaml" collapsible="true" >}}
+   apiVersion: datadoghq.com/v1alpha1
+   kind: DatadogDashboard
+   metadatos:
+     name: example-dashboard
+   spec:
+     title: Test Dashboard
+     layoutType: ordered
+     tags:
+       - "team:my_team"
+     templateVariables:
+       - availableValues:
+           - host1
+           - host2
+           - host3
+         name: first
+         prefix: bar-foo
+     notifyList:
+       - foobar@example.com
+     widgets: '[{
+               "id": 2639892738901474,
+               "definition": {
+                   "title": "",
+                   "title_size": "16",
+                   "title_align": "left",
+                   "show_legend": true,
+                   "legend_layout": "auto",
+                   "legend_columns": [
+                       "avg",
+                       "min",
+                       "max",
+                       "value",
+                       "sum"
+                   ],
+                   "type": "timeseries",
+                   "requests": [
+                       {
+                           "formulas": [
+                               {
+                                   "formula": "query1"
+                               }
+                           ],
+                           "queries": [
+                               {
+                                   "name": "query1",
+                                   "data_source": "metrics",
+                                   "query": "avg:system.cpu.user{*} by {host}"
+                               }
+                           ],
+                           "response_format": "timeseries",
+                           "style": {
+                               "palette": "dog_classic",
+                               "order_by": "values",
+                               "line_type": "solid",
+                               "line_width": "normal"
+                           },
+                           "display_type": "line"
+                       }
+                   ]
+               },
+               "layout": {
+                   "x": 0,
+                   "y": 0,
+                   "width": 4,
+                   "height": 2
+               }
+            }]'
+   {{< /code-block >}}
+
+   Para conocer todas las opciones de configuración disponibles, consulta la [referencia de la API para crear un nuevo dashboard][4].
+
+2. Despliega tu `DatadogDashboard`:
+
+   ```shell
+   kubectl apply -f /path/to/your/datadog-dashboard.yaml
+   ```
+
+[1]: https://helm.sh/
+[2]: https://kubernetes.io/docs/tasks/tools/install-kubectl/
+[3]: /es/containers/kubernetes/installation?tab=datadogoperator#installation
+[4]: /es/api/latest/dashboards/#create-a-new-dashboard
\ No newline at end of file
diff --git a/content/es/containers/datadog_operator/crd_monitor.md b/content/es/containers/datadog_operator/crd_monitor.md
new file mode 100644
index 0000000000000..e84002be0e215
--- /dev/null
+++ b/content/es/containers/datadog_operator/crd_monitor.md
@@ -0,0 +1,99 @@
+---
+title: CRD para monitores de Datadog
+---
+
+Para desplegar un monitor de Datadog, puedes utilizar el Datadog Operator y la definición de recursos personalizados (CRD) `DatadogMonitor`.
+
+### Requisitos previos
+- [Helm][1]
+- [CLI `kubectl`][2]
+- [Datadog Operator][3] v0.6 o posterior
+
+### Configuración
+
+1. Crea un archivo con las especificaciones de configuración de despliegue de tu `DatadogMonitor`.
+
+   **Ejemplo**:
+
+   Las siguientes especificaciones de ejemplo crean un [monitor de métricas][4] que alerta sobre la consulta `avg(last_10m):avg:system.disk.in_use{*} by {host} > 0.5`.
+
+   {{< code-block lang="yaml" filename="datadog-metric-monitor.yaml" collapsible="true" >}}
+   apiVersion: datadoghq.com/v1alpha1
+   kind: DatadogMonitor
+   metadata:
+     name: datadog-monitor-test
+     namespace: datadog
+   spec:
+     query: "avg(last_10m):avg:system.disk.in_use{*} by {host} > 0.5"
+     type: "metric alert"
+     name: "Test monitor made from DatadogMonitor"
+     message: "1-2-3 testing"
+     tags:
+       - "test:datadog"
+     priority: 5
+     options:
+       evaluationDelay: 300
+       includeTags: true
+       locked: false
+       newGroupDelay: 300
+       notifyNoData: true
+       noDataTimeframe: 30
+       renotifyInterval: 1440
+       thresholds:
+         critical: "0.5"
+         warning: "0.28"
+   {{< /code-block >}}
+
+   Para conocer todas las opciones de configuración disponibles, consulta la [referencia de la API para crear un nuevo monitor][5].
+
+2. Despliega tu `DatadogMonitor`:
+
+   ```shell
+   kubectl apply -f /path/to/your/datadog-metric-monitor.yaml
+   ```
+
+### Ejemplos adicionales
+
+#### Monitores de métricas
+- [Hay un pod en CrashLoopBackOff][6]
+- [Hay un pod en ImagePullBackOff][8]
+- [Los pods de más de una réplica de despliegue están inactivos][7]
+- [Los pods de más de una réplica de StatefulSet están inactivos][12]
+- [Más del 20 % de los nodos de un clúster no son programables][9].
+- [Más de 10 pods están fallando en un clúster][10]
+- [Los pods se están reiniciando varias veces en los últimos cinco minutos][11]
+
+
+#### Otros monitores
+- [Monitor de auditoría][13]
+- [Monitor de eventos][14]
+- [Monitor de eventos V2][15]
+- [Monitores de logs][16]
+- [Monitor de proceso][17]
+- [Monitor RUM][18]
+- [Monitor de checks de servicios][19]
+- [Monitor de SLO][20]
+- [Monitor de análisis de trazas (traces)][21]
+
+
+[1]: https://helm.sh/
+[2]: https://kubernetes.io/docs/tasks/tools/install-kubectl/
+[3]: /es/containers/kubernetes/installation?tab=datadogoperator#installation
+[4]: /es/monitors/types/metric/?tab=threshold
+[5]: /es/api/latest/monitors/#create-a-monitor
+[6]: https://github.com/DataDog/datadog-operator/blob/main/examples/datadogmonitor/metric-monitor-crashloopbackoff.yaml
+[7]: https://github.com/DataDog/datadog-operator/blob/main/examples/datadogmonitor/metric-monitor-deployment-replicas.yaml
+[8]: https://github.com/DataDog/datadog-operator/blob/main/examples/datadogmonitor/metric-monitor-imagepullbackoff.yaml
+[9]: https://github.com/DataDog/datadog-operator/blob/main/examples/datadogmonitor/metric-monitor-nodes-unavailable.yaml
+[10]: https://github.com/DataDog/datadog-operator/blob/main/examples/datadogmonitor/metric-monitor-pods-failed-state.yaml
+[11]: https://github.com/DataDog/datadog-operator/blob/main/examples/datadogmonitor/metric-monitor-pods-restarting.yaml
+[12]: https://github.com/DataDog/datadog-operator/blob/main/examples/datadogmonitor/metric-monitor-statefulset-replicas.yaml
+[13]: https://github.com/DataDog/datadog-operator/blob/main/examples/datadogmonitor/audit-alert-monitor-test.yaml
+[14]: https://github.com/DataDog/datadog-operator/blob/main/examples/datadogmonitor/event-alert-monitor-test.yaml
+[15]: https://github.com/DataDog/datadog-operator/blob/main/examples/datadogmonitor/event-v2-alert-monitor-test.yaml
+[16]: https://github.com/DataDog/datadog-operator/blob/main/examples/datadogmonitor/log-alert-monitor-test.yaml
+[17]: https://github.com/DataDog/datadog-operator/blob/main/examples/datadogmonitor/process-alert-monitor-test.yaml
+[18]: https://github.com/DataDog/datadog-operator/blob/main/examples/datadogmonitor/rum-alert-monitor-test.yaml
+[19]: https://github.com/DataDog/datadog-operator/blob/main/examples/datadogmonitor/service-check-monitor-test.yaml
+[20]: https://github.com/DataDog/datadog-operator/blob/main/examples/datadogmonitor/slo-alert-monitor-test.yaml
+[21]: https://github.com/DataDog/datadog-operator/blob/main/examples/datadogmonitor/trace-analytics-alert-monitor-test.yaml
\ No newline at end of file
diff --git a/content/es/containers/datadog_operator/crd_slo.md b/content/es/containers/datadog_operator/crd_slo.md
new file mode 100644
index 0000000000000..81d93589300f0
--- /dev/null
+++ b/content/es/containers/datadog_operator/crd_slo.md
@@ -0,0 +1,77 @@
+---
+title: CRD para SLO de Datadog
+---
+
+Para crear un [objetivo de nivel servicio][1] (SLO), puedes utilizar el Datadog Operator y la definición de recursos personalizados (CRD) `DatadogSLO`.
+
+### Requisitos previos
+- [Helm][2]
+- [CLI `kubectl`][3]
+- [Datadog Operator][4] v0.6 o posterior
+
+### Configuración
+
+1. Crea un archivo con las especificaciones de configuración de despliegue de tu `DatadogSLO`.
+
+   **Ejemplo**: SLO [basado en un monitor][5]
+
+   {{< code-block lang="yaml" filename="datadog-slo.yaml" collapsible="true" >}}
+   apiVersion: datadoghq.com/v1alpha1
+   kind: DatadogSLO
+   metadata:
+     name: example-slo-monitor3
+     namespace: system 
+   spec:
+     name: example-slo-monitor3
+     description: "This is an example monitor SLO from datadog-operator"
+     monitorIDs:
+       - 1234
+     tags:
+       - "service:example"
+       - "env:prod"
+     targetThreshold: "99.9"
+     timeframe: "7d"
+     type: "monitor"
+   {{< /code-block >}}
+
+   **Ejemplo**: SLO [basado en una métrica][6]
+
+   {{< code-block lang="yaml" filename="datadog-slo.yaml" collapsible="true" >}}
+   apiVersion: datadoghq.com/v1alpha1
+   kind: DatadogSLO
+   metadata:
+     name: example-slo
+     namespace: system 
+   spec:
+     name: example-slo
+     description: "This is an example metric SLO from datadog-operator"
+     query:
+       denominator: "sum:requests.total{service:example,env:prod}.as_count()"
+       numerator: "sum:requests.success{service:example,env:prod}.as_count()"
+     tags:
+       - "service:example"
+       - "env:prod"
+     targetThreshold: "99.9"
+     timeframe: "7d"
+     type: "metric"
+   {{< /code-block >}}
+
+   Para conocer todas las opciones de configuración disponibles, consulta la [referencia de la API para crear un nuevo SLO][4].
+
+2. Despliega tu `DatadogSLO`:
+
+   ```shell
+   kubectl apply -f /path/to/your/datadog-slo.yaml
+   ```
+
+### Ejemplos adicionales
+[SLO basado en una métrica con monitorización de servicio universal][8]
+
+[1]: /es/service_management/service_level_objectives/
+[2]: https://helm.sh/
+[3]: https://kubernetes.io/docs/tasks/tools/install-kubectl/
+[4]: /es/api/latest/service-level-objectives/#create-an-slo-object
+[5]: /es/service_management/service_level_objectives/monitor/
+[6]: /es/service_management/service_level_objectives/metric/
+[7]: /es/api/latest/service-level-objectives/#create-an-slo-object
+[8]: https://github.com/DataDog/datadog-operator/blob/main/examples/datadogslo/metric-usm-example.yaml
\ No newline at end of file
diff --git a/content/es/continuous_integration/guides/identify_highest_impact_jobs_with_critical_path.md b/content/es/continuous_integration/guides/identify_highest_impact_jobs_with_critical_path.md
new file mode 100644
index 0000000000000..9f4d5edcec1ba
--- /dev/null
+++ b/content/es/continuous_integration/guides/identify_highest_impact_jobs_with_critical_path.md
@@ -0,0 +1,85 @@
+---
+description: Aprende a identificar los trabajos CI que se encuentran en la ruta crítica
+  para mejorar la duración de tus pipelines CI.
+further_reading:
+- link: /continuous_integration/search/#pipeline-details-and-executions
+  tag: Documentación
+  text: Aprender a buscar y gestionar tus ejecuciones de pipelines
+- link: continuous_integration/search/#highlight-critical-path
+  tag: Documentación
+  text: Resaltar la ruta crítica en la ejecución de tus pipelines
+title: Identificar trabajos CI en la ruta crítica para reducir la duración de los
+  pipelines
+---
+
+## Información general
+
+Esta guía explica cómo identificar los trabajos CI que se encuentran en la ruta crítica para ayudarte a determinar qué trabajos priorizar con el fin de reducir la duración total de tus pipelines CI.
+
+### Comprender la ruta crítica en un pipeline CI
+
+La ruta crítica de la ejecución de un pipeline CI es la secuencia más larga de trabajos CI que determina la duración total de esa ejecución de pipeline. Esencialmente, es la ruta en el gráfico de dependencias de trabajos CI que tarda más tiempo en completarse. Para reducir la duración total de una ejecución de pipeline CI, es necesario acortar la duración de los trabajos CI a lo largo de esta ruta crítica.
+
+{{< img src="continuous_integration/critical_path_highlight_pipeline.png" alt="Trabajos resaltados en la ruta crítica de la ejecución de un pipeline." width="90%">}}
+
+Observar la duración del trabajo puede no ser suficiente. Los trabajos CI suelen ejecutarse en paralelo con otros trabajos, lo que significa que la reducción del tiempo de ejecución del pipeline viene determinada por la reducción del **tiempo exclusivo** del trabajo CI.
+
+El tiempo exclusivo de un trabajo en la ruta crítica representa la cantidad de tiempo que el ejecutor CI dedicó a ejecutar un trabajo específico, excluyendo el tiempo de ejecución de otros trabajos que se ejecutaban en paralelo.
+
+{{< img src="continuous_integration/critical_path_highlight_pipeline_exclusive_time.png" alt="Tiempo exclusivo de trabajos resaltados en la ruta crítica de la ejecución de un pipeline." width="90%">}}
+
+Si un trabajo CI `job1` está en la ruta crítica con una duración de 100 ms y se ejecuta en paralelo con un trabajo CI `job2` que tiene una duración de 80 ms, el tiempo exclusivo de `job1` en la ruta crítica es de 20 ms. Esto significa que si se reduce la duración de `job1` en más de 20 ms, la duración total del pipeline sólo disminuirá 20 ms.
+
+### Proveedores CI compatibles
+
+El filtrado y el cálculo del tiempo exclusivo de los trabajos CI en la ruta crítica está disponible para los siguientes proveedores CI:
+* [GitLab][3]
+
+<div class="alert alert-info">Si te interesa la ruta crítica pero tu proveedor CI aún no es compatible, rellena <a href="https://forms.gle/zDgiDSGQxA1HgjXh6" target="_blank">este formulario</a>.</div>
+
+Incluso sin filtrar ni calcular el tiempo exclusivo, puedes [resaltar qué trabajos CI se encuentran en la ruta crítica][4] utilizando la vista detallada de ejecución de pipelines de todos los proveedores CI.
+
+## Identificar los trabajos CI clave para mejorar tu pipeline CI
+
+### Uso de la faceta
+
+Puedes utilizar la faceta `@ci.on_critical_path` o `@ci.critical_path.exclusive_time` para identificar qué trabajos CI están en la ruta crítica en tus pipelines CI. Con esas facetas puedes crear dashboards y notebooks personalizados según tus necesidades.
+
+{{< img src="continuous_integration/critical_path_facets.png" alt="Filtrar con facetas de ruta crítica" width="90%">}}
+
+Ten en cuenta que estas facetas sólo están disponibles si utilizas `ci_level:job` en tus consultas.
+
+### Uso de la plantilla de dashboard 
+
+También puedes importar la plantilla de dashboard [CI Visibility - Critical Path][1]:
+- Abre la plantilla de dashboard [civisibility-critical-path-gitlab-dashboard.json][1] y copia el contenido en el portapapeles.
+- Crea un [nuevo dashboard][2] en Datadog.
+- Pega el contenido copiado en el nuevo dashboard.
+- Guarda el dashboard.
+
+{{< img src="continuous_integration/critical_path_dashboard.png" alt="Dashboard de ruta crítica para CI Visibility" width="90%">}}
+
+#### Terminología
+
+| Columna                                | Descripción                                                                                                                                                      |
+|---------------------------------------|------------------------------------------------------------------------------------------------------------------------------------------------------------------|
+| Tiempo exclusivo total en la ruta crítica | Suma de todos los tiempos exclusivos del trabajo, que calcula el ahorro potencial de tiempo para los pipelines involucrados.                                      |
+| Tiempo exclusivo medio en la ruta crítica   | Tiempo exclusivo medio de un trabajo específico en la ruta crítica, que mide la reducción potencial de la duración de un pipeline si el trabajo reduce su tiempo exclusivo. |
+| Frecuencia en la ruta crítica                 | Mide con qué frecuencia un trabajo se encuentra en la ruta crítica.                                                                                                                |
+
+##### Ejemplo
+
+En la imagen anterior, podemos observar que un trabajo CI llamado `metrics` es un candidato potencial para la mejora, ya que su tiempo exclusivo total es el más alto. El tiempo exclusivo medio es de unos 21 minutos, lo que significa que existe un margen de mejora de hasta 21 minutos para este trabajo CI. 
+
+Como sabemos que este trabajo CI está en la ruta crítica el 43,5% del tiempo, podríamos reducir potencialmente la duración media del pipeline en hasta 21 minutos para el 43,5% de las ejecuciones del pipeline.
+
+{{< img src="continuous_integration/critical_path_dashboard_outlier_job_highlighted.png" alt="Trabajo CI como potencial candidato para mejorar el tiempo exclusivo." width="90%">}}
+
+## Referencias adicionales
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: /resources/json/civisibility-critical-path-gitlab-dashboard.json
+[2]: /es/dashboards/
+[3]: /es/continuous_integration/pipelines/gitlab/?tab=gitlabcom
+[4]: /es/continuous_integration/search/#highlight-critical-path
\ No newline at end of file
diff --git a/content/es/continuous_integration/pipelines/jenkins.md b/content/es/continuous_integration/pipelines/jenkins.md
new file mode 100644
index 0000000000000..bc6449c9eb28c
--- /dev/null
+++ b/content/es/continuous_integration/pipelines/jenkins.md
@@ -0,0 +1,1258 @@
+---
+aliases:
+- /es/continuous_integration/setup_pipelines/jenkins
+further_reading:
+- link: /continuous_integration/pipelines
+  tag: Documentación
+  text: Explorar los resultados y el rendimiento de la ejecución de pipelines
+- link: /continuous_integration/pipelines/custom_commands/
+  tag: Documentación
+  text: Ampliar la visibilidad de los pipelines mediante el rastreo de comandos individuales
+- link: /continuous_integration/troubleshooting/
+  tag: Documentación
+  text: Solucionar problemas de CI Visibility
+title: Configurar el rastreo en un pipeline de Jenkins
+---
+
+{{< site-region region="gov" >}}
+<div class="alert alert-warning">CI Visibility no está disponible en el sitio seleccionado ({{< region-param key="dd_site_name" >}}) en este momento.</div>
+{{< /site-region >}}
+
+## Información general
+
+[Jenkins][19] es un servidor de automatización con características de integración y entrega continuas (CI/CD). Con su arquitectura de complementos, Jenkins se puede personalizar para adaptarse a cualquier necesidad de CI/CD y automatiza todos los aspectos del desarrollo, los tests y el despliegue de proyectos.
+
+Configura el rastreo en Jenkins para recopilar datos a través de varias etapas de tus ejecuciones de pipeline, identificar cuellos de botella de rendimiento, resolver desafíos operativos y refinar el despliegue de tus procesos.
+
+### Compatibilidad
+
+| Pipeline Visibility | Plataforma | Definición |.
+|---|---|----------------------------------------------------------------------------------------------------------|
+| [Pasos manuales][20] | Pasos manuales | Consulta los pipelines activados de forma manual.                                                                       |
+| [Tiempo de cola][21] | Tiempo de cola | Consulta el tiempo que los trabajos de pipeline permanecen en la cola antes de procesarse.                                |
+| Correlación de logs | Correlación de logs | Correlaciona los tramos (spans) de los pipelines con logs y activa la [recopilación de logs de trabajos][10]. |
+| Correlación de métricas de infraestructura | Correlación de métricas de infraestructura | Correlaciona los trabajos con las [métricas del host de la infraestructura][11] para los workers de Jenkins.                                 |
+| [Tramos personalizados][26] | Tramos personalizados | Configura los tramos personalizados para tus pipelines.                                                               |
+| Etiquetas (tags) personalizadas predefinidas | Etiquetas personalizadas predefinidas | Establece [etiquetas personalizadas predefinidas][12] para todos los pipelines, etapas y tramos de trabajos generados.                                  |
+| [Etiquetas personalizadas][22] [y medidas en tiempo de ejecución][23] | Etiquetas personalizadas y medidas en tiempo de ejecución | Configura [etiquetas personalizadas y medidas][12] en tiempo de ejecución.                                                     |
+| [Parámetros][24] | Parámetros | Establece parámetros personalizados (como el nombre de la rama predeterminada o la información de Git) cuando se activa un pipeline. |
+| [Razones de fallos de pipelines][25] | Identifica las razones de fallos de los pipelines a partir de los mensajes de error.                                                   |
+| [Pipelines en ejecución][32] | Pipelines en ejecución | Consulta las ejecuciones de pipelines que se están ejecutando. Requiere la versión >= 8.0.0 del complemento de Jenkins.
+
+Se admiten las siguientes versiones de Jenkins:
+
+- Jenkins >= 2.346.1
+
+Este integración admite tanto la instalación sin el Agent como la instalación con el Agent.
+La instalación del Agent es necesaria para la correlación de métricas de infraestructura.
+
+## Instalar el Datadog Agent
+
+Omite este paso si no necesitas la correlación de métricas de infraestructura.
+
+Instala el Datadog Agent en el nodo controlador de Jenkins y en los nodos worker mediante las [instrucciones de instalación del Agent][14].
+
+Si el controlador de Jenkins y el Datadog Agent se han desplegado en un clúster de Kubernetes, Datadog recomienda usar el [controlador de admisión][2], que automáticamente establece la variable de entorno `DD_AGENT_HOST` en el pod del controlador de Jenkins para comunicarse con el Datadog Agent local.
+
+Si deseas enviar los logs de tus trabajos de Jenkins a Datadog, asegúrate de que la recopilación de logs personalizados a través de TCP esté [habilitada y configurada][29] en el Agent.
+
+Si el Agent se ejecuta en un contenedor, añádele la variable de entorno`DD_DOGSTATSD_NON_LOCAL_TRAFFIC=true` y asegúrate de que el controlador de Jenkins pueda acceder a los siguientes puertos:
+- Puerto [DogStadsD][30]; valor predeterminado `8125/udp`
+- [Puerto de trazas (traces) de APM][31]; valor predeterminado `8126/tcp`
+- [Puerto de recopilación de logs][29]; valor predeterminado `10518/tcp`
+
+<div class="alert alert-info"><strong>Nota</strong>: No se admite el envío de trazas de CI Visibility a través de sockets de dominio UNIX.</div>
+
+## Instalar el complemento de Jenkins para Datadog
+
+<div class="alert alert-info">Ya sea que decidas utilizar el modo Agentless o el modo basado en el Agent para enviar tus datos a Datadog, <strong>deberás</strong> utilizar el complemento.</div>
+
+Instala y activa la versión 3.1.0 del [complemento de Jenkins para Datadog][3] o una posterior:
+
+1. En la interfaz web de tu instancia de Jenkins, ve a **Manage Jenkins > Manage Plugins** (Gestionar Jenkins > Gestionar complementos).
+2. En [Update Center][4] (Centro de actualizaciones), en la pestaña **Available** (Disponibles), busca `Datadog Plugin` (Complemento de Datadog).
+3. Selecciona la casilla junto al complemento e instálalo mediante uno de los dos botones de instalación situados en la parte inferior de la pantalla.
+4. Para verificar que el complemento está instalado, busca `Datadog Plugin` (Complemento de Datadog) en la pestaña **Installed** (Instalados).
+
+## Configurar el complemento de Jenkins para Datadog
+
+Existen varias formas de configurar el complemento de Jenkins para Datadog.
+
+### Configurar con la interfaz de usuario de configuración de Jenkins
+
+{{< tabs >}}
+{{% tab "Sin el Agent (con una clave de API)" %}}
+
+Usa esta opción para hacer que el complemento de Jenkins envíe datos directamente a Datadog sin usar el Datadog Agent. Esto requiere una clave de API.
+
+1. En la interfaz web de tu instancia de Jenkins, ve a **Manage Jenkins > Configure System** (Gestionar Jenkins > Configurar sistema).
+2. Desplázate por la pantalla de configuración hasta la sección `Datadog Plugin` (Complemento de Datadog).
+3. Selecciona el modo `Use Datadog site and API key to report to Datadog` (Utilizar el sitio de Datadog y la clave de API para enviar datos a Datadog).
+4. Selecciona tu [sitio de Datadog][1] en el menú desplegable `Pick a site` (Elegir un sitio).
+5. Ingresa una `Datadog API Key` (Clave de API de Datadog) válida (o utiliza la opción `Select from credentials` [Seleccionar desde las credenciales]).
+6. Haz clic en el botón `Test Key` (Probar clave) para verificar que tu clave de API es válida.
+7. Configurar CI Visibility:
+   1. Activa la casilla `Enable CI Visibility` (Activar CI Visibility).
+   2. (Opcional) Configura el nombre de tu instancia de CI.
+8. (Opcional) Configura la recopilación de logs:
+   1. Activa la casilla `Enable Log Collection` (Activar la recopilación de logs).
+9. (Opcional) Ingresa el nombre del host que utilizas para acceder a la interfaz de usuario de Datadog (por ejemplo, `app.datadoghq.com`) en el campo `Datadog App hostname` (Nombre de host de la aplicación Datadog).
+10. Guarda tu configuración.
+
+{{< img src="ci/ci-jenkins-plugin-config-agentless-app-hostname.png" alt="Configuración del complemento de Datadog para Jenkins" style="width:100%;">}}
+
+[1]: /es/getting_started/site/#access-the-datadog-site
+{{% /tab %}}
+{{% tab "Envío de datos a través del Datadog Agent (recomendado)" %}}
+
+1. En la interfaz web de tu instancia de Jenkins, ve a **Manage Jenkins > Configure System** (Gestionar Jenkins > Configurar sistema).
+2. Desplázate por la pantalla de configuración hasta la sección `Datadog Plugin` (Complemento de Datadog).
+3. Selecciona el modo `Use the Datadog Agent to report to Datadog` (Utilizar el Datadog Agent para enviar datos a Datadog).
+4. Configura el host `Agent`.
+5. Configurar CI Visibility:
+   1. Configura el `Traces Collection Port` (Puerto de recopilación de trazas) si no utilizas el puerto predeterminado `8126`.
+   2. Haz clic en el botón `Test traces connection` (Probar conexión de trazas) para verificar que tu configuración es válida.
+   3. Activa la casilla `Enable CI Visibility` (Activar CI Visibility).
+   4. (Opcional) Configura el nombre de tu instancia de CI.
+6. (Opcional) Configura la recopilación de logs:
+   1. Configura el puerto `Log Collection` (Recopilación de logs) como está configurado en el Datadog Agent.
+   2. Haz clic en el botón `Test logs connection` (Probar conexión de logs) para verificar que tu configuración es válida.
+   3. Activa la casilla `Enable Log Collection` (Activar la recopilación de logs).
+7. (Opcional) Ingresa el nombre del host que utilizas para acceder a la interfaz de usuario de Datadog (por ejemplo, `app.datadoghq.com`) en el campo `Datadog App hostname` (Nombre de host de la aplicación Datadog).
+8. Guarda tu configuración.
+
+{{< img src="ci/ci-jenkins-plugin-config-agentful-app-hostname.png" alt="Configuración del complemento de Datadog para Jenkins" style="width:100%;">}}
+{{% /tab %}}
+{{< /tabs >}}
+
+### Utilizar Configuration-as-Code
+
+{{< tabs >}}
+
+{{% tab "Sin el Agent (con una clave de API)" %}}
+
+Si tu instancia de Jenkins utiliza el complemento de Jenkins [`configuration-as-code`][1]:
+
+1. Crea o modifica el archivo YAML de configuración mediante la adición de una entrada para `datadogGlobalConfiguration`:
+
+    {{% site-region region="us" %}}
+    {{< code-block lang="yaml" disable_copy="true" collapsible="true" >}}
+unclassified:
+  datadogGlobalConfiguration:
+    datadogClientConfiguration:
+      # Selecciona el modo `Agentless` (con la clave de API).
+      datadogApiConfiguration:
+        intake:
+          datadogIntakeSite:
+            # Configura tu sitio de Datadog 
+            site: 'US1'
+        apiKey:
+          datadogCredentialsApiKey:
+            # Configura el ID de las credenciales de Jenkins que almacenan tu clave de API
+            credentialsId: 'my-api-key-credentials-id'
+    # Activa el indicador de CI Visibility
+    enableCiVisibility: true
+    # (Opcional) Configura el nombre de tu instancia de CI
+    ciInstanceName: 'jenkins'
+    # (Opcional) Configura el nombre del host que utilizas para acceder a la interfaz de usuario de Datadog
+    datadogAppHostname: 'app.datadoghq.com'
+    # (Opcional) Activa la recopilación de logs
+    collectBuildLogs: true
+    {{< /code-block >}}
+
+    {{% /site-region %}}
+    {{% site-region region="eu" %}}
+
+    {{< code-block lang="yaml" disable_copy="true" collapsible="true" >}}
+unclassified:
+  datadogGlobalConfiguration:
+    datadogClientConfiguration:
+      # Selecciona el modo `Agentless` (con la clave de API).
+      datadogApiConfiguration:
+        intake:
+          datadogIntakeSite:
+            # Configura tu sitio de Datadog 
+            site: 'EU1'
+        apiKey:
+          datadogCredentialsApiKey:
+            # Configura el ID de las credenciales de Jenkins que almacenan tu clave de API
+            credentialsId: 'my-api-key-credentials-id'
+    # Activa el indicador de CI Visibility
+    enableCiVisibility: true
+    # (Opcional) Configura el nombre de tu instancia de CI
+    ciInstanceName: 'jenkins'
+    # (Opcional) Configura el nombre del host que utilizas para acceder a la interfaz de usuario de Datadog
+    datadogAppHostname: 'app.datadoghq.eu'
+    # (Opcional) Activa la recopilación de logs
+    collectBuildLogs: true
+    {{< /code-block >}}
+
+    {{% /site-region %}}
+    {{% site-region region="gov" %}}
+
+    {{< code-block lang="yaml" disable_copy="true" collapsible="true" >}}
+unclassified:
+  datadogGlobalConfiguration:
+    datadogClientConfiguration:
+      # Selecciona el modo `Agentless` (con la clave de API).
+      datadogApiConfiguration:
+        intake:
+          datadogIntakeSite:
+            # Configura tu sitio de Datadog 
+            site: 'US1_FED'
+        apiKey:
+          datadogCredentialsApiKey:
+            # Configura el ID de las credenciales de Jenkins que almacenan tu clave de API
+            credentialsId: 'my-api-key-credentials-id'
+    # Activa el indicador de CI Visibility
+    enableCiVisibility: true
+    # (Opcional) Configura el nombre de tu instancia de CI
+    ciInstanceName: 'jenkins'
+    # (Opcional) Configura el nombre del host que utilizas para acceder a la interfaz de usuario de Datadog
+    datadogAppHostname: 'app.ddog-gov.com'
+    # (Opcional) Activa la recopilación de logs
+    collectBuildLogs: true
+    {{< /code-block >}}
+
+    {{% /site-region %}}
+    {{% site-region region="us3" %}}
+
+    {{< code-block lang="yaml" disable_copy="true" collapsible="true" >}}
+unclassified:
+  datadogGlobalConfiguration:
+    datadogClientConfiguration:
+      # Selecciona el modo `Agentless` (con la clave de API).
+      datadogApiConfiguration:
+        intake:
+          datadogIntakeSite:
+            # Configura tu sitio de Datadog 
+            site: 'US3'
+        apiKey:
+          datadogCredentialsApiKey:
+            # Configura el ID de las credenciales de Jenkins que almacenan tu clave de API
+            credentialsId: 'my-api-key-credentials-id'
+    # Activa el indicador de CI Visibility
+    enableCiVisibility: true
+    # (Opcional) Configura el nombre del host que utilizas para acceder a la interfaz de usuario de Datadog
+    ciInstanceName: 'jenkins'
+    # (Opcional) Configura el nombre de host de la aplicación Datadog
+    datadogAppHostname: 'app.us3.datadoghq.com'
+    # (Opcional) Activa la recopilación de logs
+    collectBuildLogs: true
+    {{< /code-block >}}
+
+    {{% /site-region %}}
+    {{% site-region region="us5" %}}
+
+    {{< code-block lang="yaml" disable_copy="true" collapsible="true" >}}
+unclassified:
+  datadogGlobalConfiguration:
+    datadogClientConfiguration:
+      # Selecciona el modo `Agentless` (con la clave de API).
+      datadogApiConfiguration:
+        intake:
+          datadogIntakeSite:
+            # Configura tu sitio de Datadog 
+            site: 'US5'
+        apiKey:
+          datadogCredentialsApiKey:
+            # Configura el ID de las credenciales de Jenkins que almacenan tu clave de API
+            credentialsId: 'my-api-key-credentials-id'
+    # Activa el indicador de CI Visibility
+    enableCiVisibility: true
+    # (Opcional) Configura el nombre de tu instancia de CI
+    ciInstanceName: 'jenkins'
+    # (Opcional) Configura el nombre del host que utilizas para acceder a la interfaz de usuario de Datadog
+    datadogAppHostname: 'app.us5.datadoghq.com'
+    # (Opcional) Activa la recopilación de logs
+    collectBuildLogs: true
+    {{< /code-block >}}
+
+    {{% /site-region %}}
+    {{% site-region region="ap1" %}}
+
+    {{< code-block lang="yaml" disable_copy="true" collapsible="true" >}}
+unclassified:
+  datadogGlobalConfiguration:
+    datadogClientConfiguration:
+      # Selecciona el modo `Agentless` (con la clave de API).
+      datadogApiConfiguration:
+        intake:
+          datadogIntakeSite:
+            # Configura tu sitio de Datadog 
+            site: 'AP1'
+        apiKey:
+          datadogCredentialsApiKey:
+            # Configura el ID de las credenciales de Jenkins que almacenan tu clave de API
+            credentialsId: 'my-api-key-credentials-id'
+    # Activa el indicador de CI Visibility
+    enableCiVisibility: true
+    # (Opcional) Configura el nombre de tu instancia de CI
+    ciInstanceName: 'jenkins'
+    # (Opcional) Configura el nombre del host que utilizas para acceder a la interfaz de usuario de Datadog
+    datadogAppHostname: 'app.ap1.datadoghq.com'
+    # (Opcional) Activa la recopilación de logs
+    collectBuildLogs: true
+    {{< /code-block >}}
+    {{% /site-region %}}
+
+2. En la interfaz web de tu instancia de Jenkins, ve a **Manage Jenkins > Configuration as Code** (Gestionar Jenkins > Configuración como código).
+3. Aplica o vuelve a cargar la configuración.
+4. Comprueba la configuración mediante el botón `View Configuration` (Ver configuración).
+
+[1]: https://github.com/jenkinsci/configuration-as-code-plugin/blob/master/README.md
+{{% /tab %}}
+{{% tab "Envío de datos a través del Datadog Agent (recomendado)" %}}
+
+Si tu instancia de Jenkins utiliza el complemento de Jenkins [`configuration-as-code`][1]:
+
+1. Crea o modifica el archivo YAML de configuración mediante la adición de una entrada para `datadogGlobalConfiguration`:
+
+   {{< code-block lang="yaml" disable_copy="true" collapsible="true" >}}
+unclassified:
+  datadogGlobalConfiguration:
+    datadogClientConfiguration:
+      # Selecciona el modo `Datadog Agent`
+      datadogAgentConfiguration:
+        # Configura el host del Datadog Agent
+        agentHost: '<your-agent-host>'
+        # Configura el puerto del Datadog Agent
+        agentPort: 8125
+        # (Opcional) Configura el puerto de recopilación de logs como está configurado en el Datadog Agent
+        agentLogCollectionPort: 10518
+        # Configura el puerto de recopilación de trazas
+        agentTraceCollectionPort: 8126
+    # Activa el indicador de CI Visibility
+    enableCiVisibility: true
+    # (Opcional) Configura el nombre de tu instancia de CI
+    ciInstanceName: 'jenkins'
+    # (Opcional) Configura el nombre del host que utilizas para acceder a la interfaz de usuario de Datadog
+    datadogAppHostname: 'app.datadoghq.com'
+    # (Opcional) Activa la recopilación de logs
+    collectBuildLogs: true
+   {{< /code-block >}}
+
+2. En la interfaz web de tu instancia de Jenkins, ve a **Manage Jenkins > Configuration as Code** (Gestionar Jenkins > Configuración como código).
+3. Aplica o vuelve a cargar la configuración.
+4. Comprueba la configuración mediante el botón `View Configuration` (Ver configuración).
+
+[1]: https://github.com/jenkinsci/configuration-as-code-plugin/blob/master/README.md
+
+{{% /tab %}}
+{{< /tabs >}}
+
+### Configurar con Groovy
+
+{{< tabs >}}
+{{% tab "Sin el Agent (con una clave de API)" %}}
+
+1. En la interfaz web de tu instancia de Jenkins, ve a **Manage Jenkins > Script Console** (Gestionar Jenkins > Consola de scripts).
+2. Ejecuta el script de configuración:
+
+    {{% site-region region="us" %}}
+    {{< code-block lang="groovy" disable_copy="true" collapsible="true" >}}
+import hudson.util.Secret
+import jenkins.model.Jenkins
+import org.datadog.jenkins.plugins.datadog.DatadogGlobalConfiguration
+import org.datadog.jenkins.plugins.datadog.configuration.DatadogApiConfiguration
+import org.datadog.jenkins.plugins.datadog.configuration.api.intake.DatadogIntakeSite
+import org.datadog.jenkins.plugins.datadog.configuration.api.intake.DatadogSite
+import org.datadog.jenkins.plugins.datadog.configuration.api.key.DatadogTextApiKey
+
+def jenkins = Jenkins.getInstance()
+def datadog = jenkins.getDescriptorByType(DatadogGlobalConfiguration)
+
+def site = new DatadogIntakeSite(DatadogSite.US1) // Elige tu sitio de Datadog
+def apiKey = new DatadogTextApiKey(Secret.fromString('<YOUR_API_KEY>')) // o `new DatadogCredentialsApiKey('<YOUR_CREDENTIALS_ID>')`
+datadog.datadogClientConfiguration = new DatadogApiConfiguration(site, apiKey)
+
+datadog.datadogAppHostname = 'app.datadoghq.com' // el nombre del host que utilizas para acceder a la interfaz de usuario de Datadog
+datadog.enableCiVisibility = true
+datadog.collectBuildLogs = true // (Opcional) Activa la recopilación de logs
+
+datadog.ciInstanceName = 'jenkins' // (Opcional) Configura el nombre de tu instancia de CI
+
+// Guarda la configuración
+datadog.save()
+    {{< /code-block >}}
+
+    {{% /site-region %}}
+    {{% site-region region="eu" %}}
+
+    {{< code-block lang="groovy" disable_copy="true" collapsible="true" >}}
+import hudson.util.Secret
+import jenkins.model.Jenkins
+import org.datadog.jenkins.plugins.datadog.DatadogGlobalConfiguration
+import org.datadog.jenkins.plugins.datadog.configuration.DatadogApiConfiguration
+import org.datadog.jenkins.plugins.datadog.configuration.api.intake.DatadogIntakeSite
+import org.datadog.jenkins.plugins.datadog.configuration.api.intake.DatadogSite
+import org.datadog.jenkins.plugins.datadog.configuration.api.key.DatadogTextApiKey
+
+def jenkins = Jenkins.getInstance()
+def datadog = jenkins.getDescriptorByType(DatadogGlobalConfiguration)
+
+def site = new DatadogIntakeSite(DatadogSite.EU1) // Elige tu sitio de Datadog
+def apiKey = new DatadogTextApiKey(Secret.fromString('<YOUR_API_KEY>')) // o `new DatadogCredentialsApiKey('<YOUR_CREDENTIALS_ID>')`
+datadog.datadogClientConfiguration = new DatadogApiConfiguration(site, apiKey)
+
+datadog.datadogAppHostname = 'app.datadoghq.eu' // el nombre del host que utilizas para acceder a la interfaz de usuario de Datadog
+datadog.enableCiVisibility = true
+datadog.collectBuildLogs = true // (Opcional) Activa la recopilación de logs
+
+datadog.ciInstanceName = 'jenkins' // (Opcional) Configura el nombre de tu instancia de CI
+
+// Guarda la configuración
+datadog.save()
+    {{< /code-block >}}
+
+    {{% /site-region %}}
+    {{% site-region region="gov" %}}
+
+    {{< code-block lang="groovy" disable_copy="true" collapsible="true" >}}
+import hudson.util.Secret
+import jenkins.model.Jenkins
+import org.datadog.jenkins.plugins.datadog.DatadogGlobalConfiguration
+import org.datadog.jenkins.plugins.datadog.configuration.DatadogApiConfiguration
+import org.datadog.jenkins.plugins.datadog.configuration.api.intake.DatadogIntakeSite
+import org.datadog.jenkins.plugins.datadog.configuration.api.intake.DatadogSite
+import org.datadog.jenkins.plugins.datadog.configuration.api.key.DatadogTextApiKey
+
+def jenkins = Jenkins.getInstance()
+def datadog = jenkins.getDescriptorByType(DatadogGlobalConfiguration)
+
+def site = new DatadogIntakeSite(DatadogSite.US1_FED) // Elige tu sitio de Datadog
+def apiKey = new DatadogTextApiKey(Secret.fromString('<YOUR_API_KEY>')) // o `new DatadogCredentialsApiKey('<YOUR_CREDENTIALS_ID>')`
+datadog.datadogClientConfiguration = new DatadogApiConfiguration(site, apiKey)
+
+datadog.datadogAppHostname = 'app.ddog-gov.com' // el nombre del host que utilizas para acceder a la interfaz de usuario de Datadog
+datadog.enableCiVisibility = true
+datadog.collectBuildLogs = true // (Opcional) Activa la recopilación de logs
+
+datadog.ciInstanceName = 'jenkins' // (Opcional) Configura el nombre de tu instancia de CI
+
+// Guarda la configuración
+datadog.save()
+    {{< /code-block >}}
+
+    {{% /site-region %}}
+    {{% site-region region="us3" %}}
+
+    {{< code-block lang="groovy" disable_copy="true" collapsible="true" >}}
+import hudson.util.Secret
+import jenkins.model.Jenkins
+import org.datadog.jenkins.plugins.datadog.DatadogGlobalConfiguration
+import org.datadog.jenkins.plugins.datadog.configuration.DatadogApiConfiguration
+import org.datadog.jenkins.plugins.datadog.configuration.api.intake.DatadogIntakeSite
+import org.datadog.jenkins.plugins.datadog.configuration.api.intake.DatadogSite
+import org.datadog.jenkins.plugins.datadog.configuration.api.key.DatadogTextApiKey
+
+def jenkins = Jenkins.getInstance()
+def datadog = jenkins.getDescriptorByType(DatadogGlobalConfiguration)
+
+def site = new DatadogIntakeSite(DatadogSite.US3) // Elige tu sitio de Datadog
+def apiKey = new DatadogTextApiKey(Secret.fromString('<YOUR_API_KEY>')) // o `new DatadogCredentialsApiKey('<YOUR_CREDENTIALS_ID>')`
+datadog.datadogClientConfiguration = new DatadogApiConfiguration(site, apiKey)
+
+datadog.datadogAppHostname = 'app.us3.datadoghq.com' // el nombre del host que utilizas para acceder a la interfaz de usuario de Datadog
+datadog.enableCiVisibility = true
+datadog.collectBuildLogs = true // (Opcional) Activa la recopilación de logs
+
+datadog.ciInstanceName = 'jenkins' // (Opcional) Configura el nombre de tu instancia de CI
+
+// Guarda la configuración
+datadog.save()
+    {{< /code-block >}}
+
+    {{% /site-region %}}
+    {{% site-region region="us5" %}}
+
+    {{< code-block lang="groovy" disable_copy="true" collapsible="true" >}}
+import hudson.util.Secret
+import jenkins.model.Jenkins
+import org.datadog.jenkins.plugins.datadog.DatadogGlobalConfiguration
+import org.datadog.jenkins.plugins.datadog.configuration.DatadogApiConfiguration
+import org.datadog.jenkins.plugins.datadog.configuration.api.intake.DatadogIntakeSite
+import org.datadog.jenkins.plugins.datadog.configuration.api.intake.DatadogSite
+import org.datadog.jenkins.plugins.datadog.configuration.api.key.DatadogTextApiKey
+
+def jenkins = Jenkins.getInstance()
+def datadog = jenkins.getDescriptorByType(DatadogGlobalConfiguration)
+
+def site = new DatadogIntakeSite(DatadogSite.US5) // Elige tu sitio de Datadog
+def apiKey = new DatadogTextApiKey(Secret.fromString('<YOUR_API_KEY>')) // o `new DatadogCredentialsApiKey('<YOUR_CREDENTIALS_ID>')`
+datadog.datadogClientConfiguration = new DatadogApiConfiguration(site, apiKey)
+
+datadog.datadogAppHostname = 'app.us5.datadoghq.com' // el nombre del host que utilizas para acceder a la interfaz de usuario de Datadog
+datadog.enableCiVisibility = true
+datadog.collectBuildLogs = true // (Opcional) Activa la recopilación de logs
+
+datadog.ciInstanceName = 'jenkins' // (Opcional) Configura el nombre de tu instancia de CI
+
+// Guarda la configuración
+datadog.save()
+    {{< /code-block >}}
+
+    {{% /site-region %}}
+    {{% site-region region="ap1" %}}
+
+    {{< code-block lang="groovy" disable_copy="true" collapsible="true" >}}
+import hudson.util.Secret
+import jenkins.model.Jenkins
+import org.datadog.jenkins.plugins.datadog.DatadogGlobalConfiguration
+import org.datadog.jenkins.plugins.datadog.configuration.DatadogApiConfiguration
+import org.datadog.jenkins.plugins.datadog.configuration.api.intake.DatadogIntakeSite
+import org.datadog.jenkins.plugins.datadog.configuration.api.intake.DatadogSite
+import org.datadog.jenkins.plugins.datadog.configuration.api.key.DatadogTextApiKey
+
+def jenkins = Jenkins.getInstance()
+def datadog = jenkins.getDescriptorByType(DatadogGlobalConfiguration)
+
+def site = new DatadogIntakeSite(DatadogSite.AP1) // Elige tu sitio de Datadog
+def apiKey = new DatadogTextApiKey(Secret.fromString('<YOUR_API_KEY>')) // o `new DatadogCredentialsApiKey('<YOUR_CREDENTIALS_ID>')`
+datadog.datadogClientConfiguration = new DatadogApiConfiguration(site, apiKey)
+
+datadog.datadogAppHostname = 'app.ap1.datadoghq.com' // el nombre del host que utilizas para acceder a la interfaz de usuario de Datadog
+datadog.enableCiVisibility = true
+datadog.collectBuildLogs = true // (Opcional) Activa la recopilación de logs
+
+datadog.ciInstanceName = 'jenkins' // (Opcional) Configura el nombre de tu instancia de CI
+
+// Guarda la configuración
+datadog.save()
+    {{< /code-block >}}
+
+    {{% /site-region %}}
+
+{{% /tab %}}
+{{% tab "Envío de datos a través del Datadog Agent (recomendado)" %}}
+
+1. En la interfaz web de tu instancia de Jenkins, ve a **Manage Jenkins > Script Console** (Gestionar Jenkins > Consola de scripts).
+2. Ejecuta el script de configuración:
+
+   {{< code-block lang="groovy" disable_copy="true" collapsible="true" >}}
+import jenkins.model.Jenkins
+import org.datadog.jenkins.plugins.datadog.DatadogGlobalConfiguration
+import org.datadog.jenkins.plugins.datadog.configuration.DatadogAgentConfiguration
+
+def jenkins = Jenkins.getInstance()
+def datadog = jenkins.getDescriptorByType(DatadogGlobalConfiguration)
+
+def agentHost = 'localhost' // Configura el host del Datadog Agent
+def agentPort = 8125
+def agentLogCollectionPort = 10518 // (Opcional) Configura el puerto de recopilación de logs como está configurado en el Datadog Agent
+def agentTraceCollectionPort = 8126 // Configura el puerto de recopilación de trazas
+datadog.datadogClientConfiguration = new DatadogAgentConfiguration(agentHost, agentPort, agentLogCollectionPort, agentTraceCollectionPort)
+
+datadog.datadogAppHostname = 'app.datadoghq.com' // el nombre del host que utilizas para acceder a la interfaz de usuario de Datadog
+datadog.enableCiVisibility = true
+datadog.collectBuildLogs = true // (Opcional) Activa la recopilación de logs
+
+datadog.ciInstanceName = 'jenkins' // (Opcional) Configura el nombre de tu instancia de CI
+
+// Guarda la configuración
+datadog.save()
+    {{< /code-block >}}
+
+{{% /tab %}}
+{{< /tabs >}}
+
+### Utilizar variables de entorno
+
+{{< tabs >}}
+{{% tab "Agentmenos (usando una clave API)" %}}
+
+1. Establece las siguientes variables de entorno en la máquina de tu instancia de Jenkins:
+
+    {{% site-region region="us" %}}
+    {{< code-block lang="bash" disable_copy="true" collapsible="true" >}}
+    # Selecciona el modo Datadog Agent
+    DATADOG_JENKINS_PLUGIN_REPORT_WITH=HTTP
+
+    # Configura tu sitio de Datadog
+    DATADOG_JENKINS_PLUGIN_DATADOG_SITE=US1
+
+    # Configura tu clave de API
+    DATADOG_JENKINS_PLUGIN_TARGET_API_KEY=your-api-key
+
+    # Activa CI Visibility
+    DATADOG_JENKINS_PLUGIN_ENABLE_CI_VISIBILITY=true
+
+    # (Opcional) Configura el nombre de tu instancia de CI
+    DATADOG_JENKINS_PLUGIN_CI_VISIBILITY_CI_INSTANCE_NAME=jenkins
+
+    # (Opcional) Activa la recopilación de logs
+    DATADOG_JENKINS_PLUGIN_COLLECT_BUILD_LOGS=true
+
+    # (Opcional) Configura el nombre del host que utilizas para acceder a la interfaz de usuario de Datadog
+    DATADOG_JENKINS_PLUGIN_DATADOG_APP_HOSTNAME=app.datadoghq.com
+    {{< /code-block >}}
+
+    {{% /site-region %}}
+
+    {{% site-region region="eu" %}}
+    {{< code-block lang="bash" disable_copy="true" collapsible="true" >}}
+    # Selecciona el modo Datadog Agent
+    DATADOG_JENKINS_PLUGIN_REPORT_WITH=HTTP
+
+    # Configura tu sitio de Datadog
+    DATADOG_JENKINS_PLUGIN_DATADOG_SITE=EU1
+
+    # Configura tu clave de API
+    DATADOG_JENKINS_PLUGIN_TARGET_API_KEY=your-api-key
+
+    # Activa CI Visibility
+    DATADOG_JENKINS_PLUGIN_ENABLE_CI_VISIBILITY=true
+
+    # (Opcional) Configura el nombre de tu instancia de CI
+    DATADOG_JENKINS_PLUGIN_CI_VISIBILITY_CI_INSTANCE_NAME=jenkins
+
+    # (Opcional) Activa la recopilación de logs
+    DATADOG_JENKINS_PLUGIN_COLLECT_BUILD_LOGS=true
+
+    # (Opcional) Configura el nombre del host que utilizas para acceder a la interfaz de usuario de Datadog
+    DATADOG_JENKINS_PLUGIN_DATADOG_APP_HOSTNAME=app.datadoghq.eu
+    {{< /code-block >}}
+
+    {{% /site-region %}}
+    {{% site-region region="gov" %}}
+
+    {{< code-block lang="bash" disable_copy="true" collapsible="true" >}}
+    # Selecciona el modo Datadog Agent
+    DATADOG_JENKINS_PLUGIN_REPORT_WITH=HTTP
+
+    # Configura tu sitio de Datadog
+    DATADOG_JENKINS_PLUGIN_DATADOG_SITE=US1_FED
+
+    # Configura tu clave de API
+    DATADOG_JENKINS_PLUGIN_TARGET_API_KEY=your-api-key
+
+    # Activa CI Visibility
+    DATADOG_JENKINS_PLUGIN_ENABLE_CI_VISIBILITY=true
+
+    # (Opcional) Configura el nombre de tu instancia de CI
+    DATADOG_JENKINS_PLUGIN_CI_VISIBILITY_CI_INSTANCE_NAME=jenkins
+
+    # (Opcional) Activa la recopilación de logs
+    DATADOG_JENKINS_PLUGIN_COLLECT_BUILD_LOGS=true
+
+    # (Opcional) Configura el nombre del host que utilizas para acceder a la interfaz de usuario de Datadog
+    DATADOG_JENKINS_PLUGIN_DATADOG_APP_HOSTNAME=app.ddog-gov.com
+    {{< /code-block >}}
+
+    {{% /site-region %}}
+    {{% site-region region="us3" %}}
+
+    {{< code-block lang="bash" disable_copy="true" collapsible="true" >}}
+    # Selecciona el modo Datadog Agent
+    DATADOG_JENKINS_PLUGIN_REPORT_WITH=HTTP
+
+    # Configura tu sitio de Datadog
+    DATADOG_JENKINS_PLUGIN_DATADOG_SITE=US3
+
+    # Configura tu clave de API
+    DATADOG_JENKINS_PLUGIN_TARGET_API_KEY=your-api-key
+
+    # Activa CI Visibility
+    DATADOG_JENKINS_PLUGIN_ENABLE_CI_VISIBILITY=true
+
+    # (Opcional) Configura el nombre de tu instancia de CI
+    DATADOG_JENKINS_PLUGIN_CI_VISIBILITY_CI_INSTANCE_NAME=jenkins
+
+    # (Opcional) Activa la recopilación de logs
+    DATADOG_JENKINS_PLUGIN_COLLECT_BUILD_LOGS=true
+
+    # (Opcional) Configura el nombre del host que utilizas para acceder a la interfaz de usuario de Datadog
+    DATADOG_JENKINS_PLUGIN_DATADOG_APP_HOSTNAME=app.us3.datadoghq.com
+    {{< /code-block >}}
+
+    {{% /site-region %}}
+    {{% site-region region="us5" %}}
+
+    {{< code-block lang="bash" disable_copy="true" collapsible="true" >}}
+    # Selecciona el modo Datadog Agent
+    DATADOG_JENKINS_PLUGIN_REPORT_WITH=HTTP
+
+    # Configura tu sitio de Datadog
+    DATADOG_JENKINS_PLUGIN_DATADOG_SITE=US5
+
+    # Configura tu clave de API
+    DATADOG_JENKINS_PLUGIN_TARGET_API_KEY=your-api-key
+
+    # Activa CI Visibility
+    DATADOG_JENKINS_PLUGIN_ENABLE_CI_VISIBILITY=true
+
+    # (Opcional) Configura el nombre de tu instancia de CI
+    DATADOG_JENKINS_PLUGIN_CI_VISIBILITY_CI_INSTANCE_NAME=jenkins
+
+    # (Opcional) Activa la recopilación de logs
+    DATADOG_JENKINS_PLUGIN_COLLECT_BUILD_LOGS=true
+
+    # (Opcional) Configura el nombre del host que utilizas para acceder a la interfaz de usuario de Datadog
+    DATADOG_JENKINS_PLUGIN_DATADOG_APP_HOSTNAME=app.us5.datadoghq.com
+    {{< /code-block >}}
+
+    {{% /site-region %}}
+    {{% site-region region="ap1" %}}
+
+    {{< code-block lang="bash" disable_copy="true" collapsible="true" >}}
+    # Selecciona el modo Datadog Agent
+    DATADOG_JENKINS_PLUGIN_REPORT_WITH=HTTP
+
+    # Configura tu sitio de Datadog
+    DATADOG_JENKINS_PLUGIN_DATADOG_SITE=AP1
+
+    # Configura tu clave de API
+    DATADOG_JENKINS_PLUGIN_TARGET_API_KEY=your-api-key
+
+    # Activa CI Visibility
+    DATADOG_JENKINS_PLUGIN_ENABLE_CI_VISIBILITY=true
+
+    # (Opcional) Configura el nombre de tu instancia de CI
+    DATADOG_JENKINS_PLUGIN_CI_VISIBILITY_CI_INSTANCE_NAME=jenkins
+
+    # (Opcional) Activa la recopilación de logs
+    DATADOG_JENKINS_PLUGIN_COLLECT_BUILD_LOGS=true
+
+    # (Opcional) Configura el nombre del host que utilizas para acceder a la interfaz de usuario de Datadog
+    DATADOG_JENKINS_PLUGIN_DATADOG_APP_HOSTNAME=app.ap1.datadoghq.com
+    {{< /code-block >}}
+    {{% /site-region %}}
+
+2. Reinicia tu instancia de Jenkins.
+{{% /tab %}}
+{{% tab "Envío de datos a través del Datadog Agent (recomendado)" %}}
+
+1. Establece las siguientes variables de entorno en la máquina de tu instancia de Jenkins:
+
+    ```bash
+    # Select the Datadog Agent mode
+    DATADOG_JENKINS_PLUGIN_REPORT_WITH=DSD
+
+    # Configure the Agent host
+    DATADOG_JENKINS_PLUGIN_TARGET_HOST=your-agent-host
+
+    # Configure the Traces Collection port (default 8126)
+    DATADOG_JENKINS_PLUGIN_TARGET_TRACE_COLLECTION_PORT=8126
+
+    # Enable CI Visibility
+    DATADOG_JENKINS_PLUGIN_ENABLE_CI_VISIBILITY=true
+
+    # (Optional) Configure your CI Instance name
+    DATADOG_JENKINS_PLUGIN_CI_VISIBILITY_CI_INSTANCE_NAME=jenkins
+
+    # (Optional) Configure Log Collection port as configured in your Datadog Agent
+    DATADOG_JENKINS_PLUGIN_TARGET_LOG_COLLECTION_PORT=10518
+
+    # (Optional) Enable logs collection
+    DATADOG_JENKINS_PLUGIN_COLLECT_BUILD_LOGS=true
+
+    # (Optional) Configure the name of the host that you use to access Datadog UI
+    DATADOG_JENKINS_PLUGIN_DATADOG_APP_HOSTNAME=app.datadoghq.com
+    ```
+
+2. Reinicia tu instancia de Jenkins.
+
+{{% /tab %}}
+{{< /tabs >}}
+
+## Recopilar logs de trabajos
+
+La recopilación de logs de trabajos puede activarse de manera opcional cuando se configura el complemento de Jenkins (ver sección anterior).
+Se admiten las opciones sin el Agent y con el Agent.
+
+Los logs se facturan por separado de CI Visibility.
+
+La retención, la exclusión y los índices de logs se configuran en [Log Management][27] (Gestión de logs). Los logs para los trabajos de Jenkins se pueden identificar por la etiqueta `source:jenkins`.
+
+## Correlacionar las métricas de infraestructura
+
+Si utilizas workers de Jenkins, puedes correlacionar los pipelines con la infraestructura que los ejecuta. Para que esta característica funcione, haz lo siguiente:
+
+1. Instala el [Datadog Agent][1] en todos los workers de Jenkins.
+2. Establece y exporta una nueva variable de entorno llamada `DD_CI_HOSTNAME` en cada worker de Jenkins con el nombre de host del worker.
+  * Debe ser el mismo nombre de host que envía datos al Datadog Agent en las métricas de infraestructura para ese worker.
+  * Puedes utilizar valores fijos u otras variables de entorno como valores válidos.
+
+```bash
+export DD_CI_HOSTNAME=my-hostname
+```
+
+Si utilizas Kubernetes para gestionar tus instancias de Jenkins, añade la variable de entorno `DD_CI_HOSTNAME` al [pod que ejecuta el trabajo de Jenkins][9]. El valor de esta variable de entorno depende de lo que utilices en el daemonset de tu Datadog Agent al enviar los datos de las métricas de infraestructura.
+
+Esto solo es necesario para los workers de Jenkins. Para el controlador de Jenkins, la correlación de métricas de infraestructura no requiere acciones adicionales.
+
+**Nota**: La correlación de métricas de infraestructura es compatible con la versión 5.0.0 del complemento de Jenkins o una posterior.
+
+## Activar Test Optimization
+
+Se trata de un paso de opcional que permite recopilar los datos de los tests mediante [Test Optimization][16].
+
+Consulta la [documentación de Test Optimization][17] de tu lenguaje para asegurarte de que el marco de tests que utilizas es compatible.
+
+Hay diferentes maneras de activar Test Optimization dentro de un trabajo o pipeline de Jenkins:
+1. con la interfaz de usuario de configuración de Jenkins;
+2. con la adición del paso `datadog` dentro del script del pipeline;
+3. con la configuración manual del rastreador.
+
+En el caso de los pipelines que activan un contenedor de Docker para ejecutar tests, solo puedes configurar el rastreador manualmente.
+
+### Activar con la interfaz de usuario de configuración de Jenkins
+
+La configuración de Test Optimization basada en la interfaz de usuario está disponible en la versión 5.6.0 del complemento de Jenkins para Datadog o una posterior.
+
+Esta opción no es adecuada para los pipelines que se configuran por completo en `Jenkinsfile` (por ejemplo, pipelines de Multibranch o de Organization Folder).
+Para estos pipelines, utiliza la configuración declarativa con el paso `datadog` (descrito en la siguiente sección).
+
+Para activar Test Optimization a través de la interfaz de usuario, haz lo siguiente:
+1. En la interfaz web de tu instancia de Jenkins, ve al trabajo o pipeline que deseas instrumentar y elige la opción **Configure** (Configurar).
+2. En la sección de configuración **General**, marca la casilla **Enable Datadog Test Optimization** (Activar Datadog Test Optimization).
+3. Ingresa el nombre del servicio o la biblioteca que se está sometiendo a un test en la entrada **Service Name** (Nombre de servicio). Puedes elegir cualquier valor que tenga sentido para ti.
+4. Elige los lenguajes para los que deseas activar la instrumentación de los tests. Algunos de los lenguajes no admiten la configuración a través de la interfaz de usuario. Para configurar Test Optimization con estos lenguajes, sigue las [instrucciones de configuración][18] manuales.
+5. De manera opcional, indica los [parámetros de configuración adicionales][18].
+6. Haz clic en **Save** (Guardar).
+
+{{< img src="ci/ci-jenkins-plugin-tests-config-2.png" alt="Configuración de Datadog Test Optimization para Jenkins" style="width:100%;">}}
+
+### Activar con el paso de pipeline `datadog`
+
+Esta opción de configuración está disponible en la versión 5.6.2 del complemento de Jenkins para Datadog o una posterior.
+
+En los pipelines declarativos, añade el paso a un bloque de nivel superior de `options` del siguiente modo:
+
+```groovy
+pipeline {
+    agent any
+    options {
+        datadog(testOptimization: [
+            enabled: true,
+            serviceName: "my-service", // el nombre del servicio o la biblioteca que se está sometiendo a un test
+            languages: ["JAVA"], // lenguajes que deben instrumentarse (las opciones disponibles son "Java", "JavaScript", "Python", "DOTNET", "Ruby")
+            additionalVariables: ["my-var": "value"]  // parámetros de configuración adicionales del rastreador (opcional)
+        ])
+    }
+    stages {
+        stage('Example') {
+            steps {
+                echo "Hello world."
+            }
+        }
+    }
+}
+```
+
+En un pipeline con script, envuelve la sección correspondiente con el paso `datadog` de la siguiente manera:
+
+```groovy
+datadog(testOptimization: [ enabled: true, serviceName: "my-service", languages: ["JAVASCRIPT"], additionalVariables: [:] ]) {
+  node {
+    stage('Example') {
+      echo "Hello world."
+    }
+  }
+}
+```
+
+Los demás parámetros de `datadog`, como `collectLogs` o `tags`, pueden añadirse junto al bloque `testOptimization`.
+
+### Activar con la configuración manual del rastreador
+
+Sigue las [instrucciones de configuración][17] manuales de Test Optimization específicas de tu lenguaje.
+
+## Propagar la información de Git
+
+Algunas características del complemento de Jenkins para Datadog requieren la información de Git asociada a las compilaciones de Jenkins para funcionar correctamente.
+
+La información de Git mínima requerida para una compilación es la URL del repositorio, la rama, el SHA de confirmación y el correo electrónico del autor de la confirmación.
+Esta información puede determinarse mediante el complemento de manera automática, propagarse desde SCM, proporcionarse manualmente con variables de entorno u obtenerse combinando estos enfoques.
+
+**Nota:** Si un pipeline extrae varios repositorios, la información de Git de los repositorios que se extraen más tarde en el pipeline tiene mayor prioridad.
+
+### Propagar la información de Git desde SCM
+
+El complemento de Jenkins puede detectar automáticamente la información de Git asociada a una compilación o a un pipeline.
+Sin embargo, dependiendo de la versión de Jenkins y de los detalles del pipeline, puede haber casos en los que la detección automática de datos de Git no sea posible.
+
+En tales casos, puedes hacer que la información de Git esté disponible para el complemento mediante la función `.each {k,v -> env.setProperty(k, v)}` después de ejecutar los pasos `checkout` o `git`. Por ejemplo:
+
+{{< tabs >}}
+{{% tab "Usando Pipelines Declarativos" %}}
+Si estás usando un pipeline declarativo para Configurar tu pipeline, propaga la información de Git usando un bloque `script` como sigue:
+
+Con el paso `checkout`:
+{{< code-block lang="groovy" >}}
+pipeline {
+  stages {
+    stage('Checkout') {
+        script {
+          checkout(...).each {k,v -> env.setProperty(k,v)}
+        }
+    }
+    ...
+  }
+}
+{{< /code-block >}}
+
+Con el paso `git`:
+{{< code-block lang="groovy" >}}
+pipeline {
+  stages {
+    stage('Checkout') {
+      script {
+        git(...).each {k,v -> env.setProperty(k,v)}
+      }
+    }
+    ...
+  }
+}
+{{< /code-block >}}
+
+{{% /tab %}}
+{{% tab "Using Scripted Pipelines" %}}
+Si está utilizando una tubería de secuencias de comandos para Configurar su tubería, puede propagar la información git a entorno variables directamente.
+
+Con el paso `checkout`:
+{{< code-block lang="groovy" >}}
+nodo {
+  stage('Checkout') {
+    checkout(...).each {k,v -> env.setProperty(k,v)}
+  }
+  ...
+}
+{{< /code-block >}}
+
+Con el paso `git`:
+{{< code-block lang="groovy" >}}
+node {
+  stage('Checkout') {
+    git(...).each {k,v -> env.setProperty(k,v)}
+  }
+  ...
+}
+{{< /code-block >}}
+
+{{% /tab %}}
+{{< /tabs >}}
+
+
+### Establecer manualmente la información de Git
+
+En caso de que el complemento no pueda detectar la información de Git de manera automática y propagar los datos de Git a través de SCM no sea una opción,
+la información de Git necesaria puede establecerse manualmente.
+
+Para ello, configura las siguientes variables de entorno.
+
+**Nota:** Estas variables son opcionales, pero si se establecen, tienen prioridad sobre la información de Git establecida en otros complementos de Jenkins.
+
+`DD_GIT_REPOSITORY_URL` (opcional)
+: la URL del repositorio de tu servicio.<br/>
+**Ejemplo**: `https://github.com/my-org/my-repo.git`
+
+`DD_GIT_BRANCH` (opcional)
+: el nombre de la rama.<br/>
+**Ejemplo**: `main`
+
+`DD_GIT_TAG` (opcional)
+: la etiqueta de la confirmación (si existe).<br/>
+**Ejemplo**: `0.1.0`
+
+`DD_GIT_COMMIT_SHA` (opcional)
+: la confirmación expresada en forma hexadecimal de 40 caracteres de longitud.<br/>
+**Ejemplo**: `faaca5c59512cdfba9402c6e67d81b4f5701d43c`
+
+`DD_GIT_COMMIT_MESSAGE` (opcional)
+: el mensaje de la confirmación.<br/>
+**Ejemplo**: `Initial commit message`
+
+`DD_GIT_COMMIT_AUTHOR_NAME` (opcional)
+: el nombre del autor de la confirmación.<br/>
+**Ejemplo**: `John Smith`
+
+`DD_GIT_COMMIT_AUTHOR_EMAIL` (opcional)
+: el correo electrónico del autor de la confirmación.<br/>
+**Ejemplo**: `john@example.com`
+
+`DD_GIT_COMMIT_AUTHOR_DATE` (opcional)
+: la fecha en la que el autor envió la confirmación expresada en formato ISO 8601.<br/>
+**Ejemplo**: `2021-08-16T15:41:45.000Z`
+
+`DD_GIT_COMMIT_COMMITTER_NAME` (opcional)
+: el nombre de la autora de la confirmación.<br/>
+**Ejemplo**: `Jane Smith`
+
+`DD_GIT_COMMIT_COMMITTER_EMAIL` (opcional)
+: el correo electrónico de la autora de la confirmación.<br/>
+**Ejemplo**: `jane@example.com`
+
+`DD_GIT_COMMIT_COMMITTER_DATE` (opcional)
+: la fecha en la que la autora envió la confirmación expresada en formato ISO 8601.<br/>
+**Ejemplo**: `2021-08-16T15:41:45.000Z`
+
+Si solo estableces el repositorio, la rama y la confirmación, el complemento intentará extraer el resto de la información de Git de la carpeta `.git`.
+
+Un ejemplo de uso:
+
+{{< code-block lang="groovy" >}}
+pipeline {
+  agent any
+  stages {
+    stage('Checkout') {
+      steps {
+        script {
+          def gitVars = git url:'https://github.com/my-org/my-repo.git', branch:'some/feature-branch'
+
+          // Establece manualmente la información de Git a través de las variables de entorno.
+          env.DD_GIT_REPOSITORY_URL=gitVars.GIT_URL
+          env.DD_GIT_BRANCH=gitVars.GIT_BRANCH
+          env.DD_GIT_COMMIT_SHA=gitVars.GIT_COMMIT
+        }
+      }
+    }
+    stage('Test') {
+      steps {
+        // Ejecuta el resto del pipeline.
+      }
+    }
+  }
+}
+{{< /code-block >}}
+
+## Incluir o excluir pipelines
+
+Puedes configurar el complemento de Jenkins para incluir o excluir pipelines específicos:
+
+1. En la interfaz web de tu instancia de Jenkins, ve a **Manage Jenkins > Configure System** (Gestionar Jenkins > Configurar sistema).
+2. Desplázate por la pantalla de configuración hasta la sección `Datadog Plugin` (Complemento de Datadog).
+3. Haz clic en el botón `Advanced` (Avanzada).
+4. Configura los `Excluded Jobs` (Trabajos excluidos).
+5. Configura los `Included Jobs` (Trabajos incluidos).
+6. Guarda tu configuración.
+
+**Trabajos excluidos**
+: una lista separada por comas de los trabajos de Jenkins que no se deben monitorizar. La exclusión se aplica a todas métricas, trazas, eventos y checks de servicio. Los trabajos excluidos pueden contener expresiones regulares para hacer referencia a varios trabajos.<br/>
+**Variable de entorno**: `DATADOG_JENKINS_PLUGIN_EXCLUDED`<br/>
+**Ejemplo**: `susans-job,johns-.*,prod_folder/prod_release`
+
+**Trabajos incluidos**
+: una lista separada por comas de los nombres de los trabajos de Jenkins que se deben monitorizar. Si la lista de trabajos incluidos está vacía, se monitorizarán todos los trabajos que no se excluyan explícitamente. La inclusión se aplica a todas las métricas, trazas, eventos y checks de servicio. Los trabajos incluidos pueden contener expresiones regulares para hacer referencia a varios trabajos.<br/>
+**Variable de entorno**: `DATADOG_JENKINS_PLUGIN_INCLUDED`<br/>
+**Ejemplo**: `susans-job,johns-.*,prod_folder/prod_release`
+
+Las listas de trabajos incluidos y excluidos pueden contener expresiones regulares, pero no patrones glob. Para incluir un trabajo con un prefijo específico, utiliza `prefix-.*`, no `prefix-*`.
+
+## Configuración avanzada
+
+### Establecer el nombre de la rama predeterminada
+
+Para enviar los datos de los resultados del pipeline, adjunta el nombre de la rama predeterminada (por ejemplo, `main`) a los tramos del pipeline en un atributo llamado `git.default_branch`. Esto se hace de forma automática, pero en algunos casos el complemento no puede extraer esta información porque podría no provenir de Jenkins.
+
+Si esto ocurre, establece la rama predeterminada de forma manual mediante la variable de entorno `DD_GIT_DEFAULT_BRANCH` en tu compilación. Por ejemplo:
+
+{{< code-block lang="groovy" >}}
+pipeline {
+    agent any
+    environment {
+        DD_GIT_DEFAULT_BRANCH = 'main'
+        ...
+    }
+    stages {
+        ...
+    }
+}
+{{< /code-block >}}
+
+
+### Personalizar las etiquetas para tus pipelines
+
+El complemento de Datadog añade un paso `datadog` que permite añadir etiquetas personalizadas a los trabajos basados en pipelines.
+
+En los pipelines declarativos, añade el paso a un bloque de opciones de nivel superior:
+
+{{< code-block lang="groovy" >}}
+def DD_TYPE = "release"
+pipeline {
+    agent any
+    options {
+        datadog(tags: ["team:backend", "type:${DD_TYPE}", "${DD_TYPE}:canary"])
+    }
+    stages {
+        stage('Example') {
+            steps {
+                echo "Hello world."
+            }
+        }
+    }
+}
+{{< /code-block >}}
+
+En los pipelines con script, envuelve la sección correspondiente con el paso `datadog`:
+
+{{< code-block lang="groovy" >}}
+datadog(tags: ["team:backend", "release:canary"]){
+    node {
+        stage('Example') {
+            echo "Hello world."
+        }
+    }
+}
+{{< /code-block >}}
+
+#### Integrar con los equipos de Datadg 
+Para mostrar y filtrar los equipos asociados a tus pipelines, añade `team:<your-team>` como una etiqueta personalizada. El nombre de etiqueta personalizada debe coincidir exactamente con el nombre de tu equipo en [Equipos de Datadog][15].
+
+### Personalizar etiquetas globales
+
+Puedes configurar el complemento de Jenkins para enviar etiquetas personalizadas (como etiquetas globales y etiquetas de trabajo globales) en todas las trazas de los pipelines:
+
+1. En la interfaz web de tu instancia de Jenkins, ve a **Manage Jenkins > Configure System** (Gestionar Jenkins > Configurar sistema).
+2. Desplázate por la pantalla de configuración hasta la sección `Datadog Plugin` (Complemento de Datadog).
+3. Haz clic en el botón `Advanced` (Avanzada).
+4. Configura las `Global Tags` (Etiquetas globales).
+5. Configura las `Global Job Tags` (Etiquetas de trabajo globales).
+6. Guarda tu configuración.
+
+**Etiquetas globales**
+: una lista separada por comas de etiquetas para aplicar a todas las métricas, trazas, eventos y checks de servicio. Las etiquetas pueden incluir variables de entorno que se definen en la instancia del controlador de Jenkins.<br/>
+**Variable de entorno**: `DATADOG_JENKINS_PLUGIN_GLOBAL_TAGS`<br/>
+**Ejemplo**: `key1:value1,key2:${SOME_ENVVAR},${OTHER_ENVVAR}:value3`
+
+**Etiquetas de trabajo globales**
+: una lista separada por comas de expresiones regulares que coinciden con un trabajo y una lista de etiquetas para aplicar a ese trabajo. Las etiquetas pueden incluir variables de entorno que se definen en la instancia del controlador de Jenkins. Las etiquetas pueden hacer referencia a grupos coincidentes en la expresión regular mediante el símbolo `$`.<br/>
+**Variable de entorno**: `DATADOG_JENKINS_PLUGIN_GLOBAL_JOB_TAGS`<br/>
+**Ejemplo**: `(.*?)_job_(.*?)_release, owner:$1, release_env:$2, optional:Tag3`
+
+## Visualizar datos de pipelines en Datadog
+
+Una vez que la integración se ha configurado correctamente, las páginas [**CI Pipeline List**][7] (Lista de pipelines de CI) y [**Executions**][8] (Ejecuciones) se rellenan con datos después de que los pipelines finalizan.
+
+En la página **CI Pipeline List** (Lista de pipelines de CI) solo se muestran datos para la rama predeterminada de cada repositorio. Para obtener más información, consulta [Buscar y gestionar pipelines de CI][28].
+
+## Solucionar problemas
+
+### Generar un flare de diagnóstico
+
+Cuando informes un problema al equipo de asistencia de Datadog, genera un flare de diagnóstico del complemento y facilítalo junto con la descripción del problema.
+
+Para generar el flare, haz lo siguiente:
+
+1. En la interfaz web de tu instancia de Jenkins, ve a **Manage Jenkins > Troubleshooting > Datadog** (Gestionar Jenkins > Solucionar problemas > Datadog).
+2. En el formulario Diagnostic Flare (Flare de diagnóstico), comprueba qué información deseas incluir en el flare. La selección predeterminada es la más adecuada. Cuanta más información facilites, más fácil será diagnosticar tu problema.
+3. Haz clic en **Download** (Descargar) para generar y descargar el archivo del flare.
+
+### Activar el nivel de logs DEBUG para el complemento de Datadog
+
+Si tienes algún problema con el complemento de Datadog, puedes configurar los logs del complemento en el nivel `DEBUG`. En este nivel, puedes ver los detalles del stacktrace si se genera una excepción.
+
+1. En la interfaz web de tu instancia de Jenkins, ve a **Manage Jenkins > System log** (Gestionar Jenkins > Log del sistema).
+2. Haz clic en el botón `Add new log recorder` (Añadir nuevo registrador de logs).
+3. Escribe el nombre del registrador de logs. Por ejemplo: **Datadog Plugin Logs** (Logs del complemento de Datadog).
+4. Añade los siguientes loggers a la lista:
+    - Logger: `org.datadog.jenkins.plugins.datadog.clients` -> Nivel de log `ALL`
+    - Logger: `org.datadog.jenkins.plugins.datadog.traces` -> Nivel de log `ALL`
+    - Logger: `org.datadog.jenkins.plugins.datadog.logs` -> Nivel de log `ALL`
+    - Logger: `org.datadog.jenkins.plugins.datadog.model` -> Nivel de log `ALL`
+    - Logger: `org.datadog.jenkins.plugins.datadog.listeners` -> Nivel de log `ALL`
+5. Guarda la configuración.
+
+También puedes querer dividir los loggers en diferentes registradores de logs.
+
+Una vez que los registradores de logs se han configurado correctamente, puedes comprobar los logs en el modo `DEBUG` mediante el acceso al registrador de logs deseado a través de **Manage Jenkins > System log** (Gestionar Jenkins > Log del sistema).
+
+Si activas un pipeline de Jenkins, puedes buscar el mensaje `Send pipeline traces` (Enviar trazas de pipeline) en los **Datadog Plugin Logs** (Logs del complemento de Datadog). Este mensaje indica que el complemento envía datos de **CI Visibility** al **Datadog Agent**.
+
+{{< code-block lang="text" >}}
+Send pipeline traces.
+...
+Send pipeline traces.
+...
+{{< /code-block >}}
+
+### Los datos de las ejecuciones de pipelines no están disponibles en Datadog
+
+#### Check de conectividad HTTP
+
+Si tu instancia de Jenkins está en un proxy HTTP, ve a **Manage Jenkins** > **Manage Plugins** > **Advanced tab** (Administrar Jenkins > Administrar complementos > Pestaña Avanzado) y asegúrate de que la configuración del proxy es la correcta:
+- Si el complemento de Datadog está configurado para enviar datos al Datadog Agent, comprueba que el host del Agent se haya añadido a la sección `No Proxy Hosts` (Hosts sin proxy).
+- Si el complemento de Datadog está configurado para enviar datos directamente a Datadog (modo Agentless), comprueba que el host de Datadog se haya añadido a la sección `No Proxy Hosts` (Hosts sin proxy). En la siguiente tabla, se muestran los sitios de Datadog admitidos y sus correspondientes valores de host:
+
+| Sitio de Datadog | Valor del host |
+| ------------ | ----------------------- |
+| US1          | datadoghq.com           |
+| US3          | us3.datadoghq.com       |
+| US5          | us5.datadoghq.com       |
+| EU1          | datadoghq.eu            |
+| AP1          | ap1.datadoghq.com       |
+
+#### El complemento de Datadog no puede escribir cargas útiles en el servidor
+
+Si aparece el siguiente mensaje de error en **Jenkins Log** (Log de Jenkins), asegúrate de que la configuración del complemento es la correcta.
+
+{{< code-block lang="text" >}}
+Error writing to server
+{{< /code-block >}}
+
+Si utilizas `localhost` como nombre de host, cámbialo por el nombre de host del servidor.
+
+### Los logs de Jenkins no están disponibles en Datadog
+
+Si el complemento de Datadog está configurado para enviar datos al Datadog Agent, haz lo siguiente:
+- Asegúrate de que la recopilación personalizada de logs a través de TCP está [activada y configurada][29] en el Agent.
+- Ve a la interfaz de usuario de configuración del complemento y haz clic en **Test logs connection** (Probar conexión de logs) para verificar la conectividad de los logs.
+
+### La sección Datadog Plugin (Complemento de Datadog) no aparece en la configuración de Jenkins
+
+Si la sección Datadog Plugin (Complemento de Datadog) no aparece en la sección de configuración de Jenkins, asegúrate de que el complemento está activado. Para ello, haz lo siguiente:
+
+1. En la interfaz web de tu instancia de Jenkins, ve a **Manage Jenkins > Manage Plugins** (Gestionar Jenkins > Gestionar complementos).
+2. Busca `Datadog Plugin` (Complemento de Datadog) en la pestaña **Installed** (Instalados).
+3. Comprueba que la casilla `Enabled` (Activado) esté marcada.
+4. Si activas el complemento aquí, reinicia tu instancia de Jenkins mediante la ruta de la URL `/safeRestart`.
+
+### La opción CI Visibility no aparece en la sección Datadog Plugin (Complemento de Datadog).
+
+Si la opción CI Visibility no aparece en la sección Datadog Plugin (Complemento de Datadog), asegúrate de que está instalada la versión correcta y reinicia la instancia de Jenkins. Para ello, haz lo siguiente:
+
+1. En la interfaz web de tu instancia de Jenkins, ve a **Manage Jenkins > Manage Plugins** (Gestionar Jenkins > Gestionar complementos).
+2. Busca `Datadog Plugin` (Complemento de Datadog) en la pestaña **Installed** (Instalados).
+3. Comprueba que la versión instalada es la correcta.
+4. Reinicia tu instancia de Jenkins mediante la ruta de la URL `/safeRestart`.
+
+### Las métricas de infraestructura no se correlacionan con los pipelines de Jenkins
+
+Asegúrate de haber seguido los pasos para [correlacionar las métricas de infraestructura con los pipelines de Jenkins][11].
+
+Si, incluso después de seguir los pasos, las métricas de infraestructura siguen sin correlacionarse con los pipelines de Jenkins,
+intenta reiniciar la instancia de Jenkins.
+
+## Referencias adicionales
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: /es/agent/
+[2]: /es/agent/cluster_agent/admission_controller/
+[3]: https://plugins.jenkins.io/datadog/
+[4]: https://wiki.jenkins-ci.org/display/JENKINS/Plugins#Plugins-Howtoinstallplugins
+[7]: https://app.datadoghq.com/ci/pipelines
+[8]: https://app.datadoghq.com/ci/pipeline-executions
+[9]: https://plugins.jenkins.io/kubernetes/#plugin-content-pod-template
+[10]: /es/continuous_integration/pipelines/jenkins/?tab=linux#enable-job-log-collection
+[11]: /es/continuous_integration/pipelines/jenkins/?tab=agentlessusinganapikey#correlate-infrastructure-metrics
+[12]: /es/continuous_integration/pipelines/custom_tags_and_measures/
+[14]: /es/agent/
+[15]: /es/account_management/teams/
+[16]: /es/continuous_integration/tests/
+[17]: /es/continuous_integration/tests/setup/
+[18]: /es/tracing/trace_collection/library_config/
+[19]: https://www.jenkins.io/
+[20]: /es/glossary/#manual-step
+[21]: /es/glossary/#queue-time
+[22]: /es/glossary/#custom-tag
+[23]: /es/glossary/#custom-measure
+[24]: /es/glossary/#parameter
+[25]: /es/glossary/#pipeline-failure
+[26]: /es/glossary/#custom-span
+[27]: /es/logs/guide/best-practices-for-log-management/
+[28]: /es/continuous_integration/search/#search-for-pipelines
+[29]: /es/agent/logs/?tab=tcpudp#custom-log-collection
+[30]: /es/developers/dogstatsd/
+[31]: /es/containers/docker/apm/#tracing-from-the-host
+[32]: /es/glossary/#running-pipeline
\ No newline at end of file
diff --git a/content/es/coterm/_index.md b/content/es/coterm/_index.md
new file mode 100644
index 0000000000000..95d11335cc3ae
--- /dev/null
+++ b/content/es/coterm/_index.md
@@ -0,0 +1,56 @@
+---
+further_reading:
+- link: https://www.datadoghq.com/blog/introducing-coterm/
+  tag: Blog
+  text: Transmisión en directo, grabación y log de sesiones de terminal con Datadog
+    CoTerm
+title: Datadog CoTerm
+---
+
+Datadog CoTerm es una utilidad de CLI que puede grabar sesiones de terminal y añadir una capa de validación a tus comandos de terminal.
+
+{{< img src="coterm/hero.png" alt="En Datadog, una página titulada Sesión de terminal. Un video insertado en el que se muestra una sesión de terminal. Una barra de depurador controla la reproducción del video" style="width:100%;" >}}
+
+Con CoTerm, puedes:
+
+- **Grabar sesiones de terminal y analizar estas grabaciones en Datadog**. 
+
+   La investigación de las sesiones de terminal proporciona contexto sobre cómo se causaron y solucionaron las incidencias de seguridad y del sistema.
+- **Protegerte contra la ejecución accidental de comandos de terminal peligrosos**.
+
+   CoTerm puede interceptar comandos de terminal y avisarte antes de que ejecutes un comando riesgoso. Para una supervisión aún mayor, puedes utilizar CoTerm con [Datadog Case Management][3] para solicitar aprobaciones para comandos particularmente impactantes.
+
+Para tu seguridad, CoTerm utiliza [Sensitive Data Scanner][2] para detectar y enmascarar datos confidenciales, como contraseñas y claves de API.
+
+## Para empezar
+
+{{< whatsnext desc="This section contains the following pages:">}}
+  {{< nextlink href="/coterm/install">}}<u>Instalación</u>: Instala CoTerm y autorízalo a acceder a tu cuenta de Datadog.{{< /nextlink >}}
+  {{< nextlink href="/coterm/usage">}}<u>Uso</u>: Utiliza la CLI de CoTerm, configura la grabación automática y protégete de comandos peligrosos. {{< /nextlink >}}
+  {{< nextlink href="/coterm/rules">}}<u>Reglas de configuración</u>: Establece reglas altamente configurables para la gestión de comandos específicos por parte de CoTerm.{{< /nextlink >}}
+{{< /whatsnext >}}
+
+## Revisar las sesiones de terminal en Datadog
+
+Puedes revisar las sesiones de terminal grabadas y los datos de proceso en Datadog:
+
+- **Como repeticiones**: Mira [sesiones de terminal][6] en un reproductor similar a vídeo.
+- **Como eventos**: En [Explorador de eventos][4], cada comando grabado aparece como un evento.
+- **Como logs**: En [Explorador de logs][5], puedes realizar búsquedas de texto completo y consultas de sesiones de terminal como logs multilínea.
+
+## Limitaciones conocidas
+
+- La duración máxima de una sesión grabada es de aproximadamente 24 horas.
+- El [difuminado de datos confidenciales][2] puede fallar si los datos confidenciales están repartidos en varias líneas.
+- En Linux, el rastreo en `seccomp` impide elevar los permisos durante una grabación.
+
+## Referencias adicionales
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: https://app.datadoghq.com/organization-settings/api-keys
+[2]: /es/security/sensitive_data_scanner/
+[3]: /es/service_management/case_management/
+[4]: http://app.datadoghq.com/event/explorer?query=source%3Acoterm_process_info
+[5]: https://app.datadoghq.com/logs?query=service%3Addcoterm
+[6]: https://app.datadoghq.com/terminal-streams
\ No newline at end of file
diff --git a/content/es/dashboards/guide/tv_mode.md b/content/es/dashboards/guide/tv_mode.md
new file mode 100644
index 0000000000000..139cc40cbd084
--- /dev/null
+++ b/content/es/dashboards/guide/tv_mode.md
@@ -0,0 +1,36 @@
+---
+further_reading:
+- link: /dashboards/configure/
+  tag: Documentación
+  text: Más información sobre la configuración del dashboard
+title: Uso del modo TV en dashboards
+---
+
+## Información general
+
+El modo TV está diseñado para mostrar dashboards de Datadog en pantallas de gran tamaño, lo que permite que todos los widgets sean visibles sin necesidad de desplazarse. Esta guía proporciona instrucciones detalladas para configurar dashboards en modo TV, explica las limitaciones que hay que tener en cuenta y ofrece soluciones para una visualización óptima.
+
+## Configurar tu dashboard para el modo TV
+
+Para asegurarte de que tu dashboard se visualiza correctamente en un televisor, sigue estos pasos:  
+1. **Diseña tu dashboard**: Comienza creando tu dashboard en Datadog. Concéntrate en organizar tus widgets dentro del diseño de cuadrícula de 12 columnas utilizado por los dashboards de Datadog. Ten en cuenta que la relación de aspecto de tus widgets y de los dashboards en general afecta a tu visualización en el modo TV.  
+2. **Activa el modo TV**: Cuando tu dashboard esté listo, activa el modo TV. Hazlo mientras tu pantalla está conectada al televisor y en modo de pantalla completa. Este paso garantiza que el dashboard se ajuste automáticamente a la pantalla del televisor sin necesidad de cambiar el tamaño manualmente.  
+    {{< img src="/dashboards/guide/tv_mode/tv_mode_config_option.png" alt="Activar la opción de modo TV a través del menú de configuración del dashboard" style="width:100%;" >}} 
+3. **Optimiza la configuración de pantalla**: Si el contenido del dashboard no llena los bordes de la pantalla, puedes simular una pantalla grande acercando o alejando el zoom. Utiliza los atajos de teclado para ajustar la visualización del navegador antes de volver a entrar en el modo TV, `CMD/CTRL + +(plus)` para acercar y `CMD/CTRL + -(minus)` para alejar. **Nota**: Esta solución tiene inconvenientes de legibilidad, ya que puede hacer que algunas fuentes sean más pequeñas y difíciles de leer desde cierta distancia.
+
+## Comprender las limitaciones del modo TV
+
+Aunque el modo TV ofrece una forma cómoda de visualizar dashboards, presenta algunas limitaciones y consideraciones:  
+- **Restricción de cuadrícula de 12 columnas**: Los dashboards en modo TV respetan una cuadrícula fija de 12 columnas. Esto puede limitar la flexibilidad a la hora de estirar el contenido para que ocupe todo el ancho de la pantalla. En el modo de alta densidad, el dashboard se divide en dos cuadrículas de 12 columnas y más widgets expanden el dashboard verticalmente.
+- **Limitaciones de la relación de aspecto**: El modo TV reduce la escala del dashboard para que quepa en la pantalla sin necesidad de desplazarse, lo que implica una relación de aspecto forzada. Si la altura y el ancho de un dashboard son desproporcionados, pueden aparecer espacios en blanco en los bordes y los widgets pueden aparecer minimizados (alejados). Para evitar esto, diseña tu dashboard con una relación de aspecto que se ajuste lo más posible a la pantalla de tu televisor.  
+- **Centrado del contenido**: El contenido puede estar centrado en la pantalla, en lugar de expandirse hacia los bordes. Este comportamiento se debe a menudo al sistema de cuadrícula fija y a la relación de aspecto. Para un dashboard que utilice todo el ancho de pantalla, considera cambiar a un screenboard, que permite un control más fino sobre el posicionamiento de los widgets.
+
+## Soluciones alternativas y recomendaciones
+
+Si las limitaciones de la cuadrícula de 12 columnas dificultan lograr el diseño buscado en el modo TV, considera las siguientes alternativas:  
+- **Screenboards para una mayor flexibilidad**: A diferencia de los dashboards, los screenboards ofrecen una colocación con precisión de píxeles, lo que te permite crear un diseño que se adapte mejor a la relación de aspecto de tu televisor. Esto puede ayudar a eliminar los espacios en blanco de los bordes y aprovechar al máximo el espacio real de la pantalla.
+- **Seguimiento y notificación de problemas**: Si encuentras problemas persistentes con el modo TV, como contenidos que no se muestran correctamente, notifícalos como errores en Datadog. Esto ayudará a rastrear y, potencialmente, solucionar estas limitaciones en futuras actualizaciones.
+
+## Referencias adicionales
+
+{{< partial name="whats-next/whats-next.html" >}}
\ No newline at end of file
diff --git a/content/es/dashboards/sharing/scheduled_reports.md b/content/es/dashboards/sharing/scheduled_reports.md
new file mode 100644
index 0000000000000..82a08d0506fd7
--- /dev/null
+++ b/content/es/dashboards/sharing/scheduled_reports.md
@@ -0,0 +1,115 @@
+---
+aliases:
+- /es/dashboards/reporting/
+- /es/dashboards/scheduled_reports/
+disable_toc: false
+further_reading:
+- link: https://www.datadoghq.com/blog/dashboard-sharing/
+  tag: Blog
+  text: Compartir dashboards de Datadog de forma segura con cualquiera persona
+- link: https://www.datadoghq.com/blog/template-variable-associated-values/
+  tag: Blog
+  text: Usa variables de plantilla asociadas para redefinir tus dashboards
+title: Informes programados
+---
+
+## Información general
+
+Los informes programados permiten a los usuarios de Datadog compartir dashboards como PDF de alta densidad de forma periódica.
+
+{{< img src="dashboards/scheduled_reports/report_pdf.png" alt="Ejemplo de PDF de informe adjunto" style="width:90%;" >}}
+
+El PDF del informe puede enviarse a canales de Slack o a direcciones de correo electrónico.
+
+{{< img src="dashboards/scheduled_reports/report_slack.png" alt="Ejemplo de informe por Slack con el informe de PDF vinculado" style="width:90%;" >}}
+
+En el caso de los correos electrónicos, el PDF del informe se incluye como archivo adjunto o como enlace, en función de su tamaño.
+
+{{< img src="dashboards/scheduled_reports/report_email.png" alt="Ejemplo de correo electrónico de informe con el adjunto de PDF" style="width:90%;" >}}
+
+## Programar un informe
+
+Crea un informe a partir de cualquier [dashboard o timeboard][1] que tenga al menos un [widget compatible](#unsupported-widget-types).
+
+Haz clic en el botón **Share** (Compartir) situado en la parte superior del dashboard y selecciona **Schedule report** (Programar informe).
+
+### 1. Establecer un cronograma
+
+En el modal de configuración que se abre, establece un cronograma para el informe para determinar cuándo y con qué frecuencia se envía el informe.
+
+**{{< img src="dashboards/scheduled_reports/set_schedule.png" alt="Sección para definir un cronograma de informe. Incluye una tabla de vista previa de cronograma que muestra las siguientes 5 fechas de informes programados." style="width:90%;" >}}**
+
+### 2. Configurar informe
+
+Define el título del informe y establece un marco temporal para determinar el intervalo de tiempo mostrado en el informe resultante. El intervalo de tiempo del informe puede ser diferente del intervalo de tiempo mostrado en el dashboard.
+
+**Nota:** Modificar el intervalo temporal del informe actualiza la tabla desplegable **Vista previa de la programación** anterior.
+
+**{{< img src="dashboards/scheduled_reports/configure_report.png" alt="Sección para definir un cronograma de informe" style="width:90%;" >}}**
+
+Haz clic en **Edit Variables** (Editar variables) para modificar los filtros aplicados al enviar el informe. Estos valores no afectan a los valores por defecto de las variables de la plantilla del dashboard.
+
+**{{< img src="dashboards/scheduled_reports/edit_variables.png" alt="La sección del modal de configuración para personalizar el título del informe, el intervalo temporal y las variables." style="width:90%;" >}}**
+
+### 3. Añadir destinatarios
+
+#### Destinatarios de correo electrónico
+
+Para añadir destinatarios de correo electrónico a tu informe, introduce tus direcciones de correo electrónico. El correo electrónico asociado a tu cuenta de Datadog se añade automáticamente como destinatario. Puedes eliminarte a ti mismo como destinatario pasando el ratón por encima de tu correo electrónico y haciendo clic en el icono de la papelera que aparece junto a él.
+
+**Nota:** Las cuentas Enterprise y Pro pueden enviar informes a destinatarios fuera de sus organizaciones.
+
+**{{< img src="dashboards/scheduled_reports/add_email_recipients.png" alt="El modal de configuración para editar las variables de informe." style="width:90%;" >}}**
+
+Para ver el informe antes de guardar la programación, haz clic en **Send Test Email** (Enviar correo de test). Puedes pausar la programación de un informe en cualquier momento.
+
+#### Destinatarios de Slack
+
+Para añadir destinatarios de Slack, selecciona el espacio de trabajo y el canal de Slack en los menús desplegables disponibles. Si no ves ningún espacio de trabajo de Slack disponible, asegúrate de que tienes instalada la [integración de Datadog y Slack][8]. Todos los canales públicos del espacio de trabajo de Slack deberían aparecer automáticamente en la lista. Para seleccionar un canal privado de Slack, asegúrate de invitar al bot de Datadog Slack al canal en Slack. Para enviar un mensaje de test a Slack, añade un destinatario al canal y haz clic en **Send Test Message** (Enviar mensaje de test).
+
+**{{< img src="dashboards/scheduled_reports/add_slack_recipients.png" alt="El modal de configuración para editar los destinatarios de correo electrónico de informe programado." style="width:90%;" >}}**
+
+## Gestionar informes
+
+Un único dashboard puede tener múltiples informes programados con diferentes configuraciones, lo que permite informar a diferentes grupos de partes interesadas en el mismo dashboard. Para ver los informes de un dashboard existente, haz clic en el botón **Share** (Compartir) y selecciona **Configure Reports** (Configurar informes).
+
+Desde el modal de configuración que aparece, puedes pausar un informe existente o crear uno nuevo. Para consultar y editar los datos de un informe existente, o eliminarlo, haz clic en **Edit** (Editar).
+
+{{< img src="dashboards/scheduled_reports/manage_reports-2.png" alt="Modal de configuración de los informes programados, en el que se muestran dos informes, cada uno con sus títulos, etiquetas, destinatarios, frecuencia, una opción para activar o desactivar el informe y un botón para editar el informe. En la parte inferior hay un botón para añadir un nuevo informe y otro para cancelar" style="width:100%;" >}}
+
+## Permisos
+
+Los usuarios necesitan el [permiso][2] **Dashboards Report Write** (Escritura de informe del dashboard) para crear y editar cronogramas de informes.
+Este permiso puede ser concedido por otro usuario con el permiso **User Access Manage** (Administración de acceso de usuario).
+
+{{< img src="dashboards/scheduled_reports/dashboard_permissions-2.png" alt="Captura de pantalla de los permisos de un usuario individual desde la página de parámetros de organización. El permiso para redactar informes de dashboards aparece resaltado en la sección de dashboards" style="width:90%;" >}}
+
+Los usuarios con el permiso **Org Management** (Administración de la organización) pueden activar o desactivar la función de informes programados para su organización desde la pestaña **Settings** (Configuración) en [Compartir públicamente][3] en **Organization Settings** (Parámetros de organización).
+
+{{< img src="dashboards/scheduled_reports/report_management_org_preference.png" alt="La configuración de Administración de informes en la pestaña Configuración en Compartir públicamente dentro de los Parámetros de la organización en Datadog con la configuración Activada" style="width:90%;" >}}
+
+Además, los usuarios con el permiso **Org Management** (Administración de la organización) pueden activar o desactivar los destinatarios de Slack para su organización desde la pestaña **Settings** (Configuración) en [Compartir públicamente][3] en **Organization Settings** (Parámetros de organización).
+
+{{< img src="dashboards/scheduled_reports/report_send_to_slack_org_preference.png" alt="La configuración Enviar a Slack de Administración de informes en la pestaña Configuración en Compartir públicamente dentro de los Parámetros de la organización en Datadog con la configuración Activada" style="width:90%;" >}}
+
+## Tipos de widget no admitidos
+
+Los siguientes tipos de widget **no** son compatibles y se mostrarán vacíos en el informe:
+
+-   [Iframe][4]
+-   [Imagen][5]
+-   [Mapa de host][6]
+-   [Ejecutar flujo de trabajo][7]
+
+## Referencias adicionales
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: /es/dashboards/#get-started
+[2]: /es/account_management/rbac/permissions/
+[3]: /es/account_management/org_settings/#public-sharing
+[4]: /es/dashboards/widgets/iframe/
+[5]: /es/dashboards/widgets/image/
+[6]: /es/dashboards/widgets/hostmap/
+[7]: /es/dashboards/widgets/run_workflow/
+[8]: /es/integrations/slack/?tab=datadogforslack
\ No newline at end of file
diff --git a/content/es/database_monitoring/guide/managed_authentication.md b/content/es/database_monitoring/guide/managed_authentication.md
index 1a0531cb354a3..cd3540be0b4cd 100644
--- a/content/es/database_monitoring/guide/managed_authentication.md
+++ b/content/es/database_monitoring/guide/managed_authentication.md
@@ -32,8 +32,10 @@ Tipos de autenticación admitidos y versiones del Agent
 ## Configurar la autenticación de IAM
 
 
-AWS admite la autenticación de IAM para bases de datos de RDS y Aurora. Solo se admite la autenticación de IAM en instancias de bases de datos que residan en la misma cuenta que el Datadog Agent. Para configurar el Agent para que se conecte mediante IAM, haz lo siguiente:
+AWS admite la autenticación de IAM para bases de datos de RDS y Aurora. A partir de Datadog Agent versión 7.57, la autenticación de IAM entre cuentas es compatible con las bases de datos de RDS y Aurora.
+Con el fin de configurar el Agent para conectarte utilizando IAM, sigue los pasos para completar la configuración de la base de datos y el Datadog Agent.
 
+### Activar la autenticación de IAM para tu base de datos
 
 1. Activa la autenticación de IAM en tu instancia de [RDS][3] o [Aurora][4].
 2. Crea una política de IAM para la autenticación de la base de datos. Sustituye `<YOUR_IAM_AUTH_DB_USER>` por el usuario de la base de datos local en el documento de la política de IAM:
@@ -145,11 +147,12 @@ GRANT rds_iam TO datadog;
 
 4. Completa los pasos de configuración del Agent para tu instancia de [RDS][6] o [Aurora][7].
 
+### Habilita la autenticación de IAM para el host del Agent en la misma cuenta de AWS que la instancia de RDS.
 
 {{< tabs >}}
 {{% tab "EC2" %}}
 
-5. Crea un rol de IAM y adjunta la política de IAM creada en el paso 2 al rol.
+1. Crea un rol de IAM y adjunta la política de IAM creada para la autenticación de la BD al rol.
 
 ```bash
 # Crea un rol de IAM para la instancia de EC2
@@ -179,7 +182,7 @@ Adjunta el rol de IAM a la instancia de EC2 en la que se ejecuta el Agent. Para
 {{% /tab %}}
 {{% tab "ECS Fargate" %}}
 
-5. Crea un rol de IAM y adjunta la política de IAM creada en el paso 2 al rol.
+1. Crea un rol de IAM y adjunta la política de IAM creada para la autenticación de la BD al rol.
 
 ```bash
 # Crea un rol de IAM para la tarea de ECS
@@ -209,7 +212,7 @@ En la definición de la tarea de ECS, adjunta el rol de IAM al rol de la tarea d
 {{% /tab %}}
 {{% tab "EKS" %}}
 
-5. Crea un rol de IAM y adjunta la política de IAM creada en el paso 2 al rol.
+1. Crea un rol de IAM y adjunta la política de IAM creada para la autenticación de la BD al rol.
 
 ```bash
 # Crea un proveedor de IAM OIDC para tu clúster
@@ -239,7 +242,7 @@ Asigna el rol de IAM a la cuenta de servicio de Kubernetes donde se ejecuta el A
 {{< /tabs >}}
 
 
-6. Actualiza la configuración de tu instancia de Postgres con un bloque `aws` en el que se especifique la `region` de la instancia RDS, y establece `managed_authentication.enabled` en `true`:
+2. Actualiza la configuración de tu instancia de Postgres con un bloque `aws` en el que se especifique la `region` de la instancia RDS, y establece `managed_authentication.enabled` en `true`:
 
 
 ```yaml
@@ -255,11 +258,196 @@ instances:
         enabled: true
 ```
 
+### Habilita la autenticación de IAM para el host del Agent en una cuenta de AWS distinta que la instancia de RDS.
+
+**NOTA: La autenticación de IAM entre cuentas es compatible a partir del Agent versión 7.57.**
+
+{{< tabs >}}
+{{% tab "EC2" %}}
+
+1. Crea un rol de IAM en la cuenta donde se encuentra la instancia de RDS y adjunta la política de IAM creada para la autenticación de la BD al rol utilizando el siguiente ejemplo.
+   - Sustituye `<YOUR_IAM_AUTH_DB_ROLE>` por el nombre del rol de IAM
+   - Sustituye `<YOUR_AWS_ACCOUNT_FOR_AGENT>` por el ID de la cuenta de AWS donde se ejecuta el Agent 
+   - Sustituye `<YOUR_AGENT_EC2_ROLE>` por el rol de IAM de la instancia de EC2 donde se ejecuta el Agent 
+   - Sustituye `<YOUR_IAM_AUTH_DB_POLICY_ARN>` por el ARN de la política de IAM creada para la autenticación de la base de datos.
+
+```bash
+aws iam create-role --role-name <YOUR_IAM_AUTH_DB_ROLE> --assume-role-policy-document '{
+  "Version": "2012-10-17",
+  "Statement": [
+    {
+      "Effect": "Allow",
+      "Principal": {
+        "AWS": "arn:aws:iam::<YOUR_AWS_ACCOUNT_FOR_AGENT>:role/<YOUR_AGENT_EC2_ROLE>"
+      },
+      "Action": "sts:AssumeRole"
+    }
+  ]
+}'
+
+aws iam attach-role-policy --role-name <YOUR_IAM_AUTH_DB_ROLE> --policy-arn <YOUR_IAM_AUTH_DB_POLICY_ARN>
+```
+
+2. Modifica las políticas de permisos de rol de IAM de la instancia de EC2 donde se ejecuta el Agent, para permitir asumir el rol de IAM creado en el paso anterior.
+   - Sustituye `<YOUR_AGENT_EC2_ROLE>` por el rol de IAM de la instancia de EC2 donde se ejecuta el Agent 
+   - Sustituye `<YOUR_IAM_AUTH_DB_ROLE>` por el nombre del rol de IAM creado para la autenticación de la base de datos.
+   - Sustituye `<YOUR_AWS_ACCOUNT_FOR_DB>` por el ID de la cuenta de AWS donde se encuentra la instancia de RDS
+
+```bash
+aws iam update-assume-role-policy --role-name <YOUR_AGENT_EC2_ROLE> --policy-document '{
+  "Version": "2012-10-17",
+  "Statement": [
+    {
+      "Effect": "Allow",
+      "Principal": {
+        "AWS": "arn:aws:iam::<YOUR_AWS_ACCOUNT_FOR_DB>:role/<YOUR_IAM_AUTH_DB_ROLE>"
+      },
+      "Action": "sts:AssumeRole"
+    }
+  ]
+}'
+```
+
+{{% /tab %}}
+{{% tab "ECS Fargate" %}}
+
+1. Crea un rol de IAM en la cuenta donde se encuentra la instancia de RDS y adjunta la política de IAM creada para la autenticación de la BD al rol utilizando el siguiente ejemplo.
+   - Sustituye `<YOUR_IAM_AUTH_DB_ROLE>` por el nombre del rol de IAM creado para la autenticación de la base de datos.
+   - Sustituye `<YOUR_AWS_ACCOUNT_FOR_AGENT>` por el ID de la cuenta de AWS donde se ejecuta el Agent 
+   - Sustituye `<YOUR_AGENT_ECS_ROLE>` por el rol de IAM de la tarea de ECS donde se ejecuta el Agent 
+   - Sustituye `<YOUR_IAM_AUTH_DB_POLICY_ARN>` por el ARN de la política de IAM creada para la autenticación de la base de datos.
+
+```bash
+aws iam create-role --role-name <YOUR_IAM_AUTH_DB_ROLE> --assume-role-policy-document '{
+  "Version": "2012-10-17",
+  "Statement": [
+    {
+      "Effect": "Allow",
+      "Principal": {
+        "AWS": "arn:aws:iam::<YOUR_AWS_ACCOUNT_FOR_AGENT>:role/<YOUR_AGENT_ECS_ROLE>"
+      },
+      "Action": "sts:AssumeRole"
+    }
+  ]
+}'
+
+aws iam attach-role-policy --role-name <YOUR_IAM_AUTH_DB_ROLE> --policy-arn <YOUR_IAM_AUTH_DB_POLICY_ARN>
+```
+
+2. Modifica las políticas de permisos del rol de IAM de la tarea de ECS donde se ejecuta el Agent para permitir que el Agent asuma el rol de IAM creado en el paso anterior.
+   - Sustituye `<YOUR_AGENT_ECS_ROLE>` por el rol de IAM de la tarea de ECS donde se ejecuta el Agent 
+   - Sustituye `<YOUR_IAM_AUTH_DB_ROLE>` por el nombre del rol de IAM
+   - Sustituye `<YOUR_AWS_ACCOUNT_FOR_DB>` por el ID de la cuenta de AWS donde se encuentra la instancia de RDS
+
+```bash
+aws iam update-assume-role-policy --role-name <YOUR_AGENT_ECS_ROLE> --policy-document '{
+  "Version": "2012-10-17",
+  "Statement": [
+    {
+      "Effect": "Allow",
+      "Principal": {
+        "AWS": "arn:aws:iam::<YOUR_AWS_ACCOUNT_FOR_DB>:role/<YOUR_IAM_AUTH_DB_ROLE>"
+      },
+      "Action": "sts:AssumeRole"
+    }
+  ]
+}'
+```
+
+{{% /tab %}}
+{{% tab "EKS" %}}
+
+1. Crea un rol de IAM en la cuenta donde se encuentra la instancia de RDS y adjunta la política de IAM creada para la autenticación de la BD al rol utilizando el siguiente ejemplo.
+   - Sustituye `<YOUR_IAM_AUTH_DB_ROLE>` por el nombre del rol de IAM
+   - Sustituye `<YOUR_AWS_ACCOUNT_FOR_AGENT>` por el ID de la cuenta de AWS donde se ejecuta el Agent 
+   - Sustituye `<YOUR_AGENT_EKS_ROLE>` por el rol de IAM que utilizarán los pods de EKS en los que se ejecuta el Agent.
+   - Sustituye `<YOUR_IAM_AUTH_DB_POLICY_ARN>` por el ARN de la política de IAM creada para la autenticación de la base de datos.
+
+```bash
+aws iam create-role --role-name <YOUR_IAM_AUTH_DB_ROLE> --assume-role-policy-document '{
+  "Version": "2012-10-17",
+  "Statement": [
+    {
+      "Effect": "Allow",
+      "Principal": {
+        "AWS": "arn:aws:iam::<YOUR_AWS_ACCOUNT_FOR_AGENT>:role/<YOUR_AGENT_EKS_ROLE>"
+      },
+      "Action": "sts:AssumeRole"
+    }
+  ]
+}'
+
+aws iam attach-role-policy --role-name <YOUR_IAM_AUTH_DB_ROLE> --policy-arn <YOUR_IAM_AUTH_DB_POLICY_ARN>
+```
+
+2. Modifica el rol de IAM para la cuenta de servicio de EKS donde se ejecuta el Agent para permitir asumir el rol de IAM creado en el paso anterior.
+   - Sustituye `<YOUR_AGENT_EKS_ROLE>` por el rol de IAM de la cuenta de servicio de EKS que utiliza el Agent 
+   - Sustituye `<YOUR_IAM_AUTH_DB_ROLE>` por el nombre del rol de IAM
+   - Sustituye `<YOUR_AWS_ACCOUNT_FOR_DB>` por el ID de la cuenta de AWS donde se encuentra la instancia de RDS
+
+```bash
+aws iam update-assume-role-policy --role-name <YOUR_AGENT_EKS_ROLE> --policy-document '{
+  "Version": "2012-10-17",
+  "Statement": [
+    {
+      "Effect": "Allow",
+      "Principal": {
+        "AWS": "arn:aws:iam::<YOUR_AWS_ACCOUNT_FOR_DB>:role/<YOUR_IAM_AUTH_DB_ROLE>"
+      },
+      "Action": "sts:AssumeRole"
+    }
+  ]
+}'
+```
+
+3. Crea un proveedor OIDC de IAM para tu clúster y una cuenta de servicio para el Agent utilizando el siguiente ejemplo.
+   - Sustituye `<YOUR_EKS_REGION>` y `<YOUR_EKS_CLUSTER>` por la región y el nombre de tu clúster de EKS
+   - Sustituye `<YOUR_IAM_AUTH_DB_POLICY_ARN>` por el ARN de la política de IAM creada para la autenticación de la base de datos.
+   - Sustituye `<YOUR_IAM_AUTH_SERVICE_ACCOUNT>` y `<YOUR_IAM_AUTH_SERVICE_ACCOUNT_NAMESPACE>` por el nombre y espacio de nombres de la cuenta de servicio 
+   - Sustituye `<YOUR_AGENT_EKS_ROLE>` por el rol de IAM que utilizarán los pods de EKS en los que se ejecuta el Agent.
+
+```bash
+$ eksctl utils associate-iam-oidc-provider \
+  --region <YOUR_EKS_REGION> \
+  --cluster <YOUR_EKS_CLUSTER> \
+  --approve
+
+$ eksctl create iamserviceaccount \
+  --cluster <YOUR_EKS_CLUSTER> \
+  --name <YOUR_IAM_AUTH_SERVICE_ACCOUNT> \
+  --namespace <YOUR_IAM_AUTH_SERVICE_ACCOUNT_NAMESPACE> \
+  --role-name arn:aws:iam::<YOUR_AWS_ACCOUNT_FOR_AGENT>:role/<YOUR_AGENT_EKS_ROLE> \
+  --override-existing-serviceaccounts \
+  --approve
+```
+
+{{% /tab %}}
+{{< /tabs >}}
+
+Actualiza la configuración de tu instancia de Postgres con un bloque `aws` como se muestra a continuación:
+ - Especifica la `region` de la instancia de RDS
+ - Establece `managed_authentication.enabled` en `true`
+ - Especifica el ARN del rol, sustituyendo `<YOUR_AWS_ACCOUNT_FOR_DB>` por el ID de la cuenta de AWS donde se encuentra la instancia de RDS y `<YOUR_IAM_AUTH_DB_ROLE>` por el nombre del rol de IAM creado en el paso 1.
+
+```yaml
+instances:
+  - host: example-endpoint.us-east-2.rds.amazonaws.com
+    port: 5432
+    username: datadog
+    dbm: true
+    aws:
+      instance_endpoint: example-endpoint.us-east-2.rds.amazonaws.com
+      region: us-east-2
+      managed_authentication:
+        enabled: true
+        role_arn: arn:aws:iam::<YOUR_AWS_ACCOUNT_FOR_DB>:role/<YOUR_IAM_AUTH_DB_ROLE>
+```
+
 
 ## Configurar la autenticación de identidad gestionada de Microsoft Entra ID
 
 
-Azure permite a los usuarios configurar la autenticación de identidad gestionada para cualquier recurso que pueda acceder a [Microsoft Entra ID][15], anteriormente Azure Active Directory. Datadog Agent admite tanto la autenticación de identidad gestionada [asignada por el usuario como por el sistema][10] para tus bases de datos en la nube.
+Azure permite a los usuarios configurar la autenticación de identidad gestionada para cualquier recurso que pueda acceder a [Microsoft Entra ID][15], anteriormente Azure Active Directory. El Datadog Agent admite la autenticación de identidad gestionada [asignada por el usuario][10] para tus bases de datos en la nube.
 
 
 ### Conectarse a PostgreSQL
@@ -346,7 +534,7 @@ Para configurar la autenticación a tu instancia de base de datos de Azure SQL o
 
 1. Crea tu [identidad gestionada][11] en el portal de Azure y asígnala a tu máquina virtual de Azure en la que está desplegado el Agent.
 2. Configura un [usuario de administrador de Microsoft Entra ID][16] en tu instancia de SQL Server.
-3. Conéctate a tu instancia de SQL Server como el usuario de administrador de Microsoft Entra ID y ejecuta el siguiente comando:
+3. Conéctate a tu instancia de SQL Server como el usuario de administrador de Microsoft Entra ID y ejecuta el siguiente comando `master`:
 
 
 ```tsql
diff --git a/content/es/ddsql_editor/reference_tables.md b/content/es/ddsql_editor/reference_tables.md
new file mode 100644
index 0000000000000..70d4cde0129ec
--- /dev/null
+++ b/content/es/ddsql_editor/reference_tables.md
@@ -0,0 +1,54 @@
+---
+further_reading:
+- link: /integrations/guide/reference-tables/
+  tag: Documentación
+  text: Añadir metadatos personalizados con tablas de referencia
+title: Tablas de referencia en DDSQL
+---
+
+# Información general
+
+Las tablas de referencia permiten combinar metadatos con información ya existente en Datadog. Estas tablas almacenan conjuntos predefinidos de información que se pueden citar fácilmente en las consultas, lo que reduce la complejidad y mejora el rendimiento de las consultas. Con DDSQL puedes consultar y unir tablas de referencia con otras tablas para ampliar tu información de análisis.
+
+Para obtener más información sobre cómo añadir tablas de referencia, consulta la [documentación Tablas de referencia][1].
+
+## Consultar tablas de referencia
+
+Puedes consultar tablas de referencia directamente utilizando el Editor DDSQL. El objetivo de esta guía es mostrarte cómo puedes liberar todo el potencial de las tablas de referencia en tus consultas de datos.
+
+### Ejemplo de sintaxis de consulta
+
+Para consultar una tabla de referencia, puedes utilizar la siguiente sintaxis. Supongamos que la tabla de referencia se llama "test":
+
+```sql
+SELECT * FROM reference_tables.test
+```
+
+Esta consulta recupera todos los datos de la tabla de referencia especificada. Modifica la consulta para incluir columnas o condiciones específicas, según sea necesario.
+
+### Unir datos
+
+Además de consultar tablas de referencia, también puedes unirlas a otras tablas disponibles. Al unir tablas de referencia, puedes:
+
+- Combinar datos de referencia con datos en tiempo real para mejorar tus informes y dashboards.
+- Integrar datos estáticos y dinámicos para obtener análisis exhaustivos.
+
+El siguiente es un ejemplo de unión de una tabla de referencia con otra tabla:
+
+```sql
+SELECT a.table_name, b.table.version
+FROM reference_tables.test a
+  JOIN other_table b ON a.key = b.key
+ORDER BY b.table_version DESC;
+```
+
+## Prácticas recomendadas
+
+Actualiza periódicamente las tablas de referencia para garantizar la exactitud de los datos.
+
+## Referencias adicionales
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+
+[1]: /es/integrations/guide/reference-tables/
\ No newline at end of file
diff --git a/content/es/dora_metrics/setup/failures.md b/content/es/dora_metrics/setup/failures.md
new file mode 100644
index 0000000000000..da4ec617e12be
--- /dev/null
+++ b/content/es/dora_metrics/setup/failures.md
@@ -0,0 +1,204 @@
+---
+aliases:
+- /es/continuous_integration/dora_metrics/setup/incidents
+- /es/dora_metrics/setup/incidents
+- /es/dora_metrics/failures/incident_api
+- /es/dora_metrics/failures/pagerduty
+- /es/dora_metrics/failures/
+description: Aprende a enviar eventos de incidentes para métricas de DORA.
+further_reading:
+- link: /continuous_integration/dora_metrics/setup/deployments
+  tag: Documentación
+  text: Más información sobre la configuración de datos de despliegues en métricas
+    de DORA
+- link: /tracing/software_catalog
+  tag: Documentación
+  text: Más información sobre el Catálogo de software
+- link: https://github.com/DataDog/datadog-ci
+  tag: Código fuente
+  text: Más información sobre la herramienta CLI datadog-ci
+- link: /continuous_delivery/deployments
+  tag: Documentación
+  text: Más información sobre la visibilidad de despliegues
+- link: https://app.datadoghq.com/release-notes?category=Software%20Delivery
+  tag: Notas de versiones
+  text: Comprueba las últimas versiones de Software Delivery (Es necesario iniciar
+    sesión en la aplicación)
+is_beta: true
+title: Configurar datos de incidentes para métricas de DORA
+---
+
+{{< site-region region="gov" >}}
+<div class="alert alert-warning">Las métricas de DORA no están disponibles en el sitio seleccionado ({{< region-param key="dd_site_name" >}}) en este momento.</div>
+{{< /site-region >}}
+
+<div class="alert alert-warning">Las métricas de DORA están en vista previa.</div>
+
+## Información general
+
+Los eventos de despliegues fallidos, actualmente interpretados mediante eventos de incidentes, se utilizan para calcular el [porcentaje de despliegues fallidos](#calculating-change-failure-rate) y el [tiempo medio de recuperación (MTTR)](#calculating-mean-time-to-restore). 
+
+## Selección y configuración de una fuente de datos de incidentes
+
+{{< tabs >}}
+{{% tab "PagerDuty" %}}
+[PagerDuty][104] es una plataforma de gestión de incidentes que dota a los equipos de TI de una visibilidad inmediata de los incidentes, permitiendo respuestas proactivas y eficaces para mantener la estabilidad operativa y la resiliencia.
+
+Para integrar tu cuenta de PagerDuty con métricas de DORA: 
+
+1. Ve a **Integrations > Developer Tools** (Integraciones > Herramientas de desarrollo) en PagerDuty y haz clic en **Generic Webhooks (v3)** (Webhooks genéricos (v3)). 
+
+1. Haz clic en **+ New Webhook** (+ Nuevo webhook) e introduce los siguientes datos:
+
+     <table>
+      <thead>
+        <tr>
+          <th>Variable</th>
+          <th>Description</th>
+        </tr>
+      </thead>
+      <tbody>
+        <tr>
+          <td>Webhook URL</td>
+          <td>Add <code>https://webhook-intake.{{< region-param key="dd_site" >}}/api/v2/webhook/</code>.</td>
+        </tr>
+        <tr>
+          <td>Scope Type</td>
+          <td>Select <strong>Account</strong> to send incidents for all PagerDuty services in your account. Alternatively, you can send incidents for specific services or teams by selecting a different scope type.</td>
+        </tr>
+        <tr>
+          <td>Description</td>
+          <td>A description helps distinguish the webhook. Add something like <code>Datadog DORA Metrics integration</code>.</td>
+        </tr>
+        <tr>
+          <td>Event Subscription</td>
+          <td>Select the following events:<br>-<code>incident.acknowledged</code><br>-<code>incident.annotated</code><br>-<code>incident.custom_field_values.updated</code><br>-<code>incident.delegated</code><br>-<code>incident.escalated</code><br>-<code>incident.priority_updated</code><br>-<code>incident.reassigned</code><br>-<code>incident.reopened</code><br>-<code>incident.resolved</code><br>-<code>incident.triggered</code><br>-<code>incident.unacknowledged</code></td>
+        </tr>
+        <tr>
+          <td>Custom Headers</td>
+          <td>Click <strong>Add custom header</strong>, enter <code>DD-API-KEY</code> as the name, and input your <a href="https://docs.datadoghq.com/api/latest/authentication/#api-keys">Datadog API key</a> as the value.<br><br>Optionally, you can add an environment to all of the PagerDuty incidents sent from the webhook by creating an additional custom header with the name <code>dd_env</code> and the desired environment as the value.</td>
+        </tr>
+      </tbody>
+    </table>
+
+1. Para guardar el webhook, haz clic en **Add Webhook** (Añadir webhook).
+
+La gravedad del incidente en el producto métricas de DORA se basa en la [prioridad del incidente][106] en PagerDuty.
+
+**Nota:** Al crear el webhook, se crea un nuevo secreto que se utiliza para firmar todas las cargas útiles del webhook. Este secreto no es necesario para que funcione la integración, ya que la autenticación se realiza mediante la clave de la API.
+
+### Asignación de servicios PagerDuty a servicios Datadog
+
+Cuando se recibe un evento de incidente de un [servicio PagerDuty][101] específico, Datadog intenta recuperar el servicio Datadog y el equipo relacionado desde cualquier [monitor de Datadog][107] que lo active y desde el [Catálogo de software][102].
+
+El algoritmo de concordancia funciona en los siguientes pasos:
+
+1. Si el evento de incidente de PagerDuty [se activó desde un monitor de Datadog][107]:
+   - Si el monitor está en [modo de alerta múltiple][109], las métricas y los eventos de incidentes se emiten con los `env`, `service` y `team` del grupo alertado.
+   - Si el monitor tiene [etiquetas (tags)][110] de `env`, `service` o `team`:
+     - `env`: Si el monitor tiene una etiqueta única `env`, las métricas y los eventos de incidentes se emiten con el entorno.
+     - `service`: Si el monitor tiene una o más etiquetas `service`, las métricas y los eventos de incidentes se emiten con los servicios proporcionados.
+     - `team`: Si el monitor tiene una etiqueta única `team`, las métricas y los eventos de incidentes se emiten con el equipo.
+
+2. Si la URL de servicio del incidente coincide con la URL de servicio de PagerDuty para cualquier servicio del Catálogo de software:
+   - Si un único servicio Datadog coincide, las métricas y los eventos de incidentes se emiten con el servicio y el equipo.
+   - Si varios servicios Datadog coinciden, las métricas y los eventos de incidentes se emiten con el equipo.
+
+   Para obtener más información sobre la configuración de la URL de servicio de PagerDuty para un servicio Datadog, consulta [Uso de integraciones con el Catálogo de software][103].
+
+3. Si el nombre de servicio de PagerDuty del incidente coincide con un nombre de servicio del Catálogo de software, las métricas y los eventos de incidentes se emiten con el servicio y el equipo.
+4. Si el nombre de equipo de PagerDuty del incidente coincide con un nombre de equipo del Catálogo de software, las métricas y los eventos de incidentes se emiten con el equipo.
+5. Si el nombre de servicio de PagerDuty del incidente coincide con un nombre de equipo del Catálogo de software, las métricas y los eventos de incidentes se emiten con el equipo.
+6. Si no hubo coincidencias hasta este momento, las métricas y los eventos de incidentes se emiten con el servicio de PagerDuty y el equipo de PagerDuty proporcionados en el incidente.
+
+[101]: https://support.pagerduty.com/docs/services-and-integrations
+[102]: /es/software_catalog/
+[103]: /es/software_catalog/integrations/#pagerduty-integration
+[104]: /es/integrations/pagerduty/
+[105]: https://app.datadoghq.com/organization-settings/api-keys
+[106]: https://support.pagerduty.com/main/docs/incident-priority
+[107]: /es/integrations/pagerduty/#troubleshooting
+[109]: /es/monitors/configuration/#multi-alert
+[110]: /es/monitors/manage/#monitor-tags
+
+{{% /tab %}}
+{{% tab "API" %}}
+
+Para enviar tus propios eventos de incidentes, utiliza la [API de métricas de DORA][13]. Los eventos de incidentes se utilizan para calcular el porcentaje de despliegues fallidos y el tiempo medio de recuperación.
+
+Incluye el atributo `finished_at` en un evento de incidente para marcar que el incidente está resuelto. Puedes enviar eventos al inicio del incidente y después de la resolución del incidente. Los eventos incidentes coinciden con los atributos `env`, `service` y `started_at`.
+
+Se requieren los siguientes atributos:
+
+- `services` o `team` (al menos uno debe estar presente)
+- `started_at`
+
+Puedes añadir opcionalmente los siguientes atributos a los eventos de incidentes:
+
+- `finished_at` para *incidentes resueltos*. Este atributo es necesario para calcular el tiempo de recuperación del servicio.
+- `id` para identificar incidentes cuando se crean y resuelven. Este atributo es generado por el usuario; si no se proporciona, el endpoint devuelve un UUID generado por Datadog.
+- `name` para describir el incidente.
+- `severity`
+- `env` para filtrar tus métricas de DORA por entorno en la página de [**métricas de DORA**][14].
+- `repository_url`
+- `commit_sha`
+
+Para ver la especificación completa y ejemplos de código adicionales, consulta la [documentación de referencia de la API de métricas de DORA][13].
+
+### Ejemplo (cURL) de API
+
+Para la siguiente configuración, sustituye `<DD_SITE>` por {{< region-param key="dd_site" >}}:
+
+```shell
+curl -X POST "https://api.<DD_SITE>/api/v2/dora/incident" \
+  -H "Accept: application/json" \
+  -H "Content-Type: application/json" \
+  -H "DD-API-KEY: ${DD_API_KEY}" \
+  -d @- << EOF
+  {
+    "data": {
+      "attributes": {
+        "services": ["shopist"],
+        "team": "shopist-devs",
+        "started_at": 1693491974000000000,
+        "finished_at": 1693491984000000000,
+        "git": {
+          "commit_sha": "66adc9350f2cc9b250b69abddab733dd55e1a588",
+          "repository_url": "https://github.com/organization/example-repository"
+        },
+        "env": "prod",
+        "name": "Web server is down failing all requests",
+        "severity": "High"
+      }
+    }
+  }
+EOF
+```
+
+[13]: /es/api/latest/dora-metrics/#send-an-incident-event-for-dora-metrics
+[14]: https://app.datadoghq.com/ci/dora
+
+{{% /tab %}}
+{{< /tabs >}}
+
+## Cálculo del porcentaje de despliegues fallidos
+El porcentaje de despliegues fallidos requiere tanto [datos de despliegue][7] como [datos de incidentes](#selecting-an-incident-data-source).
+
+El porcentaje de despliegues fallidos se calcula como el porcentaje de eventos de incidentes sobre el número total de despliegues. Datadog divide `dora.incidents.count` sobre `dora.deployments.count` para los mismos servicios o equipos asociados tanto a un fallo como a un evento de despliegue. 
+
+## Cálculo del tiempo de recuperación
+El tiempo de recuperación se calcula como la distribución de la duración de eventos de *incidentes resueltos*.
+
+Las métricas de DORA generan la métrica `dora.time_to_restore` registrando las horas de inicio y fin de cada evento de incidente. Calcula el tiempo medio de recuperación (MTTR) como la media de estos puntos de datos `dora.time_to_restore` en un periodo de tiempo seleccionado. 
+
+## Referencias adicionales
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: /es/api/latest/dora-metrics/#send-a-deployment-event-for-dora-metrics
+[2]: https://www.npmjs.com/package/@datadog/datadog-ci
+[3]: /es/tracing/software_catalog
+[4]: /es/tracing/software_catalog/setup
+[5]: /es/tracing/software_catalog/adding_metadata
+[6]: https://git-scm.com/docs/git-log
+[7]: /es/dora_metrics/setup/deployments
\ No newline at end of file
diff --git a/content/es/glossary/terms/pipeline_execution_time.md b/content/es/glossary/terms/pipeline_execution_time.md
new file mode 100644
index 0000000000000..945db82f902eb
--- /dev/null
+++ b/content/es/glossary/terms/pipeline_execution_time.md
@@ -0,0 +1,14 @@
+---
+core_product:
+- ci-cd
+title: tiempo de ejecución del pipeline
+---
+El tiempo de ejecución de un pipeline es la cantidad de tiempo que un pipeline ha estado ejecutando trabajos activamente. El tiempo de ejecución del pipeline representa una traza (trace) del pipeline, que proporciona una visión general del historial de ejecución del pipeline, incluidas las horas de inicio y finalización de cada trabajo y los periodos de inactividad entre trabajos.
+
+{{< img src="continuous_integration/pipeline_execution_time.png" alt="Un diagrama que muestra el tiempo de ejecución de pipeline para un pipeline de CI. El pipeline tarda cinco minutos en ejecutarse, pero el tiempo de ejecución total del pipeline para los trabajos individuales es de un minuto y cuarenta segundos" style="width:100%;" >}}
+
+Por ejemplo, consideremos un pipeline con 3 trabajos: A, B y C. Durante el primer minuto, tanto A como B están en ejecución, por lo que ese minuto cuenta para el tiempo de ejecución. Los siguientes 30 segundos, A se detiene mientras B sigue en marcha, por lo que ese tiempo también cuenta. Después, hay un intervalo hasta que C empieza a ejecutarse, por lo que el tiempo de ejecución no se incrementa durante este periodo, ya que no hay trabajos ejecutándose. Finalmente, C se ejecuta durante 15 segundos. 
+
+El cálculo final del tiempo de ejecución es de $\1m30s + 15s = 1m45s$.
+
+Esta métrica sólo está disponible a nivel de pipeline con el nombre `@ci.execution_time`.
\ No newline at end of file
diff --git a/content/es/integrations/aqua.md b/content/es/integrations/aqua.md
index aa12dc4daee68..da0c9b4e1d1ff 100644
--- a/content/es/integrations/aqua.md
+++ b/content/es/integrations/aqua.md
@@ -34,7 +34,7 @@ draft: false
 git_integration_title: aqua
 integration_id: aqua
 integration_title: Aqua
-integration_version: 1.0.0
+integration_version: 1.0.1
 is_public: true
 manifest_version: 2.0.0
 name: aqua
diff --git a/content/es/integrations/avi_vantage.md b/content/es/integrations/avi_vantage.md
index 59764809bb0dd..df12c9ed95ca8 100644
--- a/content/es/integrations/avi_vantage.md
+++ b/content/es/integrations/avi_vantage.md
@@ -40,7 +40,7 @@ draft: false
 git_integration_title: avi_vantage
 integration_id: avi-vantage
 integration_title: Avi Vantage
-integration_version: 5.1.0
+integration_version: 5.3.0
 is_public: true
 manifest_version: 2.0.0
 name: avi_vantage
diff --git a/content/es/integrations/ceph.md b/content/es/integrations/ceph.md
index 7644554ff9f08..284da975e11ca 100644
--- a/content/es/integrations/ceph.md
+++ b/content/es/integrations/ceph.md
@@ -41,7 +41,7 @@ draft: false
 git_integration_title: ceph
 integration_id: ceph
 integration_title: Ceph
-integration_version: 4.0.0
+integration_version: 4.1.0
 is_public: true
 manifest_version: 2.0.0
 name: ceph
@@ -100,14 +100,14 @@ Para ver todas las opciones de configuración disponibles, consulta el [ceph.d/c
 init_config:
 
 instances:
-  - ceph_cmd: /path/to/your/ceph # la opción predeterminada es /usr/bin/ceph
-    use_sudo: true # solo si el binario ceph necesita sudo en los nodos
+  - ceph_cmd: /path/to/your/ceph # default is /usr/bin/ceph
+    use_sudo: true # only if the ceph binary needs sudo on your nodes
 ```
 
 Si has habilitado `use_sudo`, añade una línea como la siguiente a tu archivo `sudoers`:
 
 ```text
-dd-agent ALL=(ALL) NOPASSWD:/ruta/a/tu/ceph
+dd-agent ALL=(ALL) NOPASSWD:/path/to/your/ceph
 ```
 
 #### Recopilación de logs
diff --git a/content/es/integrations/cert_manager.md b/content/es/integrations/cert_manager.md
index 6895d228cfaf6..78139d030f541 100644
--- a/content/es/integrations/cert_manager.md
+++ b/content/es/integrations/cert_manager.md
@@ -35,7 +35,7 @@ draft: false
 git_integration_title: cert_manager
 integration_id: cert-manager
 integration_title: cert-manager
-integration_version: 5.1.0
+integration_version: 5.3.0
 is_public: true
 manifest_version: 2.0.0
 name: cert_manager
diff --git a/content/es/integrations/guide/mysql-custom-queries.md b/content/es/integrations/guide/mysql-custom-queries.md
new file mode 100644
index 0000000000000..16c5e4080f851
--- /dev/null
+++ b/content/es/integrations/guide/mysql-custom-queries.md
@@ -0,0 +1,69 @@
+---
+aliases:
+- /es/integrations/faq/how-to-collect-metrics-from-custom-mysql-queries
+further_reading:
+- link: /integrations/mysql
+  tag: Documentación
+  text: Integración Datadog MySQL
+title: Consultas personalizadas de MySQL
+---
+
+La integración Datadog MySQL puede recopilar métricas de consultas personalizadas.
+
+## Configuración
+
+Sigue las instrucciones de configuración en el archivo [conf.yaml de MySQL][1]. A continuación se indican otros elementos a tener en cuenta.
+
+### Cualificar tu base de datos
+
+Cuando se añade una consulta personalizada al [conf.yaml de MySQL][1], cada tabla citada debe tener la base de datos cualificada. Esto se hace anteponiendo a la tabla su nombre de base de datos con el siguiente formato:
+
+```sql
+SELECT * FROM database_name.table_name WHERE...
+```
+
+Si omites el nombre de la base de datos, el Agent no podrá ejecutar la consulta con el error: `No database selected`.
+
+### Nombrar tu métrica
+
+Los nombres aplicados a tus métricas de consulta se interpretan tal y como se proporcionan (no hay prefijos). Por ejemplo, tu nombre de métrica podría ser: `myapp.custom_query.test`.
+
+### Frecuencia de recopilación
+
+Por defecto, tus métricas son recopiladas por el check de MySQL cada 15-20 segundos. Para consultar estas métricas con una frecuencia diferente, reduce la frecuencia de todo el check de MySQL (esto afecta a la frecuencia de tus métricas `mysql.*` generales) o ejecuta un script CRON programado personalizado para enviar métricas con la [API][2] o [DogStatsD][3].
+
+### Número de consultas personalizadas
+
+La ejecución de un gran número de consultas personalizadas desde el check de MySQL puede retrasar otros checks del Agent. Si necesitas recopilar métricas de un gran número de consultas personalizadas de MySQL, ejecuta un script CRON programado personalizado para enviar métricas con la [API][2] o [DogStatsD][3].
+
+## Ejemplo
+
+Tienes una base de datos llamada `tester` con la tabla `test_table` que contiene los siguientes datos:
+
+```text
+col_1 | col_2 | col_3
+---------------------
+1     | a     | a
+2     | b     | b
+3     | c     | c
+```
+
+Si añades la siguiente consulta personalizada a tu MySQL `conf.yaml` recopilará la métrica `myapp.custom_query.test.b` con un valor de `2`.
+
+```yaml
+    custom_queries:
+      - query: SELECT col_1 FROM tester.test_table WHERE col_2 = 'b'
+        columns:
+        - name: myapp.custom_query.test.b
+          type: gauge
+        tags:
+        - tester:mysql
+```
+
+## Leer más
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: https://github.com/DataDog/integrations-core/blob/master/mysql/datadog_checks/mysql/data/conf.yaml.example
+[2]: /es/api/
+[3]: /es/metrics/custom_metrics/dogstatsd_metrics_submission/
\ No newline at end of file
diff --git a/content/es/integrations/intercom.md b/content/es/integrations/intercom.md
new file mode 100644
index 0000000000000..69892066210a1
--- /dev/null
+++ b/content/es/integrations/intercom.md
@@ -0,0 +1,167 @@
+---
+app_id: intercom
+app_uuid: cacc2ad1-f88b-4306-af8e-90c76e0478a0
+assets:
+  dashboards:
+    Intercom Activity: assets/dashboards/intercom_activity.json
+    Intercom Conversation: assets/dashboards/intercom_conversation.json
+    Intercom Data Event: assets/dashboards/intercom_data_event.json
+    Intercom News Item: assets/dashboards/intercom_news_item.json
+    Intercom Ticket: assets/dashboards/intercom_ticket.json
+  integration:
+    auto_install: false
+    events:
+      creates_events: false
+    service_checks:
+      metadata_path: assets/service_checks.json
+    source_type_id: 26100804
+    source_type_name: Intercom
+  logs:
+    source: intercom
+  monitors:
+    Large Number of Low Rated Conversations: assets/monitors/large_number_of_low_rated_conversations.json
+author:
+  homepage: https://www.datadoghq.com
+  name: Datadog
+  sales_email: info@datadoghq.com
+  support_email: help@datadoghq.com
+categories:
+- recopilación de logs
+- colaboración
+custom_kind: integración
+dependencies:
+- https://github.com/DataDog/integrations-core/blob/master/intercom/README.md
+display_on_public_website: true
+draft: false
+git_integration_title: intercom
+integration_id: intercom
+integration_title: Intercom
+integration_version: ''
+is_public: true
+manifest_version: 2.0.0
+name: intercom
+public_title: Intercom
+short_description: Obtén información sobre datos de actividades de administración
+  de Intercom, eventos de datos, conversaciones, novedades y tickets.
+supported_os: []
+tile:
+  changelog: CHANGELOG.md
+  classifier_tags:
+  - Category::Log Collection
+  - Category::Collaboration
+  - Submitted Data Type::Logs
+  - Offering::Integration
+  configuration: README.md#Setup
+  description: Obtén información sobre datos de actividades de administración de Intercom,
+    eventos de datos, conversaciones, novedades y tickets.
+  media:
+  - caption: Actividad de Intercom
+    image_url: images/intercom_activity.png
+    media_type: imagen
+  - caption: Evento de datos de Intercom
+    image_url: images/intercom_data_event.png
+    media_type: imagen
+  - caption: Conversación de Intercom
+    image_url: images/intercom_conversation_1.png
+    media_type: imagen
+  - caption: Conversación de Intercom
+    image_url: images/intercom_conversation_2.png
+    media_type: imagen
+  - caption: Novedades de Intercom
+    image_url: images/intercom_news_item.png
+    media_type: imagen
+  - caption: Ticket de Intercom
+    image_url: images/intercom_ticket.png
+    media_type: imagen
+  overview: README.md#Overview
+  support: README.md#Support
+  title: Intercom
+---
+
+<!--  EXTRAÍDO DE https://github.com/DataDog/integrations-core -->
+
+
+## Información general
+
+[Intercom][1] es una plataforma de comunicación con el cliente que permite a las empresas interactuar con sus usuarios a través de mensajes en la aplicación, correo electrónico y chat. Ofrece funciones como chat en directo, mensajería automatizada y herramientas de atención al cliente, lo que facilita a las empresas ofrecer experiencias personalizadas a sus clientes.
+
+La integración Intercom recopila de forma fluida datos de actividades de administración, eventos de datos, conversaciones, novedades y tickets, y los introduce en Datadog para su análisis exhaustivo mediante [webhooks][2].
+
+## Configuración
+
+Sigue las instrucciones siguientes para configurar esta integración para tu cuenta de Intercom.
+
+### Configuración
+
+#### Configuración del webhook
+
+Configura el endpoint Datadog para reenviar eventos de Intercom como logs a Datadog. Para ver más detalles, consulta la [información general del webhook de Intercom][3].
+
+1. Copia la URL generada en la pestaña **Configuración** del [cuadro de la integración Intercom][4] de Datadog.
+2. Inicia sesión en tu cuenta de [Intercom][5] utilizando una cuenta de usuario con acceso completo a Aplicaciones e Integraciones.
+3. Ve a **Configuración**.
+4. En la sección Integraciones, selecciona **Centro para desarrolladores**.
+5. Haz clic en **New app** (Nueva aplicación).
+6. Rellena los datos necesarios para tu solicitud, incluido el nombre y el espacio de trabajo asociado.
+7. Haz clic en **Create app** (Crear aplicación).
+
+- #### Configurar temas de webhooks
+    1. Selecciona los permisos necesarios
+        1. Después de crear la aplicación, ve a la sección *Autenticación* del menú de la izquierda y haz clic en el botón **Edit** (Editar) de la esquina superior derecha.
+        2. Por defecto, todos los permisos están habilitados. Asegúrate de que estén habilitados los siguientes permisos específicos:
+            - Leer administradores
+            - Leer datos de contenido
+            - Leer conversaciones
+            - Leer eventos
+            - Leer tickets
+        3. Haz clic en **Save** (Guardar).
+    2. Seleccionar temas de webhooks
+        1. A continuación, ve a la sección **Webhooks** utilizando el menú de la izquierda.
+        2. Introduce la URL del endpoint que generaste en el paso 1 de [configuración del webhook](#webhook-configuration).
+        3. En el menú desplegable **Seleccionar un tema**, selecciona los siguientes temas de webhook:
+            - admin.activity_log_event.created
+            - content_stat.news_item
+            - conversation.admin.closed
+            - conversation.admin.replied
+            - conversation.admin.single.created
+            - conversation.admin.snoozed
+            - conversation.admin.unsnoozed
+            - conversation.priority.updated
+            - conversation.rating.added
+            - conversation.user.created
+            - event.created
+            - ticket.admin.assigned
+            - ticket.attribute.updated
+            - ticket.created
+            - ticket.state.updated
+            - ticket.team.assigned
+        4. Haz clic en **Save** (Guardar).
+
+## Datos recopilados
+
+### Logs
+
+La integración Intercom recopila y envía logs de actividades de administración, tickets, eventos de datos, noticias y conversaciones a Datadog.
+
+### Métricas
+
+La integración Intercom no incluye métricas.
+
+### Eventos
+
+La integración Intercom no incluye eventos.
+
+### Checks de servicio
+
+La integración Intercom no incluye checks de servicios.
+
+## Asistencia
+
+Para obtener más ayuda, ponte en contacto con el [servicio de asistencia de Datadog][6].
+
+[1]: https://www.intercom.com/
+[2]: https://developers.intercom.com/docs/references/2.10/webhooks/webhook-models
+[3]: https://developers.intercom.com/docs/webhooks
+[4]: https://app.datadoghq.com/integrations/intercom
+[5]: https://app.intercom.com/
+[6]: https://docs.datadoghq.com/es/help/
\ No newline at end of file
diff --git a/content/es/integrations/mimecast.md b/content/es/integrations/mimecast.md
new file mode 100644
index 0000000000000..e4f9d4b16081d
--- /dev/null
+++ b/content/es/integrations/mimecast.md
@@ -0,0 +1,153 @@
+---
+app_id: mimecast
+app_uuid: 537f740f-1612-4ced-bddd-1bc666a56ed3
+assets:
+  dashboards:
+    Mimecast - Audit: assets/dashboards/mimecast_audit.json
+    Mimecast - DLP: assets/dashboards/mimecast_dlp.json
+    Mimecast - Rejection: assets/dashboards/mimecast_rejection.json
+    Mimecast - TTP Attachment: assets/dashboards/mimecast_ttp_attachment.json
+    Mimecast - TTP Impersonation: assets/dashboards/mimecast_ttp_impersonation.json
+    Mimecast - TTP URL: assets/dashboards/mimecast_ttp_url.json
+  integration:
+    auto_install: false
+    events:
+      creates_events: false
+    service_checks:
+      metadata_path: assets/service_checks.json
+    source_type_id: 18241205
+    source_type_name: mimecast
+  logs:
+    source: mimecast
+author:
+  homepage: https://www.datadoghq.com
+  name: Datadog
+  sales_email: info@datadoghq.com
+  support_email: help@datadoghq.com
+categories:
+- recopilación de logs
+- seguridad
+custom_kind: integración
+dependencies:
+- https://github.com/DataDog/integrations-core/blob/master/mimecast/README.md
+display_on_public_website: true
+draft: false
+git_integration_title: mimecast
+integration_id: mimecast
+integration_title: mimecast
+integration_version: ''
+is_public: true
+manifest_version: 2.0.0
+name: mimecast
+public_title: mimecast
+short_description: Obtén información sobre los logs de mimecast
+supported_os: []
+tile:
+  changelog: CHANGELOG.md
+  classifier_tags:
+  - Categoría::Recopilación de logs
+  - Category::Security
+  - Submitted Data Type::Logs
+  - Oferta::Integración
+  configuration: README.md#Setup
+  description: Obtén información sobre los logs de mimecast
+  media:
+  - caption: 'Mimecast: auditoría'
+    image_url: images/mimecast_audit.png
+    media_type: imagen
+  - caption: 'Mimecast: DLP'
+    image_url: images/mimecast_dlp.png
+    media_type: imagen
+  - caption: 'Mimecast: rechazo'
+    image_url: images/mimecast_rejection.png
+    media_type: imagen
+  - caption: 'Mimecast: protección de adjunto de TTP'
+    image_url: images/mimecast_ttp_attachment.png
+    media_type: imagen
+  - caption: 'Mimecast: protección de la suplantación de identidad de TTP'
+    image_url: images/mimecast_ttp_impersonation_protect.png
+    media_type: imagen
+  - caption: 'Mimecast: URL de TTP'
+    image_url: images/mimecast_ttp_url.png
+    media_type: imagen
+  overview: README.md#Overview
+  support: README.md#Support
+  title: mimecast
+---
+
+<!--  SOURCED FROM https://github.com/DataDog/integrations-core -->
+
+
+## Información general
+
+[Mimecast][1] es una solución basada en la nube diseñada para proteger a las organizaciones de una amplia gama de amenazas basadas en el correo electrónico. El producto ofrece un conjunto completo de funciones de seguridad que ayuda a proteger frente a amenazas avanzadas, como el phishing, el malware, el spam y los ataques selectivos, al tiempo que ofrece prevención de fugas de datos y servicios de continuidad del correo electrónico.
+
+Esta integración ingiere los siguientes logs:
+
+- Auditoría: los logs de auditoría te permiten buscar, revisar y exportar logs en relación con el acceso a las cuentas y la configuración de los cambios realizados por los administradores.
+- DLP : la Prevención de pérdida de datos (DLP) es un conjunto de prácticas diseñadas para proteger los datos confidenciales de las empresas, así como para detectar y evitar la pérdida de datos resultante de violaciones y ataques maliciosos.
+- Rechazo: los mensajes rechazados contienen una firma de virus, o están destinados a un destinatario que no existe. En estos casos, Mimecast no acepta ningún dato de correo electrónico y los mensajes rechazados no pueden recuperarse.
+- Protección de adjuntos de TTP: la protección de adjuntos de Targeted Threat Protection (TTP) protege a los clientes de los ataques de spear phishing que utilizan archivos adjuntos de correo electrónico.
+- Protección de suplantación de la identidad de TTP: la protección de suplantación de la identidad de Targeted Threat Protection (TTP) ayuda a prevenir los ataques de suplantación de identidad analizando los correos electrónicos en tiempo real en busca de indicios de un ataque.
+- URL de TTP: la protección de URL de Targeted Threat Protection (TTP) es un servicio de seguridad de correo electrónico que reescribe todos los enlaces entrantes de correo electrónico y escanea el sitio web de destino en tiempo real cuando el usuario hace clic en él.
+
+La integración de Mimecast recopila sin problemas todos los logs mencionados y los canaliza a Datadog para su análisis. Aprovechando el pipeline de logs integrado, estos logs se analizan y enriquecen, lo que permite realizar análisis y buscar sin esfuerzo. La integración proporciona información sobre auditoría, DLP, archivos adjuntos maliciosos en el correo electrónico, correo electrónico enviado por el usuario como una identidad suplantada, enlaces de correo electrónico de phishing y mucho más a través de dashboards.
+
+## Configuración
+
+### Generar credenciales de API en Mimecast
+
+1. Iniciar sesión en tu **cuenta de Mimecast**.
+2. Navega hasta la **Administration Console** (Consola de administración), selecciona **Services** (Servicios) y, a continuación, elige la sección **API and Platform Integrations** (API e integraciones de plataforma).
+3. Pasa a tus **API 2.0 Applications** (Aplicaciones de API 2.0).
+4. Busca tu aplicación en la lista.
+5. Si la aplicación está ausente, significa que aún no se ha configurado, y tendrás que configurarla con los siguientes pasos:
+   - En la página **API and Platform Integrations** (API e integraciones de plataforma), haz clic en la pestaña **Available Integrations** (Integraciones disponibles).
+   - Haz clic en el botón **Genrate keys** (Generar claves) del cuadro de la API de Mimecast API 2.0.
+   - Marca la casilla **I accept** (Acepto), haz clic en **Next** (Siguiente).
+   - En el paso **Application Details** (Detalles de la aplicación), rellena los siguientes datos de acuerdo con las instrucciones:
+     - Nombre de la aplicación: ingresa un nombre significativo para la aplicación
+     - Categoría: selecciona **SIEM Integration** (Integración de SIEM)
+     - Productos: haz clic en la opción **Select all** (Seleccionar todo).
+     - Rol de la aplicación: selecciona **Basic Administrator** (Administrador básico)
+     - Descripción: introduce la descripción que desees
+   - En **Notifications** (Notificaciones), indica los datos de contacto de tu administrador técnico y haz clic en **Next** (Siguiente).
+   - Haz clic en **Add and Generate Keys** (Añadir y generar claves). Aparece una ventana emergente que muestra el ID de cliente y el secreto de cliente.
+6. Si la aplicación está presente, haz clic en su nombre.
+7. Haz clic en el botón **Manage API 2.0 credentials** (Gestionar credenciales de la API 2.0) y haz clic en **Generate** (Generar). Esto genera un nuevo ID de cliente y un nuevo secreto de cliente.
+
+### Conectar tu cuenta de Mimecast a Datadog
+
+1. Añade tus credenciales de Mimecast.
+
+    | Parámetros | Descripción |
+    | ------------------- | ------------------------------------------------------------ |
+    | ID de cliente | El ID de cliente de tu aplicación registrada en Mimecast.     |
+    | Secreto de cliente | El secreto de cliente de tu aplicación registrada en Mimecast. |
+
+2. Haz clic en el botón Save (Guardar) para guardar la configuración.
+
+## Datos recopilados
+
+### Logs
+
+La integración de Mimecast recopila y reenvía los logs de auditoría, DLP, Rechazo, Protección de adjuntos de TTP, Protección de suplantación de identidad de TTP y URL de TTP de Mimecast a Datadog.
+
+### Métricas
+
+La integración de Mimecast no incluye ninguna métrica.
+
+### Checks de servicio
+
+La integración de Mimecast no incluye ningún check de servicio.
+
+### Eventos
+
+La integración de Mimecast no incluye ningún evento.
+
+## Ayuda
+
+¿Necesitas ayuda? Ponte en contacto con el [soporte de Datadog][2].
+
+[1]: https://www.mimecast.com/
+[2]: https://docs.datadoghq.com/es/help/
\ No newline at end of file
diff --git a/content/es/integrations/oci_database.md b/content/es/integrations/oci_database.md
new file mode 100644
index 0000000000000..b6ec5474a668b
--- /dev/null
+++ b/content/es/integrations/oci_database.md
@@ -0,0 +1,196 @@
+---
+app_id: oci-database
+app_uuid: 9091c2d3-1ce1-4b02-bd68-57660acd766a
+assets:
+  dashboards:
+    OCI-Database-Overview: assets/dashboards/oci-database-overview-dashboard.json
+  integration:
+    auto_install: true
+    events:
+      creates_events: false
+    metrics:
+      check:
+      - oci.database.block_changes
+      - oci.database.cpu_utilization
+      - oci.database.current_logons
+      - oci.database.execute_count
+      - oci.database.parse_count
+      - oci.database.storage_allocated
+      - oci.database.storage_allocated_by_tablespace
+      - oci.database.storage_used
+      - oci.database.storage_used_by_tablespace
+      - oci.database.storage_utilization
+      - oci.database.storage_utilization_by_tablespace
+      - oci.database.transaction_count
+      - oci.database.user_calls
+      - oci.database_cluster.asmdiskgroup_utilization
+      - oci.database_cluster.cpu_utilization
+      - oci.database_cluster.filesystem_utilization
+      - oci.database_cluster.load_average
+      - oci.database_cluster.memory_utilization
+      - oci.database_cluster.node_status
+      - oci.database_cluster.ocpus_allocated
+      - oci.database_cluster.swap_utilization
+      - oci.oracle_oci_database.allocated_storage_utilization_by_tablespace
+      - oci.oracle_oci_database.apply_lag
+      - oci.oracle_oci_database.apply_lag_data_refresh_elapsed_time
+      - oci.oracle_oci_database.avg_gc_cr_block_receive_time
+      - oci.oracle_oci_database.backup_duration
+      - oci.oracle_oci_database.backup_size
+      - oci.oracle_oci_database.block_changes
+      - oci.oracle_oci_database.blocking_sessions
+      - oci.oracle_oci_database.cputime
+      - oci.oracle_oci_database.cpu_utilization
+      - oci.oracle_oci_database.current_logons
+      - oci.oracle_oci_database.dbtime
+      - oci.oracle_oci_database.estimated_failover_time
+      - oci.oracle_oci_database.execute_count
+      - oci.oracle_oci_database.fraspace_limit
+      - oci.oracle_oci_database.frautilization
+      - oci.oracle_oci_database.gc_cr_blocks_received
+      - oci.oracle_oci_database.gc_current_blocks_received
+      - oci.oracle_oci_database.iops
+      - oci.oracle_oci_database.io_throughput
+      - oci.oracle_oci_database.interconnect_traffic
+      - oci.oracle_oci_database.invalid_objects
+      - oci.oracle_oci_database.logical_blocks_read
+      - oci.oracle_oci_database.max_tablespace_size
+      - oci.oracle_oci_database.memory_usage
+      - oci.oracle_oci_database.monitoring_status
+      - oci.oracle_oci_database.non_reclaimable_fra
+      - oci.oracle_oci_database.ocpus_allocated
+      - oci.oracle_oci_database.parse_count
+      - oci.oracle_oci_database.parses_by_type
+      - oci.oracle_oci_database.problematic_scheduled_dbmsjobs
+      - oci.oracle_oci_database.process_limit_utilization
+      - oci.oracle_oci_database.processes
+      - oci.oracle_oci_database.reclaimable_fra
+      - oci.oracle_oci_database.reclaimable_fraspace
+      - oci.oracle_oci_database.recovery_window
+      - oci.oracle_oci_database.redo_apply_rate
+      - oci.oracle_oci_database.redo_generation_rate
+      - oci.oracle_oci_database.redo_size
+      - oci.oracle_oci_database.session_limit_utilization
+      - oci.oracle_oci_database.sessions
+      - oci.oracle_oci_database.storage_allocated
+      - oci.oracle_oci_database.storage_allocated_by_tablespace
+      - oci.oracle_oci_database.storage_used
+      - oci.oracle_oci_database.storage_used_by_tablespace
+      - oci.oracle_oci_database.storage_utilization
+      - oci.oracle_oci_database.storage_utilization_by_tablespace
+      - oci.oracle_oci_database.transaction_count
+      - oci.oracle_oci_database.transactions_by_status
+      - oci.oracle_oci_database.transport_lag
+      - oci.oracle_oci_database.transport_lag_data_refresh_elapsed_time
+      - oci.oracle_oci_database.unprotected_data_window
+      - oci.oracle_oci_database.unusable_indexes
+      - oci.oracle_oci_database.usable_fra
+      - oci.oracle_oci_database.used_fraspace
+      - oci.oracle_oci_database.user_calls
+      - oci.oracle_oci_database.wait_time
+      - oci.oracle_oci_database.dbmgmt_job_executions_count
+      metadata_path: metadata.csv
+      prefix: oci.
+    service_checks:
+      metadata_path: assets/service_checks.json
+    source_type_id: 24362850
+    source_type_name: Base de datos OCI
+  monitors:
+    An OCI Database is approaching CPU saturation: assets/monitors/oci-db-cpu.json
+author:
+  homepage: https://www.datadoghq.com
+  name: Datadog
+  sales_email: info@datadoghq.com
+  support_email: help@datadoghq.com
+categories:
+- almacenes de datos
+- nube
+- oracle
+- métricas
+custom_kind: integración
+dependencies: []
+display_on_public_website: true
+draft: false
+git_integration_title: oci_database
+integration_id: oci-database
+integration_title: Base de datos OCI
+integration_version: ''
+is_public: true
+manifest_version: 2.0.0
+name: oci_database
+public_title: Base de datos OCI
+short_description: La base de datos OCI (Base, RAC y Exadata) proporciona soluciones
+  de bases de datos fiables, escalables y seguras para cualquier aplicación.
+supported_os: []
+tile:
+  changelog: CHANGELOG.md
+  classifier_tags:
+  - Categoría::Almacenes de datos
+  - Categoría::Nube
+  - Categoría::Oracle
+  - Categoría::Métricas
+  - Oferta::Integración
+  configuration: README.md#Configuración
+  description: La base de datos OCI (Base, RAC y Exadata) proporciona soluciones de
+    bases de datos fiables, escalables y seguras para cualquier aplicación.
+  media: []
+  overview: README.md#Información general
+  support: README.md#Soporte
+  title: Base de datos OCI
+---
+
+<!--  EXTRAÍDO DE https://github.com/DataDog/integrations-internal-core -->
+
+
+## Información general
+
+Oracle Cloud Infrastructure (OCI) proporciona bases de datos flexibles, de alto rendimiento y seguras para cualquier carga de trabajo.
+
+Esta integración recopila métricas clave para monitorizar y alertar sobre el uso de CPU y de almacenamiento, el número de intentos exitosos y fallidos de inicio de sesión y de conexión a la base de datos, las operaciones de la base de datos, las consultas SQL y las transacciones.
+
+Recopila etiquetas (tags) y métricas de los recursos de [Oracle Base Databases][1] y de [clústeres de máquinas virtuales Exadata][2] de los siguientes espacios de nombres:
+
+- [`oci_database`][3]
+- [`oci_database_cluster`][3]
+
+Si [Oracle Database Management][4] está habilitado, esta integración también recibe métricas de características como la monitorización de flotas y SQL Tuning Advisor a través del espacio de nombres de la [`oracle_oci_database`][3].
+
+La instalación del [Datadog Agent][5] en tus bases de datos Oracle te proporciona información en tiempo real sobre métricas adicionales, como sesiones activas, uso de disco, uso de espacio de tabla, etc.
+
+Activa Datadog [Database Monitoring (DBM)][6] para obtener información mejorada sobre el rendimiento de las consultas y el estado de la base de datos. Además de las funciones estándar de la integración, Datadog DBM proporciona información sobre métricas a nivel de consulta, snapshots de consultas en tiempo real e históricas, análisis de eventos de espera, carga de la base de datos, planes de explicación de consultas y consultas de bloqueo.
+
+## Configuración
+
+### Instalación
+
+Después de configurar la integración [Oracle Cloud Infrastructure][7], asegúrate de que los espacios de nombres `oci_database` y `oci_database_cluster` están incluidos en tu [Connector Hub][8].
+
+## Datos recopilados
+
+### Métricas
+{{< get-metrics-from-git "oci_database" >}}
+
+
+### Eventos
+
+La integración de la base de datos OCI no incluye eventos.
+
+### Checks de servicio
+
+La integración de la base de datos OCI no incluye checks de servicios.
+
+## Resolución de problemas
+
+¿Necesitas ayuda? Ponte en contacto con el [equipo de asistencia de Datadog][10].
+
+
+[1]: https://www.oracle.com/database/base-database-service/
+[2]: https://www.oracle.com/engineered-systems/exadata/database-service/
+[3]: https://docs.oracle.com/en-us/iaas/database-management/doc/oracle-cloud-database-metrics.html
+[4]: https://www.oracle.com/manageability/database-management/
+[5]: https://docs.datadoghq.com/es/integrations/oracle
+[6]: https://docs.datadoghq.com/es/database_monitoring/
+[7]: https://docs.datadoghq.com/es/integrations/oracle_cloud_infrastructure/
+[8]: https://cloud.oracle.com/connector-hub/service-connectors
+[9]: https://github.com/DataDog/integrations-internal-core/blob/main/oci_database/metadata.csv
+[10]: https://docs.datadoghq.com/es/help/
\ No newline at end of file
diff --git a/content/es/integrations/redis_enterprise.md b/content/es/integrations/redis_enterprise.md
new file mode 100644
index 0000000000000..0cdefecacb259
--- /dev/null
+++ b/content/es/integrations/redis_enterprise.md
@@ -0,0 +1,175 @@
+---
+app_id: redis-enterprise
+app_uuid: b569beaa-dbf6-4c40-a640-fab0ea2b9cab
+assets:
+  dashboards:
+    redis-enterprise-database: assets/dashboards/redis_enterprise_database.json
+    redis-enterprise-node: assets/dashboards/redis_enterprise_node.json
+    redis-enterprise-overview: assets/dashboards/redis_enterprise_overview.json
+    redis-enterprise-proxy: assets/dashboards/redis_enterprise_proxy.json
+    redis-enterprise-proxy-threads: assets/dashboards/redis_enterprise_proxy-threads.json
+    redis-enterprise-replication: assets/dashboards/redis_enterprise_active-active.json
+    redis-enterprise-shard: assets/dashboards/redis_enterprise_shard.json
+  integration:
+    auto_install: true
+    configuration:
+      spec: assets/configuration/spec.yaml
+    events:
+      creates_events: false
+    metrics:
+      check: rdse.bdb_conns
+      metadata_path: metadata.csv
+      prefix: rdse
+    service_checks:
+      metadata_path: assets/service_checks.json
+    source_type_id: 7769393
+    source_type_name: Redis Enterprise V2
+  logs: {}
+author:
+  homepage: https://redis.com/redis-enterprise-software/overview
+  name: Redis, Inc.
+  sales_email: press@redis.com
+  support_email: support@redis.com
+categories:
+- ai/ml
+- almacenamiento en caché
+- almacenes de datos
+custom_kind: integración
+dependencies:
+- https://github.com/Datadog/integraciones-extras/blob/master/redis_enterprise/README.md
+display_on_public_website: true
+draft: false
+git_integration_title: redis_enterprise
+integration_id: redis-empresa
+integration_title: Redis Enterprise
+integration_version: 1.1.2
+is_public: true
+manifest_version: 2.0.0
+name: redis_enterprise
+public_title: Redis Enterprise
+short_description: Integración de Redis Enterprise y Datadog
+supported_os:
+- Linux
+- Windows
+- macOS
+tile:
+  changelog: CHANGELOG.md
+  classifier_tags:
+  - Sistema operativo compatible::Linux
+  - Sistema operativo compatible::Windows
+  - Sistema operativo compatible::macOS
+  - Categoría::IA/ML
+  - Categoría::Almacenamiento en caché
+  - Categoría::Almacenes de datos
+  - Oferta::Integración
+  - Tipo de datos enviados::Métricas
+  configuration: README.md#Configuración
+  description: Integración de Redis Enterprise y Datadog
+  media:
+  - caption: gráfico del uso de CPU del nodo
+    image_url: images/datadog-detail-node-cpu.png
+    media_type: imagen
+  - caption: gráfico del uso de memoria del nodo
+    image_url: images/datadog-detail-node-memory.png
+    media_type: imagen
+  overview: README.md#Información general
+  support: README.md#Soporte
+  title: Redis Enterprise
+---
+
+<!--  FUENTE https://github.com/DataDog/integrations-extras -->
+
+
+## Información general
+
+Redis es un almacén de datos rápido y versátil que admite una gran variedad de estructuras de datos, como cadenas, hashes, listas, conjuntos, flujos y mucho más. También ofrece programabilidad, extensibilidad, persistencia, agrupación y alta disponibilidad. La edición comunitaria de Redis añade modelos de datos y funciones adicionales, como búsqueda de vectores, estructuras de datos probabilísticas, compatibilidad con JSON y búsquedas de texto completo.
+
+Esta integración funciona con instalaciones on-premises y de nube privada de [Redis Enterprise][1].
+La integración proporciona métricas para tres componentes de clúster críticos: bases de datos, nodos y particiones. Esto te permite monitorizar el rendimiento de bases de datos, el uso de memoria, el uso de CPU, los recuentos de conexiones, los estados de replicaciones y una variedad de métricas adicionales dentro de Datadog.
+Puedes utilizar esta información para comprender el estado general de tus clústeres Redis Enterprise, diagnosticar problemas de rendimiento de la aplicación y evitar tiempos de inactividad del sistema.
+
+Si quieres ver la lista completa de las métricas compatibles, consulta la sección [Métricas](#metrics) más abajo.
+
+## Configuración
+
+### Instalación
+
+1. Ejecuta el siguiente comando para instalar la integración del Agent:
+   ```shell
+   datadog-agent integration install -t datadog-redis_enterprise==1.1.2
+   ```
+
+2. Configura la integración definiendo el `openmetrics_endpoint` en el nodo principal de tu clúster. Para obtener más información, consulta [Integración][2].
+
+3. [Reinicia][3] el Agent.
+
+
+### Configuración
+
+Configura el `openmetrics_endpoint` para que apunte a tu clúster. Consulta el [ejemplo][4]. Deja `tls_verify` como falso.
+
+Existen dos parámetros opcionales: `extra_metrics` y `excluded_metrics`, como se indica en el archivo de configuración de ejemplo.
+
+El parámetro extra_metrics toma una lista de grupos de métricas. Los grupos disponibles son los siguientes RDSE.REPLICATION, 
+RDSE.LISTENER, RDSE.PROXY, RDSE.BIGSTORE, RDSE.FLASH y RDSE.SHARDREPL. Los grupos de métricas por defecto RDSE.NODE, 
+RDSE.DATABASE y RDSE.SHARD son insertados automáticamente por la integración.
+
+El parámetro exclude_metrics toma una lista de métricas individuales para excluir, lo que significa que esta información no se
+pasará a Datadog. Las métricas individuales deben despojarse de sus prefijos, por ejemplo, 'rdse.bdb_up' se convertiría 
+en 'bdb_up'. La lista completa de métricas está disponible en la pestaña "Datos recopilados" de la página de la integración o a través del enlace que figura en la sección [Métricas](#metrics). 
+Los siguientes grupos adicionales utilizan los prefijos asociados, que pueden utilizarse para buscar métricas individuales en 
+la página de datos recopilados.
+
+| Agrupar            | Prefijo                      | Notas                                                |
+|------------------|-----------------------------|------------------------------------------------------|
+| RDSE.NODE        | rdse.node_                  | Esto también devolverá las métricas bigstore y flash  |
+| RDSE.DATABASE    | rdse.bdb_                   | Esto también devolverá las métricas de replicación         |
+| RDSE.SHARD       | rdse.redis_                 | Esto también devolverá las métricas de replicación de particiones   |
+| RDSE.REPLICATION | rdse.bdb_crdt_              |                                                      |
+| RDSE.REPLICATION | rdse.bdb_replicaof_         |                                                      |
+| RDSE.SHARDREPL   | rdse.redis_crdt_            |                                                      |
+| RDSE.PROXY       | rdse.dmcproxy_              |                                                      |
+| RDSE.LISTENER    | rdse.listener_              |                                                      |
+| RDSE.BIGSTORE    | rdse.node_bigstore_         |                                                      |
+| RDSE.FLASH       | rdse.node_available_flash   | Todas las métricas flash tienen el formato: rdse.node_*_flash |
+
+### Validación
+
+1. Asegúrate de que puedes hacer ping a la máquina, especialmente en un entorno de nube. Ejecuta `wget --no-check-certificate <endpoint>`
+o `curl -k <endpoint>` para garantizar que puedas recibir métricas.
+
+2. Comprueba el [estado][5] del Datadog Agent.
+
+
+## Datos recopilados
+
+La versión actual reúne todas las métricas para bases de datos, nodos y particiones. Opcionalmente, a través del parámetro extra_metrics 
+se pueden recopilar datos de replicación, proxy, listener, etc. Consulta la lista en la sección [Configuración](#configuration).
+
+
+### Métricas
+{{< get-metrics-from-git "redis_enterprise" >}}
+
+
+
+### Checks de servicio
+
+Redis Enterprise no incluye checks de servicios.
+
+
+### Eventos
+
+Redis Enterprise no incluye eventos.
+
+
+## Solucionar problemas
+
+¿Necesitas ayuda? Ponte en contacto con el [soporte de Artie][2].
+
+[1]: https://redis.com/redis-enterprise-software/overview/
+[2]: https://docs.datadoghq.com/es/getting_started/integrations/
+[3]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#start-stop-and-restart-the-agent
+[4]: https://github.com/DataDog/integrations-extras/blob/master/redis_enterprise/datadog_checks/redis_enterprise/data/conf.yaml.example
+[5]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#agent-status-and-information
+[6]: https://github.com/DataDog/integrations-extras/blob/master/redis_enterprise/metadata.csv
+[7]: https://redis.io/support/
\ No newline at end of file
diff --git a/content/es/integrations/sonicwall_firewall.md b/content/es/integrations/sonicwall_firewall.md
new file mode 100644
index 0000000000000..b52bd8e951721
--- /dev/null
+++ b/content/es/integrations/sonicwall_firewall.md
@@ -0,0 +1,232 @@
+---
+app_id: sonicwall-firewall
+app_uuid: f29dd27d-2c3b-46f0-a872-7e0d861aff54
+assets:
+  dashboards:
+    Sonicwall Firewall - Anti Spam: assets/dashboards/sonicwall_firewall_anti_spam.json
+    Sonicwall Firewall - Network: assets/dashboards/sonicwall_firewall_network.json
+    Sonicwall Firewall - Overview: assets/dashboards/sonicwall_firewall_overview.json
+    Sonicwall Firewall - Security Services: assets/dashboards/sonicwall_firewall_security_services.json
+    Sonicwall Firewall - User: assets/dashboards/sonicwall_firewall_user.json
+    Sonicwall Firewall - VPN: assets/dashboards/sonicwall_firewall_vpn.json
+    Sonicwall Firewall and Firewall Settings: assets/dashboards/sonicwall_firewall_and_firewall_settings.json
+  integration:
+    auto_install: true
+    configuration:
+      spec: assets/configuration/spec.yaml
+    events:
+      creates_events: false
+    service_checks:
+      metadata_path: assets/service_checks.json
+    source_type_id: 27315184
+    source_type_name: Cortafuegos Sonicwall
+  logs:
+    source: sonicwall-firewall
+author:
+  homepage: https://www.datadoghq.com
+  name: Datadog
+  sales_email: info@datadoghq.com
+  support_email: help@datadoghq.com
+categories:
+- recopilación de logs
+- seguridad
+custom_kind: integración
+dependencies:
+- https://github.com/DataDog/integrations-core/blob/master/sonicwall_firewall/README.md
+display_on_public_website: true
+draft: false
+git_integration_title: sonicwall_firewall
+integration_id: sonicwall-firewall
+integration_title: Cortafuegos Sonicwall
+integration_version: 1.0.0
+is_public: true
+manifest_version: 2.0.0
+name: sonicwall_firewall
+public_title: Cortafuegos Sonicwall
+short_description: Obtén información sobre logs de cortafuegos Sonicwall.
+supported_os:
+- Linux
+- Windows
+- macOS
+tile:
+  changelog: CHANGELOG.md
+  classifier_tags:
+  - Sistema operativo compatible::Linux
+  - Sistema operativo compatible::Windows
+  - Sistema operativo compatible::macOS
+  - Categoría::Recopilación de logs
+  - Categoría::Seguridad
+  - Oferta::Integración
+  - Tipo de datos enviados::Logs
+  configuration: README.md#Configuración
+  description: Obtén información sobre logs de cortafuegos Sonicwall.
+  media:
+  - caption: Cortafuegos Sonicwall - Información general
+    image_url: images/sonicwall_firewall_overview.png
+    media_type: imagen
+  - caption: Cortafuegos Sonicwall - Red
+    image_url: images/sonicwall_firewall_network.png
+    media_type: imagen
+  - caption: Cortafuegos Sonicwall - Servicios de seguridad
+    image_url: images/sonicwall_firewall_security_services.png
+    media_type: imagen
+  - caption: Cortafuegos Sonicwall - Usuario
+    image_url: images/sonicwall_firewall_user.png
+    media_type: imagen
+  - caption: Cortafuegos Sonicwall - VPN
+    image_url: images/sonicwall_firewall_vpn.png
+    media_type: imagen
+  - caption: Cortafuegos Sonicwall - Antispam
+    image_url: images/sonicwall_firewall_anti_spam.png
+    media_type: imagen
+  - caption: Cortafuegos Sonicwall - Cortafuegos y configuración de cortafuegos
+    image_url: images/sonicwall_firewall_and_firewall_settings.png
+    media_type: imagen
+  overview: README.md#Información general
+  support: README.md#Soporte
+  title: Cortafuegos Sonicwall
+---
+
+<!--  EXTRAÍDO DE https://github.com/DataDog/integrations-core -->
+## Información general
+
+El [cortafuegos SonicWall][1] es una solución de seguridad de red diseñada para proteger a las organizaciones de una amplia gama de ciberamenazas. Ofrece funciones de seguridad avanzadas, alto rendimiento y escalabilidad, lo que la hace adecuada para empresas de todos los tamaños. El cortafuegos SonicWall es conocido por su capacidad para proporcionar protección en tiempo real contra las amenazas emergentes, al tiempo que garantiza una gestión segura y eficiente del tráfico de red.
+
+Esta integración ofrece el enriquecimiento y una visualización de todos los tipos de logs compartidos por el cortafuegos SonicWall a través de Syslog. La información detallada de los logs recibida por Syslog se visualiza en dashboards y reglas de detección predefinidos.
+
+
+## Configuración
+
+### Instalación
+
+Para instalar la integración del cortafuegos SonicWall, ejecuta el siguiente comando de Linux para instalar el Agent. 
+
+**Nota**: Este paso no es necesario para la versión 7.58.0 o posterior del Agent.
+
+  ```shell
+  sudo -u dd-agent -- datadog-agent integration install datadog-sonicwall-firewall==1.0.0
+  ```
+
+Para obtener más información, consulta la documentación [Gestión de integraciones][2].
+
+### Configuración
+
+#### Recopilación de logs
+
+1.  La recopilación de logs está desactivada por defecto en el Datadog Agent. Actívala en el archivo `datadog.yaml`:
+    ```yaml
+    logs_enabled: true
+    ```
+
+2. Añade este bloque de configuración a tu archivo `sonicwall_firewall.d/conf.yaml` para empezar a recopilar tus logs del cortafuegos SonicWall.
+
+    ```yaml
+    logs:
+      - type: udp
+        port: <udp_port>
+        source: sonicwall-firewall
+    ```
+
+    Para conocer todas las opciones de configuración disponibles, consulta el [sonicwall_firewall.d/conf.yaml de ejemplo][3].
+
+    **NOTA**: Configura un [servidor Syslog][4] en un cortafuegos SonicWall con `<udp_port>`.
+
+    Configura un servidor Syslog en tu cortafuegos utilizando las siguientes opciones:
+
+    - **Nombre o dirección IP**: La dirección del Datadog Agent que ejecuta esta integración.
+    - **Puerto**: El puerto Syslog (UDP) configurado en esta integración.
+    - **Tipo de servidor**: Servidor Syslog.
+    - **Formato Syslog**: Syslog mejorado.
+    - **ID de Syslog**: Cambia este (cortafuegos) predeterminado si necesitas diferenciar varios cortafuegos.
+
+    Establece la hora por defecto como UTC:
+
+    - En **Device** > **Log** > **Syslog** (Dispositivo > Log > Syslog), selecciona la pestaña **Configuración de Syslog** y habilita **Mostrar marca de tiempo de Syslog en UTC**. Haz clic en **Accept** (Aceptar) para establecer la hora en UTC.
+
+    Configuración adicional:
+
+    - En **Device** > **Log** > **Settings** (Dispositivo > Log > Configuración), puedes seleccionar el **Nivel de generación de logs** y el **Nivel de alerta** para obtener diferentes tipos de logs.
+
+3. [Reinicia el Agent][5].
+
+#### Especificar una zona horaria distinta de UTC en el cortafuegos SonicWall y en el pipeline de logs de Datadog
+Datadog espera que todos los logs estén en la zona horaria UTC de forma predeterminada. Si la zona horaria de los logs de tu cortafuegos SonicWall no está en UTC, especifica la zona horaria correcta en el pipeline Datadog del cortafuegos SonicWall.
+
+Para cambiar la zona horaria del pipeline del cortafuegos SonicWall:
+
+1. Ve a la página [**Pipelines**][6] de la aplicación Datadog.
+
+2. Introduce `SonicWall Firewall` en el cuadro de búsqueda **Filtrar pipelines**.
+
+3. Pasa el puntero del ratón sobre el pipeline del cortafuegos SonicWall y haz clic en **clone** (clonar). De este modo se crea un clon editable del pipeline del cortafuegos SonicWall.
+
+4. Edita el analizador Grok siguiendo los siguientes pasos:
+
+   - En el pipeline clonado, busca el procesador con el nombre **Analizador Grok: tiempo de análisis del cortafuegos Sonicwall**. Pasa el puntero del ratón sobre los pipelines y haz clic en **Edit** (Editar).
+   - En **Definir reglas de análisis**:
+      - Modifica la regla y proporciona el [identificador TZ][7] de la zona horaria del servidor de tu cortafuegos SonicWall. Por ejemplo, si tu zona horaria es IST, sustituye `' z'` por `Asia/Calcutta`.
+      - Por ejemplo, si esta es la regla existente:
+
+          ```shell
+          rule %{date("yyyy-MM-dd HH:mm:ss z"):timestamp}
+          ```
+
+        La regla modificada para la zona horaria IST es:
+
+          ```shell
+          rule %{date("yyyy-MM-dd HH:mm:ss", "Asia/Calcutta"):timestamp}
+          ```
+
+      - Para actualizar la muestra de logs existente, en **muestras de logs**:
+        - Elimina UTC del valor existente.
+        - Por ejemplo, si el valor existente es:
+
+              ```shell
+              2024-09-11 06:30:00 UTC
+              ```
+
+              The updated value is:
+              ```shell
+              2024-09-11 06:30:00
+              ```
+
+    - Haz clic en **Update** (Actualizar).
+
+### Validación
+
+[Ejecuta el subcomando de estado del Agent][8] y busca`sonicwall_firewall` en la sección **Checks**.
+
+## Datos recopilados
+
+### Logs
+
+|         Formato          | Tipos de logs    |
+| --------------------    | -------------- |
+| CEF (Syslog mejorado)   | Todos          |
+
+### Métricas
+
+La integración del cortafuegos SonicWall no incluye métricas.
+
+### Eventos
+
+La integración del cortafuegos SonicWall no incluye eventos.
+
+### Checks de servicios
+{{< get-service-checks-from-git "sonicwall_firewall" >}}
+
+
+## Solucionar problemas
+
+¿Necesitas ayuda? Ponte en contacto con el [equipo de asistencia de Datadog][10].
+
+[1]: https://www.sonicwall.com/
+[2]: https://docs.datadoghq.com/es/agent/guide/integration-management/?tab=linux#install
+[3]: https://github.com/DataDog/integrations-core/blob/master/sonicwall_firewall/datadog_checks/sonicwall_firewall/data/conf.yaml.example
+[4]: https://www.sonicwall.com/support/knowledge-base/how-can-i-configure-a-syslog-server-on-a-sonicwall-firewall/170505984096810
+[5]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#start-stop-and-restart-the-agent
+[6]: https://app.datadoghq.com/logs/pipelines
+[7]: https://en.wikipedia.org/wiki/List_of_tz_database_time_zones
+[8]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#agent-status-and-information
+[9]: https://github.com/DataDog/integrations-core/blob/master/sonicwall_firewall/assets/service_checks.json
+[10]: https://docs.datadoghq.com/es/help/
\ No newline at end of file
diff --git a/content/es/integrations/zeek.md b/content/es/integrations/zeek.md
new file mode 100644
index 0000000000000..8bde2d2a55d4a
--- /dev/null
+++ b/content/es/integrations/zeek.md
@@ -0,0 +1,301 @@
+---
+app_id: zeek
+app_uuid: 81ba5f4a-0e85-48c3-9ba3-2e5ea37b1ed2
+assets:
+  dashboards:
+    Corelight Suricata: assets/dashboards/corelight_suricata.json
+    Zeek - Connections: assets/dashboards/zeek_connections.json
+    Zeek - DHCP: assets/dashboards/zeek_dhcp.json
+    Zeek - DNS: assets/dashboards/zeek_dns.json
+    Zeek - Datared: assets/dashboards/zeek_datared.json
+    Zeek - Detection: assets/dashboards/zeek_detection.json
+    Zeek - Diagnostics: assets/dashboards/zeek_diagnostics.json
+    Zeek - Files: assets/dashboards/zeek_files.json
+    Zeek - Miscellaneous: assets/dashboards/zeek_miscellaneous.json
+    Zeek - Network Observations: assets/dashboards/zeek_network_observations.json
+    Zeek - Network Protocols: assets/dashboards/zeek_network_protocols.json
+    Zeek - Network Protocols (NTP, SNMP, SSL): assets/dashboards/zeek_network_protocols_ntp_snmp_ssl.json
+    Zeek - Syslog: assets/dashboards/zeek_syslog.json
+  integration:
+    auto_install: true
+    configuration:
+      spec: assets/configuration/spec.yaml
+    events:
+      creates_events: false
+    service_checks:
+      metadata_path: assets/service_checks.json
+    source_type_id: 6777560
+    source_type_name: zeek
+author:
+  homepage: https://www.datadoghq.com
+  name: Datadog
+  sales_email: info@datadoghq.com
+  support_email: help@datadoghq.com
+categories:
+- recopilación de logs
+- seguridad
+- la red
+custom_kind: integración
+dependencies:
+- https://github.com/DataDog/integrations-core/blob/master/zeek/README.md
+display_on_public_website: true
+draft: false
+git_integration_title: zeek
+integration_id: zeek
+integration_title: Zeek
+integration_version: 1.0.0
+is_public: true
+manifest_version: 2.0.0
+name: zeek
+public_title: Zeek
+short_description: Obtén información sobre los logs de Zeek. Conéctate a Cloud SIEM
+supported_os:
+- linux
+- macos
+tile:
+  changelog: CHANGELOG.md
+  classifier_tags:
+  - Supported OS::Linux
+  - Supported OS::macOS
+  - Category::Log Collection
+  - Category::Security
+  - Category::Network
+  - Offering::Integration
+  - Submitted Data Type::Logs
+  configuration: README.md#Setup
+  description: Obtén información sobre los logs de Zeek. Conéctate a Cloud SIEM
+  media:
+  - caption: 'Zeek: conexiones'
+    image_url: images/zeek_connections.png
+    media_type: imagen
+  - caption: 'Zeek: DHCP'
+    image_url: images/zeek_dhcp.png
+    media_type: imagen
+  - caption: 'Zeek: DNS'
+    image_url: images/zeek_dns.png
+    media_type: imagen
+  - caption: 'Zeek: protocolos de red'
+    image_url: images/zeek_network_protocols.png
+    media_type: imagen
+  - caption: 'Zeek: detección'
+    image_url: images/zeek_detection.png
+    media_type: imagen
+  - caption: 'Zeek: diagnóstico'
+    image_url: images/zeek_diagnostics.png
+    media_type: imagen
+  - caption: 'Zeek: archivos'
+    image_url: images/zeek_files.png
+    media_type: imagen
+  - caption: 'Zeek: observaciones de red'
+    image_url: images/zeek_network_observations.png
+    media_type: imagen
+  overview: README.md#Overview
+  support: README.md#Support
+  title: Zeek
+---
+
+<!--  EXTRAÍDO DE https://github.com/DataDog/integrations-core -->
+## Información general
+
+[Zeek][1] es una plataforma de monitorización de la seguridad de red. Interpreta lo que ve y crea logs de transacciones y contenido de archivos compactos y de alta fidelidad. Puede crear resultados totalmente personalizados, adecuados para su revisión manual en disco o en una herramienta más fácil de utilizar por los analistas, como un sistema de gestión de la seguridad y la información de eventos (SIEM).
+
+Esta integración ingiere los siguientes logs:
+- Logs de conexión
+- Logs de DNS y DHCP
+- Protocolos de red
+- Archivos
+- Detecciones
+- Miscelánea de tipos de eventos
+
+Visualiza información detallada sobre las conexiones de red, la actividad DNS y DHCP, el análisis detallado de protocolos de red, el análisis de archivos y certificados, la detección y observación de la seguridad y la monitorización del cumplimiento de normativas a través de los dashboards predefinidos.
+
+## Configuración
+
+### Instalación
+
+Para instalar la integración de Zeek, ejecuta el siguiente comando de instalación del Agent y los pasos que se indican a continuación. Para obtener más información, consulta la documentación de [Gestión de la integración][2].
+
+**Nota**: Este paso no es necesario para el Agent versión >= 7.52.0.
+
+Comando de Linux
+  ```shell
+  sudo -u dd-agent -- datadog-agent integration install datadog-zeek==1.0.0
+  ```
+
+#### Zeek de código abierto
+1. [Instala el Agent][3] en tu máquina de Zeek.
+2. Instala el [complemento de Corelight Zeek][4] para el registro de JSON.
+    ```
+    /opt/zeek/bin/zkg install corelight/json-streaming-logs
+    ```
+3. Carga paquetes ZKG.
+    ```
+    echo -e "\n# Load ZKG packages\n@load packages" >> /opt/zeek/share/zeek/site/local.zeek
+    ```
+4. Reinicia Zeek.
+    ```
+    /opt/zeek/bin/zeekctl install
+    ```
+    ```
+    /opt/zeek/bin/zeekctl restart
+    ```
+
+#### Corelight Zeek
+* Debes tener instalado y funcionando el [Datadog Agent][3].
+
+### Configuración
+
+#### Zeek de código abierto
+1. La recopilación de logs está desactivada por defecto en el Datadog Agent. Actívala en `datadog.yaml`:
+    ```yaml
+    logs_enabled: true
+    ```
+
+2. Añade este bloque de configuración a tu archivo `zeek.d/conf.yaml` para empezar a recopilar tus logs de Zeek.
+
+    Consulta el [zeek.d/conf.yaml de ejemplo][5] para conocer las opciones disponibles de configuración.
+
+   ```yaml
+    logs:
+    - type: file
+      path: /opt/zeek/logs/current/*.log
+      exclude_paths:
+        - /opt/zeek/logs/current/*.*.log
+      service: zeek
+      source: zeek
+   ```
+
+    **Nota**: Incluye las rutas de los archivos de log en el parámetro `exclude_paths` para evitar la ingesta de archivos de log no compatibles o no deseados durante el proceso de monitorización.
+
+
+   ```yaml
+    # Example of excluded paths
+    exclude_paths:
+      - /opt/zeek/logs/current/ntlm.log
+      - /opt/zeek/logs/current/radius.log
+      - /opt/zeek/logs/current/rfb.log
+   ```
+
+3. [Reinicia el Agent][6].
+
+#### Corelight Zeek
+1. La recopilación de logs está desactivada por defecto en el Datadog Agent. Actívala en datadog.yaml:
+    ```yaml
+    logs_enabled: true
+    ```
+
+2. Añade este bloque de configuración a tu archivo `zeek.d/conf.yaml` para empezar a recopilar tus logs.
+    ```yaml
+    logs:
+    - type: tcp
+      port: <PORT>
+      service: corelight
+      source: zeek
+    ```
+
+3. [Reinicia el Agent][6].
+
+4. Configuración del reenvío de mensajes de Syslog desde corelight
+    1. Abre un navegador web y navega hasta la dirección IP o el nombre de host de tu sensor de Corelight.
+    2. Inicia sesión con tus credenciales administrativas.
+    3. Navega hasta la página de configuración de Zeek. La ruta exacta puede variar dependiendo de la versión de firmware de tu sensor.
+    4. Busca opciones relacionadas con "Zeek" o "Registro". Las rutas comunes incluyen:
+      - Configuración > Registro
+      - Configuración > Zeek > Registro
+    5. Localiza la opción para habilitar la salida de syslog para logs de Zeek y selecciona la casilla de verificación o el conmutador para activarla.
+    6. Especifica los detalles del servidor de Syslog. Proporciona la siguiente información:
+       - **Dirección IP del servidor de syslog**: el destino al que deseas enviar los logs de Zeek.
+       - **Puerto de syslog**: el puerto en el que escucha el servidor de syslog (normalmente 514).
+       - **Instalación**: la instalación de syslog a utilizar.
+       - **Nivel de gravedad**: la gravedad mínima de eventos a enviar.
+    7. Pulsa el botón **Save** (Guardar) o **Apply** (Aplicar) para confirmar los cambios en la configuración.
+
+
+### Validación
+
+[Ejecuta el subcomando de estado de Agent[7] y busca `zeek` en la sección de checks.
+
+## Datos recopilados
+
+### Logs
+
+La integración de Zeek recopila los siguientes tipos de logs.
+
+| Formato     | Tipos de eventos    |
+| ---------  | -------------- |
+| Zeek de código abierto: formato JSON | conn, dhcp, dns, ftp, http, ntp, rdp, smtp, snmp, socks, ssh, ssl, syslog, tunnel, files, pe, intel, notice, signatures, traceroute, known-certs, known-modbus, known-services, known-hosts, software, x509, dpd, weird, captureloss, reporter, ldap, ldap-search, smb-files, smb-mappings |
+| Corelight Zeek: formato Syslog RFC 3164 (legacy) | conn, dhcp, dns, ftp, http, ntp, rdp, smtp, snmp, socks, ssh, ssl, syslog, tunnel, files, pe, intel, notice, signatures, traceroute, known-certs, known-modbus, known-services, known-hosts, software, x509, dpd, weird, captureloss, reporter, ldap, ldap-search, smb-files, smb-mappings, conn-long, conn-red, encrypted-dns, generic-dns-tunnels, smtp-links, suricata-corelight |
+
+### Métricas
+
+La integración de Zeek no incluye ninguna métrica.
+
+### Eventos
+
+La integración de Zeek no incluye ningún evento.
+
+### Checks de servicio
+
+La integración de Zeek no incluye ningún check de servicio.
+
+## Solucionar problemas
+
+### Zeek de código abierto:
+
+Si ves un error de **Permission denied** (Permiso denegado) durante la monitorización de los archivos de log, debes dar al usuario el permiso de lectura `dd-agent` sobre ellos.
+
+  ```shell
+  sudo chown -R dd-agent:dd-agent /opt/zeek/current/
+  ```
+
+### Corelight Zeek:
+
+**Permiso denegado mientras se vincula el puerto:**
+
+Si ves un error de **Permission denied** (Permiso denegado) mientras vinculas puertos en logs del Agent, consulta las siguientes instrucciones:
+
+1. La vinculación a un número de puerto inferior a 1024 requiere permisos elevados. Concede acceso al puerto mediante el comando `setcap`:
+    ```shell
+    sudo setcap CAP_NET_BIND_SERVICE=+ep /opt/datadog-agent/bin/agent/agent
+    ```
+
+2. Comprueba que la configuración es correcta ejecutando el comando `getcap`:
+
+    ```shell
+    sudo getcap /opt/datadog-agent/bin/agent/agent
+    ```
+
+    Con el resultado esperado:
+
+    ```shell
+    /opt/datadog-agent/bin/agent/agent = cap_net_bind_service+ep
+    ```
+
+    **Nota**: Vuelve a ejecutar este comando `setcap` cada vez que actualices el Agent.
+
+3. [Reinicia el Agent][6].
+
+**No se están recopilando datos:**
+
+Asegúrate de que se evita el tráfico del puerto configurado si el cortafuegos está activado.
+
+**Puerto ya en uso:**
+
+Si aparece el error **Port <PORT-NO\> Already in Use**, consulte las siguientes instrucciones. El ejemplo siguiente es para PORT-NO = 514:
+
+En los sistemas que utilizan Syslog, si el Agent escucha logs de Zeek en el puerto 514, puede aparecer el siguiente error en los logs del Agent: `Can't start UDP forwarder on port 514: listen udp :514: bind: address already in use`.
+
+Este error se produce porque, por defecto, Syslog escucha en el puerto 514. Para resolver este error, sigue **uno** de los pasos siguientes:
+- Desactivar Syslog
+- Configurar el Agent para escuchar en un puerto diferente, disponible
+
+Si necesitas más ayuda, ponte en contacto con el [soporte de Datadog][8].
+
+[1]: https://zeek.org/
+[2]: https://docs.datadoghq.com/es/agent/guide/integration-management/?tab=linux#install
+[3]: https://docs.datadoghq.com/es/agent/
+[4]: https://github.com/corelight/json-streaming-logs
+[5]: https://github.com/DataDog/integrations-core/blob/master/cisco_secure_firewall/datadog_checks/cisco_secure_firewall/data/conf.yaml.example
+[6]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#start-stop-and-restart-the-agent
+[7]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#agent-status-and-information
+[8]: https://docs.datadoghq.com/es/help/
\ No newline at end of file
diff --git a/content/es/llm_observability/quickstart.md b/content/es/llm_observability/quickstart.md
new file mode 100644
index 0000000000000..aaa1e394c0587
--- /dev/null
+++ b/content/es/llm_observability/quickstart.md
@@ -0,0 +1,146 @@
+---
+aliases:
+- /es/tracing/llm_observability/quickstart
+further_reading:
+- link: /llm_observability
+  tag: Documentación
+  text: Más información sobre LLM Observability
+title: Rastrear una aplicación LLM
+---
+{{< site-region region="gov" >}}
+<div class="alert alert-warning">LLM Observability no está disponible en el sitio seleccionado ({{< region-param key="dd_site_name" >}}) en este momento.</div>
+{{< /site-region >}}
+
+## Información general
+
+Esta guía utiliza los SDK de LLM Observability para [Python][1] y [Node.js][2]. Si tu aplicación está escrita en otro lenguaje, puedes crear trazas (traces) llamando a la [API][8] en su lugar.
+
+## Configuración
+
+### Notebooks Jupyter
+
+Para entender mejor los términos y conceptos de LLM Observability, puedes explorar los ejemplos en el [repositorio de notebooks de LLM Observability][12]. Estos notebooks proporcionan una experiencia práctica y te permiten aplicar estos conceptos en tiempo real.
+
+## Línea de comandos
+
+Para generar una traza (trace) de LLM Observability, puedes ejecutar un script Python o Node.js.
+
+### Requisitos previos
+
+- LLM Observability requiere una clave de API Datadog. Para obtener más información, consulta las [instrucciones para crear una clave de API][7].
+- El siguiente script de ejemplo utiliza OpenAI, pero puedes modificarlo para utilizar un proveedor diferente. Para ejecutar el script tal y como está escrito, necesitas:
+    - Una clave de API OpenAI almacenada en tu entorno como `OPENAI_API_KEY`. Para crear una, consulta la [configuración de la cuenta][4] y [Configurar tu clave de API][6] en la documentación oficial de OpenAI.
+    - Biblioteca OpenAI Python instalada. Para obtener instrucciones, consulta la [configuración de Python][5] en la documentación oficial de OpenAI.
+
+{{< tabs >}}
+{{% tab "Python" %}}
+
+1. Instala los paquetes de SDK y OpenAI:
+
+   ```shell
+   pip install ddtrace
+   pip install openai
+   ```
+
+2. Crea un script, que hace una única llamada a OpenAI.
+
+   ```python
+   import os
+   from openai import OpenAI
+
+   oai_client = OpenAI(api_key=os.environ.get("OPENAI_API_KEY"))
+
+   completion = oai_client.chat.completions.create(
+       model="gpt-3.5-turbo",
+       messages=[
+        {"role": "system", "content": "You are a helpful customer assistant for a furniture store."},
+        {"role": "user", "content": "I'd like to buy a chair for my living room."},
+    ],
+   )
+   ```
+
+3. Ejecuta el script con el siguiente comando shell. Esto envía una traza de la llamada de OpenAI a Datadog.
+
+   ```shell
+   DD_LLMOBS_ENABLED=1 DD_LLMOBS_ML_APP=onboarding-quickstart \
+   DD_API_KEY=<YOUR_DATADOG_API_KEY> DD_SITE=<YOUR_DD_SITE> \
+   DD_LLMOBS_AGENTLESS_ENABLED=1 ddtrace-run python quickstart.py
+   ```
+
+   Sustituye `<YOUR_DATADOG_API_KEY>` por tu clave de API Datadog y `<YOUR_DD_SITE>` por tu [sitio Datadog][2]. 
+
+   Para obtener más información sobre las variables de entorno necesarias, consulta [la documentación del SDK][1].
+
+[1]: /es/llm_observability/setup/sdk/python/#command-line-setup
+[2]: /es/getting_started/site/
+{{% /tab %}}
+
+{{% tab "Node.js" %}}
+1. Instala los paquetes de SDK y OpenAI:
+
+   ```shell
+   npm install dd-trace
+   npm install openai
+   ```
+2. Crea un script, que hace una única llamada a OpenAI.
+
+   ```javascript
+   const { OpenAI } = require('openai');
+
+   const oaiClient = new OpenAI(process.env.OPENAI_API_KEY);
+
+   function main () {
+      const completion = await oaiClient.chat.completions.create({
+         model: 'gpt-3.5-turbo',
+         messages: [
+            { role: 'system', content: 'You are a helpful customer assistant for a furniture store.' },
+            { role: 'user', content: 'I\'d like to buy a chair for my living room.' },
+         ]
+      });
+   }
+
+   main();
+   ```
+
+3. Ejecuta el script con el siguiente comando shell. Esto envía una traza de la llamada de OpenAI a Datadog.
+   ```shell
+   DD_LLMOBS_ENABLED=1 DD_LLMOBS_ML_APP=onboarding-quickstart \
+   DD_API_KEY=<YOUR_DATADOG_API_KEY> DD_SITE=<YOUR_DD_SITE> \
+   DD_LLMOBS_AGENTLESS_ENABLED=1 NODE_OPTIONS="--import dd-trace/initialize.mjs" node quickstart.js
+   ```
+
+   Sustituye `<YOUR_DATADOG_API_KEY>` por tu clave de API Datadog y `<YOUR_DD_SITE>` por tu [sitio Datadog][2]. 
+
+   Para obtener más información sobre las variables de entorno necesarias, consulta [la documentación del SDK][1].
+
+[1]: /es/llm_observability/setup/sdk/nodejs/#command-line-setup
+[2]: /es/getting_started/site/
+
+{{% /tab %}}
+{{< /tabs >}}
+
+   **Nota**: `DD_LLMOBS_AGENTLESS_ENABLED` sólo es necesaria si no se está ejecutando el Datadog Agent. Si el Agent se está ejecutando en tu entorno de producción, asegúrate de que esta variable de entorno no está configurada.
+
+4. Consulta la traza de tu llamada LLM en la pestaña **Trazas** [de la página **LLM Observability**][3] en Datadog.
+
+   {{< img src="llm_observability/quickstart_trace_1.png" alt="Traza de LLM Observability que muestra una única solicitud LLM" style="width:100%;" >}}
+
+La traza que ves se compone de un único tramo (span) LLM. El comando `ddtrace-run` o `NODE_OPTIONS="--import dd-trace/initialize.mjs"` automáticamente rastrea tus llamadas LLM desde la [lista de integraciones compatibles de Datadog][10].
+
+Si tu aplicación incluye avisos, cadenas complejas o flujos de trabajo más elaborados que involucran LLM, puedes rastrearlos utilizando la [documentación de configuración][11] y la [documentación del SDK][1].
+
+## Referencias adicionales
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: /es/llm_observability/setup/sdk/python
+[2]: /es/llm_observability/setup/sdk/nodejs
+[3]: https://app.datadoghq.com/llm/traces
+[4]: https://platform.openai.com/docs/quickstart/account-setup
+[5]: https://platform.openai.com/docs/quickstart/step-1-setting-up-python
+[6]: https://platform.openai.com/docs/quickstart/step-2-set-up-your-api-key
+[7]: /es/account_management/api-app-keys/#add-an-api-key-or-client-token
+[8]: /es/llm_observability/setup/api
+[10]: /es/llm_observability/setup/auto_instrumentation/
+[11]: /es/llm_observability/setup/
+[12]: https://github.com/DataDog/llm-observability
\ No newline at end of file
diff --git a/content/es/logs/guide/reduce_data_transfer_fees.md b/content/es/logs/guide/reduce_data_transfer_fees.md
new file mode 100644
index 0000000000000..fd398ca727d40
--- /dev/null
+++ b/content/es/logs/guide/reduce_data_transfer_fees.md
@@ -0,0 +1,53 @@
+---
+algolia:
+  tags:
+  - transferencia de datos
+  - egreso de datos
+  - private link
+  - PrivateLink
+  - Private Service Connect
+further_reading:
+- link: https://www.datadoghq.com/architecture/using-cross-region-aws-privatelink-to-send-telemetry-to-datadog/
+  tag: Centro de arquitectura
+  text: Uso de AWS PrivateLink entre regiones para el envío de telemetría a Datadog
+- link: https://aws.amazon.com/solutions/case-studies/textnow-privatelink-case-study/
+  tag: Estudio de caso de AWS
+  text: TextNow ahorra un 93% en gastos de transferencia de datos gracias a AWS PrivateLink
+- link: /logs/log_configuration/flex_logs/#potential-sources-for-sending-directly-to-flex-logs
+  tag: Documentación
+  text: Posibles fuentes de envío directo a Flex Logs
+title: Cómo enviar logs a Datadog reduciendo los costes de transferencia de datos
+---
+
+## Información general
+
+A medida que tu organización crece, la cantidad de datos que transfieres entre proveedores de nube a Datadog también puede aumentar. Los proveedores de nube cobran una tarifa de *transferencia de datos* o de *egreso de datos* por mover esos datos desde el almacenamiento en la nube mediante direcciones IP públicas. Esta puede convertirse fácilmente en una de las partidas más altas de la factura de costes en la nube de tu organización. 
+
+Envía datos a través de una red privada para evitar la Internet pública y reducir tus costes de transferencia de datos. Como ejemplo de cómo los enlaces privados reducen tus costes, en las regiones AWS del este de EE.UU., cuesta 0,09 dólares transferir 1 GB, pero con AWS PrivateLink, el coste de transferir datos baja a 0,01 dólares por GB.
+
+## Proveedores de nube compatibles
+
+<div class="alert alert-warning">Asegúrate de que el sitio Datadog seleccionado {{< region-param key="dd_site_name" code="true" >}} es correcto. Los enlaces privados específicos de la nube no están disponibles para todos los sitios Datadog.</div>
+
+{{< whatsnext desc="Conéctate a Datadog mediante:" >}}
+    {{< nextlink href="/agent/guide/private-link/?tab=crossregionprivatelinkendpoints&site=us" >}}US1 - AWS PrivateLink{{< /nextlink >}}
+    {{< nextlink href="/agent/guide/private-link/?tab=crossregionprivatelinkendpoints&site=ap1" >}}AP1 - AWS PrivateLink{{< /nextlink >}}
+    {{< nextlink href="/agent/guide/azure-private-link/" >}}US3 - Azure Private Link{{< /nextlink >}}
+    {{< nextlink href="/agent/guide/gcp-private-service-connect/" >}}US5 - Google Cloud Private Service Connect{{< /nextlink >}}
+{{< /whatsnext >}}
+
+## Herramientas adicionales 
+
+Después de cambiar a enlaces privados, puedes utilizar lo siguiente para monitorizar tu uso y tener más control sobre los costes de tus datos:
+- Datadog [Cloud Network Monitoring][1] identifica las aplicaciones de mayor rendimiento de tu organización.
+- Las herramientas [Cloud Cost Management][2] pueden verificar y monitorizar la reducción de tus costes de nube.
+
+## Referencias adicionales
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: /es/network_monitoring/cloud_network_monitoring/
+[2]: /es/cloud_cost_management/
+[3]: /es/agent/guide/private-link/
+[4]: /es/agent/guide/azure-private-link/
+[5]: /es/agent/guide/gcp-private-service-connect/
\ No newline at end of file
diff --git a/content/es/logs/workspaces/export.md b/content/es/logs/workspaces/export.md
new file mode 100644
index 0000000000000..54d8428138a97
--- /dev/null
+++ b/content/es/logs/workspaces/export.md
@@ -0,0 +1,38 @@
+---
+further_reading:
+- link: /logs/workspaces/
+  tag: Documentación
+  text: Más información sobre Log Workspaces
+- link: /dashboards/widgets/list/
+  tag: Documentación
+  text: Widget de lista
+private: true
+title: Exportar conjuntos de datos de Log Workspaces
+---
+
+## Información general
+
+Exporta tu celda de Workspaces como un conjunto de datos a dashboards y notebooks. La función de exportación te permite crear conjuntos de datos y mostrarlos en dashboards y notebooks para realizar análisis o generar informes. 
+
+## Exportar una celda de Workspaces como un conjunto de datos 
+
+Desde tu Workspace:
+
+1. Busca la celda que quieres exportar como conjunto de datos.
+2. Haz clic en **Save to Dashboard* (Guardar en dashboard) o selecciona **Guardar en notebook** en el menú desplegable.  
+3. En el modal, elige un dashboard o notebook existente, o añade la celda como conjunto de datos a un nuevo dashboard o notebook. 
+4. Haz clic en **Save** (Guardar).
+5. (Opcional) Cambia el nombre de la fuente y haz clic en **Update** (Actualizar). Por defecto, el nombre de la fuente es `<Workspace name> - <Cell name>`.
+6. Un cartel de color violeta indica una celda exportada.
+
+{{< img src="logs/workspace/export/example_exported_dataset.png" alt="Ejemplo de celda de Workspaces exportada que muestra un cartel de color violeta" style="width:100%;" >}}
+
+Al guardar una celda en un dashboard se crea una sincronización en tiempo real entre la celda y todos los widgets en los que se guardó. Cualquier cambio realizado en un conjunto de datos exportado también se refleja en los dashboards o notebooks asociados. 
+
+Desde el dashboard o el notebook, tienes la opción de ajustar las columnas y personalizar las opciones de widget. Sin embargo, sólo puedes cambiar las configuraciones del conjunto de datos desde Log Workspaces. Para editar la fuente, haz clic en **Edit in Log Workspaces** (Editar en Log Workspaces) desde el editor de gráficos de widget.
+
+{{< img src="/logs/workspace/export/link_to_workspace_from_dashboard.png" alt="Opciones en el editor de gráficos para ajustar columnas y vincularlas al Workspace de origen" style="width:100%;" >}}
+
+## Referencias adicionales
+
+{{< partial name="whats-next/whats-next.html" >}}
\ No newline at end of file
diff --git a/content/es/logs/workspaces/sql_reference.md b/content/es/logs/workspaces/sql_reference.md
new file mode 100644
index 0000000000000..96a37eb8e404d
--- /dev/null
+++ b/content/es/logs/workspaces/sql_reference.md
@@ -0,0 +1,293 @@
+---
+further_reading:
+- link: /logs/workspaces/
+  tag: Documentación
+  text: Más información sobre Log Workspaces
+title: Referencia de SQL
+---
+
+## Información general
+
+SQL en [Celdas de análisis][1] te permite analizar y manipular datos dentro de Log Workspaces. Esta documentación aborda el soporte de SQL disponible en Log Workspaces e incluye:
+- [Sintaxis compatible con PostgreSQL](#syntax)
+- [Funciones de SQL](#functions)
+- [Funciones de ventana](#window-functions)
+
+{{< img src="/logs/workspace/sql_reference/sql_syntax_analysis_cell.png" alt="Celda de Workspace de ejemplo con sintaxis de SQL" style="width:100%;" >}}
+
+## Sintaxis
+
+Se admite la siguiente sintaxis de SQL:
+
+| Sintaxis        | Descripción                                                                                  | Ejemplo                                                                                                  |
+|---------------|----------------------------------------------------------------------------------------------|----------------------------------------------------------------------------------------------------------|
+| `SELECT (DISTINCT)`<br>DISTINCT: opcional | Recupera filas de una base de datos, con `DISTINCT` filtrando los registros duplicados.       | {{< code-block lang="sql" >}}SELECT DISTINCT customer_id 
+FROM orders {{< /code-block >}} |
+| `JOIN`        | Combines rows from two or more tables based on a related column between them. Supports FULL JOIN, INNER JOIN, LEFT JOIN, RIGHT JOIN.  | {{< code-block lang="sql" >}}SELECT orders.order_id, customers.customer_name 
+FROM orders 
+JOIN customers 
+ON orders.customer_id = customers.customer_id {{< /code-block >}} |
+| `GROUP BY`    | Groups rows that have the same values in specified columns into summary rows.                | {{< code-block lang="sql" >}}SELECT product_id, SUM(quantity) 
+FROM sales 
+GROUP BY product_id {{< /code-block >}} |
+| `WHERE`<br>Includes support for `LIKE`, `IN`, `ON`, `OR` filters.  | Filters records that meet a specified condition.                                             | {{< code-block lang="sql" >}}SELECT * 
+FROM employees 
+WHERE department = 'Sales' AND name LIKE 'J%' {{< /code-block >}} |
+| `CASE`        | Provides conditional logic to return different values based on specified conditions.         | {{< code-block lang="sql" >}}SELECT order_id, 
+  CASE 
+    WHEN quantity > 10 THEN 'Bulk Order' 
+    ELSE 'Standard Order' 
+  END AS order_type 
+FROM orders {{< /code-block >}} |
+| `WINDOW` | Performs a calculation across a set of table rows that are related to the current row.                 | {{< code-block lang="sql" >}}SELECT
+  timestamp,
+  service_name,
+  cpu_usage_percent,
+  AVG(cpu_usage_percent) OVER (PARTITION BY service_name ORDER BY timestamp ROWS BETWEEN 2 PRECEDING AND CURRENT ROW) AS moving_avg_cpu
+FROM
+  cpu_usage_data {{< /code-block >}} |
+| `IS NULL` / `IS NOT NULL`   | Checks if a value is null or not null.                                         | {{< code-block lang="sql" >}}SELECT * 
+FROM orders 
+WHERE delivery_date IS NULL {{< /code-block >}}        |
+| `LIMIT`    | Specifies the maximum number of records to return.                                               | {{< code-block lang="sql" >}}SELECT * 
+FROM customers 
+LIMIT 10 {{< /code-block >}}                         |
+| `ORDER BY`  | Sorts the result set of a query by one or more columns. Includes ASC, DESC for sorting order.  | {{< code-block lang="sql" >}}SELECT * 
+FROM sales 
+ORDER BY sale_date DESC {{< /code-block >}}              |
+| `HAVING`    | Filters records that meet a specified condition after grouping.                               | {{< code-block lang="sql" >}}SELECT product_id, SUM(quantity) 
+FROM sales 
+GROUP BY product_id 
+HAVING SUM(quantity) > 10 {{< /code-block >}} |
+| `IN`, `ON`, `OR`  | Used for specified conditions in queries. Available in `WHERE`, `JOIN` clauses.       | {{< code-block lang="sql" >}}SELECT * 
+FROM orders 
+WHERE order_status IN ('Shipped', 'Pending') {{< /code-block >}} |
+| `AS`        | Renames a column or table with an alias.                                                        | {{< code-block lang="sql" >}}SELECT first_name AS name 
+FROM employees {{< /code-block >}}                |
+| Arithmetic Operations | Performs basic calculations using operators like `+`, `-`, `*`, `/`.                 | {{< code-block lang="sql" >}}SELECT price, tax, (price * tax) AS total_cost 
+FROM products {{< /code-block >}} |
+| `INTERVAL value unit`  | interval                      | Represents a time duration specified in a given unit.                     |
+
+
+## Funciones
+
+Se admiten las siguientes funciones de SQL. Para la función de ventana, consulta la sección [función de ventana](#window-functions) de esta documentación.
+
+| Función                                         | Tipo de retorno                           | Descripción                                                                 |
+|--------------------------------------------------|---------------------------------------|-----------------------------------------------------------------------------|
+| `min(variable v)`                                | Variable typeof                              | Devuelve el valor más pequeño de un conjunto de datos.                                |
+| `max(variable v)`                                | Variable typeof                              | Devuelve el valor máximo de todos los valores de entrada.                          |
+| `count(any a)`                                   | numérico                               | Devuelve el número de valores de entrada que no son nulos.                       |
+| `sum(numeric n)`                                 | numérico                               | Devuelve la suma de todos los valores de entrada.                              |
+| `avg(numeric n)`                                 | numérico                               | Devuelve el valor medio (media aritmética) de todos los valores de entrada.        |
+| `ceil(numeric n)`                                | numérico                               | Devuelve el valor redondeado al entero más próximo.                        |
+| `floor(numeric n)`                               | numérico                               | Devuelve el valor redondeado al entero más próximo.                      |
+| `round(numeric n)`                               | numérico                               | Devuelve el valor redondeado al entero más próximo.                           |
+| `lower(string s)`                                | cadena                                | Devuelve la cadena en minúsculas.                                            |
+| `upper(string s)`                                | cadena                                | Devuelve la cadena en mayúsculas.                                            |
+| `abs(numeric n)`                                 | numérico                               | Devuelve el valor absoluto.                                                 |
+| `coalesce(args a)`                               | typeof first non-null a OR null       | Devuelve el primer valor no nulo o nulo si todos son nulos.                   |
+| `cast(value AS type)`                            | tipo                                  | Convierte el valor dado al tipo de datos especificado.                        |
+| `length(string s)`                               | entero                               | Devuelve el número de caracteres de la cadena.                             |
+| `trim(string s)`                                 | cadena                                | Elimina los espacios en blanco iniciales y finales de la cadena.                    |
+| `replace(string s, from_string s1, to_string s2)`| cadena                                | Sustituye las apariciones de una subcadena dentro de una cadena por otra subcadena. |
+| `substring(string s, start_position_int i, length_int l)` | cadena                        | Extrae una subcadena de una cadena, comenzando en una posición dada y para una longitud especificada. |
+| `extract(field from timestamp/interval)`         | numérico                               | Extrae una parte de un campo de fecha u hora (como el año o el mes) de una marca temporal o intervalo. |
+| `to_timestamp(numeric n)`                        | marca temporal con huso horario              | Convierte un valor numérico en una marca temporal con huso horario.                     |
+| `to_char(timestamp t / interval i / numeric n, format f)` | cadena                      | Convierte una marca temporal, un intervalo o un valor numérico en una cadena utilizando un formato.|
+| `date_trunc(field f, source [, time_zone])`     | marca temporal [con huso] / intervalo | Trunca una marca temporal o un intervalo con una precisión especificada.                 |
+| `regexp_like(string s, pattern p [flags])`       | booleano                               | Evalúa si una cadena coincide con un patrón de expresión regular.                 |
+
+
+{{% collapse-content title="Ejemplos" level="h3" %}}
+
+### `MIN`
+{{< code-block lang="sql" >}}
+SELECT MIN(response_time) AS min_response_time 
+FROM logs 
+WHERE status_code = 200 
+{{< /code-block >}} 
+
+### `MAX`
+{{< code-block lang="sql" >}}
+SELECT MAX(response_time) AS max_response_time 
+FROM logs 
+WHERE status_code = 200 
+{{< /code-block >}} 
+
+### `COUNT`      
+{{< code-block lang="sql" >}}SELECT COUNT(request_id) AS total_requests 
+FROM logs 
+WHERE status_code = 200 {{< /code-block >}} 
+
+### `SUM`        
+{{< code-block lang="sql" >}}SELECT SUM(bytes_transferred) AS total_bytes 
+FROM logs 
+GROUP BY service_name 
+{{< /code-block >}} 
+
+### `AVG`        
+{{< code-block lang="sql" >}}SELECT AVG(response_time) 
+AS avg_response_time 
+FROM logs 
+WHERE status_code = 200 
+GROUP BY service_name 
+{{< /code-block >}} 
+
+### `CEIL`
+{{< code-block lang="sql" >}} 
+SELECT CEIL(price) AS rounded_price 
+FROM products 
+{{< /code-block >}}
+
+### `FLOOR`      
+{{< code-block lang="sql" >}}
+SELECT FLOOR(price) AS floored_price 
+FROM products 
+{{< /code-block >}} 
+
+### `ROUND`      
+{{< code-block lang="sql" >}}
+SELECT ROUND(price) AS rounded_price 
+FROM products 
+{{< /code-block >}} 
+
+### `LOWER`   
+{{< code-block lang="sql" >}}
+SELECT LOWER(customer_name) AS lowercase_name 
+FROM customers 
+{{< /code-block >}} 
+
+### `UPPER`  
+{{< code-block lang="sql" >}}
+SELECT UPPER(customer_name) AS uppercase_name 
+FROM customers 
+{{< /code-block >}} 
+
+### `ABS`        
+{{< code-block lang="sql" >}}
+SELECT ABS(balance) AS absolute_balance 
+FROM accounts 
+{{< /code-block >}} 
+
+### `COALESCE`  
+{{< code-block lang="sql" >}}
+SELECT COALESCE(phone_number, email) AS contact_info 
+FROM users 
+{{< /code-block >}} 
+
+### `CAST`  
+{{< code-block lang="sql" >}}
+SELECT
+  CAST(order_id AS VARCHAR) AS order_id_string,
+  'Order-' || CAST(order_id AS VARCHAR) AS order_label
+FROM
+  orders
+{{< /code-block >}} 
+
+### `LENGTH`  
+{{< code-block lang="sql" >}}
+SELECT
+  customer_name,
+  LENGTH(customer_name) AS name_length
+FROM
+  customers
+{{< /code-block >}} 
+
+### `INTERVAL`  
+{{< code-block lang="sql" >}}
+SELECT
+  TIMESTAMP '2023-10-01 10:00:00' + INTERVAL '30 days' AS future_date
+{{< /code-block >}} 
+
+### `TRIM`
+{{< code-block lang="sql" >}}
+SELECT
+  trim(name) AS trimmed_name
+FROM
+  users
+{{< /code-block >}}
+
+###  `REPLACE`
+{{< code-block lang="sql" >}}
+SELECT
+  replace(description, 'old', 'new') AS updated_description
+FROM
+  products
+{{< /code-block >}}
+
+### `SUBSTRING`
+{{< code-block lang="sql" >}}
+SELECT
+  substring(title, 1, 10) AS short_title
+FROM
+  books
+{{< /code-block >}}
+
+### `EXTRACT`
+{{< code-block lang="sql" >}}
+SELECT
+  extract(year FROM purchase_date) AS purchase_year
+FROM
+  sales
+{{< /code-block >}}
+
+### `TO_TIMESTAMP`
+{{< code-block lang="sql" >}}
+SELECT
+  to_timestamp(epoch_time) AS formatted_time
+FROM
+  event_logs
+{{< /code-block >}}
+
+### `TO_CHAR`
+{{< code-block lang="sql" >}}
+SELECT
+  to_char(order_date, 'MM-DD-YYYY') AS formatted_date
+FROM
+  orders
+{{< /code-block >}}
+
+### `DATE_TRUNC`
+{{< code-block lang="sql" >}}
+SELECT
+  date_trunc('month', event_time) AS month_start
+FROM
+  events
+{{< /code-block >}}
+
+### `REGEXP_LIKE`
+{{< code-block lang="sql" >}}
+SELECT
+  *
+FROM
+  emails
+WHERE
+  regexp_like(email_address, '@example\.com$')
+{{< /code-block >}}
+
+{{% /collapse-content %}} 
+
+## Funciones de ventana
+
+Esta tabla brinda una visión general de las funciones de ventana compatibles. Para más detalles y ejemplos, consulta la [Documentación de PostgreSQL][2].
+
+| Función                | Tipo de retorno       | Descripción                                                            |
+|-------------------------|-------------------|------------------------------------------------------------------------|
+| `OVER`                  | N/A               | Define una ventana para un conjunto de filas sobre las que pueden operar otras funciones de ventana. |
+| `PARTITION BY`          | N/A               | Divide el conjunto de resultados en particiones, específicamente para aplicar funciones de ventana. |
+| `RANK()`                | entero           | Asigna un rango a cada fila dentro de una partición, con espacios para los empates.     |
+| `ROW_NUMBER()`          | entero           | Asigna un número secuencial único a cada fila dentro de una partición.     |
+| `LEAD(column n)`        | columna typeof     | Devuelve el valor de la siguiente fila de la partición.                  |
+| `LAG(column n)`         | columna typeof     | Devuelve el valor de la fila anterior de la partición.              |
+| `FIRST_VALUE(column n)` | columna typeof     | Devuelve el primer valor de un conjunto ordenado de valores.                   |
+| `LAST_VALUE(column n)`  | columna typeof     | Devuelve el último valor de un conjunto ordenado de valores.                    |
+| `NTH_VALUE(column n, offset)`| columna typeof | Devuelve el valor en el desplazamiento especificado en un conjunto ordenado de valores. |
+
+
+## Referencias adicionales
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: /es/logs/workspaces/#analysis-cell
+[2]: https://www.postgresql.org/docs/current/functions-window.html
\ No newline at end of file
diff --git a/content/es/metrics/guide/rate-limit.md b/content/es/metrics/guide/rate-limit.md
new file mode 100644
index 0000000000000..70f361ced0f9b
--- /dev/null
+++ b/content/es/metrics/guide/rate-limit.md
@@ -0,0 +1,70 @@
+---
+further_reading:
+- link: /metrics/custom_metrics/
+  tag: Documentación
+  text: Métricas personalizadas
+- link: /metrics/guide/custom_metrics_governance/
+  tag: Documentación
+  text: Prácticas recomendadas para la gobernanza de métricas personalizadas
+private: true
+title: Eventos generados a partir de métricas con límites de tasas
+---
+
+## Información general
+
+Enviar métricas a Datadog con un gran número de valores únicos de etiquetas (tags) en una clave determinada puede dar lugar a una [cardinalidad][1] elevada. En la mayoría de los casos, esto se debe a que las etiquetas no tienen límites.
+
+Los envíos sin límites y las etiquetas de alta cardinalidad pueden afectar el rendimiento y la estabilidad de tu cuenta. Para proteger tu cuenta, Datadog monitoriza los aumentos en las métricas y te notifica cuando estos envíos tienen límites de tasa.
+
+En esta guía, se explica lo siguiente:
+- Eventos con límites de tasa
+- Monitorización de eventos e identificación de métricas con límites de tasa
+- Gestión de etiquetas sin límites y eliminación de las limitaciones de tasa de las métricas
+
+
+## Eventos de límites de tasa de Datadog
+
+{{< img src="/metrics/guide/rate_limit/rate_limit_events.png" alt="Eventos de límites de tasa en el explorador de eventos con un evento de ejemplo en el panel lateral de detalles" style="width:100%;" >}}
+
+Cuando Datadog detecta un aumento de la cardinalidad, antes de que se aplique ningún límite de tasa, se crea un [evento][2] de advertencia. Si la cardinalidad de las métricas sigue aumentando, es posible que se aplique un límite de tasa. Si la métrica tiene un límite de tasa, se genera un segundo evento con la indicación de que se ha puesto un límite de tasa. Puedes ver estos eventos en el [Explorador de eventos][3]. 
+
+<div class="alert alert-warning">Datadog no envía una notificación por cada evento de límite de tasa subsiguiente. Como práctica recomendada, crea un monitor de eventos para enviar alertas cuando las métricas se limiten en el futuro.</div>
+
+## Monitorizar eventos de límites de tasa
+
+Un [Monitor de eventos][3] puede configurarse para enviar una notificación sobre cualquier evento de límite de tasa. 
+
+1. Define la consulta de la siguiente manera: 
+   ```
+   tags:metric-rate-limit source:datadog
+   ```
+1. Establece el umbral de alerta como `above or equal to 1`.  
+1. En el mensaje del monitor, configura los destinatarios a los que se notificará cuando se active el monitor. 
+
+{{< img src="/metrics/guide/rate_limit/event_monitor_config.png" alt="Configuración del monitor de eventos para un evento de límite de tasa" style="width:90%;" >}}
+
+## Qué hacer con las etiquetas sin límites
+
+Para eliminar el límite de tasa, tienes que revisar las etiquetas sin límites que se muestran en el evento. En primer lugar, determina si todos los valores de etiquetas que se muestran en el evento son necesarios. Luego, ajusta el envío de métricas de modo que se incluyan solo las etiquetas que aporten información importante.
+
+Para obtener más información, consulta la guía [Prácticas recomendadas para la gobernanza de métricas personalizadas][4].
+
+## Enviar una solicitud para eliminar el límite de tasa
+
+<div class="alert alert-warning">Solo un administrador de Datadog puede solicitar la eliminación de un límite de tasa de métricas. Si no eres administrador, asegúrate de incluir a un administrador en el ticket de soporte que pueda confirmar la solicitud.</div>
+
+Después de hacer los cambios para eliminar las etiquetas sin límites, envía una solicitud al [Soporte de Datadog][5] para eliminar el límite de tasa. En la solicitud, facilita la siguiente información: 
+- Nombre de la métrica con el límite de tasa 
+- Enlace al evento de límite de tasa en la plataforma del evento
+- Confirmación de que se eliminaron las etiquetas sin límites mediante un cambio en la configuración
+
+
+## Referencias adicionales
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: /es/account_management/billing/custom_metrics/?tab=countrate#effect-of-adding-tags
+[2]: https://docs.datadoghq.com/es/service_management/events/
+[3]: https://docs.datadoghq.com/es/monitors/types/event/
+[4]: https://docs.datadoghq.com/es/metrics/guide/custom_metrics_governance/
+[5]: https://docs.datadoghq.com/es/help/
\ No newline at end of file
diff --git a/content/es/metrics/nested_queries.md b/content/es/metrics/nested_queries.md
new file mode 100644
index 0000000000000..4326fd5d6caa8
--- /dev/null
+++ b/content/es/metrics/nested_queries.md
@@ -0,0 +1,294 @@
+---
+further_reading:
+- link: /dashboards/querying/
+  tag: Documentación
+  text: Consulta de dashboards
+title: Consultas anidadas
+---
+
+## Información general
+
+{{< callout url="#" btn_hidden="true" header="Únete a la vista previa">}}
+  Esta función está en vista previa. Para activar esta función, ponte en contacto con el asesor de clientes. 
+{{< /callout >}}  
+
+Por defecto, toda consulta de métrica en Datadog consta de dos capas de agregación. Las consultas anidadas permiten reutilizar los resultados de una consulta anterior en otra posterior.
+
+{{< img src="metrics/nested_queries/nested-queries-example-video.mp4" alt="Cómo configurar las consultas anidadas en la interfaz de usuario" video=true style="width:100%" >}}
+
+Las consultas anidadas desbloquean varias funciones potentes:
+
+- [Agregación multicapa][6]
+- [Percentiles y desviación típica en métricas de tipo count/rate/gauge][7]
+- [Consultas de mayor resolución en periodos históricos][8]
+
+## Agregación multicapa
+
+En Datadog, cada consulta de métrica en Datadog se evalúa con dos capas de agregación: primero temporal y luego espacial. La agregación multicapa permite aplicar capas adicionales de agregación temporal o espacial. Para más información sobre la agregación, consulta la [anatomía de una consulta de métrica][5].
+
+{{< img src="/metrics/nested_queries/nested-queries-before-after.png" alt="ejemplo de aplicación de consultas anidadas antes y después" style="width:100%;" >}}
+
+
+
+### Agregación temporal multicapa
+
+Accede a la agregación temporal multicapa con la función `rollup`. Cada consulta de métrica ya contiene un `rollup` inicial (agregación temporal) que controla el nivel de detalle de los puntos de datos mostrados en el gráfico. Para más información, consulta la documentación [rollup][1]. 
+
+Puedes aplicar capas adicionales de agregación temporal con rollups posteriores.
+
+El primer rollup admite los siguientes agregadores:
+- `prom.`
+- `sum`
+- `mín.`
+- `máx.`
+- `count`
+
+Las capas adicionales proporcionadas por la agregación temporal multicapa admiten los siguientes agregadores temporales: 
+
+- `prom.`
+- `sum`
+- `mín.`
+- `máx.`
+- `count`
+- `arbitrary percentile pxx` (`p78, p99, p99.99, etc.`)
+- `stddev`
+
+La agregación temporal multicapa puede utilizarse con las siguientes funciones:
+
+| Funciones compatibles   | Descripción                                                                                    |
+|-----------------------|-----------------------------------------------------------------------------------------------|
+| Operadores aritméticos   | `+, -, *, /`                                                                                  |
+| Funciones de cambio temporal    | `<METRIC_NAME>{*}, -<TIME_IN_SECOND>`<br> `hour_before(<METRIC_NAME>{*})`<br> `day_before(<METRIC_NAME>{*})`<br> `week_before(<METRIC_NAME>{*})`<br> `month_before(<METRIC_NAME>{*})` |
+| Selección Top-k        | `top(<METRIC_NAME>{*}, <LIMIT_TO>, '<BY>', '<DIR>')`                                         |
+
+Cualquier función que no figure en la lista anterior no puede combinarse con la agregación temporal multicapa. 
+
+{{% collapse-content title="Consulta de ejemplo de agregación temporal" level="h5" %}}
+Esta consulta calcula primero el uso medio de la CPU para cada instancia de EC2 agrupado por `env` y `team`, agrupado en intervalos de 5 minutos. A continuación, se aplica la agregación temporal multicapa para calcular el percentil 95 en tiempo de esta consulta anidada en intervalos de 30 m.
+
+
+{{< img src="/metrics/nested_queries/multilayer-time-agg-ui.png" alt="ejemplo de agregación temporal multicapa en JSON" style="width:100%;" >}}
+
+{{< img src="/metrics/nested_queries/multilayer-time-agg-json.png" alt="ejemplo de agregación temporal multicapa en el JSON" style="width:100%;" >}}
+{{% /collapse-content %}} 
+
+
+### Agregación espacial multicapa
+
+Después de especificar etiquetas en tu primera capa de agregación espacial para agrupar por, accede a la agregación espacial multicapa con la función `Group By`.
+
+Puedes aplicar capas adicionales de agregación espacial con `Group Bys` posteriores.
+Nota: Si no especificas etiquetas para agrupar en tu capa de agregación espacial inicial, la agregación espacial multicapa no estará disponible.
+
+La primera capa de agregación espacial admite los siguientes agregadores:
+
+- `avg by`
+- `sum by`
+- `min by`
+- `max by`
+
+Capas adicionales de soporte de agregación espacial:
+
+- `avg by`
+- `sum by`
+- `min by`
+- `max by`
+- `arbitrary percentile pXX` (`p75, p99, p99.99, etc.`)
+- `stddev by`
+
+La agregación espacial multicapa puede utilizarse con las siguientes funciones: 
+| Funciones compatibles | Descripción |
+|-----------------------|-----------------------------------------------------------------------------------------------|
+| Operadores aritméticos `+, -, *, /` 
+| Funciones de cambio temporal `<METRIC_NAME>{*}, -<TIME_IN_SECOND>` <br> `hour_before(<METRIC_NAME>{*})` <br> `day_before(<METRIC_NAME>{*})` <br> `week_before(<METRIC_NAME>{*})` <br> `month_before(<METRIC_NAME>{*})` 
+| Selección Top-k `top(<METRIC_NAME>{*}, <LIMIT_TO>, '<BY>', '<DIR>')` 
+
+Cualquier función que no figure en la lista anterior no puede combinarse con la agregación espacial multicapa.
+
+Todas las agregaciones espaciales, con la excepción de las agregaciones espaciales percentiles, tienen un argumento, que es la clave o las claves de etiqueta por las que deseas agrupar. Las agregaciones espaciales percentiles requieren dos argumentos: 
+- El percentil arbitrario pXX
+- Las etiquetas para agrupar por
+
+
+{{% collapse-content title="Consultas de ejemplo de agregación espacial" level="h5" %}}
+Esta consulta inicial, `avg:aws.ec2.cpuutilization{*} by {env,host}.rollup(avg, 300)` calcula la suma del uso medio de la CPU, agrupado por `env` y `host` cada 5 minutos. A continuación, se aplica la agregación espacial multicapa para calcular el valor máximo del uso medio de la CPU por `env`.
+
+
+En la interfaz de usuario o la pestaña JSON, tendría el siguiente aspecto:
+
+{{< img src="/metrics/nested_queries/multilayer-space-agg-ui.png" alt="ejemplo de agregación espacial multicapa en la interfaz de usuario" style="width:100%;" >}}
+
+{{< img src="/metrics/nested_queries/multilayer-space-agg-json.png" alt="ejemplo de agregación espacial multicapa en el JSON" style="width:100%;" >}}
+{{% /collapse-content %}} 
+
+
+## Percentiles y desviación típica de los counts, rates y gauges agregados
+
+Puedes utilizar la agregación multicapa (temporal y espacial) para consultar los percentiles y la desviación estándar de las consultas en counts, rates y gauges. Te permiten comprender mejor la variabilidad y la dispersión de tus grandes conjuntos de datos y te permiten identificar mejor outliers. 
+
+**Nota**: Los agregadores de percentiles o desviaciones estándar en las consultas anidadas se calculan utilizando los resultados de una métrica count, rate o gauge existente y agregada. Para obtener percentiles globalmente precisos que se calculen sobre valores brutos no agregados de una métrica, utiliza en su lugar [métricas de distribución][9]. 
+
+ {{% collapse-content title="Percentiles en la consulta de ejemplo de agregación temporal multicapa " level="h5" %}}
+
+Podemos utilizar percentiles en la agregación temporal multicapa para resumir los resultados de nuestra consulta anidada (uso medio de la CPU por `env` y `team` cada 5 minutos) calculando el valor p95 de esta consulta anidada cada 30 minutos. 
+
+ {{< img src="/metrics/nested_queries/percentiles-time-agg-ui.png" alt="ejemplo de los percentiles de agregación temporal MLA usando consultas anidadas en la interfaz de usuario" style="width:100%;" >}}
+
+ {{< img src="/metrics/nested_queries/percentiles-time-agg-json.png" alt="ejemplo de los percentiles de agregación temporal MLA usando consultas anidadas en el JSON" style="width:100%;" >}}
+
+ {{% /collapse-content %}} 
+
+
+{{% collapse-content title="Percentiles en la consulta de ejemplo de agregación espacial multicapa" level="h5" %}}
+
+Podemos utilizar percentiles en la agregación espacial multicapa para resumir los resultados de nuestra consulta anidada (uso medio de la CPU por `env` y `team` cada 5 minutos) calculando el valor p95 de esta consulta anidada para cada valor único de `env`. 
+
+En la interfaz de usuario o la pestaña JSON, tendría el siguiente aspecto:
+
+ {{< img src="/metrics/nested_queries/percentiles-space-agg-ui.png" alt="ejemplo de percentiles de agregación espacial de MLA usando consultas anidadas en la interfaz de usuario" style="width:100%;" >}}
+
+ {{< img src="/metrics/nested_queries/percentiles-space-agg-json.png" alt="ejemplo de percentiles de agregación espacial de MLA usando consultas anidadas en el JSON" style="width:100%;" >}}
+
+  {{% /collapse-content %}} 
+
+
+
+{{% collapse-content title="Consulta de ejemplo de desviación estándar" level="h5" %}}
+
+La desviación estándar ayuda a medir la variabilidad o dispersión de un conjunto de datos. La siguiente consulta utiliza la desviación estándar con agregación temporal multicapa para calcular la desviación estándar de nuestra consulta anidada (suma de counts de solicitudes a la API, promediada en 4 horas) en periodos más largos de doce horas:
+
+En la interfaz de usuario o la pestaña JSON, tendría el siguiente aspecto:
+
+ {{< img src="/metrics/nested_queries/nested-queries-std-ui.png" alt="ejemplo de una desviación estándar con consultas anidadas en la interfaz de usuarios" style="width:100%;" >}}
+
+ {{< img src="/metrics/nested_queries/nested-queries-std-json.png" alt="ejemplo de desviación estándar con consultas anidadas en JSON" style="width:100%;" >}}
+{{% /collapse-content %}} 
+
+
+## Consultas de mayor resolución en periodos históricos
+
+Cada consulta de métrica contiene una capa inicial de agregación temporal (rollup) que controla el nivel de detalle de los puntos de datos mostrados. Datadog proporciona intervalos rollup por defecto que aumentan a medida que crece el marco temporal global de la consulta. Las consultas anidadas permiten acceder a datos más detallados y de mayor resolución en periodos históricos más largos.
+
+ {{< img src="/metrics/nested_queries/higher-res-query-example.png" alt="ejemplos de consultas de mayor resolución en periodos históricos en la interfaz de usuario" style="width:100%;" >}}
+
+{{% collapse-content title="Ejemplo de consulta de mayor resolución" level="h5" %}}
+
+Históricamente, cuando se consultaba una métrica durante el último mes, se veían los datos con un nivel de detalle de 4 horas por defecto. Puedes utilizar consultas anidadas para acceder a datos de mayor detalle en este periodo histórico. Aquí encontrarás un ejemplo de consulta graficada sobre el mes pasado donde el recuento de lotes de consulta se despliega inicialmente en intervalos de 5 minutos. A continuación, se aplica la agregación temporal multicapa para calcular la desviación estándar en el tiempo de esta consulta anidada en intervalos de 4 horas para obtener un gráfico más legible.
+
+Nota: Datadog recomienda que definas tu rollup inicial con el intervalo rollup más detallado y utiliza la agregación temporal multicapa con intervalos rollup más amplios para obtener gráficos más legibles para el usuario.
+
+En la interfaz de usuario o la pestaña JSON, tendría el siguiente aspecto:
+
+{{< img src="/metrics/nested_queries/nested-queries-higher-res-ui.png" alt="ejemplo de consultas de mayor resolución usando consultas anidadas en las interfaz de usuarios" style="width:100%;" >}}
+
+{{< img src="/metrics/nested_queries/nested-queries-higher-res-json.png" alt="ejemplo de consultas de mayor resolución usando consultas anidadas en JSON" style="width:100%;" >}}
+{{% /collapse-content %}} 
+
+## Rollup en movimiento
+Datadog proporciona un función `moving_rollup` que permite la agregación de puntos de datos en un periodo especificado. Para más información, consulta [moving-rollup][10]. Mediante el uso de consultas anidadas, puedes ampliar su funcionalidad para incorporar el modo de vista histórica, lo que te permite analizar puntos de datos más allá del periodo de consulta original. Esto proporciona una visión más completa de las tendencias y patrones de tu consulta a lo largo del periodo especificado.
+
+{{< img src="/metrics/nested_queries/moving-rollup-diagram.png" alt="ejemplo de funciones moving_rollup antiguas frente a funciones moving_rollup nuevas" style="width:100%;" >}}
+
+La versión actual de la función `moving_rollup` sólo admite los siguientes agregadores:
+- `prom.`
+- `sum`
+- `mín.`
+- `máx.`
+- `median`
+
+Al anidar consultas, sólo puede utilizarse la versión en modo visión histórica de la función `moving_rollup`. Esta versión de la función admite los siguientes agregadores:
+- `prom.`
+- `sum`
+- `mín.`
+- `máx.`
+- `count`
+- `count by`
+- `arbitrary percentile pxx` (`p78, p99, p99.99, etc.`)
+- `stddev`
+
+{{% collapse-content title="Movimiento máximo de rollup con el modo de visión histórica activado" level="h5" %}}
+Al anidar estas `moving_rollups`, los intervalos rollup proporcionados deben hacerse más grandes como se muestra en la interfaz de usuario o la pestaña JSON:
+
+{{< img src="/metrics/nested_queries/moving_rollup1_ui.png" alt="ejemplo de moving rollup en la interfaz de usuarios" style="width:100%;" >}}
+
+{{< img src="/metrics/nested_queries/moving_rollup1_json.png" alt="ejemplo de moving rollup en JSON" style="width:100%;" >}}
+
+
+{{% /collapse-content %}} 
+
+
+{{% collapse-content title="Desviación estándar de moving rollup con el modo de visión histórica activado" level="h5" %}}
+También puedes utilizar percentiles y desviación estándar con la nueva función moving rollup, que admite el modo de visión histórica y permite el anidamiento de moving rollups con el modo de visión histórica activado.
+
+En la interfaz de usuario o la pestaña JSON, tendría el siguiente aspecto:
+
+{{< img src="/metrics/nested_queries/moving_rollup2_ui.png" alt="ejemplo de moving rollup con la desviación estándar en la interfaz de usuarios" style="width:100%;" >}}
+
+{{< img src="/metrics/nested_queries/moving_rollup2_json.png" alt="ejemplo de moving rollup con desviación estándar en JSON" style="width:100%;" >}}
+
+{{% /collapse-content %}} 
+
+
+## Funciones de reasignación de umbral booleano
+
+La reasignación de funciones permite refinar y transformar los resultados de las consultas en función de condiciones específicas, ampliando la funcionalidad de monitorización y el análisis. Las consultas anidadas desbloquean las tres nuevas siguientes funciones:
+
+- `is_greater` (`<QUERY>, <THRESHOLD>`)
+- `is_less` (`<QUERY>, <THRESHOLD>`)
+- `is_between` (`<QUERY>, <LOWER THRESHOLD>, <UPPER THRESHOLD>`)
+
+
+{{% collapse-content title="ejemplo de consulta is_greater()" level="h5" %}}
+`is_greater()` devuelve 1.0 para cada punto donde la consulta es mayor que una constante de 30 y 0.0 en el resto.
+
+En la interfaz de usuario o la pestaña JSON, tendría el siguiente aspecto:
+{{< img src="/metrics/nested_queries/is_greater_ui.png" alt="ejemplo de la función de asignación is_greater en la interfaz de usuario" style="width:100%;" >}}
+
+{{< img src="/metrics/nested_queries/is_greater_json.png" alt="ejemplo de función de asignación is_greater en JSON" style="width:100%;" >}}
+
+{{% /collapse-content %}} 
+
+{{% collapse-content title="ejemplo de consulta is_less()" level="h5" %}}
+`is_less()` devuelve 1.0 para cada punto donde la consulta es menor que una constante de 30 y 0.0 en el resto.
+
+En la interfaz de usuario o la pestaña JSON, tendría el siguiente aspecto:
+{{< img src="/metrics/nested_queries/is_less_ui.png" alt="ejemplo de la función de asignación is_less en la interfaz de usuario" style="width:100%;" >}}
+
+{{< img src="/metrics/nested_queries/is_less_json.png" alt="ejemplo de la función de asignación is_less en JSON" style="width:100%;" >}}
+
+
+{{% /collapse-content %}} 
+
+{{% collapse-content title="ejemplo de consulta is_between()" level="h5" %}}
+`is_between()` devuelve 1.0 para cada punto en el que la consulta esté entre 10 y 30 (exclusivo), y 0.0 en el resto.
+
+En la interfaz de usuario o la pestaña JSON, tendría el siguiente aspecto:
+{{< img src="/metrics/nested_queries/is_between_ui.png" alt="ejemplo de la función de asignación is_between en la interfaz de usuarios" style="width:100%;" >}}
+
+{{< img src="/metrics/nested_queries/is_between_json.png" alt="ejemplo de la función de asignación is_between en JSON" style="width:100%;" >}}
+
+
+{{% /collapse-content %}} 
+
+
+## Utilizar consultas anidadas con la API de Datadog
+Puedes utilizar la funcionalidad de consultas anidadas de nuestra [API pública para la consulta de datos de series temporales][3]. Cambia el contenido del objeto **formula**
+
+
+ {{< img src="/metrics/nested_queries/nested-queries-using-api.png" alt="ejemplo de consultas de mayor resolución usando consultas anidadas en JSON" style="width:100%;" >}}
+
+
+## Referencias adicionales
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: /es/dashboards/functions/rollup/
+[2]: /es/metrics/#configure-time-aggregation
+[3]: /es/metrics/#query-timeseries-data-across-multiple-products
+[4]: /es/metrics/distributions/
+[5]: /es/metrics/#anatomy-of-a-metric-query
+[6]: /es/metrics/nested_queries/#multilayer-aggregation
+[7]: /es/metrics/nested_queries/#percentiles-and-standard-deviation-for-aggregated-countsratesgauges
+[8]: /es/metrics/nested_queries/#higher-resolution-queries-over-historical-timeframes
+[9]: /es/metrics/distributions/
+[10]: /es/dashboards/functions/rollup/#moving-rollup
\ No newline at end of file
diff --git a/content/es/mobile/datadog_for_intune.md b/content/es/mobile/datadog_for_intune.md
new file mode 100644
index 0000000000000..3a8c5756cc002
--- /dev/null
+++ b/content/es/mobile/datadog_for_intune.md
@@ -0,0 +1,115 @@
+---
+further_reading:
+- link: https://www.datadoghq.com/blog/datadog-mobile-widgets/
+  tag: Blog
+  text: Mejora tu prestación de servicios con los widgets de dashboard móviles de
+    Datadog
+title: Datadog para Intune
+---
+
+Esta guía proporciona instrucciones paso a paso para configurar e implementar la aplicación móvil Datadog para Intune en tu organización.
+
+## Requisitos previos
+Antes de empezar, asegúrate de que se cumplen los siguientes requisitos:
+
+- Tienes permisos de administrador en **Intune, Azure y Datadog**
+- Los usuarios deben descargar e instalar la aplicación **Datadog para Intune** de su tienda de aplicaciones móviles o de la tienda de Microsoft Partner.
+
+Quienes quieran crear una configuración personalizada utilizando el ID del paquete de la aplicación móvil, pueden consultar los enlaces siguientes:
+
+| Plataforma   | Enlace a la tienda                                                                                            | ID del paquete                    |
+|------------|-------------------------------------------------------------------------------------------------------|-----------------------------|
+| iOS/iPadOS | [Datadog Intune en la App Store](https://apps.apple.com/app/datadog-intune/id1673106321)             | com.datadog.flagship-intune |
+| Android    | [Datadog Intune en Google Play](https://play.google.com/store/apps/details?id=com.datadog.app.intune) | com.datadog.app.intune      |
+
+## Configuración inicial de Datadog para Intune
+Para empezar, un administrador de Intune y Azure necesita configurar los parámetros necesarios. Estos son los pasos **mínimos** necesarios para garantizar que Datadog para Intune funcione correctamente. Las políticas adicionales, como las de configuración o acceso condicional, se pueden configurar más adelante.
+
+### Paso 1: Añadir Datadog para Intune al centro de administración de Microsoft Intune
+1. Abre el [centro de administración de Microsoft Intune][1], ve a la pestaña **Aplicaciones** y haz clic en **Add** (Añadir) en el **tipo de aplicación** correspondiente (iOS/iPadOS o Android):
+   - Para iOS/iPadOS: Selecciona **"iOS store app"** y luego busca "Datadog Intune".
+   - Para Android: Selecciona **"Android store app"** y luego copia los datos necesarios de la [página de Google Play store][2].
+2. Asigna la aplicación a los usuarios o grupos pertinentes.
+
+Para obtener una guía adicional sobre cómo agregar una aplicación a Intune, lee la [guía de inicio rápido de Intune][3] de Microsoft.
+
+### Paso 2: Aplicar una política de protección de aplicaciones
+Para permitir que los usuarios se registren e inicien sesión de forma segura, debe aplicarse una **Política de protección de aplicaciones**. Esto garantiza que el acceso a la aplicación esté protegido por la configuración de seguridad de Microsoft Intune.
+
+1. En el [centro de administración][1], ve a la pestaña **Aplicaciones** y selecciona **Políticas de protección de las aplicaciones**.
+2. Crea un política para la plataforma adecuada (iOS y Android requieren políticas separadas).
+3. Haz clic en **Select custom apps** (Seleccionar aplicaciones personalizadas) y añade **Datadog Intune** a la política. Si no puedes verlo, asegúrate de haber completado el [paso 1](#step-1-add-datadog-for-intune-to-microsoft-intune-admin-center).
+4. Configura tus **parámetros de seguridad** y asigna la política a usuarios o grupos específicos.
+5. Haz clic en **Save** (Guardar).
+
+**Nota:** La nueva política de protección de aplicaciones puede tardar algún tiempo en aplicarse a todos los dispositivos. Puedes verificar la configuración siguiendo [la guía de Microsoft][5].
+
+### Paso 3: Conceder el consentimiento de administración a tu organización
+En este paso, cambia del centro de administración de Intune al portal de Azure para Microsoft Entra-ID.
+
+El consentimiento de administración es necesario para que los usuarios puedan registrarse correctamente. Sigue estos pasos:
+
+1. Abre [Microsoft Entra-ID][7] (antes Azure Active Directory) y ve a **Aplicaciones empresariales**.
+2. Busca **"Datadog"**:
+   - Si no aparece en la lista, haz clic en **Add** (Añadir) y luego busca "Datadog" en Microsoft Entra Gallery.
+3. Selecciona **Permisos** y luego haz clic en **Grant admin consent for \<your organization name\>** (Conceder permiso a -nombre de tu organización-).
+
+Para obtener ayuda adicional con los parámetros de gestión de aplicaciones, consulta la [documentación de Microsoft][8].
+
+**Nota:** Si tu organización tiene varias aplicaciones "Datadog" configuradas, la que gestiona el acceso a la web y a las aplicaciones móviles tiene el ID de aplicación **f21cb7e8-00ab-4b0e-aa94-b1e2f674606d**.
+
+#### Datadog para los permisos requeridos por Intune
+Los permisos se añaden automáticamente al configurar la aplicación:
+
+| Nombre                                    | Valor del argumento                              | Permiso                                      | Tipo      |
+|-----------------------------------------|------------------------------------------|-------------------------------------------------|-----------|
+| Microsoft Graph                         | `User.Read`                              | Iniciar sesión y leer el perfil de usuario                   | Delegado |
+| Gestión de aplicaciones móviles de Microsoft | `DeviceManagementManagedApps.ReadWrite`  | Leer y escribir en el dispositivo de gestión de aplicaciones del usuario | Delegado |
+
+**Notas:**
+- La aplicación móvil sólo utiliza estos dos permisos. Al conceder el consentimiento es posible que veas más permisos, ya que la aplicación móvil comparte la misma aplicación Microsoft Entra que la aplicación web y la [integración Microsoft Teams](https://docs.datadoghq.com/integrations/microsoft_teams). Si no la estás utilizando, puedes revocar esos permisos desde la pestaña **Permisos** en la página del [paso 3](#step-3-grant-admin-consent-for-your-organization).
+- Aunque `DeviceManagementManagedApps.Read` existe, es un permiso de la API MS Graph y la aplicación móvil requiere un permiso MAM. `DeviceManagementManagedApps.ReadWrite` es el único permiso MAM disponible, pero la aplicación móvil sólo lee y no escribe nada.
+
+## Despliegue de Datadog Intune en dispositivos móviles
+Para desplegar en dispositivos Android, los usuarios deben instalar lo siguiente:
+
+- La [aplicación Portal de empresa Microsoft][9]
+- [Datadog - Intune][10]
+
+Para dispositivos iOS, sólo se requiere [Datadog - Intune][11], pero la aplicación [Portal de empresa][12] puede instalarse opcionalmente.
+
+En ambas plataformas, la aplicación **Microsoft Authenticator** puede ayudar con el inicio de sesión, si está instalada.
+
+## Solucionar problemas
+
+### Registro de dispositivos
+Si los usuarios encuentran problemas al registrar sus dispositivos para Datadog Intune, los administradores deben verificar las siguientes configuraciones:
+
+- Se ha concedido el **consentimiento de administración** en Microsoft Entra-ID.
+- Se asigna al usuario una **política de protección de aplicaciones**.
+  - **Nota**: Las actualizaciones de políticas pueden tardar algún tiempo en llegar a los dispositivos.
+- Si existe una **política de configuración de aplicaciones** exclusiva, asegúrate de que contiene las claves y los valores correctos.
+
+Si persisten los problemas de registro, ponte en contacto con nosotros en [support@datadoghq.com][14] con los diagnósticos de Intune adjuntos. Para recopilar los diagnósticos:
+
+1. En la pantalla de inicio de sesión, pulsa **View Intune Diagnostics.** (Ver diagnósticos de Intune).
+2. Selecciona **Iniciar** y luego **Compartir logs**.
+
+## Referencias adicionales
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: https://intune.microsoft.com/
+[2]: https://play.google.com/store/apps/details?id=com.datadog.app.intune
+[3]: https://learn.microsoft.com/en-us/mem/intune/apps/quickstart-add-assign-app
+[4]: https://docs.microsoft.com/en-us/mem/intune/apps/app-protection-policy-delivery
+[5]: https://docs.microsoft.com/en-us/mem/intune/apps/app-protection-policies-validate
+[6]: https://learn.microsoft.com/en-us/entra/identity-platform/application-consent-experience
+[7]: https://portal.azure.com/#view/Microsoft_AAD_IAM/ActiveDirectoryMenuBlade/~/Overview
+[8]: https://docs.microsoft.com/en-us/azure/active-directory/manage-apps/
+[9]: https://play.google.com/store/apps/details?id=com.microsoft.windowsintune.companyportal
+[10]: https://play.google.com/store/apps/details?id=com.datadog.app.intune
+[11]: https://apps.apple.com/app/datadog-intune/id1673106321
+[12]: https://apps.apple.com/app/intune-company-portal/id719171358
+[13]: https://docs.datadoghq.com/es/mobile/enterprise_configuration/
+[14]: mailto:support@datadoghq.com
\ No newline at end of file
diff --git a/content/es/monitors/guide/composite_use_cases.md b/content/es/monitors/guide/composite_use_cases.md
new file mode 100644
index 0000000000000..d9a0f986dd3de
--- /dev/null
+++ b/content/es/monitors/guide/composite_use_cases.md
@@ -0,0 +1,104 @@
+---
+further_reading:
+- link: monitors/types/composite/
+  tag: Documentación
+  text: Tipo de monitor compuesto
+title: Casos de uso de monitores compuestos
+---
+
+
+## Información general
+
+En esta guía se enumeran casos de uso no exhaustivos para monitores compuestos. En estos ejemplos se ilustra cómo se pueden configurar monitores compuestos para abordar diversos casos de uso en entornos de monitorización:
+
+- [Tasas de errores](#error-rates)
+- [Métricas frecuentes de monitores](#Monitor-frequent-metrics)
+- [Monitor de pasos](#step-monitor)
+- [Renotificación en la recuperación](#renotifying-on-recovery)
+- [Retraso en la notificación](#delay-on-notificación)
+
+
+## Tasas de errores
+
+Alerta cuando la tasa de errores supera un umbral sólo cuando los aciertos superan un número determinado.
+
+Crea dos monitores:
+
+- **Monitor A**: Alerta cuando `trace.requests.request.errors / trace.requests.request.hits > X`
+- **Monitor B**: Alerta cuando `trace.requests.request.hits > Y`
+
+**Monitor compuesto C**: Alerta cuando el Monitor A y el Monitor B están en alerta (A && B).
+
+| Monitor A | Monitor B | Monitor compuesto C |
+|-----------|-----------|---------------------|
+| **Alerta** Tasa de errores por encima del umbral | **Alerta** Aciertos por encima del umbral | **Alerta** |
+| **Alerta** Tasa de errores por encima del umbral | **OK** Aciertos por debajo del umbral | **OK** Sólo se cumple una condición, no hay alerta. |
+| **OK** Tasa de errores por debajo del umbral | **Alerta** Aciertos por encima del umbral | **OK** Sólo se cumple una condición, no hay alerta. |
+
+Para más combinaciones de estados, consulta [Monitor compuesto](https://docs.datadoghq.com/monitors/create/types/composite/#computing-trigger-conditions).
+
+## Métricas frecuentes de monitores
+
+Latencia de monitores para servicios, que ignora los picos ocasionales debido al bajo tráfico. Por ejemplo, un periodo de tiempo durante la noche en el que los servicios informan de muy pocos valores.
+
+Crea dos monitores:
+
+- **Monitor A**: Alerta cuando `latency > X`
+- **Monitor B**: Alerta cuando `sum:latency{*}.rollup(count) > Y` en la última 1 hora
+
+**Monitor compuesto C**: Alerta cuando se cumplen ambas condiciones.
+
+| Monitor A | Monitor B | Monitor compuesto C |
+|-----------|-----------|---------------------|
+| **Alerta** Latencia por encima del umbral | **Alerta** Más de Y métricas | **Alerta** |
+| **Alerta** Latencia por encima del umbral | **OK** Menos de Y métricas | **OK** Métricas insuficientes |
+| **OK** Latencia por debajo del umbral | **Alerta** Más de Y métricas | **OK** Latencia por debajo del umbral |
+
+## Monitor de pasos
+
+Activa una alerta si no hay una métrica emparejada. Por ejemplo, métricas de logs para enviado/recibido, abajo/arriba o crear/resolver. Puedes ajustar la ventana de evaluación para los monitores si se espera que las métricas emparejadas estén separadas por N minutos.
+
+- **Monitor A**: Alerta cuando `action:create` es superior a 0
+- **Monitor B**: Alerta cuando `action:resolve` es superior a 0
+
+**Compuesto**: Alerta si `a && !b`.
+
+| Monitor A | Monitor B | Monitor compuesto C |
+|-----------|-----------|---------------------|
+| **Alerta** Acción crear por encima de 0 | **Alerta** Acción resolver por encima de 0 | **OK** |
+| **Alerta** Acción crear por encima de 0 | **OK** | **Alerta** Acción resolver ausente |
+| **OK** | **Alerta** Acción resolver por encima de 0 | **OK** |
+
+## Renotificación en la recuperación
+
+Renotificar en la recuperación utilizando dos monitores con un `timeshift`.
+
+- **Monitor A**: Estado de métricas actuales
+- **Monitor B**: Estado de métricas del pasado utilizando `timeshift`
+
+**Monitor compuesto**: La lógica es `!a && b`.
+
+| Monitor A | Monitor B | Monitor compuesto C |
+|-----------|-----------|---------------------|
+| **Alerta** Métrica en tiempo real | **Alerta** Métrica del pasado | **OK** |
+| **Alerta** Métrica en tiempo real | **OK** métrica no activada | **OK** |
+| **OK** Métrica no activada | **Alerta** Métrica del pasado | **Alerta** |
+
+## Retraso en la notificación
+
+Alerta después de que los errores persisten durante un tiempo configurado. Por ejemplo, un conjunto de errores activados durante al menos 15 minutos.
+
+- **Monitor A**: Métrica en tiempo real
+- **Monitor B (diferido)**: métrica desplazada X minutos
+
+**Monitor compuesto**: Alerta si `a && b`.
+
+| Monitor A | Monitor B (diferido) | Monitor compuesto C |
+|-----------|--------------------------|---------------------|
+| **Alerta** Métrica en tiempo real | **Alerta** Métrica del pasado | **Alerta** |
+| **Alerta** Métrica en tiempo real | **OK** métrica no activada | **OK** |
+| **OK** métrica no activada | **Alerta** Métrica del pasado | **OK** |
+
+## Referencias adicionales
+
+{{< partial name="whats-next/whats-next.html" >}}
\ No newline at end of file
diff --git a/content/es/monitors/guide/notification-message-best-practices.md b/content/es/monitors/guide/notification-message-best-practices.md
new file mode 100644
index 0000000000000..4f45197b7ae3c
--- /dev/null
+++ b/content/es/monitors/guide/notification-message-best-practices.md
@@ -0,0 +1,162 @@
+---
+further_reading:
+- link: /monitors/notify/
+  tag: Documentación
+  text: Más información sobre notificaciones de monitor
+title: Prácticas recomendadas para los mensajes de notificación
+---
+
+## Información general
+
+Los monitores son esenciales para el buen funcionamiento de las empresas y los sistemas. Cuando un monitor genera alertas, esto indica que es necesario prestar atención. Sin embargo, detectar un problema es solo la punta del iceberg, es la notificación lo que repercute en gran medida en el tiempo de resolución.
+
+Los mensajes de notificación tienden un puente entre tu sistema de monitorización y los responsables de resolver los problemas. Los mensajes poco claros o mal redactados pueden causar confusión, ralentizar los tiempos de respuesta o dejar problemas sin resolver, mientras que un mensaje claro y procesable ayuda a tu equipo a comprender rápidamente lo que está mal y qué hacer a continuación.
+
+Utiliza esta guía para mejorar tus mensajes en notificación y aprender sobre:
+- Principios clave de una comunicación eficaz
+- Errores comunes que hay que evitar
+- Consejos para crear mensajes que den resultados
+
+Desde los responsables de producto hasta los desarrolladores, este recurso garantiza que las notificaciones mejoren la fiabilidad del sistema y la eficacia del equipo.
+
+## Configuración de notificaciones
+
+El primer paso es configurar la notificación con los campos obligatorios:
+* [**Nombre del monitor**](#name), que es también el título de la notificación.
+* [**Mensaje del monitor**](#message), que es el cuerpo de la notificación.
+
+{{< img src="/monitors/guide/notification_message_best_practices/monitor_notification_message.png" alt="Configuración de los mensajes de notificación de un monitor" style="width:100%;" >}}
+
+### Nombre
+
+Crea el nombre del monitor de modo que incluya información clave para que la persona responsable comprenda rápidamente el contexto de la alerta. El título del monitor debe ofrecer una descripción clara y concisa de la señal, incluyendo:
+
+* El modo o los modos de fallo o las métricas divergentes
+* El recurso que se ve afectado (como centro de datos, Kubernetes clúster, host o servicio)
+
+
+| Necesita revisión | Título mejorado                          | 
+| -------------- | --------------------------------------- | 
+| Uso de la memoria   | Elevado uso de memoria en {{pod\_name.name}} |
+
+Si bien ambos ejemplos se refieren a un monitor de consumo de memoria, el título mejorado ofrece una representación exhaustiva con un contexto esencial para una investigación focalizada.
+
+### Mensaje
+
+Las personas responsables de guardia confían en el cuerpo de la notificación para comprender las alertas y actuar en consecuencia. Escribe mensajes concisos, precisos y legibles para ofrecer una mayor claridad.
+
+- Indica con precisión lo que está fallando y enumerar las principales causas raíz.
+- Añade un runbook de soluciones para obtener una guía de resolución rápida.
+- Incluye enlaces a las páginas pertinentes para ver claramente los siguientes pasos.
+- Asegúrate de que las notificaciones se envían a los destinatarios adecuados, ya sea como notificaciones directas mediante correo electrónico o a través de [manejadores de integraciones][1] (como Slack).
+
+Lee las siguientes secciones para explorar las funciones avanzadas que pueden mejorar aún más tus mensajes de monitor.
+
+#### Variables
+
+Las variables de mensajes de monitor son parámetros dinámicos que permiten personalizar los mensajes de notificación con información contextual en tiempo real. Utiliza estas variables para mejorar la claridad de los mensajes y proporcionar un contexto detallado. Existen dos tipos de variables:
+
+| Tipo de variable | Descripción | 
+|---------------------|-----------------------------------------------------------------------------------------------------| 
+| [Condicional](#conditional-variables) | Utiliza la lógica "if-else" para adaptar el contexto del mensaje en función de ciertas condiciones como el estado del monitor. | 
+| [Plantilla](#template-variables) | Enriquece las notificaciones de monitor con información contextual. |
+
+Las variables son especialmente importantes en un monitor de **alerta múltiple**. Cuando se activan, necesitas saber qué grupo es el responsable. Por ejemplo, la monitorización del uso de la CPU por contenedor, agrupado por host. Una variable valiosa es {{host.name}}, que indica qué host activó la alerta.
+
+{{< img src="/monitors/guide/notification_message_best_practices/query_parameters.png" alt="Ejemplo de consulta de monitor de la métrica container.cpu.usage por host" style="width:100%;" >}}
+
+#### Variables condicionales
+
+Estas variables te permiten adaptar el mensaje de notificación implementando una lógica de bifurcación basada en tus necesidades y casos de uso. Utiliza variables condicionales para notificar a diferentes personas/grupos en función del grupo que activó la alerta.
+
+{{< code-block lang="text" >}}
+{{#is_exact_match "role.name" "network"}}
+  # El contenido muestra si el host que activó la alerta contiene `network` en el nombre del rol y sólo notifica a @network-team@company.com.
+  @network-team@company.com
+{{/is_exact_match}}
+{{< /code-block >}}
+
+Puedes recibir una notificación si el grupo que activó la alerta contiene una cadena específica.  
+
+{{< code-block lang="text" >}}
+{{#is_match "datacenter.name" "us"}}
+  # El contenido muestra si la región que activó la alerta contiene `us` (como us1 o us3).
+  @us.datacenter@company.com 
+{{/is_match}}
+{{< /code-block >}}
+
+Para obtener más información y ejemplos, consulta la documentación sobre [variables condicionales][2]. 
+
+#### Variables de plantilla
+
+Añade variables de plantilla de monitor para acceder a los metadatos que provocaron la alerta de tu monitor, como {{value}}, pero también a la información relacionada con el contexto de la alerta.
+
+Por ejemplo, si quieres ver el nombre de host, la IP y el valor de la consulta del monitor:
+```
+The CPU for {{host.name}} (IP:{{host.ip}}) reached a critical value of {{value}}.
+```
+
+Para ver la lista de variables de plantilla disponibles, consulta la [documentación][3].
+
+También puedes utilizar variables de plantilla para crear enlaces dinámicos y manejadores que dirijan automáticamente tus notificaciones.
+Ejemplo de manejadores:  
+```
+@slack-{{service.name}} There is an ongoing issue with {{service.name}}.
+```
+
+Genera el siguiente resultado cuando el service:ad-server del grupo activa:
+```
+@slack-ad-server There is an ongoing issue with ad-server.
+```
+Ejemplo de enlaces:  
+```
+[https://app.datadoghq.com/dash/integration/system_overview?tpl_var_scope=host:{{host.name](https://app.datadoghq.com/dash/integration/system_overview?tpl_var_scope=host:{{host.name)}}
+```
+
+## Ejemplo de mensaje de notificación que cumple las prácticas recomendadas
+
+**\#\# ¿Qué está pasando?**  
+El uso de CPU en {{host.name}} superó el umbral definido.
+
+Uso actual de CPU: {{value}}  
+Umbral: {{threshold}}  
+Hora: {{last\_triggered\_at\_epoch}}
+
+**\#\# Impacto**  
+1\. Los clientes experimentan retrasos en el sitio web.  
+2\. Tiempos de espera y errores.
+
+**\#\# ¿Por qué?**  
+Puede haber varias razones por las que el uso de CPU superó el umbral:
+
+* Aumento del tráfico  
+* Problemas de hardware
+* Ataque externo
+
+**\#\# ¿Cómo solucionar/resolver el problema?**   
+1\. Analiza la carga de trabajo para identificar los procesos con un uso intensivo de CPU.   
+  a. para OOM \- \[increase pod limits if too low\](***\<Link\>***)  
+2\. Incrementa la capacidad de {{host.name}} añadiendo más réplicas:   
+  a. directamente: ***\<Code to do so\>***   
+  b. cambiar la configuración a través de \[add more replicas runbook\](***\<Link\>***) 
+3\. Comprueba si existen \[Kafka issues\](***\<Link\>***)  
+4\. Comprueba si hay otras interrupciones/incidentes (intentos de conexión)
+
+
+**\#\# Enlaces relacionados**  
+\* \[Dashboard de resolución de errores\](***\<Link\>***)  
+\* \[Dashboard de la aplicación\](***\<Link\>***)  
+\* \[Logs\](***\<Link\>***)  
+\* \[Infraestructura\](***\<Link\>***)  
+\* \[Información general del pipeline\](***\<Link\>***)  
+\* \[Documentación de la aplicación\](***\<Link\>***)  
+\* \[Modos de fallo\](***\<Link\>***)  
+
+
+## Referencias adicionales
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: /es/monitors/notify/#integrations
+[2]: /es/monitors/notify/variables/?tab=is_alert#conditional-variables
+[3]: /es/monitors/notify/variables/?tab=is_alert#template-variables
\ No newline at end of file
diff --git a/content/es/monitors/status/graphs.md b/content/es/monitors/status/graphs.md
new file mode 100644
index 0000000000000..9ddb0f1fc28f9
--- /dev/null
+++ b/content/es/monitors/status/graphs.md
@@ -0,0 +1,119 @@
+---
+further_reading:
+- link: monitors/configuration/?tab=thresholdalert
+  tag: Documentación
+  text: Configuración del monitor
+- link: monitors/configuration/?tab=thresholdalert/#group-retention-time
+  tag: Documentación
+  text: Duración de retención de un grupo
+- link: monitors/configuration/?tab=thresholdalert/#set-alert-conditions
+  tag: Documentación
+  text: Definir condiciones de alerta
+title: Gráficos de estado
+---
+
+<div class="alert alert-info">Los gráficos de estado forman parte de la <a href="/monitors/status/status_page">página de estado provisoria del monitor </a>. Si utilizas la página de estado legacy, consulta la documentación de la página <a href="/monitors/status/status_legacy">Estado legacy</a>.</div>
+
+## Información general
+
+Los gráficos de la página de estado del monitor ofrecen información sobre las evaluaciones individuales del monitor. Estos gráficos te permiten comprender por qué tu monitor podría encontrarse en un estado `ALERT` y dónde centrar tus esfuerzos para solucionar problemas.
+
+## Metadatos de monitor
+
+{{< img src="/monitors/status/graphs/status_graph_metadata.png" alt="Sección de metadatos del monitor a la derecha de la página de estado." style="width:100%;" >}}
+
+El panel derecho de la sección de gráficos de la página de estado del monitor proporciona información general clara de tu monitor, incluyendo
+
+|  | Descripción |
+| ---- | ---- |
+| Grupos | Recuento de grupos por estado (`ALERT`, `WARN`, `NO DATA`, `OK`) |
+| Visualizar como | Selector de gráficos para alternar entre los gráficos: Datos evaluados, Datos de origen y Transiciones. |
+| Consulta | Consulta de monitor sin procesar. Cada monitor incluye un enlace dinámico a un explorador o página específicos en función del tipo de datos, como explorador de eventos para los tipos de datos de eventos o un explorador general de métricas para otros tipos. |
+| Evaluación | Método de agregación aplicado a la consulta con la ventana de evaluación. |
+| Recuento de notificaciones | Recuento de notificaciones enviadas desde este monitor. |
+
+
+## Filtrar la página por grupos o estado
+
+Dependiendo de la consulta, el monitor puede tener varios grupos. Para centrarte en un grupo específico, utiliza los filtros desplegables para seleccionar el grupo deseado.
+
+{{< img src="/monitors/status/view_monitor_evaluations_graphs_1.png" alt="Ejemplo de página de estado del monitor filtrado por una variable de plantilla" style="width:100%;" >}}
+
+Puedes elegir el contexto de la página según:
+
+Estado del grupo
+: Sólo se mostrarán los grupos que se encuentran actualmente en el estado seleccionado.
+
+Estado silenciado
+: Sólo se mostrarán los grupos silenciados o no.
+
+Nombres de grupos
+: Sólo se mostrarán los grupos que tienen la etiqueta (tag) seleccionada.
+
+## Gráfico de datos evaluados
+
+La visualización de los datos evaluados es específica del monitor y muestra los resultados de las evaluaciones individuales. Por ejemplo, si el monitor evalúa la media de los últimos 5 minutos, cada punto de datos representa la media agregada de 5 minutos en cada momento de la evaluación.
+
+La visualización coincide con la configuración de tu monitor para mostrar el estado histórico y actual del monitor, utilizando los parámetros de las evaluaciones. Los gráficos muestran el estado por grupo.
+
+{{< img src="/monitors/status/graphs/status_page_demo.mp4" alt="Presentación de las funciones de la interfaz de usuario de datos evaluados, incluyendo los detalles de eventos y el filtrado por grupo" video=true >}}
+
+Para ver los detalles de los cambios de estado (como un cambio de `WARN` a `ALERT`), haz clic en el evento de alerta del gráfico y consulta la sección **Detalles de eventos** para obtener más información.
+
+Para filtrar la vista de un grupo individual, pasa el cursor del ratón sobre el título del grupo y haz clic en **Filter to Group** (Filtrar por grupo) en la información de herramientas.
+
+{{< img src="/monitors/status/graphs/current_status_dot.png" alt="Gráfico de datos evaluados que muestra un gráfico OK con una ADVERTENCIA para no mostrar porque el estado actual es ADVERTENCIA" style="width:100%;" >}}
+
+Al investigar los cambios de estado anteriores, el punto de color junto al título del grupo indica el estado actual del grupo.
+
+### Seguimiento de cambios
+El gráfico de seguimiento de cambios te permite ver y analizar los cambios relacionados con tu servicio y tus dependencias, que se produjeron más o menos al mismo tiempo que la alerta, ya que tales eventos son a menudo la causa de origen de los problemas.
+
+{{< img src="/monitors/status/change_tracking_monitor_status_page.png" alt="Ejemplo de despliegue que se muestra en la página de estado del monitor" style="width:100%;" >}}
+
+El seguimiento de cambios admite varios cambios, como despliegues, marcas de características o modificaciones de bases de datos. Para ver la lista completa y los requisitos de configuración, consulta la documentación [Change Tracking][2].
+
+## Gráfico de datos de origen
+
+{{< img src="/monitors/status/source_data_graph_1.png" alt="Página de estado que muestra el gráfico de los datos de origen" style="width:100%;" >}}
+
+El gráfico de origen muestra una vista de la consulta de los datos subyacentes de un monitor, tal y como se vería en un dashboard o un notebook. Utiliza este gráfico para ver los datos inalterados a lo largo del tiempo y confirmar si las fluctuaciones de datos o las anomalías activan alertas.
+
+Utiliza este gráfico para identificar cualquier discrepancia entre los datos sin procesar y las métricas esperadas, lo que puede indicar problemas de recopilación o presentación de datos que afectan al estado del monitor.
+
+### Restricciones del gráfico de datos de origen
+
+Los siguientes tipos de monitores no son compatibles con la página de estado provisoria:
+
+- Anomalía
+- Coste de la nube
+- Compuesto
+- Database Monitoring
+- Predicción
+- Live Process
+- Outlier
+- Synthetics
+- Alertas de SLOs
+- Utilización
+
+## Transiciones
+
+El gráfico de transiciones muestra las transiciones de estado de tu monitor a lo largo del tiempo, desglosadas por grupos, y muestra qué grupos están activando la alerta.
+
+### Sin notificación
+
+{{< img src="/monitors/status/graphs/non_reporting_transitions_1.png" alt="Gráfico de transiciones que muestra datos sin notificaciones" style="width:100%;" >}}
+
+Datadog conserva los grupos de monitores en la interfaz de usuario durante 24 horas, a menos que se configure de otro modo. Para obtener más información, consulta el [tiempo de conservación de grupos][1]. Una línea de puntos en el gráfico puede indicar:
+
+* Un nuevo grupo evaluado tras la creación del monitor, representado como una línea de puntos desde el inicio del periodo de tiempo hasta su primera evaluación.
+* Un grupo que dejó de notificar y luego volvió a hacerlo, con una línea de puntos que aparece desde que dejó de notificar hasta que volvió a hacerlo.
+
+**Nota**: Un estado de no notificación es diferente de un estado "sin datos". Los monitores de hosts y los checks de servicios configurados para notificar cuando faltan datos están disponibles durante 48 horas.
+
+## Referencias adicionales
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: /es/monitors/configuration/?tab=thresholdalert#group-retention-time
+[2]: /es/change_tracking
\ No newline at end of file
diff --git a/content/es/network_monitoring/devices/sd-wan.md b/content/es/network_monitoring/devices/sd-wan.md
new file mode 100644
index 0000000000000..e75f091083d0d
--- /dev/null
+++ b/content/es/network_monitoring/devices/sd-wan.md
@@ -0,0 +1,39 @@
+---
+description: Empezando con los dispositivos SD-WAN
+further_reading:
+- link: /network_monitoring/devices/supported_devices
+  tag: doc
+  text: Dispositivos NDM compatibles
+- link: network_monitoring/devices/data/
+  tag: Doc
+  text: Datos de NDM recopilados
+- link: https://www.datadoghq.com/architecture/network-observability-sd-wan-reference-architecture/
+  tag: Centro de arquitectura
+  text: 'Observabilidad de red: Arquitectura de referencia SD-WAN'
+title: SD-WAN
+---
+
+## Monitorización SD-WAN
+
+Además de los dispositivos SNMP, puedes monitorizar entornos inalámbricos y de red de área extensa definida por software (SD-WAN) de determinados proveedores. Recopila métricas de puntos de acceso inalámbricos y monitoriza el estado de los túneles SD-WAN y de los dispositivos de borde.
+
+{{< img src="network_device_monitoring/getting_started/sd-wan-datadog-integration_no_numbers.png" alt="Arquitectura de referencia SD-WAN" style="width:90%;" >}}
+
+SD-WAN es un tipo de tecnología de red que utiliza principios de redes definidas por software (SDN) para gestionar y optimizar el rendimiento de las redes de área extensa (WAN). A menudo se utiliza para interconectar oficinas remotas y centros de datos a través de diferentes transportes (MPLS, banda ancha, 5G, etc.). SD-WAN se beneficia del balanceo de cargas y la detección automática de fallos a través de estos transportes. Para obtener más información sobre las capacidades de observabilidad SD-WAN de Datadog, consulta la [arquitectura de referencia SD-WAN][1].
+
+## Proveedores compatibles
+
+Datadog admite los siguientes proveedores para la monitorización de redes SD-WAN:
+
+  - [Meraki SD-WAN][2] 
+  - [Cisco SD-WAN][3] 
+  - [VmWare VeloCloud][4] (En vista previa)
+
+## Referencias adicionales
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: https://www.datadoghq.com/architecture/network-observability-sd-wan-reference-architecture/
+[2]: https://docs.datadoghq.com/es/integrations/meraki/
+[3]: https://docs.datadoghq.com/es/integrations/cisco_sdwan/
+[4]: https://docs.datadoghq.com/es/integrations/velocloud_sd_wan/
\ No newline at end of file
diff --git a/content/es/network_monitoring/network_path/setup.md b/content/es/network_monitoring/network_path/setup.md
new file mode 100644
index 0000000000000..2c5bdc64a1615
--- /dev/null
+++ b/content/es/network_monitoring/network_path/setup.md
@@ -0,0 +1,298 @@
+---
+description: Configuración de Network Path
+further_reading:
+- link: /network_monitoring/network_path/list_view
+  tag: Documentación
+  text: Más información sobre la vista de lista en Network Path
+- link: /network_monitoring/network_path/path_view
+  tag: Documentación
+  text: Más información sobre la Vista de ruta en la Ruta de red
+is_beta: true
+title: Ajustes
+---
+
+{{< site-region region="gov" >}}
+<div class="alert alert-warning">Network Path para Datadog Cloud Network Monitoring no es compatible con tu <a href="/getting_started/site">sitio Datadog</a> seleccionado ({{< region-param key="dd_site_name" >}}).</div>
+{{< /site-region >}}
+
+<div class="alert alert-info">Network Path para Datadog Cloud Network Monitoring tiene disponibilidad limitada. Ponte en contacto con tu representante de Datadog para inscribirte y, a continuación, utiliza las siguientes instrucciones para configurar el Datadog Agent para recopilar datos de Network Path.</div>
+
+## Información general
+
+Configurar Network Path implica configurar tu entorno Linux para monitorizar y rastrear las rutas de red entre tus servicios y los endpoints. Esto ayuda a identificar cuellos de botella, problemas de latencia y posibles puntos de fallo en tu infraestructura de red. Network Path te permite configurar manualmente de rutas red individuales o detectarlas automáticamente, dependiendo de tus necesidades.
+
+## Requisitos previos
+
+[CNM][1] debe estar activado.
+
+**Nota**: Si tu configuración de red restringe el tráfico saliente, sigue las instrucciones de configuración en la documentación de [configuración del proxy del Agent][2].
+
+## Configuración
+
+### Monitorizar rutas individuales
+
+{{< tabs >}}
+{{% tab "Linux" %}}
+
+Se requiere el Agent `v7.59+`.
+
+Configura manualmente rutas individuales especificando el endpoint exacto que quieres probar. Esto te permite apuntar a rutas de red específicas para la monitorización.
+
+1. Habilita el módulo `system-probe` traceroute en `/etc/datadog-agent/system-probe.yaml` añadiendo lo siguiente:
+
+   ```
+   traceroute:
+     enabled: true
+   ```
+
+2. Habilita `network_path` para monitorizar nuevos destinos desde este Agent, creando o editando el archivo `/etc/datadog-agent/conf.d/network_path.d/conf.yaml`:
+
+   ```yaml
+   init_config:
+     min_collection_interval: 60 # in seconds, default 60 seconds
+   instances:
+     # configure the endpoints you want to monitor, one check instance per endpoint
+     # warning: Do not set the port when using UDP. Setting the port when using UDP can cause traceroute calls to fail and falsely report an unreachable destination.
+
+     - hostname: api.datadoghq.eu # endpoint hostname or IP
+       protocol: TCP
+       port: 443
+       tags:
+         - "tag_key:tag_value"
+         - "tag_key2:tag_value2"
+     ## optional configs:
+     # max_ttl: 30 # max traderoute TTL, default is 30
+     # timeout: 1000 # timeout in milliseconds per hop, default is 1s
+
+     # more endpoints
+     - hostname: 1.1.1.1 # endpoint hostname or IP
+       protocol: UDP
+       tags:
+         - "tag_key:tag_value"
+         - "tag_key2:tag_value2"
+    ```
+
+   Para ver todos los detalles de configuración, consulta el [ejemplo de configuración][4] o utiliza lo siguiente:
+
+   ```yaml
+   init_config:
+    ## @param min_collection_interval - int - optional - default:60
+     ## Interval between each traceroute runs for each destination.
+     # min_collection_interval: <interval_in_seconds>
+
+   instances:
+     ## @param hostname - string - required
+     ## Hostname or IP of the destination endpoint to monitor.
+     ## Traceroute will be run against this endpoint with a sequence of different TTL.
+     #
+     - hostname: <HOSTNAME_OR_IP>
+
+     ## @param port - integer - optional - default:<RANDOM PORT>
+     ## The port of the destination endpoint.
+     ## For UDP, we do not recommend setting the port since it can make probes less reliable.
+     ## By default, the port is random.
+     #
+     # port: <PORT>
+
+     ## @param max_ttl - integer - optional - default:30
+     ## The maximum traceroute TTL used during path collection.
+     #
+     # max_ttl: 30
+
+     ## @param timeout - integer - optional - default:1000
+     ## Specifies how much time in milliseconds the traceroute should
+     ## wait for a response from each hop before timing out.
+     #
+     # timeout: 1000
+
+     ## @param min_collection_interval - integer - optional - default:60
+     ## Interval between each traceroute runs for each destination.
+     # min_collection_interval: <interval_in_seconds>
+     ## @param source_service - string - optional
+     ## Source service name.
+     #
+     # source_service: <SOURCE_SERVICE>
+
+     ## @param destination_service - string - optional
+     ## Destination service name.
+     #
+     # destination_service: <DESTINATION_SERVICE>
+
+     ## @param tags - list of strings - optional
+     ## A list of tags to attach to every metric and service check emitted by this instance.
+     ##
+     ## Learn more about tagging at https://docs.datadoghq.com/tagging
+     #
+     # tags:
+     #   - <KEY_1>:<VALUE_1>
+     #   - <KEY_2>:<VALUE_2>
+   ```
+
+3. Para empezar a ver las rutas de red, reinicia el Agent después de realizar estos cambios de configuración.
+
+[4]: https://github.com/DataDog/datadog-agent/blob/main/cmd/agent/dist/conf.d/network_path.d/conf.yaml.example
+
+{{% /tab %}}
+{{% tab "Windows" %}}
+
+Se requiere el Agent `v7.61+`.
+
+**Nota**: Windows sólo admite traceroutes TCP.
+
+En entornos Windows, el Agent utiliza UDP por defecto para monitorizar rutas individuales. Si no se especifica el protocolo en la configuración, el Agent intenta un traceroute UDP y se registran todos los errores. Para evitarlo, asegúrate de que el protocolo está configurado como TCP. Por ejemplo:
+
+```yaml
+init_config:
+  min_collection_interval: 60 # in seconds, default 60 seconds
+instances:
+  - hostname: api.datadoghq.eu # endpoint hostname or IP
+    protocol: TCP
+    port: 443 # optional port number, default is 80
+```
+{{% /tab %}}
+{{% tab "Helm" %}}
+
+Para habilitar Network Path con Kubernetes utilizando Helm, añade lo siguiente a tu archivo `values.yaml`.</br>
+**Nota:** **Se requiere** Helm chart v3.109.1 o posterior. Para obtener más información, consulta la [documentación de Helm Chart de Datadog][1] y la documentación de [Kubernetes e integraciones][2].
+
+  ```yaml
+  datadog:
+    traceroute:
+      enabled: true
+    confd:
+      network_path.yaml: |-
+        init_config:
+          min_collection_interval: 60 # in seconds, default 60 seconds
+        instances:
+          # configure the endpoints you want to monitor, one check instance per endpoint
+          # warning: Do not set the port when using UDP. Setting the port when using UDP can cause traceroute calls to fail and falsely report an unreachable destination.
+
+          - hostname: api.datadoghq.eu # endpoint hostname or IP
+            protocol: TCP
+            port: 443
+            tags:
+              - "tag_key:tag_value"
+              - "tag_key2:tag_value2"
+          ## optional configs:
+          # max_ttl: 30 # max traderoute TTL, default is 30
+          # timeout: 1000 # timeout in milliseconds per hop, default is 1s
+
+          # more endpoints
+          - hostname: 1.1.1.1 # endpoint hostname or IP
+            protocol: UDP
+            tags:
+              - "tag_key:tag_value"
+              - "tag_key2:tag_value2"
+```
+
+Se requiere el Agent `v7.59+`.
+
+
+[1]: https://github.com/DataDog/helm-charts/blob/master/charts/datadog/README.md#enabling-system-probe-collection
+[2]: https://docs.datadoghq.com/es/containers/kubernetes/integrations/?tab=helm#configuration
+{{% /tab %}}
+{{< /tabs >}}
+
+### Rutas de tráfico de red (experimental)
+
+**Nota**: Las rutas de tráfico de red son experimentales y aún no son estables. No despliegues rutas de tráfico de red ampliamente en un entorno de producción.
+
+Configura rutas de tráfico de red para permitir que el Agent detecte automáticamente y monitorice rutas de red basadas en el tráfico de red real, sin necesidad de especificar los endpoints manualmente.
+
+<div class="alert alert-warning">Habilitar Network Path para detectar automáticamente rutas puede generar una cantidad importante de logs, especialmente cuando se monitorizan rutas de red en un gran número de hosts. </div>
+
+{{< tabs >}}
+{{% tab "Linux" %}}
+
+Se requiere el Agent `v7.59+`.
+
+1. Habilita el módulo `system-probe` traceroute en `/etc/datadog-agent/system-probe.yaml` añadiendo lo siguiente:
+
+   ```yaml
+   traceroute:
+     enabled: true
+   ```
+
+2. Habilita `network_path` para monitorizar conexiones CNM, creando o editando el archivo `/etc/datadog-agent/datadog.yaml`:
+
+    ```yaml
+    network_path:
+      connections_monitoring:
+        enabled: true
+      # collector:
+        # workers: <NUMBER OF WORKERS> # default 4
+    ```
+
+    Para ver todos los detalles de configuración, consulta el [ejemplo de configuración][3] o utiliza lo siguiente:
+
+    ```yaml
+    network_path:
+      connections_monitoring:
+        ## @param enabled - bool - required - default:false
+        ## Enable network path collection
+        #
+        enabled: true
+      collector:
+        ## @param workers - int - optional - default:4
+        ## Number of workers that can collect paths in parallel
+        ## Recommendation: leave at default
+        #
+        # workers: <NUMBER OF WORKERS> # default 4
+    ```
+
+3. Para empezar a ver las rutas de red, reinicia el Agent después de realizar estos cambios de configuración.
+
+[3]: https://github.com/DataDog/datadog-agent/blob/2c8d60b901f81768f44a798444af43ae8d338843/pkg/config/config_template.yaml#L1731
+
+{{% /tab %}}
+{{% tab "Windows" %}}
+
+Se requiere el Agent `v7.61+`.
+
+1. Habilita el módulo `system-probe` traceroute en `%ProgramData%\Datadog\system-probe.yaml` añadiendo lo siguiente:
+
+   ```yaml
+   traceroute:
+     enabled: true
+   ```
+
+2. Habilita `network_path` para monitorizar conexiones CNM, creando o editando el archivo `%ProgramData%\Datadog\datadog.yaml`:
+
+    ```yaml
+    network_path:
+      connections_monitoring:
+        enabled: true
+      # collector:
+        # workers: <NUMBER OF WORKERS> # default 4
+    ```
+
+    Para ver todos los detalles de configuración, consulta el [ejemplo de configuración][3] o utiliza lo siguiente:
+
+    ```yaml
+    network_path:
+      connections_monitoring:
+        ## @param enabled - bool - required - default:false
+        ## Enable network path collection
+        #
+        enabled: true
+      collector:
+        ## @param workers - int - optional - default:4
+        ## Number of workers that can collect paths in parallel
+        ## Recommendation: leave at default
+        #
+        # workers: <NUMBER OF WORKERS> # default 4
+    ```
+
+3. Para empezar a ver las rutas de red, reinicia el Agent después de realizar estos cambios de configuración.
+
+[3]: https://github.com/DataDog/datadog-agent/blob/2c8d60b901f81768f44a798444af43ae8d338843/pkg/config/config_template.yaml#L1731
+
+{{% /tab %}}
+{{< /tabs >}}
+
+## Referencias adicionales
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: /es/network_monitoring/cloud_network_monitoring/setup/
+[2]: https://docs.datadoghq.com/es/agent/configuration/proxy/?tab=linux
\ No newline at end of file
diff --git a/content/es/observability_pipelines/destinations/sentinelone.md b/content/es/observability_pipelines/destinations/sentinelone.md
new file mode 100644
index 0000000000000..9a02a3f8d8776
--- /dev/null
+++ b/content/es/observability_pipelines/destinations/sentinelone.md
@@ -0,0 +1,49 @@
+---
+disable_toc: false
+further_reading:
+- link: https://www.datadoghq.com/blog/observability-pipelines-sentinelone/
+  tag: Blog
+  text: Optimizar los logs de EDR y enviarlos a SentinelOne con Observability Pipelines
+title: Destino SentinelOne
+---
+
+Utiliza el destino SentinelOne de Observability Pipelines para enviar logs a SentinelOne.
+
+## Configuración
+
+Configura el destino SentinelOne y sus variables de entorno cuando [configures un pipeline][1]. La información a continuación se configura en la interfaz de usuario de los pipelines.
+
+### Configurar el destino
+
+{{% observability_pipelines/destination_settings/sentinelone %}}
+
+### Configurar las variables de entorno 
+
+{{% observability_pipelines/configure_existing_pipelines/destination_env_vars/sentinelone %}}
+
+## Visualizar logs en un clúster SentinelOne
+
+Una vez configurado el pipeline para el envío de logs al destino SentinelOne, podrás visualizar los logs en un clúster SentinelOne:
+
+1. Inicia sesión en la [consola S1][2].
+2. Ve a la página "Buscar" de Singularity Data Lake (SDL). Para acceder a ella desde la consola, haz clic en "Visibility" (Visibilidad) en el menú de la izquierda para ir a SDL y asegúrate de que estás en la pestaña "Buscar".
+3. Asegúrate de que el filtro situado junto a la barra de búsqueda está configurado como **Todos los datos**.
+4. Esta página muestra los logs que enviaste desde Observability Pipelines a SentinelOne.
+
+## Cómo funciona el destino
+
+### Colocación de eventos en lotes
+
+Un lote de eventos se descarga cuando se cumple uno de estos parámetros. Para obtener más información, consulta [lotes de eventos][3].
+
+| Eventos máximos     | Bytes máximos       | Tiempo de espera (segundos)   |
+|----------------|-----------------|---------------------|
+| Ninguno           | 1,000,000       | 1                   |
+
+## Referencias adicionales
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: https://app.datadoghq.com/observability-pipelines
+[2]: https://usea1-partners.sentinelone.net/login
+[3]: /es/observability_pipelines/destinations/#event-batching
\ No newline at end of file
diff --git a/content/es/observability_pipelines/destinations/syslog.md b/content/es/observability_pipelines/destinations/syslog.md
new file mode 100644
index 0000000000000..257ffe06eaabc
--- /dev/null
+++ b/content/es/observability_pipelines/destinations/syslog.md
@@ -0,0 +1,26 @@
+---
+disable_toc: false
+title: Destinos de Syslog
+---
+
+Utiliza los destinos de syslog de Observability Pipelines para enviar logs a rsyslog o syslog-ng.
+
+## Configuración
+
+Configura el destino de rsyslog o syslog-ng y sus variables de entorno cuando [configures un pipeline][1]. La siguiente información se configura en la interfaz de usuario de los pipelines.
+
+### Configura el destino
+
+{{% observability_pipelines/destination_settings/syslog %}}
+
+### Configura las variables de entorno 
+
+{{% observability_pipelines/configure_existing_pipelines/destination_env_vars/syslog %}}
+
+### Cómo funciona el destino
+
+#### Procesamiento de eventos por lotes
+
+En los destinos rsyslog y syslog-ng no se procesan eventos por lotes.
+
+[1]: https://app.datadoghq.com/observability-pipelines
\ No newline at end of file
diff --git a/content/es/observability_pipelines/guide/strategies_for_reducing_log_volume.md b/content/es/observability_pipelines/guide/strategies_for_reducing_log_volume.md
new file mode 100644
index 0000000000000..f18ea559669b1
--- /dev/null
+++ b/content/es/observability_pipelines/guide/strategies_for_reducing_log_volume.md
@@ -0,0 +1,96 @@
+---
+disable_toc: false
+further_reading:
+- link: /observability_pipelines/set_up_pipelines
+  tag: documentación
+  text: Establecer un pipeline
+- link: /observability_pipelines/processors/
+  tag: documentación
+  text: Procesadores de Observability Pipelines
+title: Estrategias para reducir el volumen de logs
+---
+
+## Información general
+
+Observability Pipelines te permite recopilar y procesar logs, así como determinar hacia dónde deseas dirigirlos, todo ello antes de que los datos salgan de tus instalaciones o tu entorno en la nube.
+
+Los logs no tienen el mismo valor. Por ejemplo, los logs de errores suelen ser más útiles que los logs de información para solucionar problemas con operaciones en directo. Los logs de entornos de producción también son más importantes que los logs de entornos de no producción. Por lo tanto, dirigir todos tus logs a una solución indexada puede diluir el valor global de tus datos y hacer que supere tu presupuesto.
+
+Las siguientes situaciones también pueden aumentar innecesariamente el volumen y el coste de tus logs:
+
+- Un equipo de aplicación activa inadvertidamente el registro de depuración.
+- Envías una nueva compilación con una condición de bucle de error que desencadena una avalancha de errores.
+- Los equipos intentan añadir la mayor cantidad de datos de rendimiento y métrica en los logs porque parece más fácil que implementar otras soluciones de telemetría.
+- Los logs contienen campos y valores adicionales que nunca se utilizan.
+
+Esta guía te indica las estrategias para reducir tu volumen de logs utilizando los procesadores de Observability Pipelines, para que puedas seguir cumpliendo con los costes y aumentar el valor de tus datos almacenados.
+
+## Estrategias para reducir tu volumen de logs
+
+Sigue estas estrategias para reducir tu volumen de logs:
+
+### Haz una muestra de tus logs
+
+Reduce el volumen total de logs eliminando un porcentaje de logs de gran volumen que sabes que es repetitivo, ruidoso o menos valioso. Utiliza el [procesador de muestras][1] para hacer coincidir un subconjunto de logs basado en la consulta del filtro y conservar sólo el porcentaje de logs que hayas especificado. Esto te proporciona una visión representativa de los flujos de log de gran volumen, al tiempo que mantiene la visibilidad y la capacidad de análisis.
+
+{{< img src="observability_pipelines/guide/strategies_for_reducing_log_volume/sample_example.png" alt="Un procesador de ejemplo que retiene un 50% de logs que coinciden la consulta de filtro para http.status_code:200 and http.method:GET" style="width:100%;" >}}
+
+### Filtrar tus logs
+
+No todos los logs son valiosos y necesitan ser almacenados. Por ejemplo, guardar logs de depuración de sistemas que no son de producción probablemente no sea crítico para tu organización. Por lo tanto, utiliza el [procesador de filtros][2] para descartar esos logs, de modo que no se envíen a tus soluciones de gestión de logs.
+
+### Descartar atributos en tus logs
+
+Los logs pueden contener cientos de atributos y, a menudo, sólo se utiliza un pequeño número de ellos para la investigación y el análisis. Utiliza el procesador de [editar campos][3] para reducir el tamaño total de tus logs eliminando los atributos que no se utilizan o que no son útiles, lo que reduce el coste de ingesta de logs.
+
+### Reducir tus logs
+
+Los sistemas pueden emitir cientos, si no miles, de logs por segundo. Contrae estos logs en un único evento fusionando los campos mediante distintas estrategias, como la concatenación, la suma, la creación de una matriz con los valores, etc. Utiliza el [procesador de reducción][4] para contraer varios eventos de logs en un único evento, en función de la estrategia de fusión seleccionada. Esto reduce el número total de eventos que se envían a tu destino.
+
+### Deduplicar tus logs
+
+Deduplicar tus logs puede ayudar a mantener la exactitud y coherencia de tus datos y protegerte contra errores previos que dupliquen accidentalmente tus logs. Utiliza el [procesador de deduplicación][5] para comparar campos y ver si hay contenido idéntico y, a continuación, elimina los duplicados, reduciendo así el volumen total de logs.
+
+### Implementar cuotas
+
+Gobierna y controla tus logs a diferentes niveles utilizando cuotas. Por ejemplo, a un nivel detallado, puedes aplicar un límite de cuota a los logs de una aplicación específica (`app:xyz`) o, a un nivel superior, aplicar un límite a los logs de información (`status:info`). Esto puede ayudar a cumplir los requisitos de presupuesto y uso.
+
+Utiliza el [procesador de cuotas][6] para:
+1. Definir un filtro para logs que te interesen. Esto podría filtrar los logs a un nivel superior, como para un entorno, o a un nivel más detallado, como para un equipo específico. También puedes filtrar utilizando una combinación de atributos de logs.
+1. Definir una cuota basada en el número de bytes o eventos. Puedes optar por eliminar los logs recibidos una vez alcanzada la cuota, o simplemente recibir un aviso de que se ha alcanzado el límite para que puedas investigar y solucionarlo.
+
+{{< img src="observability_pipelines/guide/strategies_for_reducing_log_volume/quota_example.png" alt="Un procesador de cuota con una consulta de filtro para http.status_code:200 y un límite establecido en 1 TB por día" style="width:100%;" >}}
+
+### Dirigir tus logs directamente a un archivo
+
+Dirige los logs directamente a tu propio almacenamiento en la nube (Amazon S3, Google Cloud Storage o Azure Storage) en un formato rehidratable de Datadog. A continuación, puedes rehidratar el archivo en Datadog según sea necesario. Consulta [Archivo de logs][7] para obtener más información.
+
+## Fuertes candidatos para las estrategias de reducción de volumen de logs
+
+Los usuarios han implementado las estrategias anteriores para reducir sus volúmenes totales de logs. La siguiente lista es un ejemplo de fuentes de logs que son fuertes candidatas para utilizar estrategias de reducción de logs:
+
+- CDN
+- VPC y flujo de red
+- Actividad del servidor web
+- Equilibradores de carga
+- Servicios de CI/CD
+- Planos de control
+- Malla de servicio
+- Firewalls
+- Dispositivos de red
+- DNS
+- Logs de depuración
+- Logs de auditoría
+- Logs de entorno de no producción
+
+## Referencias adicionales
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: /es/observability_pipelines/processors/sample
+[2]: /es/observability_pipelines/processors/filter
+[3]: /es/observability_pipelines/processors/edit_fields
+[4]: /es/observability_pipelines/processors/reduce
+[5]: /es/observability_pipelines/processors/dedupe
+[6]: /es/observability_pipelines/processors/quota
+[7]:  /es/observability_pipelines/set_up_pipelines/archive_logs
\ No newline at end of file
diff --git a/content/es/observability_pipelines/legacy/architecture/preventing_data_loss.md b/content/es/observability_pipelines/legacy/architecture/preventing_data_loss.md
new file mode 100644
index 0000000000000..da355ff7c73ee
--- /dev/null
+++ b/content/es/observability_pipelines/legacy/architecture/preventing_data_loss.md
@@ -0,0 +1,78 @@
+---
+aliases:
+- /es/observability_pipelines/architecture/preventing_data_loss/
+title: (LEGACY) Prevención de la pérdida de datos
+---
+
+{{< site-region region="gov" >}}
+<div class="alert alert-warning">Observability Pipelines no está disponible en el sitio US1-FED de Datadog.</div>
+{{< /site-region >}}
+
+<div class="alert alert-info">
+Esta guía es para despliegues a nivel de producción a gran escala.
+</div>
+
+## Alta durabilidad
+
+La alta durabilidad es la capacidad de conservar los datos cuando se producen errores en el sistema. La arquitectura del agregador está diseñada para asumir la responsabilidad de la alta durabilidad. Esto simplifica tu estrategia de durabilidad al desplazar la carga de tus Agents y localizarla en tus agregadores. Además, este enfoque concentrado permite estrategias de durabilidad que serían difíciles de implementar en todos los nodos de Agent.
+
+{{< img src="observability_pipelines/production_deployment_overview/high_durability.png" alt="Un diagrama en el que se muestra cómo el Observability Pipelines Worker envía datos a un almacenamiento de bloques replicado" style="width:100%;" >}}
+
+Para lograr una alta durabilidad:
+
+1. Configura tus Agents para que sean simples forwarders de datos y transmitan los datos directamente a tu agregador del Observability Pipelines Worker. Esto reduce la cantidad de tiempo que tus datos están expuestos a pérdidas en la periferia, ya que aún no son redundantes.
+
+2. Elige un destino altamente duradero que sirva como sistema de registro (por ejemplo, Amazon S3). Este sistema es responsable de la durabilidad de los datos en reposo y suele denominarse archivos o lagos de datos.
+
+Por último, configura los sinks del Observability Pipelines Worker que escriben datos en tu sistema de registro para activar los [reconocimientos de extremo a extremo](#using-end-to-end-acknowledgment) y los buffers de disco. Por ejemplo:
+
+```
+sinks:
+    aws_s3:
+        acknowledgments: true
+        buffer:
+            type: "disk"
+```
+
+## Directrices para la prevención de la pérdida de datos
+
+### Uso del reconocimiento de extremo a extremo
+
+Un problema con el proceso del sistema operativo del Observability Pipelines Worker podría suponer un riesgo de pérdida de datos almacenados en memoria durante el tiempo del problema. Activa la característica de reconocimiento de extremo a extremo del Observability Pipelines Worker para mitigar el riesgo de pérdida de datos:
+
+```
+sinks:
+    aws_s3:
+        acknowledgments: true
+```
+
+Con esta característica activada, el Observability Pipelines Worker no responde a los Agents hasta que los datos hayan persistido de forma duradera. Esto evita que el Agent libere los datos antes de los esperado y los envíe de nuevo si no se ha recibido un reconocimiento.
+
+{{< img src="observability_pipelines/production_deployment_overview/end_to_end_acknowledgments.png" alt="Un diagrama en el que se muestran reconocimientos enviados desde la fuente del Observability Pipelines Worker de vuelta al cliente" style="width:100%;" >}}
+
+### Gestión de errores en los nodos
+
+Los errores en los nodos se refieren al error completo de un nodo individual. También se pueden tratar mediante reconocimientos de extremo a extremo. Consulta [Uso del reconocimiento de extremo a extremo](#using-end-to-end-acknowledgment) para ver más detalles.
+
+### Gestión de errores en el disco
+
+Los errores en el disco se refieren al error de un disco individual. La pérdida de datos relacionada con los errores en el disco se puede mitigar mediante un sistema de archivos de alta durabilidad en el que los datos se repliquen en varios discos, como el almacenamiento en bloques (por ejemplo, Amazon EBS).
+
+### Gestión de errores en el procesamiento de los datos
+
+El Observability Pipelines Worker puede tener problemas, como no poder analizar un log, al intentar procesar datos malformados. Hay dos maneras de mitigar este problema:
+
+1. **Archivado directo**: dirige los datos directamente desde tus fuentes a tu archivo. Esto garantiza que los datos lleguen a tu archivo sin riesgo de eliminación. Además, estos datos pueden volver a reproducirse una vez corregido el error de procesamiento.
+
+2. **Enrutamiento de eventos con errores**: el Observability Pipelines Worker ofrece el enrutamiento de eventos con errores para usuarios que deseen archivar datos procesados, como datos estructurados y enriquecidos. Ciertas transformaciones del Observability Pipelines Worker vienen con una salida abandonada que puede conectarse a un sink para su durabilidad y reproducción.
+
+#### ¿Cuál es la mejor estrategia?
+
+Si la durabilidad es el criterio más importante, utiliza el método de archivado directo, ya que aborda los casos de pérdida de datos. Utiliza el método de enrutamiento de eventos con errores, también conocido como lago de datos, si prefieres analizar los datos en tu archivo. Esto tiene la ventaja de utilizar tu archivo o lago de datos para análisis a largo plazo. Los [archivos de logs][1] de Datadog y Amazon Athena son ejemplos de soluciones de almacenamiento de archivos.
+
+### Gestión de errores en el destino
+
+Los errores en el destino se refieren al error total de un destino descendente (por ejemplo, Elasticsearch). La pérdida de datos se puede mitigar en caso de problemas con el destino descendente mediante el uso de buffers de disco lo suficientemente grandes como para soportar el tiempo de interrupción. Esto permite que los datos permanezcan en buffer mientras el servicio está inactivo y se vacíen cuando el servicio vuelva a funcionar. Por este motivo, se recomiendan los buffers de disco lo suficientemente grandes como para contener al menos una hora de datos. Consulta [Optimización de la instancia][2] para ver más detalles.
+
+[1]: /es/logs/log_configuration/archives
+[2]: /es/observability_pipelines/legacy/architecture/optimize
\ No newline at end of file
diff --git a/content/es/observability_pipelines/live_capture.md b/content/es/observability_pipelines/live_capture.md
new file mode 100644
index 0000000000000..f2f23fbf6466c
--- /dev/null
+++ b/content/es/observability_pipelines/live_capture.md
@@ -0,0 +1,50 @@
+---
+disable_toc: false
+further_reading:
+- link: /observability_pipelines/set_up_pipelines/
+  tag: Documentación
+  text: Configurar pipelines
+title: Live Capture
+---
+
+{{< beta-callout url="" header="false" btn_hidden="true">}}
+Live Capture está en vista previa.
+{{< /beta-callout >}}
+
+## Información general
+
+Utiliza Live Capture para ver los datos que una fuente envía a través del pipeline y también los datos que un procesador recibe y envía.
+En concreto, se muestra la siguiente información:
+- Fecha de recepción de los datos
+- Los datos que se enviaron y si fueron:
+    - Modificado
+    - Sin modificar
+    - Abandonos
+    - Reducidos
+
+## Permisos
+
+Sólo los usuarios con el permiso `Observability Pipelines Live Capture Write` pueden configurar capturas. Los usuarios con el permiso `Observability Pipelines Live Capture Read` sólo pueden ver las eventos que ya han sido capturados. Consulta [Permisos de Observability Pipelines][1] para ver la lista de permisos para activos de Observability Pipelines.
+
+Los administradores tienen permisos de lectura y escritura por defecto. Los usuarios estándar sólo tienen permisos de lectura por defecto. Consulta [Control de acceso][2] para obtener más información sobre los roles predeterminados de Datadog y cómo crear roles personalizados.
+
+## Captura de eventos
+
+1. Navega hasta [Observability Pipelines][3].
+1. Selecciona tu pipeline.
+1. Haz clic en el engranaje de la fuente o procesador para el que deseas capturar eventos.
+1. Selecciona **Capture and view events** (Capturar y ver eventos) en el panel lateral.
+1. Haz clic en **Capture** (Capturar).
+1. Haz clic en **Confirm** (Confirmar) para iniciar la captura de eventos.<br>**Nota**: La captura de eventos suele tardar hasta 60 segundos. Los datos capturados son visibles para todos los usuarios con acceso de visualización y se almacenan en la plataforma de Datadog durante 72 horas.
+1. Una vez finalizada la captura, haz clic en una captura específica de evento para ver los datos recibidos y enviados. También puedes buscar eventos específicos en la barra de búsqueda. Utiliza el menú desplegable situado junto a la barra de búsqueda para mostrar eventos en función del estado (`MODIFIED`, `UNMODIFIED`, `DROPPED` y `REDUCED`).
+    - **Capture N** es el número de solicitud de captura. Por ejemplo, Capture N es `1` para la primera captura y `6` para la sexta captura.
+    - Los datos resaltados en rojo indican datos modificados o eliminados.
+    - Los datos resaltados en verde indican los datos que se han añadido.
+
+## Referencias adicionales
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: /es/account_management/rbac/permissions/#observability-pipelines
+[2]: /es/account_management/rbac/
+[3]: https://app.datadoghq.com/observability-pipelines
\ No newline at end of file
diff --git a/content/es/observability_pipelines/monitoring/metrics.md b/content/es/observability_pipelines/monitoring/metrics.md
new file mode 100644
index 0000000000000..474bc902b7703
--- /dev/null
+++ b/content/es/observability_pipelines/monitoring/metrics.md
@@ -0,0 +1,92 @@
+---
+disable_toc: false
+further_reading:
+- link: /metrics/summary/
+  tag: Documentación
+  text: Más información sobre el resumen de métricas
+- link: /metrics/explorer/
+  tag: Documentación
+  text: Utiliza el Metrics Explorer para explorar y analizar tus métricas
+- link: /getting_started/dashboards/
+  tag: Documentación
+  text: Empezando con dashboards
+- link: /getting_started/monitors/
+  tag: Documentación
+  text: Empezando con monitores
+title: Métricas
+---
+
+## Información general
+
+Este documento enumera algunas de las métricas disponibles en Observability Pipelines. Puedes:
+
+- Crea tus propios [dashboards][1], [notebooks][2] y [monitores][3] con estas métricas.
+- Utiliza el [Resumen de métricas][5] para ver los metadatos y etiquetas (tags) disponibles de las métricas. También puedes ver qué dashboards, notebooks, monitores y SLOs están usando esas métricas.
+
+Consulta [Empezando con etiquetas][4] para obtener más información sobre cómo utilizar etiquetas para agrupar métricas por pipelines, workers y componentes específicos.
+
+## Métrica de uso estimado
+
+Bytes ingeridos de Observability Pipelines
+: **Métrica**: `datadog.estimated_usage.observability_pipelines.ingested_bytes`
+: **Descripción: el volumen de datos ingeridos por Observability Pipelines. Consulta [Métricas de uso estimado][6] para obtener más información.
+
+## Métricas de pipeline
+
+Bytes por segundo
+: **Métricas**: `pipelines.host.network_receive_bytes_total`
+: **Descripción:** el número de eventos que recibe el pipeline por segundo.
+
+Bytes por segundo
+: **Métricas**: `pipelines.host.network_receive_bytes_total`
+: **Descripción:** el número de bytes que el pipeline recibe por segundo.
+
+## Métricas de componente
+
+Estas métricas están disponibles para fuentes, procesadores y destinos.
+
+Bytes por segundo
+: **Métrica**: `pipelines.component_received_bytes_total`
+: **Descripción**: el número de bytes que recibe el componente por segundo.
+: **Disponible para**: fuentes, procesadores y destinos.
+
+Bytes por segundo
+: **Métrica**: `pipelines.component_sent_event_bytes_total`
+: **Descripción**: el número de bytes que el componente envía a los destinos.
+: **Disponible para**: fuentes, procesadores y destinos.
+
+Entrada de eventos por segundo
+: **Métrica**: `pipelines.component_received_event_bytes_total`
+: **Descripción**: el número de eventos que el componente recibe por segundo.
+: **Disponible para**: fuentes, procesadores y destinos.
+
+Salida de eventos por segundo
+: **Métrica**: `pipelines.component_sent_event_bytes_total`
+: **Descripción**: el número de eventos que el componente envía a los destinos.
+: **Disponible para**: fuentes, procesadores y destinos.
+
+Errores
+: **Métrica**: `pipelines.component_errors_total`
+: **Descripción**: el número de errores encontrados por el componente.
+: **Disponible para**: fuentes, procesadores y destinos.
+
+Datos eliminados intencionalmente o no intencionalmente
+: **Métrica**: `pipelines.component_discarded_events_total`
+: **Descripción: el número de eventos eliminados. **Nota**: Para desglosar esta métrica, utiliza la etiqueta `intentional:true` para filtrar los eventos que se eliminaron intencionalmente o la etiqueta `intentional:false` para los eventos que no se eliminaron intencionalmente.
+: **Disponible para**: fuentes, procesadores y destinos.
+
+Utilización
+: **Métrica**: `pipelines.utilization`
+: **Descripción**: la actividad del componente. Un valor de `0` indica un componente inactivo que está esperando una entrada. Un valor de `1` indica un componente que nunca está inactivo, lo que significa que el componente es probablemente un cuello de botella en la topología de procesamiento que está creando contrapresión, lo que podría causar que eventos se eliminen.
+: **Disponible para**: procesadores y destinos.
+
+## Referencias adicionales
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: /es/getting_started/dashboards/
+[2]: /es/notebooks/
+[3]: /es/getting_started/monitors/
+[4]: /es/getting_started/tagging/
+[5]: https://app.datadoghq.com/metric/summary
+[6]: https://docs.datadoghq.com/es/account_management/billing/usage_metrics/
\ No newline at end of file
diff --git a/content/es/observability_pipelines/sources/splunk_tcp.md b/content/es/observability_pipelines/sources/splunk_tcp.md
new file mode 100644
index 0000000000000..093d6ff70c93a
--- /dev/null
+++ b/content/es/observability_pipelines/sources/splunk_tcp.md
@@ -0,0 +1,20 @@
+---
+disable_toc: false
+title: Fuente de Splunk Heavy o Universal Forwarders (TCP)
+---
+
+Utiliza la fuente Splunk Heavy y Universal Forwards (TCP) de Observability Pipelines para recibir logs enviados a tus reenviadores de Splunk. Selecciona y configura esta fuente cuando [configures un pipeline][1].
+
+## Requisitos previos
+
+{{% observability_pipelines/prerequisites/splunk_tcp %}}
+
+## Configurar la fuente en la interfaz de usuario del pipeline
+
+Selecciona y configura esta fuente cuando [configures un pipeline][1]. La siguiente información se refiere a la configuración de la fuente en la interfaz de usuario del pipeline.
+
+{{% observability_pipelines/source_settings/splunk_tcp %}}
+
+{{% observability_pipelines/log_source_configuration/splunk_tcp %}}
+
+[1]: /es/observability_pipelines/set_up_pipelines/
\ No newline at end of file
diff --git a/content/es/opentelemetry/troubleshooting.md b/content/es/opentelemetry/troubleshooting.md
new file mode 100644
index 0000000000000..aa9aac5eccdf5
--- /dev/null
+++ b/content/es/opentelemetry/troubleshooting.md
@@ -0,0 +1,256 @@
+---
+further_reading:
+- link: https://opentelemetry.io/docs/collector/troubleshooting/
+  tag: Sitio externo
+  text: Solucionar problemas en OpenTelemetry
+title: Solucionar problemas
+---
+
+Si ocurre un comportamiento inesperado al utilizar OpenTelemetry con Datadog, esta guía puede ayudarte a resolver el problema. Si sigues teniendo problemas, ponte en contacto con [Soporte técnico de Datadog][1] para obtener más ayuda.
+
+## Nombres de hosts incorrectos o inesperados
+
+Al utilizar OpenTelemetry con Datadog, puedes encontrarte con diversos problemas relacionados con el nombre del host. Las siguientes secciones cubren situaciones comunes y sus soluciones.
+
+### Nombre de host y nombre de nodo diferentes en Kubernetes
+
+**Síntoma**: Al desplegar en Kubernetes, el nombre del host informado por Datadog no coincide con el nombre del nodo esperado.
+
+**Causa**: Esto es normalmente el resultado de la falta de etiquetas (tags) `k8s.node.name` (y opcionalmente `k8s.cluster.name`).
+
+**Resolución**:
+
+1. Configura el atributo `k8s.pod.ip` para el despliegue de tu aplicación: 
+
+   ```yaml
+   env:
+     - name: MY_POD_IP
+       valueFrom:
+         fieldRef:
+           apiVersion: v1
+           fieldPath: status.podIP
+     - name: OTEL_RESOURCE
+       value: k8s.pod.ip=$(MY_POD_IP)
+   ```
+
+2. Habilita el procesador `k8sattributes` en tu Collector:
+
+   ```yaml
+   k8sattributes:
+   [...]
+   processors:
+     - k8sattributes
+   ```
+
+Alternativamente, puedes sustituir el nombre del host utilizando el atributo `datadog.host.name`:
+
+   ```yaml
+   processors:
+     transform:
+       trace_statements:
+         - context: resource
+           statements:
+             - set(attributes["datadog.host.name"], "${NODE_NAME}")
+   ```
+
+Para obtener más información sobre los atributos de identificación del host, consulta [Asignar convenciones semánticas de OpenTelemetry a los nombres de hosts][2].
+
+### Nombres de hosts inesperados en el despliegue de AWS Fargate
+
+**Síntoma**: En los entornos de AWS Fargate, se podrían informar trazas (traces) de un nombre del host incorrecto.
+
+**Causa**: En los entornos de Fargate, la detección de recursos predeterminados puede no identificar correctamente los metadatos de ECS, lo que lleva a la asignación de un nombre del host incorrecto.
+
+**Resolución**:
+
+Configura el procesador `resourcedetection` en tu configuración de Collector y activa el detector `ecs`:
+
+```yaml
+processors:
+  resourcedetection:
+    detectors: [env, ecs]
+    timeout: 2s
+    override: false
+```
+
+### El recopilador de puerta de enlace no reenvía metadatos del host
+
+**Síntoma**: En un despliegue de puerta de enlace, la telemetría de varios hosts parece venir de un único host o los metadatos del host no se están reenviando correctamente.
+
+**Causa**: Esto ocurre cuando la configuración del recopilador de la puerta de enlace no conserva ni reenvía correctamente los atributos de metadatos del host de los recopiladores del Agent.
+
+**Resolución**:
+
+1. Configura los recopiladores del Agent para recopilar y reenviar los metadatos del host:
+
+   ```yaml
+   processors:
+     resourcedetection:
+       detectors: [system, env]
+     k8sattributes:
+       passthrough: true
+   ```
+
+2. Configura el recopilador de la puerta de enlace para extraer y reenviar los metadatos necesarios:
+
+   ```yaml
+   processors:
+     k8sattributes:
+       extract:
+         metadata: [node.name, k8s.node.name]
+     transform:
+       trace_statements:
+         - context: resource
+           statements:
+             - set(attributes["datadog.host.use_as_metadata"], true)
+
+   exporters:
+     datadog:
+       hostname_source: resource_attribute
+   ```
+
+Para obtener más información, consulta [Asignar convenciones semánticas de OpenTelemetry a la información del host de la lista de infraestructura][3].
+
+### El mismo host aparece varias veces con nombres diferentes
+
+**Síntoma**: Un mismo host aparece con varios nombres en Datadog. Por ejemplo, podrías ver una entrada de OpenTelemetry Collector (con el logotipo de OTel) y otra del Datadog Agent .
+
+**Causa**: Cuando un host se monitoriza a través de más de un método de ingesta (por ejemplo, OTLP + Datadog Agent o DogStatsD + OTLP) sin alinearse en un único atributo de recurso de nombre del host, Datadog trata cada ruta como un host separado.
+
+**Resolución**:
+1. Identifica todas las rutas de ingesta de telemetría activas que envían datos desde la misma máquina a Datadog.
+2. Elige una única fuente de nombre del host y decide si deseas basarte en el nombre del host o en un atributo de recurso específico del Datadog Agent (por ejemplo, `k8s.node.name`).
+3. Configura cada ruta (Agent, Collector, etc.) para que informen de un nombre del host coherente. Por ejemplo, si estás configurando el nombre del host con atributos de OTLP, configura tu procesador de transformación:
+    ```yaml
+    processors:
+      transform:
+        trace_statements:
+          - context: resource
+            statements:
+              - set(attributes["datadog.host.name"], "shared-hostname")
+    ```
+4. Valida en Datadog (lista de infraestructura, mapa del host, etc.) para confirmar que el host aparece ahora con un único nombre.
+
+## Retrasos de etiquetas (tags) del host tras el inicio
+
+**Síntoma**: Puedes tener un retraso en las etiquetas (tags) del host que aparecen en tus datos de telemetría después de iniciar el Datadog Agent u OpenTelemetry Collector. Este retraso suele durar menos de 10 minutos, pero puede extenderse hasta 40-50 minutos en algunos casos.
+
+**Causa**: Este retraso se produce porque el backend de Datadog debe procesar e indexar los metadatos del host antes de que las etiquetas (tags) puedan asociarse a los datos de telemetría.
+
+**Resolución**:
+
+Las etiquetas (tags) del host configuradas en el exportador de Datadog (`host_metadata::tags`) o en la sección `tags` del Datadog Agent no se aplican de inmediato a los datos de telemetría. Los etiquetas (tags) aparecen finalmente después de que el backend resuelve los metadatos del host.
+
+Elige tu configuración para obtener instrucciones específicas:
+
+{{< tabs >}}
+{{% tab "Datadog Agent OTLP Ingestion" %}}
+
+Configura `expected_tags_duration` en `datadog.yaml` para cubrir el vacío hasta que se resuelvan las etiquetas (tags) del host:
+
+```yaml
+expected_tags_duration: "15m"
+```
+
+Esta configuración añade las etiquetas (tags) esperadas a toda la telemetría durante el tiempo especificado (en este ejemplo, 15 minutos).
+
+{{% /tab %}}
+
+{{% tab "OpenTelemetry Collector" %}}
+
+Utiliza el procesador `transform` para configurar tus etiquetas (tags) del host como atributos de OTLP. Por ejemplo, para añadir el entorno y etiquetas (tags) del equipo:
+
+```yaml
+processors:
+  transform:
+    trace_statements:
+      - context: resource
+        statements:
+          # OpenTelemetry semantic conventions
+          - set(attributes["deployment.environment.name"], "prod")
+          # Datadog-specific host tags
+          - set(attributes["ddtags"], "env:prod,team:backend")
+...
+```
+
+En este enfoque se combinan las convenciones semánticas de OpenTelemetry con las etiquetas (tags) específicas del host de Datadog para garantizar una funcionalidad correcta en entornos de OpenTelemetry y de Datadog.
+
+{{% /tab %}}
+{{< /tabs >}}
+
+## No se puede asignar el atributo "equipo" a la etiqueta (tag) del equipo de Datadog
+
+**Síntoma**: La etiqueta (tag) del equipo no aparece en los logs y trazas (traces) de Datadog, a pesar de estar configurada como atributo de recurso en las configuraciones de OpenTelemetry.
+
+**Causa**: Esto ocurre porque los atributos de recursos de OpenTelemetry necesitan una asignación explícita al formato de etiqueta (tag) de Datadog mediante el uso del atributo `ddtags`.
+
+**Resolución**:
+
+Utiliza el procesador de transformación de OpenTelemetry Collector para asignar el atributo del recurso del equipo al atributo `ddtags`:
+
+```yaml
+processors:
+  transform/datadog_team_tag:
+    metric_statements:
+      - context: datapoint
+        statements:
+          - set(attributes["ddtags"], Concat(["team:", resource.attributes["team"]],""))
+    log_statements:
+      - context: log
+        statements:
+          - set(attributes["ddtags"], Concat(["team:", resource.attributes["team"]],""))
+    trace_statements:
+      - context: span
+        statements:
+          - set(attributes["ddtags"], Concat(["team:", resource.attributes["team"]],""))
+```
+
+<div class="alert alert-info">Sustituye <code>resource.attributes["team"]</code> por el nombre real del atributo si es diferente en tu configuración (por ejemplo, <code>resource.attributes["arm.team.name"]</code>).</div>
+
+Para verificar la configuración:
+
+1. Reinicia el OpenTelemetry Collector para aplicar los cambios.
+2. Genera logs y trazas (traces) de test.
+3. Check si la etiqueta (tag) del equipo aparece en tus logs y trazas (traces) de Datadog.
+4. Verifica que la etiqueta (tag) del equipo funcione como se esperaba en el filtrado y los dashboards.
+
+## Las etiquetas (tags) de contenedores no aparecen en la página Contenedores
+
+**Síntoma**: Las etiquetas (tags) de contenedores no aparecen en la página de Contenedores en Datadog, lo que afecta a las capacidades de monitorización y gestión de contenedores.
+
+**Causa**: Esto ocurre cuando los atributos de los recursos de contenedores no se asignan correctamente al formato de metadatos de contenedores esperado de Datadog.
+
+**Resolución**:
+
+Cuando se utiliza la ingesta de OTLP en el Datadog Agent, es necesario configurar atributos de recursos específicos para garantizar una asociación adecuada de metadatos de contenedores. Para obtener más información, consulta [Asignación de atributos de recursos][4].
+
+Para verificar la configuración:
+
+1. Check los datos brutos de trazas (traces) para confirmar que los ID de contenedores y las etiquetas (tags) se traduzcan correctamente al formato de Datadog (por ejemplo, `container.id` debería convertirse en `container_id`).
+2. Comprueba que los metadatos de contenedores aparezcan en la página Contenedores.
+
+## Faltan métricas en el catálogo de software y dashboards
+
+**Síntoma**: Las métricas no aparecen en el catálogo de software y dashboards, a pesar de haberse recopilado correctamente.
+
+**Causa**: Esto ocurre normalmente debido a las convenciones semánticas incorrectas o mal asignadas.
+
+**Resolución**:
+
+Para verificar la configuración:
+
+1. Check que tus métricas contengan las [convenciones semánticas][4] requeridas.
+2. Verifica que los nombres de métricas cumplan con las convenciones de nomenclatura de OpenTelemetry.
+3. Confirma que las métricas se estén traduciendo correctamente al formato de Datadog utilizando la [referencia de asignación de métricas][5].
+
+<div class="alert alert-info">Cuando trabajes con convenciones semánticas, asegúrate de seguir la última especificación de nomenclatura y atributos de métricas de OpenTelemetry.</div>
+
+## Referencias adicionales
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: /es/help/
+[2]: /es/opentelemetry/schema_semantics/hostname/
+[3]: /es/opentelemetry/schema_semantics/host_metadata/
+[4]: /es/opentelemetry/schema_semantics/semantic_mapping/
+[5]: /es/opentelemetry/schema_semantics/metrics_mapping/#metrics-mappings
\ No newline at end of file
diff --git a/content/es/product_analytics/journeys/pathways.md b/content/es/product_analytics/journeys/pathways.md
new file mode 100644
index 0000000000000..44e6e3180e1bd
--- /dev/null
+++ b/content/es/product_analytics/journeys/pathways.md
@@ -0,0 +1,78 @@
+---
+aliases:
+- /es/real_user_monitoring/product_analytics/sankey
+- /es/product_analytics/sankey
+- /es/product_analytics/journeys/sankey
+further_reading:
+- link: /product_analytics/journeys
+  tag: Documentación
+  text: Recorridos
+- link: /dashboards/widgets/sankey/
+  tag: Documentación
+  text: Crear widgets de Sankey en dashboards
+title: Pathways
+---
+
+{{< callout url="http://datadoghq.com/private-beta/product-analytics" header="false" >}}
+Todas las funciones de Análisis de productos tienen disponibilidad limitada. Para solicitar acceso, rellena el formulario.
+{{< /callout >}}
+
+## Información general
+
+Puedes utilizar diagramas de Pathway para visualizar todos los recorridos de los usuarios en tu aplicación y analizar la ruta crítica.
+
+{{< img src="/product_analytics/journeys/pathways/pathways-overview.png" alt="El diagrama de Pathways predeterminados para una aplicación" style="width:90%;" >}}
+
+Cada nodo representa una vista visitada por el usuario. El grosor de cada nodo representa el recuento de sesiones de usuario en esa página. Una página con menos visitantes tiene un nodo más fino en el diagrama.
+
+Si un usuario visita la misma página varias veces durante su sesión, esa página sólo se cuenta una vez.
+
+Las acciones no se admiten en el diagrama de Pathways.
+
+## Crear un diagrama de Pathways
+
+### Ver el diagrama por defecto
+
+1. Navega a [**Product Analytics > User Journeys**][1] (Análisis de productos > Recorridos de los usuarios).
+2. Haz clic en **Pathways** si aún no está seleccionado. Esto muestra la visualización predeterminada que representa los recorridos de usuario más populares en tu aplicación.
+
+### Iniciar o finalizar el diagrama en una vista determinada
+
+Puedes utilizar el menú de la izquierda para personalizar este diagrama y su visualización:
+- los pasos que dieron los usuarios *después* de visitar una vista determinada
+- los pasos que dieron los usuarios *antes* de visitar una vista determinada
+
+El siguiente ejemplo muestra los cuatro pasos que siguen los usuarios de Estados Unidos después de visitar `/department/lighting`:
+
+{{< img src="/product_analytics/journeys/pathways/customized-pathways.png" alt="Un diagrama de Pathways personalizado para una una aplicación" style="width:90%;" >}}
+
+### Graficar todas las vistas que contienen una frase dada
+
+Los diagramas de Pathways admiten [comodines de Datadog][2], lo que permite crear un diagrama de todas las vistas que contengan una frase determinada.
+
+Para que coincidan varias rutas, escribe un comodín en lugar de elegir un único nombre de vista. El siguiente ejemplo muestra los cinco pasos que siguen los usuarios después de visitar cualquier vista que coincida con `/department/*`:
+
+{{< img src="/product_analytics/journeys/pathways/pathways-wildcard.png" alt="Un diagrama de Pathways que usa un comodín para unir varias rutas" style="width:90%;" >}}
+
+## Analizar un diagrama de Pathways
+
+Puedes pasar el ratón por encima de un nodo del diagrama para ver el número de sesiones que incluyeron visitas a esa vista.
+
+Haz clic en un nodo para acceder a la lista de opciones de análisis, como la visualización de una muestra de [Session Replay][3] o la creación de un diagrama de Pathways que comience con esa vista.
+
+{{< img src="/product_analytics/journeys/pathways/pathways-node.png" alt="El menú de acciones de un nodo de diagrama de Pathways" style="width:90%;" >}}
+
+### Convertir el diagrama en un embudo
+
+1. En la página del diagrama de Pathways, haz clic en el botón **Build Funnel** (Crear embudo).
+2. En el diagrama de Pathways, haz clic en los nodos de las vistas que desees incluir en el embudo.
+3. Haz clic en **Create Funnel from Selection** (Crear embudo desde la selección).
+
+{{< img src="/product_analytics/journeys/pathways/pathways-build-funnel.png" alt="Un Pathway para convertir un embudo en el proceso" style="width:90%;" >}}
+
+## Referencias adicionales
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: https://app.datadoghq.com/product-analytics/user-journey
+[2]: /es/real_user_monitoring/explorer/search_syntax/#wildcards
+[3]: /es/real_user_monitoring/session_replay/
\ No newline at end of file
diff --git a/content/es/real_user_monitoring/browser/setup/server.md b/content/es/real_user_monitoring/browser/setup/server.md
new file mode 100644
index 0000000000000..98a486a60f910
--- /dev/null
+++ b/content/es/real_user_monitoring/browser/setup/server.md
@@ -0,0 +1,353 @@
+---
+beta: true
+code_lang: servidor
+code_lang_weight: 2
+further_reading:
+- link: /real_user_monitoring/explorer/
+  tag: Documentación
+  text: Más información sobre el Explorador RUM
+- link: /logs/log_collection/javascript/
+  tag: Documentación
+  text: Información sobre el SDK del navegador para logs de Datadog
+title: Instrumentación automática de la monitorización de navegadores (del lado del
+  servidor)
+type: lenguaje de código múltiple
+---
+
+<div class="alert alert-info">Para probar la vista previa de la inyección automática de SDK RUM, sigue las instrucciones de configuración que aparecen a continuación.</div>
+
+## Información general
+
+La instrumentación automática RUM Datadog (del lado del servidor) te permite optar por Real User Monitoring (RUM) automáticamente instrumentando aplicaciones web servidas a través de un servidor web o proxy.
+
+La instrumentación automática RUM funciona inyectando un scriptlet JavaScript del SDK RUM en las respuestas HTML que se sirven a través de un servidor web o proxy.
+
+Una vez instrumentadas tus aplicaciones, puedes configurar tu aplicación RUM en Datadog.
+
+## Limitaciones
+
+La funcionalidad disponible tiene las siguientes limitaciones importantes:
+
+- Si se aplica un proxy para el tráfico comprimido, el método de instrumentación automática no puede inyectar el scriptlet JS en el tráfico HTML.
+- Este método de instrumentación no admite ninguna [configuración de RUM avanzada][3]. Sin embargo, se admiten `allowedTracingUrls` y `excludedActivityUrls`.
+- Si el servidor web actúa como proxy y el servidor ascendente tiene activado el cifrado de extremo a extremo (como TLS) o la compresión de contenidos (como gzip, zstd o Brotli), es posible que el módulo no inyecte el SDK del navegador RUM. Asegúrate de lo siguiente para que la instrumentación tenga éxito:
+  - La compresión de contenidos está desactivada en el servidor ascendente.
+  - El servidor web está configurado para originar TLS.
+- La configuración para la instrumentación automática (sólo Windows IIS) sólo está disponible por cada sitio Windows IIS.
+
+## Requisitos previos
+
+El método de instalación automática requiere que tengas instalado el [Datadog Agent][2].
+
+## Configurar tu aplicación RUM
+
+<div class="alert alert-warning">Para solicitar asistencia con un servidor web que no figura en esta lista, <a href="https://www.datadoghq.com/private-beta/rum-sdk-auto-injection/">rellena este formulario.</a></div>
+
+{{< tabs >}}
+{{% tab "NGINX" %}}
+
+El método de instrumentación automática aprovecha la [capacidad de los módulos dinámicos NGINX][1] para implementar un filtro de cuerpo de respuesta. El filtro inyecta el SDK del navegador RUM en el cuerpo de la respuesta para las respuestas
+identificadas como HTML. Para un control más granular de la gestión de los archivos de configuración o los permisos, también puedes instalar NGINX manualmente.
+
+[1]: https://docs.nginx.com/nginx/admin-guide/dynamic-modules/dynamic-modules/
+
+
+{{% collapse-content title="Instalación automática (recomendado)" level="h5" %}}
+
+Para instrumentar automáticamente tu aplicación RUM:
+
+1. En Datadog, ve a [**Digital Experience > Add an Application Page** (Experiencia digital > Añadir una página de aplicación)][1] y selecciona el tipo de aplicación JavaScript (JS).
+2. Selecciona **Instrumentación automática** y **NGINX**.
+3. Configura las frecuencias de muestreo de tu sesión y de Session Replay. Consulta la [guía para la configuración del muestreo][2].
+4. Copia y ejecuta el comando de instalación para cargar el módulo NGINX Datadog con el inyector de SDK RUM en NGINX.
+5. Una vez que el instalador haya instalado correctamente el inyector de SDK, reinicia NGINX para comenzar a recopilar sesiones RUM.
+6. (Opcional) Para comprobar que el módulo está inyectando correctamente el SDK del navegador RUM en páginas HTML, consulta los logs de error de NGINX para ver si hay mensajes importantes. El módulo registra pasos importantes durante el proceso de inyección. Asegúrate de que NGINX está configurado con al menos el nivel de log `INFO` con lo siguiente:
+
+   ```javascript
+   error_log <file> info;
+   ```
+
+[1]: https://app.datadoghq.com/rum/list
+[2]: /es/real_user_monitoring/guide/sampling-browser-plans/
+
+{{% /collapse-content %}}
+
+{{% collapse-content title="Configuración manual" level="h5" %}}
+
+### Descarga el archivo `.tgz` correspondiente
+
+1. Utiliza el archivo `.tgz` correspondiente a tu versión de NGINX. Puedes encontrar todos los archivos `.tgz` relevantes presentados por versión de NGINX en [Referencia](#reference).
+2. Extrae el tarball para extraer el archivo `ngx_http_datadog_module.so`. Desplázalo hacia una localización a la que NGINX tenga acceso (citada como `<RUM_MODULE_PATH>` en los pasos siguientes).
+
+### Actualizar la configuración de NGINX
+1. El archivo `nginx.conf` se encuentra normalmente en el directorio de configuración de NGINX. Añade la siguiente línea para cargar el módulo:
+
+   ```javascript
+   load_module <RUM_MODULE_PATH>;
+   ```
+
+2. A continuación, en la sección **http/server/location**, añade lo siguiente:
+
+   ```javascript
+   # APM Tracing is enabled by default. The following line disables APM Tracing.
+   datadog_disable;
+   datadog_rum on;
+   datadog_rum_config "v5" {
+     "applicationId" "<DATADOG_APPLICATION_ID>";
+     "clientToken" "<DATADOG_CLIENT_TOKEN>";
+     "site" "<DATADOG_SITE>";
+     "service" "my-web-application";
+     "env" "production";
+     "version" "1.0.0";
+     "sessionSampleRate" "100";
+     "sessionReplaySampleRate" "100";
+     "trackResources" "true";
+     "trackLongTasks" "true";
+     "trackUserInteractions" "true";
+   }
+   ```
+
+### Reiniciar el servidor
+
+1. Reinicia el servidor NGINX para comenzar a recopilar datos de tu aplicación RUM Datadog. Por defecto, el SDK RUM se inyecta en todos los documentos HTML. Es posible que necesites borrar la memoria caché de tu navegador.
+2. (Opcional) Para comprobar que el módulo está inyectando correctamente el SDK del navegador RUM en páginas HTML, consulta los logs de error de NGINX para ver si hay mensajes importantes. El módulo registra pasos importantes durante el proceso de inyección. Asegúrate de que NGINX está configurado con al menos el nivel de log `INFO` con lo siguiente:
+
+   ```javascript
+   error_log <file> info;
+   ```
+
+{{% /collapse-content %}}
+
+{{% /tab %}}
+{{% tab "Servidor HTTP Apache" %}}
+
+El método de instrumentación automática aprovecha la [capacidad de los módulos httpd Apache][1] para implementar un filtro de cuerpo de respuesta. El filtro inyecta el SDK del navegador RUM en el cuerpo de la respuesta para las respuestas
+identificadas como HTML. Para un control más granular de la gestión de los archivos de configuración o los permisos, también puedes instalar NGINX manualmente.
+
+[1]: https://httpd.apache.org/modules/
+
+
+{{% collapse-content title="Instalación automática (recomendado)" level="h5" %}}
+
+Para instrumentar automáticamente tu aplicación RUM:
+
+1. En Datadog, ve a [**Digital Experience > Add an Application Page** (Experiencia digital > Añadir una página de aplicación)][1] y selecciona el tipo de aplicación JavaScript (JS).
+2. Selecciona **Instrumentación automática** y **httpd**.
+3. Configura las frecuencias de muestreo de tu sesión y de Session Replay. Consulta la [guía para la configuración del muestreo][2].
+4. Copia y ejecuta el comando de instalación para cargar el módulo httpd Datadog con el inyector de SDK RUM en httpd.
+5. Una vez que el instalador haya instalado correctamente el inyector de SDK, reinicia httpd para comenzar a recopilar sesiones RUM.
+6. (Opcional) Para comprobar que el módulo está inyectando correctamente el SDK del navegador RUM en páginas HTML, consulta los logs de error de httpd para ver si hay mensajes importantes. El módulo registra pasos importantes durante el proceso de inyección. Asegúrate de que el servidor HTTP APache está configurado con al menos el nivel de log `info` con lo siguiente:
+
+[1]: https://app.datadoghq.com/rum/list
+[2]: /es/real_user_monitoring/guide/sampling-browser-plans/
+
+{{% /collapse-content %}}
+
+{{% collapse-content title="Configuración manual" level="h5" %}}
+
+### Descargar el archivo del módulo
+
+1. Descarga el [módulo comprimido][1].
+2. Extrae el zip para obtener el archivo `mod_datadog.so`. Desplázalo hacia una localización a la que tenga acceso el servidor HTTP Apache (citada como `<RUM_MODULE_PATH>` en los pasos siguientes).
+
+[1]: https://rum-auto-instrumentation.s3.amazonaws.com/httpd/latest/mod_datadog-amd64.zip
+
+### Actualizar la configuración del servidor HTTP Apache
+1. Busca el archivo de configuración. Puedes utilizar `apachectl -V` para encontrar la ruta de configuración por defecto. Añade la siguiente línea para cargar el módulo:
+
+   ```javascript
+   LoadModule datadog_module <RUM_MODULE_PATH>
+   ```
+
+2. En la sección **raíz o localización** correspondiente, añade lo siguiente:
+
+   ```javascript
+   # APM Tracing is enabled by default. The following line disables APM Tracing
+   DatadogTracing Off
+   DatadogRum On
+   <DatadogRumSettings>
+       DatadogRumOption "applicationId" "<DATADOG_APPLICATION_ID>"
+       DatadogRumOption "clientToken" "<DATADOG_CLIENT_TOKEN>"
+       DatadogRumOption "site" "<DATADOG_SITE>"
+       DatadogRumOption "service" "my-web-application"
+       DatadogRumOption "env" "production"
+       DatadogRumOption "version" "1.0.0"
+       DatadogRumOption "sessionSampleRate" "100"
+       DatadogRumOption "sessionReplaySampleRate" "100"
+       DatadogRumOption "trackResources" "true"
+       DatadogRumOption "trackLongTasks" "true"
+       DatadogRumOption "trackUserInteractions" "true"
+   </DatadogRumSettings>
+   ```
+
+### Reiniciar el servidor
+
+1. Reinicia el servidor HTTP Apache para comenzar a recopilar datos de tu aplicación RUM Datadog. Por defecto, el SDK RUM se inyecta en todos los documentos HTML. Es posible que necesites borrar la memoria caché de tu navegador.
+2. (Opcional) Para comprobar que el módulo está inyectando correctamente el SDK del navegador RUM en páginas HTML, consulta los logs de error de httpd para ver si hay mensajes importantes. El módulo registra pasos importantes durante el proceso de inyección. Asegúrate de que el servidor HTTP Apache está configurado con al menos el nivel de log `info` con lo siguiente:
+
+{{% /collapse-content %}}
+
+{{% /tab %}}
+{{% tab "Windows IIS" %}}
+
+La instrumentación automática aprovecha un módulo de Windows que inyecta el SDK RUM en el cuerpo de la respuesta para las respuestas servidas por la instancia IIS.
+
+1. En Datadog, ve a [**Digital Experience > Add an Application Page** (Experiencia digital > Añadir una página de aplicación)][1] y selecciona el tipo de aplicación JavaScript (JS).
+2. Selecciona **Instrumentación automática** y **Windows IIS**.
+3. Configura el módulo IIS utilizando el instalador GUI o la línea de comandos como se describe a continuación:
+
+[1]: https://app.datadoghq.com/rum/list/create/
+
+{{% collapse-content title="Uso del instalador GUI (recomendado)" level="h5" %}}
+
+1. Descarga el instalador RUM Datadog.
+2. Sigue el instalador como administrador abriendo el archivo `.msi`.
+3. Sigue las instrucciones y acepta el acuerdo de licencia.
+4. Configura las frecuencias de muestreo de tu sesión y de Session Replay. Consulta la [guía para la configuración del muestreo][1].
+5. Copia y ejecuta el comando de configuración mostrado para cada sitio IIS en el que quieres inyectar RUM.
+
+[1]: /es/real_user_monitoring/guide/best-practices-for-rum-sampling/
+
+{{% /collapse-content %}}
+
+{{% collapse-content title="Uso de la línea de comandos" level="h5" %}}
+
+1. Ejecuta la línea de comandos Powershell como administrador.
+2. Configura las frecuencias de muestreo de tu sesión y de Session Replay. Consulta la [guía para la configuración del muestreo][1].
+3. Copia y ejecuta el comando de configuración mostrado para cada sitio IIS en el que quieres inyectar RUM.
+
+[1]: /es/real_user_monitoring/guide/best-practices-for-rum-sampling/
+
+{{% /collapse-content %}}
+
+{{% /tab %}}
+{{< /tabs >}}
+
+## Actualización de la aplicación RUM
+
+Puedes ajustar las frecuencias de muestreo de tu sesión y de Session Replay desde la página Gestión de aplicaciones.
+
+{{< tabs >}}
+{{% tab "NGINX" %}}
+
+Para actualizar tu solicitud RUM:
+
+1. Ve a tu aplicación RUM desde la lista de [Gestión de aplicaciones][1].
+2. En la página Instrumentar tu aplicación, ajusta el control deslizante o introduce un porcentaje específico en el cuadro de entrada para el muestreo de sesiones o de Session Replay.
+3. Copia y pega el fragmento de configuración en tu archivo `NGINX.conf`.
+
+[1]: https://app.datadoghq.com/rum/list
+
+{{% /tab %}}
+
+{{% tab "Apache HTTP Server (Servidor HTTP Apache)" %}}
+
+Para actualizar tu solicitud RUM:
+
+1. Ve a tu aplicación RUM desde la lista de [Gestión de aplicaciones][1].
+2. En la página Instrumentar tu aplicación, ajusta el control deslizante o introduce un porcentaje específico en el cuadro de entrada para el muestreo de sesiones o de Session Replay.
+3. Copia y pega el fragmento de configuración en tu archivo `/opt/datadog-httpd/datadog.conf`.
+
+[1]: https://app.datadoghq.com/rum/list
+
+{{% /tab %}}
+
+{{% tab "Windows IIS" %}}
+
+Para actualizar tu solicitud RUM:
+
+1. Ve a tu aplicación RUM desde la lista de [Gestión de aplicaciones][1].
+2. En la página Instrumentar tu aplicación, ajusta el control deslizante o introduce un porcentaje específico en el cuadro de entrada para el muestreo de sesiones o de Session Replay.
+3. Copia y sustituye el código en el archivo de configuración de RUM Datadog para el sitio IIS que hayas instrumentado.
+
+[1]: https://app.datadoghq.com/rum/list
+
+{{% /tab %}}
+{{< /tabs >}}
+
+## Solucionar problemas
+
+### NGINX deja de responder
+
+Dado que el módulo se encuentra en versión de vista previa, es posible que NGINX deje de servir solicitudes, especialmente después de la instalación. Si experimentas este problema, ponte en contacto con el [servicio de asistencia de Datadog][4] con la siguiente información, para ayudar con la investigación y resolución del problema:
+
+- Tu archivo de configuración de NGINX
+- Cualquier log de error relevante
+
+### No se inyecta RUM
+
+Si observas que RUM no se inyecta en las páginas HTML, considera las siguientes causas posibles:
+
+- **No coincide el tipo de contenido**: RUM sólo se inyecta en páginas HTML. Si la cabecera `Content-Type` no indica correctamente `text/html`, se omite la inyección.
+- **Servidor de flujo ascendente con cifrado de extremo a extremo o compresión de contenidos**: Consulta [Limitaciones][41].
+
+## Referencia
+
+### Módulos NGINX
+
+| Versión de NGINX | amd64 | arm 64 |
+|---------------|-------|--------|
+| 1.22.0 | [ngx_http_datadog-amd64-1.22.0][5] | [ngx_http_datadog-arm64-1.22.0][6] |
+| 1.22.1 | [ngx_http_datadog-amd64-1.22.1][7] | [ngx_http_datadog-arm64-1.22.1][8] |
+| 1.23.0 | [ngx_http_datadog-amd64-1.23.0][9] | [ngx_http_datadog-arm64-1.23.0][10] |
+| 1.23.1 | [ngx_http_datadog-amd64-1.23.1][11] | [ngx_http_datadog-arm64-1.23.1][12] |
+| 1.23.2 | [ngx_http_datadog-amd64-1.23.2][13] | [ngx_http_datadog-arm64-1.23.2][14] |
+| 1.23.3 | [ngx_http_datadog-amd64-1.23.3][15] | [ngx_http_datadog-arm64-1.23.3][16] |
+| 1.23.4 | [ngx_http_datadog-amd64-1.23.4][17] | [ngx_http_datadog-arm64-1.23.4][18] |
+| 1.24.0 | [ngx_http_datadog-amd64-1.24.0][19] | [ngx_http_datadog-arm64-1.24.0][20] |
+| 1.25.0 | [ngx_http_datadog-amd64-1.25.0][21] | [ngx_http_datadog-arm64-1.25.0][22] |
+| 1.25.1 | [ngx_http_datadog-amd64-1.25.1][23] | [ngx_http_datadog-arm64-1.25.1][24] |
+| 1.25.2 | [ngx_http_datadog-amd64-1.25.2][25] | [ngx_http_datadog-arm64-1.25.2][26] |
+| 1.25.3 | [ngx_http_datadog-amd64-1.25.3][27] | [ngx_http_datadog-arm64-1.25.3][28] |
+| 1.25.4 | [ngx_http_datadog-amd64-1.25.4][29] | [ngx_http_datadog-arm64-1.25.4][30] |
+| 1.25.5 | [ngx_http_datadog-amd64-1.25.5][31] | [ngx_http_datadog-arm64-1.25.5][32] |
+| 1.26.0 | [ngx_http_datadog-amd64-1.26.0][33] | [ngx_http_datadog-arm64-1.26.0][34] |
+| 1.26.1 | [ngx_http_datadog-amd64-1.26.1][35] | [ngx_http_datadog-arm64-1.26.1][36] |
+| 1.26.2 | [ngx_http_datadog-amd64-1.26.2][37] | [ngx_http_datadog-arm64-1.26.2][38] |
+| 1.27.0 | [ngx_http_datadog-amd64-1.27.0][39] | [ngx_http_datadog-arm64-1.27.0][40] |
+
+## Referencias adicionales
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: /es/real_user_monitoring/browser/setup/
+[2]: /es/agent/
+[3]: /es/real_user_monitoring/browser/advanced_configuration/
+[4]: /es/help
+[5]: https://ddagent-windows-unstable.s3.amazonaws.com/inject-browser-sdk/nginx/latest/ngx_http_datadog_module-amd64-1.22.0.so.tgz
+[6]:https://ddagent-windows-unstable.s3.amazonaws.com/inject-browser-sdk/nginx/latest/ngx_http_datadog_module-arm64-1.22.0.so.tgz
+[7]: https://ddagent-windows-unstable.s3.amazonaws.com/inject-browser-sdk/nginx/latest/ngx_http_datadog_module-amd64-1.22.1.so.tgz
+[8]: https://ddagent-windows-unstable.s3.amazonaws.com/inject-browser-sdk/nginx/latest/ngx_http_datadog_module-arm64-1.22.1.so.tgz
+[9]: https://ddagent-windows-unstable.s3.amazonaws.com/inject-browser-sdk/nginx/latest/ngx_http_datadog_module-amd64-1.23.0.so.tgz
+[10]: https://ddagent-windows-unstable.s3.amazonaws.com/inject-browser-sdk/nginx/latest/ngx_http_datadog_module-arm64-1.23.0.so.tgz
+[11]: https://ddagent-windows-unstable.s3.amazonaws.com/inject-browser-sdk/nginx/latest/ngx_http_datadog_module-amd64-1.23.1.so.tgz
+[12]: https://ddagent-windows-unstable.s3.amazonaws.com/inject-browser-sdk/nginx/latest/ngx_http_datadog_module-arm64-1.23.1.so.tgz
+[13]: https://ddagent-windows-unstable.s3.amazonaws.com/inject-browser-sdk/nginx/latest/ngx_http_datadog_module-amd64-1.23.2.so.tgz
+[14]: https://ddagent-windows-unstable.s3.amazonaws.com/inject-browser-sdk/nginx/latest/ngx_http_datadog_module-arm64-1.23.2.so.tgz
+[15]: https://ddagent-windows-unstable.s3.amazonaws.com/inject-browser-sdk/nginx/latest/ngx_http_datadog_module-amd64-1.23.3.so.tgz
+[16]: https://ddagent-windows-unstable.s3.amazonaws.com/inject-browser-sdk/nginx/latest/ngx_http_datadog_module-arm64-1.23.3.so.tgz
+[17]: https://ddagent-windows-unstable.s3.amazonaws.com/inject-browser-sdk/nginx/latest/ngx_http_datadog_module-amd64-1.23.4.so.tgz
+[18]: https://ddagent-windows-unstable.s3.amazonaws.com/inject-browser-sdk/nginx/latest/ngx_http_datadog_module-arm64-1.23.4.so.tgz
+[19]: https://ddagent-windows-unstable.s3.amazonaws.com/inject-browser-sdk/nginx/latest/ngx_http_datadog_module-amd64-1.24.0.so.tgz
+[20]: https://ddagent-windows-unstable.s3.amazonaws.com/inject-browser-sdk/nginx/latest/ngx_http_datadog_module-arm64-1.24.0.so.tgz
+[21]: https://ddagent-windows-unstable.s3.amazonaws.com/inject-browser-sdk/nginx/latest/ngx_http_datadog_module-amd64-1.25.0.so.tgz
+[22]: https://ddagent-windows-unstable.s3.amazonaws.com/inject-browser-sdk/nginx/latest/ngx_http_datadog_module-arm64-1.25.0.so.tgz
+[23]: https://ddagent-windows-unstable.s3.amazonaws.com/inject-browser-sdk/nginx/latest/ngx_http_datadog_module-amd64-1.25.1.so.tgz
+[24]: https://ddagent-windows-unstable.s3.amazonaws.com/inject-browser-sdk/nginx/latest/ngx_http_datadog_module-arm64-1.25.1.so.tgz
+[25]: https://ddagent-windows-unstable.s3.amazonaws.com/inject-browser-sdk/nginx/latest/ngx_http_datadog_module-amd64-1.25.2.so.tgz
+[26]: https://ddagent-windows-unstable.s3.amazonaws.com/inject-browser-sdk/nginx/latest/ngx_http_datadog_module-arm64-1.25.2.so.tgz
+[27]: https://ddagent-windows-unstable.s3.amazonaws.com/inject-browser-sdk/nginx/latest/ngx_http_datadog_module-amd64-1.25.3.so.tgz
+[28]: https://ddagent-windows-unstable.s3.amazonaws.com/inject-browser-sdk/nginx/latest/ngx_http_datadog_module-arm64-1.25.3.so.tgz
+[29]: https://ddagent-windows-unstable.s3.amazonaws.com/inject-browser-sdk/nginx/latest/ngx_http_datadog_module-amd64-1.25.4.so.tgz
+[30]: https://ddagent-windows-unstable.s3.amazonaws.com/inject-browser-sdk/nginx/latest/ngx_http_datadog_module-arm64-1.25.4.so.tgz
+[31]: https://ddagent-windows-unstable.s3.amazonaws.com/inject-browser-sdk/nginx/latest/ngx_http_datadog_module-amd64-1.25.5.so.tgz
+[32]: https://ddagent-windows-unstable.s3.amazonaws.com/inject-browser-sdk/nginx/latest/ngx_http_datadog_module-arm64-1.25.5.so.tgz
+[33]: https://ddagent-windows-unstable.s3.amazonaws.com/inject-browser-sdk/nginx/latest/ngx_http_datadog_module-amd64-1.26.0.so.tgz
+[34]: https://ddagent-windows-unstable.s3.amazonaws.com/inject-browser-sdk/nginx/latest/ngx_http_datadog_module-arm64-1.26.0.so.tgz
+[35]: https://ddagent-windows-unstable.s3.amazonaws.com/inject-browser-sdk/nginx/latest/ngx_http_datadog_module-amd64-1.26.1.so.tgz
+[36]: https://ddagent-windows-unstable.s3.amazonaws.com/inject-browser-sdk/nginx/latest/ngx_http_datadog_module-arm64-1.26.1.so.tgz
+[37]: https://ddagent-windows-unstable.s3.amazonaws.com/inject-browser-sdk/nginx/latest/ngx_http_datadog_module-amd64-1.26.2.so.tgz
+[38]: https://ddagent-windows-unstable.s3.amazonaws.com/inject-browser-sdk/nginx/latest/ngx_http_datadog_module-arm64-1.26.2.so.tgz
+[39]: https://ddagent-windows-unstable.s3.amazonaws.com/inject-browser-sdk/nginx/latest/ngx_http_datadog_module-amd64-1.27.0.so.tgz
+[40]: https://ddagent-windows-unstable.s3.amazonaws.com/inject-browser-sdk/nginx/latest/ngx_http_datadog_module-arm64-1.27.0.so.tgz
+[41]: /es/real_user_monitoring/browser/setup/server/#limitations
\ No newline at end of file
diff --git a/content/es/real_user_monitoring/guide/monitor-capacitor-applications-using-browser-sdk.md b/content/es/real_user_monitoring/guide/monitor-capacitor-applications-using-browser-sdk.md
new file mode 100644
index 0000000000000..405987a0b9555
--- /dev/null
+++ b/content/es/real_user_monitoring/guide/monitor-capacitor-applications-using-browser-sdk.md
@@ -0,0 +1,60 @@
+---
+description: Aprende cómo monitorizar aplicaciones multiplataforma creadas con Capacitor
+  a través del SDK RUM del navegador.
+further_reading:
+- link: /real_user_monitoring/
+  tag: Documentación
+  text: Más información sobre Real User Monitoring
+title: Monitorizar aplicaciones Capacitor con el SDK del navegador
+---
+
+## Información general
+
+[Capacitor][1] es un tiempo de ejecución nativo de código abierto para crear aplicaciones web nativas que se ejecutan de forma nativa en iOS, Android y aplicaciones web progresivas con JavaScript, HTML y CSS.
+
+Puedes instalar y configurar el SDK del navegador Datadog para empezar a monitorizar las aplicaciones que creaste con Capacitor. La configuración te proporciona visibilidad de la porción JavaScript de tu aplicación (excluye la visibilidad de la aplicación nativa).
+
+**Nota**: Las aplicaciones envueltas por Capacitor para ejecutar un objetivo **iOS** utilizan `capacitor://` como esquema por defecto para servir recursos locales.
+
+## Instalación
+
+Para instalar el SDK del navegador Datadog para que sea compatible con las aplicaciones Capacitor:
+
+1. Configura e instala la [monitorización del navegador RUM][3], siguiendo los pasos para CDN sínc., CDN asínc. o npm.
+2. Configura el parámetro `sessionPersistence` como `"local-storage"` en la configuración de inicialización de RUM.
+
+   **Nota**: Esta configuración permite a Datadog recopilar datos RUM sin depender de las cookies del navegador.
+
+   ```javascript
+   datadogRum.init({
+     applicationId: '<DATADOG_APPLICATION_ID>',
+     clientToken: '<DATADOG_CLIENT_TOKEN>',
+     site: '<DATADOG_SITE>',
+     ...
+     sessionPersistence: "local-storage"
+   });
+   ```
+
+3. Una vez que hayas configurado el SDK correctamente, tus datos rellenarán el [Explorador RUM][3].
+
+## Solucionar problemas
+
+### Sólo tengo visibilidad de la porción JavaScript de mi aplicación, pero no de la porción nativa
+
+Este es el comportamiento esperado. La porción nativa de una aplicación Capacitor, ya sea mediante el uso de complementos o código personalizado, no se monitoriza. Por lo general, los complementos envían un estado de respuesta que puede ser rastreado desde el lado JavaScript de la aplicación. Sin embargo, si un complemento se bloquea o si toda la aplicación se bloquea debido a problemas de código nativo, esto no se informa a Datadog.
+
+### ¿Por qué no puedo hacer un seguimiento de las aplicaciones Capacitor híbridas que apuntan tanto a recursos locales como remotos?
+
+La política de igual origen impide el seguimiento (utilizando la misma sesión) de una aplicación que carga páginas tanto locales (`capacitor://`) como remotas (`http(s)://`).
+
+Esto significa que cualquier aplicación que utilice Capacitor para integrar una página de inicio y luego redirija al usuario a un sitio web alojado en Internet, puede ver **dos** sesiones creadas para ese usuario:
+
+- Uno para la porción de inicio (integrada) de la aplicación
+- Uno para la porción remota de la aplicación
+
+## Referencias adicionales
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: https://capacitorjs.com/
+[2]: /es/real_user_monitoring/browser/setup/
+[3]: /es/real_user_monitoring/explorer/
\ No newline at end of file
diff --git a/content/es/real_user_monitoring/mobile_and_tv_monitoring/ios/integrated_libraries.md b/content/es/real_user_monitoring/mobile_and_tv_monitoring/ios/integrated_libraries.md
new file mode 100644
index 0000000000000..aa7522467744b
--- /dev/null
+++ b/content/es/real_user_monitoring/mobile_and_tv_monitoring/ios/integrated_libraries.md
@@ -0,0 +1,63 @@
+---
+aliases:
+- /es/real_user_monitoring/ios/integrated_libraries/
+- /es/real_user_monitoring/mobile_and_tv_monitoring/integrated_libraries/ios/
+further_reading:
+- link: https://github.com/DataDog/dd-sdk-ios
+  tag: Código fuente
+  text: Código fuente de dd-sdk-ios
+title: Bibliotecas de iOS y tvOS para RUM
+---
+
+En esta página se enumeran bibliotecas integradas que puedes utilizar para aplicaciones de iOS y tvOS.
+
+## Alamofire
+
+A partir de la versión `2.5.0`, el SDK de RUM para iOS puede realizar un rastreo automático de las solicitudes de [Alamofire][1].
+
+1. Configura la monitorización de RUM siguiendo la guía de [Configuración][2].
+2. Activa `URLSessionInstrumentation` para `Alamofire.SessionDelegate`:
+
+```swift
+import Alamofire
+import DatadogRUM
+
+URLSessionInstrumentation.enable(with: .init(delegateClass: Alamofire.SessionDelegate.self))
+```
+Para obtener información adicional sobre la frecuencia de muestreo, el rastreo distribuido y la adición de atributos personalizados a los recursos de RUM rastreados, consulta [Configuración avanzada > Rastrear automáticamente solicitudes de red ][4].
+
+## Apollo GraphQL
+
+A partir de la versión `2.5.0`, el SDK de RUM para iOS puede realizar un rastreo automático de las solicitudes de [Apollo GraphQL][3].
+
+1. Configura la monitorización de RUM siguiendo la guía de [Configuración][2].
+2. Activa `URLSessionInstrumentation` para `Apollo.URLSessionClient`:
+
+```swift
+import Apollo
+import DatadogRUM
+
+URLSessionInstrumentation.enable(with: .init(delegateClass: Apollo.URLSessionClient.self))
+```
+Para obtener información adicional sobre la frecuencia de muestreo, el rastreo distribuido y la adición de atributos personalizados a los recursos de RUM rastreados, consulta [Configuración avanzada > Rastrear automáticamente solicitudes de red ][4].
+
+## SDWebImage
+
+A partir de la versión `2.5.0`, el SDK de RUM para iOS puedes realizar un rastreo automático de las solicitudes de [SDWebImage][5].
+
+1. Configura la monitorización de RUM siguiendo la guía de [Configuración][2].
+2. Activa `URLSessionInstrumentation` para `SDWebImageDownloader`:
+
+```swift
+import SDWebImage
+import DatadogRUM
+
+URLSessionInstrumentation.enable(with: .init(delegateClass: SDWebImageDownloader.self as! URLSessionDataDelegate.Type))
+```
+Para obtener información adicional sobre la frecuencia de muestreo, el rastreo distribuido y la adición de atributos personalizados a los recursos de RUM rastreados, consulta [Configuración avanzada > Rastrear automáticamente solicitudes de red ][4].
+
+[1]: https://github.com/Alamofire/Alamofire
+[2]: https://docs.datadoghq.com/es/real_user_monitoring/mobile_and_tv_monitoring/ios/setup
+[3]: https://github.com/apollographql/apollo-ios
+[4]: /es/real_user_monitoring/mobile_and_tv_monitoring/ios/advanced_configuration/#automatically-track-network-requests
+[5]: https://github.com/SDWebImage/SDWebImage
\ No newline at end of file
diff --git a/content/es/real_user_monitoring/platform/_index.md b/content/es/real_user_monitoring/platform/_index.md
index f1efda3074fe5..dabdcbf555f10 100644
--- a/content/es/real_user_monitoring/platform/_index.md
+++ b/content/es/real_user_monitoring/platform/_index.md
@@ -18,25 +18,20 @@ Utiliza [dashboards][1] para rastrear, analizar y mostrar el rendimiento clave y
 {{< img src="real_user_monitoring/rum-out-of-the-box-dashboard.png" alt="Dashboard de RUM" >}}
 
 ## Configurar monitors
-Configura [monitors][2] para notificar a tus equipos y gestionar las alertas de un vistazo en la plataforma Alertar.
+Configura [monitors][2] para notificar a tus equipos y administrar las alertas de un vistazo en la plataforma Alertar.
 
-{{< img src="monitors/monitor_types/rum/rum_multiple_queries_2.png" alt="Un monitor configurado para alertar sobre la tasa de error de una página de carrito. Este monitor tiene dos consultas (a y b) y contiene una fórmula: (a/b)*100." style="width:80%;" >}}
+{{< img src="monitors/monitor_types/rum/rum_multiple_queries_2.png" alt="Un monitor configurado para alertar sobre la frecuencia de errores de una página de carro. Este monitor tiene dos consultas (a y b) y contiene una fórmula: (a/b)*100." style="width:80%;" >}}
 
 ## Generar métricas personalizadas
 Genera [métricas personalizadas][3] para rastrear los KPI de la aplicación durante un largo periodo de tiempo de hasta 15 meses.
 
-{{< img src="real_user_monitoring/generate_metrics/generate_metric_example.png" alt="Generar una métrica personalizada en RUM" width="80%" >}}
+{{< img src="real_user_monitoring/generate_metrics/generate_metric_example.png" alt="Generar una métrica personalizada basada en RUM" width="80%" >}}
 
-## Conectar RUM y trazas
-[Conecta RUM y trazas (traces)][4] para vincular las solicitudes del frontend a sus trazas del backend correspondiente y localizar problemas en cualquier lugar de tu stack.
 
-{{< img src="real_user_monitoring/connect_rum_and_traces/rum_trace_tab.png" alt="RUM y Trazas" style="width:100%;">}}
-
-## Leer más
+## Referencias adicionales
 
 {{< partial name="whats-next/whats-next.html" >}}
 
 [1]: /es/real_user_monitoring/platform/dashboards
 [2]: /es/monitors/types/real_user_monitoring/
-[3]: /es/real_user_monitoring/platform/generate_metrics
-[4]: /es/real_user_monitoring/platform/connect_rum_and_traces
\ No newline at end of file
+[3]: /es/real_user_monitoring/platform/generate_metrics
\ No newline at end of file
diff --git a/content/es/real_user_monitoring/platform/connect_rum_and_traces.md b/content/es/real_user_monitoring/platform/connect_rum_and_traces.md
deleted file mode 100644
index effe4e3e23f5b..0000000000000
--- a/content/es/real_user_monitoring/platform/connect_rum_and_traces.md
+++ /dev/null
@@ -1,602 +0,0 @@
----
-algolia:
-  tags:
-  - trazas de rum
-aliases:
-- /es/real_user_monitoring/connect_rum_and_traces
-further_reading:
-- link: https://www.datadoghq.com/blog/real-user-monitoring-with-datadog/
-  tag: Blog
-  text: Real User Monitoring
-- link: https://www.datadoghq.com/blog/modern-frontend-monitoring/
-  tag: Blog
-  text: Para empezar a monitorizar aplicaciones de una sola página
-- link: /logs/guide/ease-troubleshooting-with-cross-product-correlation/
-  tag: Guía
-  text: Facilitar la resolución de problemas a través de la correlación entre productos
-- link: /tracing/
-  tag: Documentación
-  text: APM y rastreo distribuido
-- link: /real_user_monitoring
-  tag: Documentación
-  text: RUM y Session Replay
-- link: https://www.datadoghq.com/blog/troubleshoot-with-session-replay-developer-tools/
-  tag: Blog
-  text: Solucionar problemas con las herramientas de desarrollo del navegador Session
-    Replay
-- link: https://www.datadoghq.com/blog/correlate-traces-datadog-rum-otel/
-  tag: Blog
-  text: Correlacionar eventos de Datadog RUM con trazas de aplicaciones instrumentadas
-    con OpenTelemetry
-title: Conectar RUM y trazas (traces)
----
-
-{{< img src="real_user_monitoring/connect_rum_and_traces/rum_trace_tab.png" alt="RUM y trazas" style="width:100%;">}}
-
-## Información general
-
-La integración de APM con Real User Monitoring te permite vincular las solicitudes de tus aplicaciones web y móviles con sus correspondientes trazas de backend. Esta combinación te permite ver todos los datos de frontend y backend a través de una sola perspectiva.
-
-Utiliza los datos de frontend de RUM, así como la información sobre backend, infraestructura y logs de la inyección de ID de rastreo, para localizar problemas en cualquier parte de tu stack tecnológico y comprender lo que experimentan tus usuarios.
-
-Para empezar a enviar sólo las trazas de tu aplicación iOS a Datadog, consulta [Recopilación de trazas iOS][1].
-
-## Uso
-
-### Requisitos previos
-
--   Has configurado el [rastreo APM][2] en los servicios a los que se dirigen tus aplicaciones RUM.
--   Tus servicios utilizan un servidor HTTP.
--   Tus servidores HTTP están utilizando [una biblioteca que admite el rastreo distribuido](#supported-libraries).
--   Tienes configurado lo siguiente basado en tu SDK:
-    - Con el **SDK de navegador**, has añadido los recursos XMLHttpRequest (XHR) o Fetch del Explorador RUM a tu `allowedTracingUrls`.
-    - Con el **SDK móvil**, has añadido los recursos Native o XMLHttpRequest (XHR) a tu `firstPartyHosts`.
--   Dispones de una traza correspondiente para las solicitudes a `allowedTracingUrls` o `firstPartyHosts`.
-
-### Configuración de RUM
-
-**Nota:** La configuración de RUM y de las trazas hace uso de los datos pagos de APM en RUM, lo que puede afectar a tu facturación de APM.
-
-{{< tabs >}}
-{{% tab "RUM de navegador" %}}
-
-1. Configura la [monitorización del Navegador RUM][1].
-
-2. Inicializa el SDK RUM. Configura el parámetro de inicialización `allowedTracingUrls` con la lista de orígenes internos de primera parte que invoca tu aplicación de navegador.
-
-   Para **NPM install**:
-    ```javascript
-    import { datadogRum } from '@datadog/browser-rum'
-
-    datadogRum.init({
-        applicationId: '<DATADOG_APPLICATION_ID>',
-        clientToken: '<DATADOG_CLIENT_TOKEN>',
-        ...otherConfig,
-        service: "my-web-application",
-        allowedTracingUrls: ["https://api.example.com", /https:\/\/.*\.my-api-domain\.com/, (url) => url.startsWith("https://api.example.com")]
-    })
-    ```
-
-   Para **CDN install**:
-
-   ```javascript
-   window.DD_RUM.init({
-      clientToken: '<CLIENT_TOKEN>',
-      applicationId: '<APPLICATION_ID>',
-      site: 'datadoghq.com',
-      //  service: 'my-web-application',
-      //  env: 'production',
-      //  version: '1.0.0',
-      allowedTracingUrls: ["https://api.example.com", /https:\/\/.*\.my-api-domain\.com/, (url) => url.startsWith("https://api.example.com")]
-      sessionSampleRate: 100,
-      sessionReplaySampleRate: 100, // if not included, the default is 100
-      trackResources: true,
-      trackLongTasks: true,
-      trackUserInteractions: true,
-    })
-   ```
-
-   Para conectar RUM con trazas, es necesario especificar la aplicación del navegador en el campo `service`.
-
-    `allowedTracingUrls` coincide con la URL completa (`<scheme>://<host>[:<port>]/<path>[?<query>][#<fragment>]`). Acepta los siguientes tipos:
-      - `string`: coincide con cualquier URL que empiece por el valor, por lo que `https://api.example.com` coincide con `https://api.example.com/v1/resource`.
-      - `RegExp`: ejecuta un test con la expresión regular y la URL proporcionadas.
-      - `function`: evalúa con la URL como parámetro. La devolución de un `boolean` configurado como `true` indica una coincidencia.
-
-3.  (Opcional) Configura el parámetro de inicialización `traceSampleRate` para mantener un porcentaje definido de trazas de backend. Si no se configura, el 100% de las trazas procedentes de solicitudes del navegador se envían a Datadog. Para conservar el 20% de las trazas de backend, por ejemplo:
-
-    ```javascript
-    import { datadogRum } from '@datadog/browser-rum'
-
-    datadogRum.init({
-        ...otherConfig,
-        traceSampleRate: 20
-    })
-    ```
-
-**Nota**: `traceSampleRate` **no** afecta al muestreo de sesiones RUM. Sólo se muestrean las trazas de backend.
-
-4. (Opcional) Si defines un `traceSampleRate`, para asegurarte de que se siguen aplicando las decisiones de muestreo de servicios de backend, configura el parámetro de inicialización `traceContextInjection` como `sampled` (definido en `all` por defecto).
-
-    Por ejemplo, si configuras `traceSampleRate` al 20% en el SDK del navegador:
-    - Cuando `traceContextInjection` se define en `all`, se conserva el **20%** de las trazas de backend y se elimina el **80%** de las trazas de backend.
-
-  {{< img src="real_user_monitoring/connect_rum_and_traces/traceContextInjection_all-2.png" alt="Parámetro traceContextInjection configurado en All" style="width:90%;">}}
-
-  - Cuando `traceContextInjection` se configura como `sampled`, se conserva el **20%** de las trazas de backend. Para el **80%** restante, el SDK del navegador **no inyecta** una decisión de muestreo. La decisión se toma en el servidor y se basa en la [configuración][2] del muestreo de cabeceras de la biblioteca de rastreo. En el siguiente ejemplo, la tasa de muestreo del backend se define en 40%, por lo que se conserva el 32% restante de las trazas de backend.
-
-    {{< img src="real_user_monitoring/connect_rum_and_traces/traceContextInjection_sampled-2.png" alt="Parámetro traceContextInjection configurado en Sampled" style="width:90%;">}}
-
-<div class="alert alert-info">El rastreo de extremo a extremo está disponible para solicitudes lanzadas después de que se inicializa el SDK del navegador. No se admite el rastreo de extremo a extremo del documento HTML inicial ni de las primeras solicitudes del navegador.</div>
-
-[1]: /es/real_user_monitoring/browser/
-[2]: /es/tracing/trace_pipeline/ingestion_mechanisms/#head-based-sampling
-{{% /tab %}}
-{{% tab "Android RUM" %}}
-
-1. Configura la [monitorización Android RUM][1].
-2. Configura la [recopilación de trazas Android][2].
-3. Añade la dependencia Gradle a la biblioteca `dd-sdk-android-okhttp` en el archivo `build.gradle` a nivel del módulo:
-
-    ```groovy
-    dependencies {
-        implementation "com.datadoghq:dd-sdk-android-okhttp:x.x.x"
-    }
-    ```
-
-4. Configura el interceptor `OkHttpClient` con la lista de orígenes internos de primera instancia invocados por tu aplicación Android.
-    ```kotlin
-    val tracedHosts = listOf("example.com", "example.eu")
-
-    val okHttpClient = OkHttpClient.Builder()
-        .addInterceptor(DatadogInterceptor(tracedHosts))
-        .addNetworkInterceptor(TracingInterceptor(tracedHosts))
-        .eventListenerFactory(DatadogEventListener.Factory())
-        .build()
-    ```
-
-   De forma predeterminada, se rastrean todos los subdominios de los hosts incluidos en la lista. Por ejemplo, si añades `example.com`, también habilitas el rastreo para `api.example.com` y `foo.example.com`.
-
-3.  (Opcional) Configura el parámetro `traceSampler` para mantener un porcentaje definido de trazas de backend. Si no se configura, el 20% de las trazas procedentes de las solicitudes de la aplicación se envían a Datadog. Para mantener el 100% de las trazas de backend:
-
-```kotlin
-    val okHttpClient = OkHttpClient.Builder()
-       .addInterceptor(DatadogInterceptor(traceSampler = RateBasedSampler(100f)))
-       .build()
-```
-
-**Nota**:
-* `traceSampler` **no** afecta al muestreo de sesiones RUM. Sólo se muestrean las trazas de backend.
-* Si defines tipos de cabeceras de rastreo personalizados en la configuración de Datadog y estás utilizando un rastreador registrado con `GlobalTracer`, asegúrate de que se configuren los mismos tipos de cabeceras de rastreo para el rastreador en uso.
-
-[1]: /es/real_user_monitoring/android/
-[2]: /es/tracing/trace_collection/dd_libraries/android/?tab=kotlin
-{{% /tab %}}
-{{% tab "iOS RUM" %}}
-
-1. Configura la [monitorización iOS RUM][1].
-
-2. Habilita `RUM` con la opción `urlSessionTracking` y el parámetro `firstPartyHostsTracing`:
-    ```swift
-    RUM.enable(
-        with: RUM.Configuration(
-            applicationID: "<rum application id>",
-            urlSessionTracking: .init(
-                firstPartyHostsTracing: .trace(
-                    hosts: [
-                        "example.com",
-                        "api.yourdomain.com"
-                    ]
-                )
-            )
-        )
-    )
-    ```
-
-3. Habilita la instrumentación URLSession para tu tipo de `SessionDelegate`, que se ajusta al protocolo `URLSessionDataDelegate`:
-    ```swift
-    URLSessionInstrumentation.enable(
-        with: .init(
-            delegateClass: <YourSessionDelegate>.self
-        )
-    )
-    ```
-
-4. Inicializa URLSession como se indica en [Configuración][1]:
-    ```swift
-    let session =  URLSession(
-        configuration: ...,
-        delegate: <YourSessionDelegate>(),
-        delegateQueue: ...
-    )
-    ```
-
-   De forma predeterminada, se rastrean todos los subdominios de los hosts incluidos en la lista. Por ejemplo, si añades `example.com`, también habilitarás el rastreo para `api.example.com` y `foo.example.com`.
-
-   La inyección de ID de rastreo funciona cuando se proporciona un `URLRequest` a `URLSession`. El rastreo distribuido no funciona cuando se utiliza un objeto `URL`.
-
-5. (Opcional) Configura el parámetro `tracingSamplingRate` para mantener un porcentaje definido de trazas de backend. Si no se configura, el 20% de las trazas procedentes de solicitudes de aplicaciones se envían a Datadog.
-
-   Para mantener el 100% de las trazas de backend::
-    ```swift
-    RUM.enable(
-        with: RUM.Configuration(
-            applicationID: "<rum application id>",
-            urlSessionTracking: .init(
-                firstPartyHostsTracing: .trace(
-                    hosts: [
-                        "example.com",
-                        "api.yourdomain.com"
-                    ],
-                    sampleRate: 100
-                )
-            )
-        )
-    )
-    ```
-**Nota**: `sampleRate` **no** afecta al muestreo de sesiones RUM. Sólo se muestrean las trazas de backend.
-
-[1]: /es/real_user_monitoring/ios/
-{{% /tab %}}
-{{% tab "RUM React Native" %}}
-
-1. Configura la [monitorización RUM React Native][1].
-
-2. Configura el parámetro de inicialización `firstPartyHosts` para definir la lista de orígenes internos de primera instancia que invoca tu aplicación React Native:
-    ```javascript
-    const config = new DatadogProviderConfiguration(
-        // ...
-    );
-    config.firstPartyHosts = ["example.com", "api.yourdomain.com"];
-    ```
-
-   De forma predeterminada, se rastrean todos los subdominios de los hosts incluidos en la lista. Por ejemplo, si añades `example.com`, también habilitarás el rastreo para `api.example.com` y `foo.example.com`.
-
-3. (Opcional) Configura el parámetro de inicialización `resourceTracingSamplingRate` para mantener un porcentaje definido de las trazas de backend. Si no se configura, el 20% de las trazas procedentes de solicitudes de aplicaciones se envían a Datadog.
-
-   Para mantener el 100% de las trazas de backend::
-    ```javascript
-    const config = new DatadogProviderConfiguration(
-        // ...
-    );
-    config.resourceTracingSamplingRate = 100;
-    ```
-
-    **Nota**: `resourceTracingSamplingRate` **no** afecta al muestreo de sesiones RUM. Sólo se muestrean las trazas de backend.
-
-[1]: /es/real_user_monitoring/reactnative/
-{{% /tab %}}
-{{% tab "RUM Flutter" %}}
-
-1. Configura la [monitorización RUM Flutter][1].
-
-2. Sigue las instrucciones en [Seguimiento automático de recursos][2] para incluir el paquete de cliente HTTP de seguimiento de Datadog y habilitar el seguimiento HTTP. Esto incluye los siguientes cambios en la inicialización para añadir una lista de orígenes internos de primera instancia que invoca la aplicación Flutter:
-    ```dart
-    final configuration = DatadogConfiguration(
-      // ...
-      // added configuration
-      firstPartyHosts: ['example.com', 'api.yourdomain.com'],
-    )..enableHttpTracking()
-    ```
-
-[1]: /es/real_user_monitoring/mobile_and_tv_monitoring/setup/flutter/
-[2]: /es/real_user_monitoring/mobile_and_tv_monitoring/setup/flutter/#automatic-resource-tracking
-
-{{% /tab %}}
-
-
-{{% tab "RUM Roku" %}}
-
-{{< site-region region="gov" >}}
-<div class="alert alert-warning">RUM para Roku no está disponible en el sitio US1-FED Datadog.</div>
-{{< /site-region >}}
-
-1. Configura la [monitorización RUM Roku][1].
-
-2. Utiliza el componente `datadogroku_DdUrlTransfer` para realizar tus solicitudes de red.
-    ```brightscript
-        ddUrlTransfer = datadogroku_DdUrlTransfer(m.global.datadogRumAgent)
-        ddUrlTransfer.SetUrl(url)
-        ddUrlTransfer.EnablePeerVerification(false)
-        ddUrlTransfer.EnableHostVerification(false)
-        result = ddUrlTransfer.GetToString()
-    ```
-
-[1]: /es/real_user_monitoring/mobile_and_tv_monitoring/setup/roku/
-
-
-{{% /tab %}}
-{{< /tabs >}}
-
-### Verificación de la configuración
-
-Para comprobar si has configurado la integración APM con RUM, sigue los pasos que se indican a continuación en función del SDK con el que hayas instalado RUM.
-
-
-{{< tabs >}}
-{{% tab "Navegador" %}}
-
-1. Visita una página de tu aplicación.
-2. En la página de herramientas de desarrollo de tu navegador, ve a la pestaña **Red**.
-3. Verifica que las cabeceras de solicitud de la solicitud de un recurso que esperas correlacionar contienen las [cabeceras de correlación de Datadog][1].
-
-[1]: /es/real_user_monitoring/platform/connect_rum_and_traces?tab=browserrum#how-are-rum-resources-linked-to-traces
-
-{{% /tab %}}
-{{% tab "Android" %}}
-
-1. Ejecuta tu aplicación desde Android Studio.
-2. Visita una página de tu aplicación.
-3. Abre el [Inspector de redes][1] de Android Studio.
-4. Verifica las cabeceras de solicitud de un recurso RUM y comprueba que las [cabeceras requeridas han sido definidas por el SDK][2].
-
-[1]: https://developer.android.com/studio/debug/network-profiler#network-inspector-overview
-[2]: https://docs.datadoghq.com/es/real_user_monitoring/platform/connect_rum_and_traces?tab=androidrum#how-are-rum-resources-linked-to-traces
-
-{{% /tab %}}
-{{% tab "iOS" %}}
-
-1. Ejecuta tu aplicación desde Xcode.
-2. Visita una página de tu aplicación.
-3. Abre las [conexiones de red y la instrumentación del tráfico HTTP][1].
-4. Verifica las cabeceras de solicitud de un recurso RUM y comprueba que las [cabeceras requeridas han sido definidas por el SDK][2].
-
-[1]: https://developer.apple.com/documentation/foundation/url_loading_system/analyzing_http_traffic_with_instruments
-[2]: https://docs.datadoghq.com/es/real_user_monitoring/platform/connect_rum_and_traces/?tab=iosrum#how-are-rum-resources-linked-to-traces
-
-{{% /tab %}}
-{{% tab "React Native" %}}
-
-1. Ejecuta tu aplicación desde Xcode (iOS) o Android Studio (Android).
-2. Visita una página de tu aplicación.
-3. Abre las [conexiones de red y la instrumentación del tráfico HTTP][1] de Xcode y el [Inspector de redes][2] de Android Studio.
-4. Verifica las cabeceras de solicitud de un recurso RUM y comprueba que las [cabeceras requeridas han sido definidas por el SDK][3].
-
-[1]: https://developer.apple.com/documentation/foundation/url_loading_system/analyzing_http_traffic_with_instruments
-[2]: https://developer.android.com/studio/debug/network-profiler#network-inspector-overview
-[3]: https://docs.datadoghq.com/es/real_user_monitoring/platform/connect_rum_and_traces/?tab=reactnativerum#how-are-rum-resources-linked-to-traces
-
-{{% /tab %}}
-{{% tab "Flutter" %}}
-
-1. Ejecute su aplicación utilizando tu IDE o `flutter run` preferido.
-2. Visita una página de tu aplicación.
-3. Abre [Herramientas de desarrollo][1] de Flutter y ve a [Vista de red][2].
-4. Verifica las cabeceras de solicitud de un recurso RUM y comprueba que las [cabeceras requeridas han sido definidas por el SDK][3].
-
-[1]: https://docs.flutter.dev/tools/devtools/overview
-[2]: https://docs.flutter.dev/tools/devtools/network
-[3]: https://docs.datadoghq.com/es/real_user_monitoring/platform/connect_rum_and_traces/?tab=reactnativerum#how-are-rum-resources-linked-to-traces
-
-{{% /tab %}}
-{{< /tabs >}}
-
-## Bibliotecas compatibles
-
-A continuación se muestra una lista de bibliotecas de backend compatibles que deben estar presentes en los servicios que recibe solicitudes de red.
-
-| Biblioteca          | Versión mínima |
-| ---------------- | --------------- |
-| [Python][3]      | [0.22.0][4]     |
-| [Go][5]          | [1.10.0][6]     |
-| [Java][7]        | [0.24.1][8]     |
-| [Ruby][9]        | [0.20.0][10]     |
-| [JavaScript][11] | [0.10.0][12]    |
-| [PHP][13]        | [0.33.0][14]    |
-| [.NET][15]       | [1.18.2][16]    |
-
-
-## Compatibilidad con OpenTelemetry
-
-RUM admite varios tipos de propagadores para conectar recursos con backends instrumentados con bibliotecas OpenTelemetry.
-
-El estilo de inyección por defecto es `tracecontext`, `Datadog`.
-
-{{< tabs >}}
-{{% tab "RUM de navegador" %}}
-
-**Nota**: Si estás utilizando un marco de backend como Next.js/Vercel que utiliza OpenTelemetry, sigue estos pasos.
-
-1. Configura RUM para conectarse con APM, como se ha descrito anteriormente.
-
-2. Modifica `allowedTracingUrls` como se indica a continuación:
-    ```javascript
-    import { datadogRum } from '@datadog/browser-rum'
-
-    datadogRum.init({
-        ...otherConfig,
-        allowedTracingUrls: [
-          { match: "https://api.example.com", propagatorTypes: ["tracecontext"]}
-        ]
-    })
-    ```
-    `match` acepta los mismos tipos de parámetros (`string`, ``RegExp` o `function`) que cuando se utiliza en su forma simple, como se ha descrito anteriormente.
-
-    `propagatorTypes` acepta una lista de cadenas para los propagadores elegidos:
-      - `datadog`: Propagador de Datadog (`x-datadog-*`)
-      - `tracecontext`: [Contexto de rastreo W3C](https://www.w3.org/TR/trace-context/) (`traceparent`)
-      - `b3`: [Cabecera única B3](https://github.com/openzipkin/b3-propagation#single-header) (`b3`)
-      - `b3multi`: [Cabeceras múltiples B3](https://github.com/openzipkin/b3-propagation#multiple-headers) (`X-B3-*`)
-
-{{% /tab %}}
-{{% tab "RUM iOS" %}}
-
-1. Configura RUM para conectarse con APM, como se ha descrito anteriormente.
-
-2. Utiliza `.traceWithHeaders(hostsWithHeaders:sampleRate:)` en lugar de `.trace(hosts:sampleRate:)`, como se indica a continuación:
-    ```swift
-      RUM.enable(
-          with: RUM.Configuration(
-              applicationID: "<rum application id>",
-              urlSessionTracking: .init(
-                  firstPartyHostsTracing: .traceWithHeaders(
-                      hostsWithHeaders: [
-                          "api.example.com": [.tracecontext]
-                      ],
-                      sampleRate: 100
-                  )
-              )
-          )
-      )
-    ```
-    `.traceWithHeaders(hostsWithHeaders:sampleRate:)` toma `Dictionary<String, Set<TracingHeaderType>>` como parámetro, donde la clave es un host y el valor es una lista de tipos de cabeceras de rastreo compatibles.
-
-    `TracingHeaderType`en una enumeración que representa los siguientes tipos de cabeceras de rastreo:
-      - `.datadog`: Propagador de Datadog (`x-datadog-*`)
-      - `.tracecontext`: [Contexto de rastreo W3C](https://www.w3.org/TR/trace-context/) (`traceparent`)
-      - `.b3`: [Cabecera única B3](https://github.com/openzipkin/b3-propagation#single-header) (`b3`)
-      - `.b3multi`: [Cabeceras múltiples B3](https://github.com/openzipkin/b3-propagation#multiple-headers) (`X-B3-*`)
-{{% /tab %}}
-
-{{% tab "RUM Android" %}}
-1. Configura RUM para conectarse con APM, como se describe arriba.
-
-2. Configura el interceptor `OkHttpClient` con la lista de orígenes internos de primera instancia y el tipo de cabecera de rastreo a utilizar como se indica a continuación:
-    ```kotlin
-    val tracedHosts = mapOf("example.com" to setOf(TracingHeaderType.TRACECONTEXT),
-                          "example.eu" to setOf(TracingHeaderType.DATADOG))
-
-    val okHttpClient = OkHttpClient.Builder()
-        .addInterceptor(DatadogInterceptor(tracedHosts))
-        .addNetworkInterceptor(TracingInterceptor(tracedHosts))
-        .eventListenerFactory(DatadogEventListener.Factory())
-        .build()
-    ```
-
-   `TracingHeaderType` es una enumeración que representa los siguientes tipos de cabeceras de rastreo:
-      - `.DATADOG`: Propagador de Datadog (`x-datadog-*`)
-      - `.TRACECONTEXT`: [Contexto de rastreo W3C](https://www.w3.org/TR/trace-context/) (`traceparent`)
-      - `.B3`: [Cabecera única B3](https://github.com/openzipkin/b3-propagation#single-header) (`b3`)
-      - `.b3multi`: [Cabeceras múltiples B3](https://github.com/openzipkin/b3-propagation#multiple-headers) (`X-B3-*`)
-
-{{% /tab %}}
-
-{{% tab "RUM React Native" %}}
-1. Configura RUM para [conectarse con APM](#setup-rum).
-
-2. Configura el SDK RUM con la lista de orígenes internos de primera instancia y el tipo de cabecera de rastreo a utilizar como se indica a continuación:
-    ```javascript
-    const config = new DatadogProviderConfiguration(
-        // ...
-    );
-    config.firstPartyHosts = [{
-        match: "example.com",
-        propagatorTypes: [
-            PropagatorType.TRACECONTEXT,
-            PropagatorType.DATADOG
-        ]
-    }];
-    ```
-
-   `PropagatorType` es una enumeración que representa los siguientes tipos de cabeceras de rastreo:
-      - `PropagatorType.DATADOG`: Propagador de Datadog (`x-datadog-*`)
-      - `PropagatorType.TRACECONTEXT`: [Contexto de rastreo W3C](https://www.w3.org/TR/trace-context/) (`traceparent`)
-      - `PropagatorType.B3`: [Cabecera única B3](https://github.com/openzipkin/b3-propagation#single-header) (`b3`)
-      - `PropagatorType.B3MULTI`: [Cabeceras múltiples B3](https://github.com/openzipkin/b3-propagation#multiple-headers) (`X-B3-*`)
-
-{{% /tab %}}
-
-{{% tab "RUM Flutter" %}}
-1. Configura RUM para conectarse con APM, como se describe arriba.
-
-2. Utiliza `firstPartyHostsWithTracingHeaders` en vez de `firstPartyHosts` como se indica a continuación:
-    ```dart
-    final configuration = DatadogConfiguration(
-      // ...
-      // added configuration
-      firstPartyHostsWithTracingHeaders: {
-        'example.com': { TracingHeaderType.tracecontext },
-      },
-    )..enableHttpTracking()
-    ```
-
-   `firstPartyHostsWithTracingHeaders` toma `Map<String, Set<TracingHeaderType>>` como parámetro, donde la clave es un host y el valor es una lista de tipos de cabeceras de rastreo compatibles.
-
-   `TracingHeaderType` es una enumeración que representa los siguientes tipos de cabeceras de rastreo:
-      - `TracingHeaderType.datadog`: Propagador de Datadog (`x-datadog-*`)
-      - `TracingHeaderType.tracecontext`: [Contexto de rastreo W3C](https://www.w3.org/TR/trace-context/) (`traceparent`)
-      - `TracingHeaderType.b3`: [Cabecera única B3](https://github.com/openzipkin/b3-propagation#single-header) (`b3`)
-      - `TracingHeaderType.b3multi`: [Cabeceras múltiples B3](https://github.com/openzipkin/b3-propagation#multiple-headers) (`X-B3-*`)
-
-{{% /tab %}}
-
-{{< /tabs >}}
-
-
-## ¿Cómo se vinculan los recursos RUM con las trazas?
-
-Datadog utiliza el protocolo de rastreo distribuido y configura las siguientes cabeceras HTTP. Por defecto, se utilizan tanto el contexto de rastreo, así como las cabeceras específicas de Datadog.
-{{< tabs >}} {{% tab "Datadog" %}}
-`x-datadog-trace-id`
-: Generado a partir del SDK de Real User Monitoring. Permite a Datadog vincular la traza con el recurso RUM.
-
-`x-datadog-parent-id`
-: Generado desde el SDK de Real User Monitoring. Permite a Datadog generar el primer tramo (span) a partir de la traza.
-
-`x-datadog-origin: rum`
-: Para asegurarte de que las trazas generadas por Real User Monitoring no afecten a tus recuentos de tramos de índices APM.
-
-`x-datadog-sampling-priority: 1`
-: Para asegurarte de que el Agent conserva la traza.
-{{% /tab%}}
-{{% tab "Contexto de rastreo W3C" %}}
-
-`traceparent: [version]-[trace id]-[parent id]-[trace flags]`
-: `version`: La especificación actual asume que la versión se configura en `00`.
-: `trace id`: ID de traza de 128 bits, hexadecimal en 32 caracteres. El ID de la traza de origen es de 64 bits para mantener la compatibilidad con APM.
-: `parent id`: ID de tramo de 64 bits, hexadecimal en 16 caracteres.
-: `trace flags`: Muestreado (`01`) o no muestreado (`00`)
-
-Ejemplo:
-: `traceparent: 00-00000000000000008448eb211c80319c-b7ad6b7169203331s-01`
-{{% /tab %}}
-{{% tab "b3 / Cabeceras múltiples B3" %}}
-`b3: [trace id]-[span id]-[sampled]`
-: `trace id`: ID de traza de 64 bits, hexadecimal en 16 caracteres.
-: `span id`: ID de tramo de 64 bits, hexadecimal en 16 caracteres.
-: `sampled`: Verdadero (`1`) o Falso (`0`)
-
-Ejemplo de cabecera única B3
-: `b3: 8448eb211c80319c-b7ad6b7169203331-1`
-
-Ejemplo de cabeceras múltiples B3:
-: `X-B3-TraceId: 8448eb211c80319c`
-: `X-B3-SpanId:  b7ad6b7169203331`
-: `X-B3-Sampled: 1`
-{{% /tab %}}
-{{< /tabs >}}
-
-Estas cabeceras HTTP no están en la lista segura CORS, por lo que necesitas [configurar cabeceras con permisos de control del acceso][17] en tu servidor que gestiona solicitudes que el SDK está configurado para monitorizar. El servidor también debe aceptar [solicitudes preflight][18] (solicitudes de OPCIONES), enviadas por el SDK antes de cada solicitud.
-
-## ¿Cómo se ven afectadas las cuotas de APM?
-
-La conexión de RUM y trazas puede aumentar significativamente los volúmenes ingeridos por APM. Utiliza el parámetro de inicialización `traceSampleRate` para mantener una parte de las trazas de backend a partir de las solicitudes de navegador y móviles.
-
-## ¿Durante cuánto tiempo se conservan las trazas?
-
-Estas trazas están disponibles durante 15 minutos en el explorador [Live Search][19]. Para conservar las trazas durante más tiempo, crea [filtros de conservación][20]. Delimita estos filtros de conservación en cualquier etiqueta de tramo para conservar las trazas de páginas críticas y acciones de usuarios.
-
-## Referencias adicionales
-
-{{< partial name="whats-next/whats-next.html" >}}
-
-[1]: /es/tracing/trace_collection/dd_libraries/ios/?tab=swiftpackagemanagerspm
-[2]: /es/tracing
-[3]: /es/tracing/trace_collection/dd_libraries/python/
-[4]: https://github.com/DataDog/dd-trace-py/releases/tag/v0.22.0
-[5]: /es/tracing/trace_collection/dd_libraries/go/
-[6]: https://github.com/DataDog/dd-trace-go/releases/tag/v1.10.0
-[7]: /es/tracing/trace_collection/dd_libraries/java/
-[8]: https://github.com/DataDog/dd-trace-java/releases/tag/v0.24.1
-[9]: /es/tracing/trace_collection/dd_libraries/ruby/
-[10]: https://github.com/DataDog/dd-trace-rb/releases/tag/v0.20.0
-[11]: /es/tracing/trace_collection/dd_libraries/nodejs/
-[12]: https://github.com/DataDog/dd-trace-js/releases/tag/v0.10.0
-[13]: /es/tracing/trace_collection/dd_libraries/php/
-[14]: https://github.com/DataDog/dd-trace-php/releases/tag/0.33.0
-[15]: /es/tracing/trace_collection/dd_libraries/dotnet-core/
-[16]: https://github.com/DataDog/dd-trace-dotnet/releases/tag/v1.18.2
-[17]: https://developer.mozilla.org/en-US/docs/Web/HTTP/Headers/Access-Control-Allow-Headers
-[18]: https://developer.mozilla.org/en-US/docs/Glossary/Preflight_request
-[19]: /es/tracing/trace_explorer/#live-search-for-15-minutes
-[20]: /es/tracing/trace_pipeline/trace_retention/#retention-filters
\ No newline at end of file
diff --git a/content/es/security/application_security/threats/waf-integration.md b/content/es/security/application_security/threats/waf-integration.md
new file mode 100644
index 0000000000000..3a734e8bcec92
--- /dev/null
+++ b/content/es/security/application_security/threats/waf-integration.md
@@ -0,0 +1,62 @@
+---
+disable_toc: false
+further_reading:
+- link: https://www.datadoghq.com/blog/aws-waf-datadog/
+  tag: Blog
+  text: Monitorización de actividades WAF de AWS con Datadog
+title: Integraciones WAF
+---
+
+La protección de las aplicaciones web y las API requiere un enfoque multicapa que combine las defensas de monitorización y de perímetro en la aplicación. Estas estrategias complementarias te permiten contar con un enfoque de seguridad de las aplicaciones de defensa en profundidad que aprovecha AWS Web Application Firewall (WAF), como primera línea de defensa, seguido de ASM Threat Management, para bloquear los ataques que se cuelan por el WAF.
+
+### Monitorización en la aplicación: visibilidad profunda con rastreo distribuido
+
+A nivel de la aplicación, Datadog ASM Threat Management aprovecha el rastreo distribuido para monitorizar microservicios en tiempo real. El enfoque ASM proporciona información detallada y contextual del comportamiento de las solicitudes a medida que atraviesan varios servicios. Esta información detecta amenazas sofisticadas como:
+
+- Intentos de inyección SQL (SQLi) e inclusión de archivos locales (LFI).
+- Abuso de la lógica de la aplicación, como eludir reglas empresariales o explotar casos límite.
+- Uso indebido de los endpoints expuestos.
+
+### Defensa perimetral: bloqueo de amenazas en el borde con AWS WAF
+
+En el perímetro, AWS Web Application Firewall (WAF) actúa como primera línea de defensa, filtrando el tráfico antes de que llegue a la aplicación. Estas soluciones son esenciales para el bloqueo de:
+
+- Ataques de botnet a gran escala o ataques de denegación de servicio distribuido (DDoS).
+- Bots maliciosos que intentan rellenar credenciales o hacer scraping.
+
+### La importancia de una protección contextual y adaptable
+
+Dependiendo de la naturaleza de la amenaza, los controles de protección deben aplicarse en la capa apropiada: dentro de la aplicación o en el perímetro. Por ejemplo:
+
+- Caso práctico de protección perimetral: Bloqueo de IP maliciosas o ataques volumétricos que pueden mitigarse eficazmente en el borde de red.
+- Protección dentro de la aplicación: Detección y bloqueo de exploits de vulnerabilidades, abusos de la lógica empresarial o sutiles anomalías en el uso de la API.
+
+Este enfoque en capas garantiza que las amenazas se neutralicen lo antes posible, sin sacrificar la precisión necesaria para proteger el tráfico legítimo.
+
+
+## Integración de AWS WAF con ASM
+
+Existen dos casos de uso principales compatibles con esta [integración][1]:
+
+1. Obtener una visibilidad de las acciones de AWS WAF en Datadog ASM. Por ejemplo:
+   1. Métricas como el total de solicitudes permitidas frente a las bloqueadas por AWS WAF.
+   2. Desglosar y visualizar logs de AWS WAF individuales (requiere que [ingieras logs de AWS WAF en Datadog][2]).
+   3. Cómo AWS WAF inspeccionó la solicitud: reglas que se aplicaron y la decisión tomada (permitir, bloquear o contar). 
+
+   <div class="alert alert-info">Ten en cuenta que ASM convierte los logs de AWS WAF en trazas (traces) de ASM, lo que te permite ver trazas de la actividad de la aplicación y (logs de actividad convertidos en trazas de ASM en el Explorador de trazas ASM) de AWS WAF.</div>
+
+   {{< img src="security/application_security/threats/aws-waf-int-asm.png" alt="Detalles de la integración AWS WAF en la interfaz de usuario de Datadog" style="width:100%;" >}}
+
+2. Aprovecha AWS WAF para bloquear a los atacantes:
+   1. Conecta tu(s) conjunto(s) de IP AWS WAF con Datadog ASM. Puedes utilizar un conjunto existente o crear uno nuevo. Datadog añadirá las direcciones IP bloqueadas a este conjunto de IP. Puedes bloquear atacantes desde los exploradores de [señales][3] o de [trazas][4] de ASM.
+
+   {{< img src="/security/application_security/threats/aws-waf-blocked-ips.png" alt="IP bloqueadas de la lista de denegación de ASM" style="width:100%;" >}}
+
+## Referencias adicionales
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: https://app.datadoghq.com/security/appsec/protection?use-case=amazon_waf
+[2]: /es/integrations/amazon_waf/#log-collection
+[3]: https://app.datadoghq.com/security?query=@workflow.rule.type:%22Application%20Security%22&product=appsec
+[4]: https://app.datadoghq.com/security/appsec/traces
\ No newline at end of file
diff --git a/content/es/security/automation_pipelines/mute.md b/content/es/security/automation_pipelines/mute.md
new file mode 100644
index 0000000000000..19b9006548ce8
--- /dev/null
+++ b/content/es/security/automation_pipelines/mute.md
@@ -0,0 +1,49 @@
+---
+aliases:
+- /es/security/vulnerability_pipeline/mute
+further_reading:
+- link: /security/automation_pipelines
+  tag: Documentación
+  text: Automation Pipelines
+title: Reglas de silenciamiento
+---
+
+{{< callout url="https://www.datadoghq.com/product-preview/security-automation-pipelines/" >}}
+  Automation Pipelines está en vista previa. Para inscribirte en la vista previa de las reglas de silenciamiento, haz clic en <strong>Solicitar acceso</strong>.
+{{< /callout >}}
+
+Configura las reglas de silenciamiento para agilizar las alertas de seguridad filtrando automáticamente los hallazgos no urgentes. Este enfoque ayuda a reducir el ruido de los falsos positivos conocidos y los riesgos aceptados, lo que te permite centrarte en abordar las amenazas más críticas.
+
+## Crea una regla de silenciamiento
+
+1. En la página [Automation Pipelines][2], haz clic en **Añadir una nueva regla** y selecciona **Silenciar**.
+1. Introduce un nombre descriptivo para la regla, por ejemplo, **Avisos de anomalías de infraestructura de la nube**.
+1. Utiliza las siguientes casillas para configurar los criterios de la regla:
+    - **Cualquiera de estos tipos**: Los tipos de hallazgos para los que la norma se debe check. Los tipos disponibles incluyen los siguientes:
+      - **Configuración errónea**
+      - **Ruta de ataque**
+      - **Riesgo de identidad**
+      - **Averiguación de seguridad de la API**
+    - **Cualquiera de estas etiquetas (tags) o atributos**: Las etiquetas (tags) o los atributos de recursos que deben coincidir para que se aplique la regla.
+1. Para añadir criterios de gravedad a la regla, haz clic en **Añadir gravedad**.
+1. Especifica el motivo y la duración del silenciamiento:
+    - **Motivo para silenciar**: El motivo para silenciar el hallazgo. Los motivos disponibles son los siguientes:
+      - **Falso positivo**
+      - **Riesgo aceptado**
+      - **Pendiente de arreglo**
+      - **Sin arreglo**
+      - **Duplicado**
+      - **Otros**
+    - **Vencimiento de la regla**: La fecha de vencimiento de la regla. 
+    - **Descripción adicional de motivo de silenciamiento**: Casilla opcional para detalles adicionales.
+1. Haz clic en **Guardar**. La regla se aplica de inmediato a los nuevos hallazgos y comienza a check hallazgos existentes en la siguiente hora.
+
+## Orden de coincidencia de las reglas
+
+Cuando Datadog identifica una vulnerabilidad, la evalúa comparándola con tu secuencia de reglas de silenciamiento. Empezando por la primera regla, si hay una coincidencia, Datadog silencia la vulnerabilidad durante el tiempo especificado y deja de evaluar más. Si no se produce ninguna coincidencia, Datadog pasa a la siguiente regla. Esto proceso continúa hasta que se encuentre una coincidencia o todas las reglas se check sin una coincidencia.
+
+## Referencias adicionales
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[2]: https://app.datadoghq.com/security/configuration/pipeline-vulnerability
\ No newline at end of file
diff --git a/content/es/security/automation_pipelines/security_inbox.md b/content/es/security/automation_pipelines/security_inbox.md
new file mode 100644
index 0000000000000..4490bab5a53be
--- /dev/null
+++ b/content/es/security/automation_pipelines/security_inbox.md
@@ -0,0 +1,42 @@
+---
+aliases:
+- /es/security/vulnerability_pipeline/security_inbox
+further_reading:
+- link: /security/security_inbox
+  tag: Documentación
+  text: Bandeja de entrada de seguridad
+- link: /security/automation_pipelines
+  tag: Documentación
+  text: Automation Pipelines
+title: Añadir a las reglas de la bandeja de entrada de seguridad
+---
+
+{{< callout url="https://www.datadoghq.com/product-preview/customize-your-security-inbox/" >}}
+  Automation Pipelines está en vista previa. Para inscribirte en la vista previa de Añadir a las reglas de la bandeja de entrada de seguridad, haz clic en <strong>Solicitar acceso</strong>.
+{{< /callout >}} 
+
+Configura reglas de bandeja de entrada para gestionar eficazmente tu bandeja de entrada de seguridad, garantizando que sólo se resalten los problemas de seguridad más relevantes. Al personalizar las condiciones, puedes centrarte en las preocupaciones críticas, priorizar los riesgos clave, respaldar el cumplimiento y llamar la atención sobre problemas que de otro modo podrían pasarse por alto.
+
+## Crear una regla de bandeja de entrada
+
+1. En la página de [Automation Pipelines][2], haz clic en **Add a New Rule** (Añadir una nueva regla) y selecciona **Añadir a la bandeja de entrada de seguridad**.
+1. Introduce un nombre descriptivo para la regla, por ejemplo, **Advertencias de anomalías en la infraestructura de nube**.
+1. Utiliza las siguientes casillas para configurar los criterios de la regla:
+    - **Cualquiera de estos tipos**: Los tipos de hallazgos que la regla debe comprobar. Los tipos disponibles incluyen:
+      - **Configuración errónea**
+      - **Ruta de ataque**
+      - **Riesgo de identidad**
+      - **Hallazgo de seguridad de la API**
+    - **Cualquiera de estas etiquetas (tags) o atributos**: Las etiquetas o los atributos del recurso que deben coincidir para que se aplique la regla.
+1. Para añadir criterios de gravedad a la regla, haz clic en **Add Severity** (Añadir gravedad).
+1. Haz clic en **Save** (Guardar). La regla se aplica inmediatamente a los nuevos hallazgos y comienza a comprobar los hallazgos existentes dentro de la siguiente hora.
+
+## Orden de coincidencia de las reglas
+
+Cuando Datadog identifica una vulnerabilidad, la evalúa comparándola con tu secuencia de reglas de bandeja de entrada. Empezando por la primera regla, si hay una coincidencia, Datadog añade la vulnerabilidad a la bandeja de entrada de seguridad y detiene la evaluación. Si no se produce ninguna coincidencia, Datadog pasa a la siguiente regla. Este proceso continúa hasta que se encuentra una coincidencia o hasta que todas las reglas se comprueban y no se encuentran coincidencias.
+
+## Referencias adicionales
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[2]: https://app.datadoghq.com/security/configuration/pipeline-vulnerability
\ No newline at end of file
diff --git a/content/es/security/automation_pipelines/set_due_date.md b/content/es/security/automation_pipelines/set_due_date.md
new file mode 100644
index 0000000000000..ff165ef2b41cb
--- /dev/null
+++ b/content/es/security/automation_pipelines/set_due_date.md
@@ -0,0 +1,59 @@
+---
+further_reading:
+- link: /security/automation_pipelines
+  tag: Documentación
+  text: Automation Pipelines
+title: Configurar normas de fecha de caducidad
+---
+
+{{< callout url="https://www.datadoghq.com/product-preview/security-automation-pipelines/" >}}
+  Automation Pipelines está en Vista Previa. Para inscribirte en la vista previa de las reglas de fecha de caducidad, haz clic en <strong>Solicitar acceso</strong>.
+{{< /callout >}} 
+
+Configura reglas de fecha de caducidad para garantizar que las vulnerabilidades se solucionen dentro de los plazos de SLO especificados. Al establecer estas fechas de caducidad, puedes automatizar la rendición de cuentas, cumplir los requisitos de conformidad y priorizar la pronta corrección de los problemas de seguridad, evitando así posibles vulnerabilidades.
+
+## Crea una regla de fecha de caducidad
+
+1. En la página [Automation Pipelines][2], haz clic en **Añadir una nueva regla** y selecciona **Fijar fecha de caducidad**.
+1. Introduce un nombre descriptivo para la regla, por ejemplo, **Avisos de anomalías en la infraestructura de la nube**.
+1. Utiliza las siguientes casillas para configurar los criterios de la regla:
+    - **Cualquiera de estos tipos**: Los tipos de hallazgos para los que la norma debe check. Los tipos disponibles incluyen los siguientes:
+      - **Vulnerabilidad del código de aplicación**
+      - **Vulnerabilidad de las bibliotecas de aplicaciones**
+      - **Vulnerabilidad de las imágenes del contenedor**
+      - **Configuración errónea**
+      - **Ruta de Ataque**
+      - **Riesgo de identidad**
+      - **Averiguación de seguridad de la API**
+    - **Cualquiera de estas etiquetas (tags) o atributos**: Las etiquetas (tags) o los atributos del recurso que deben coincidir para que se aplique la regla.
+1. Establezca una fecha de caducidad para cada nivel de gravedad que requiera una, que entra en vigencia a partir del descubrimiento de una vulnerabilidad de gravedad correspondiente.
+1. Haz clic en **Guardar**. La regla se aplica inmediatamente a los nuevos hallazgos y comienza a check hallazgos existentes dentro en la siguiente hora.
+
+## Dónde aparecen las fechas de caducidad
+
+Cuando un hallazgo tiene una fecha de caducidad, puedes verla en estas ubicaciones:
+
+- Facetas de explorador
+- Panel lateral de hallazgos
+- Notificaciones
+- Descripciones de tickets de Jira
+- Informar métricas (como un booleano "atrasado") para identificar los equipos o repositorios con las vulnerabilidades más atrasadas.
+
+## Orden de coincidencia de las reglas
+
+Cuando Datadog identifica una vulnerabilidad, la evalúa comparándola con tu secuencia de reglas de fecha de caducidad. Empezando por la primera regla, si hay una coincidencia, Datadog establece una fecha de caducidad para la vulnerabilidad durante el tiempo especificado y detiene la evaluación. Si no se produce ninguna coincidencia, Datadog pasa a la siguiente regla. Este proceso continúa hasta que se encuentre una coincidencia o todas las reglas se check sin una coincidencia.
+
+## Eliminar fechas de caducidad
+
+Cuando se gestionan vulnerabilidades, las fechas de caducidad pueden eliminarse en varias condiciones, como por ejemplo, las siguientes:
+
+- La regla de detección que activó la vulnerabilidad pasa con éxito.
+- La vulnerabilidad se silencia, ya sea manual o automáticamente a través de una regla de silenciamiento.
+- La regla de fecha de caducidad asociada a la vulnerabilidad se desactiva o se elimina.
+- La regla de fecha de caducidad asociada se modifica para que sus criterios ya no coincidan con la vulnerabilidad.
+
+## Referencias adicionales
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[2]: https://app.datadoghq.com/security/configuration/pipeline-vulnerability
\ No newline at end of file
diff --git a/content/es/security/cloud_security_management/setup/iac_remediation.md b/content/es/security/cloud_security_management/setup/iac_remediation.md
new file mode 100644
index 0000000000000..8cee45fa1a0e2
--- /dev/null
+++ b/content/es/security/cloud_security_management/setup/iac_remediation.md
@@ -0,0 +1,45 @@
+---
+aliases:
+- /es/security/cloud_security_management/setup/source_code_integrations
+further_reading:
+- link: /security/cloud_security_management/setup
+  tag: Documentación
+  text: Configuración de Cloud Security Management
+- link: /security/cloud_security_management/misconfigurations
+  tag: Documentación
+  text: Configuraciones erróneas de CSM
+- link: /security/cloud_security_management/identity_risks
+  tag: Guía
+  text: Riesgos de identidad de CSM
+title: Configuración de la corrección de IaC para Cloud Security Management
+---
+
+Sigue estas instrucciones para activar la corrección de infraestructura como código (IaC) para Cloud Security Management (CSM). La corrección de IaC está disponible para [CSM Misconfigurations][1] y [CSM Identity Risks][2].
+
+<div class="alert alert-info">La corrección estática de IaC es compatible con GitHub para el control de versiones y Terraform para la infraestructura como código.</div>
+
+## Configurar la integración GitHub
+
+Sigue [las instrucciones][3] para crear una aplicación GitHub para tu organización.
+
+<div class="alert alert-info">Para utilizar la corrección de IaC, debes conceder a la aplicación Github permisos de <code>lectura y escritura</code> de <code>Contenidos</code> y <code>solicitudes pull</code>. Estos permisos pueden aplicarse a todos los repositorios o a algunos de ellos.
+</div>
+
+## Activar la corrección de IaC para tus repositorios
+
+Después de configurar la integración GitHub, activa la corrección de IaC para los repositorios de tu cuenta de GitHub.
+
+1. En la página de [configuración de CSM][4], amplía la sección **Integraciones de código fuente**.
+2. Haz clic en **Configure** (Configurar) para la cuenta de GitHub que quieres configurar.
+3. Para activar IaC:
+    - Todos los repositorios: Activa la opción **Activar la corrección de infraestructura como código (IaC)**.
+    - Repositorio único: Activa la opción **Corrección de IAC** para el repositorio específico.
+
+## Referencias adicionales
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: /es/security/cloud_security_management/misconfigurations
+[2]: /es/security/cloud_security_management/identity_risks
+[3]: /es/integrations/github/#link-a-repository-in-your-organization-or-personal-account
+[4]: https://app.datadoghq.com/security/configuration/csm/setup
\ No newline at end of file
diff --git a/content/es/security/cloud_siem/detection_rules/mitre_attack_map.md b/content/es/security/cloud_siem/detection_rules/mitre_attack_map.md
new file mode 100644
index 0000000000000..5a7ba6dada4a3
--- /dev/null
+++ b/content/es/security/cloud_siem/detection_rules/mitre_attack_map.md
@@ -0,0 +1,67 @@
+---
+aliases:
+- /es/security/cloud_siem/detection_rules/attack_map
+disable_toc: false
+further_reading:
+- link: /security/cloud_siem/detection_rules/
+  tag: Documentación
+  text: Crear reglas de detección personalizadas
+- link: https://www.datadoghq.com/blog/cloud-siem-mitre-attack-map/
+  tag: Blog
+  text: Identifica lagunas para reforzar la cobertura de detección con el mapa de
+    Datadog Cloud SIEM MITRE ATT&CK
+title: Mapa de MITRE ATT&CK
+---
+
+## Información general
+
+<div class="alert alert-warning">El mapa de MITRE ATT&CK sólo cubre <a href="https://attack.mitre.org/matrices/enterprise/">MTRE ATT&CK Enterprise.</a></div>
+
+El marco de MTRE ATT&CK es una base de conocimientos utilizada para desarrollar modelos y metodologías de amenazas específicas. Utiliza el mapa de Cloud SIEM MITRE ATT&CK para explorar y visualizar el marco de MITRE ATT&CK en comparación con las reglas predefinidas de Datadog y tus reglas de detección personalizadas. El mapa de MITRE ATT&CK muestra la densidad de las reglas de detección como un mapa de calor para proporcionar visibilidad de las técnicas de ataque. Tus equipos de seguridad pueden utilizar el mapa de calor para evaluar las lagunas en la cobertura que son pertinentes para tu organización o equipo y priorizar las mejoras en sus defensas de reglas de detección.
+
+## Ver reglas de detección en el mapa de MTRE ATT&CK
+
+Para ver las reglas de detección según el marco de MTRE ATT&CK:
+1. Ve a la página [Reglas de detección][1].
+1. Haz clic en el botón **Mapa de MITRE ATT&CK** situado junto a **Lista de reglas**.
+
+La vista predeterminada del mapa muestra todas las reglas predefinidas y personalizadas de Datadog para fuentes activas, desglosadas en diferentes técnicas de ataque. Las fuentes activas son las fuentes de logs encontradas y analizadas en el índice de Cloud SIEM.
+
+**Nota**: Para la SKU legacy, todos los logs ingeridos se analizan con Cloud SIEM, a menos que se hayan configurado [filtros de seguridad][2].
+
+Para ver el mapa de todas las fuentes, en el menú desplegable **Visualizar**, selecciona **Todas las fuentes**. Esto muestra todas las reglas predefinidas, incluidas las que no se utilizan actualmente para detectar amenazas de tus logs.
+
+Haz clic en los botones de densidad de reglas para visualizar el mapa y buscar un número específico de reglas. Por ejemplo, si haces clic en **Alto \+7**, sólo se mostrarán en el mapa los íconos que tengan más de siete reglas activadas.
+
+### Ver la información de una técnica de ataque y las reglas relacionadas
+
+Para ver más información sobre una técnica y las reglas de monitorización de la técnica:
+
+1. En la página [Mapa de MITRE ATT&CK][3], haz clic en un ícono de una técnica.
+1. Haz clic en **Crear regla personalizada** si deseas crear una regla personalizada para esta técnica. Consulta [Reglas de detección][4] para obtener más información sobre la creación de reglas personalizadas.
+1. En la sección **Reglas de monitorización de esta técnica**, puedes:
+    1. Introducir una consulta de búsqueda para filtrar a reglas específicas.
+  1. Ordenar por fecha de creación, tipo de regla, nombre de la regla, fuente o gravedad máxima.
+  1. Alternar **Mostrar reglas obsoletas** para ver las reglas obsoletas para esta técnica.
+
+### Añadir etiquetas (tags) de técnicas y tácticas de ataque a las reglas personalizadas
+
+Las reglas personalizadas sólo aparecen en el mapa si están etiquetadas en el editor de reglas con la táctica y la técnica de MITRE correctas. La táctica y la técnica también deben emparejarse correctamente. Si no se utilizan el formato y el emparejamiento correctos, la regla no aparece en el mapa cuando se utiliza la barra de búsqueda para filtrar esa regla.
+
+Este es un ejemplo del formato que debes utilizar para el etiquetado de reglas personalizadas y el emparejamiento correcto de etiquetas (tags) de táctica y técnica:
+
+- `tactic: <tactic number>-<tactic name>`
+    - Por ejemplo: `tactic:TA0001-Initial-Access`
+- `technique: <technique number>-<technique name>`
+    - Por ejemplo: `technique:T1566-Phishing`
+
+**Nota**: La táctica y la técnica deben basarse en la versión de MITRE ATT&CK indicada en la página [Mapa de MITRE ATT&CK][3].
+
+## Referencias adicionales
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: https://app.datadoghq.com/security/rules
+[2]: https://docs.datadoghq.com/es/security/cloud_siem/guide/how-to-setup-security-filters-using-cloud-siem-api/
+[3]: https://app.datadoghq.com/security/rules?query=product=siem&sort=date&viz=attck-map
+[4]: https://docs.datadoghq.com/es/security/cloud_siem/detection_rules/?tab=threshold
\ No newline at end of file
diff --git a/content/es/security/cloud_siem/entities_and_risk_scoring.md b/content/es/security/cloud_siem/entities_and_risk_scoring.md
new file mode 100644
index 0000000000000..065bd15d056ef
--- /dev/null
+++ b/content/es/security/cloud_siem/entities_and_risk_scoring.md
@@ -0,0 +1,64 @@
+---
+further_reading:
+- link: https://www.datadoghq.com/blog/risk-prioritization-entity-analytics/
+  tag: Blog
+  text: Acelerar las investigaciones con información de Datadog Cloud SIEM basada
+    en riesgos y análisis de entidades AWS
+title: Información sobre riesgos para entidades AWS
+---
+
+## Información general
+
+La [información sobre riesgos para entidades de AWS Cloud SIEM][4] consolida múltiples fuentes de datos, como las amenazas SIEM y las informaciones de CSM en un perfil que representa una única entidad de seguridad, como un usuario IAM.
+
+Con la información sobre riesgos, puedes:
+
+- Explorar entidades, filtrándolas por atributos como la [gravedad de la puntuación de riesgo](#risk-scoring) y los riesgos de configuración.
+- Visualizar todos los datos relevantes para una entidad, como señales, configuraciones erróneas y riesgos de identidad.
+- Clasificar elementos relevantes en bloque.
+- Adoptar medidas paliativas como la creación de una eliminación global o de un caso para una entidad.
+
+## Requisitos previos
+
+- Para la cobertura de la información sobre riesgos de AWS, [AWS debe estar configurado para Cloud SIEM][1].
+- (Opcional) Para ver la información de Cloud Security Management (CSM) asociada al panel de entidades, [CSM debe estar configurado][2].
+
+
+## Explorar información sobre riesgos
+
+### Consultar y filtrar entidades
+
+En el [Explorador de información sobre riesgos][4], puedes ver todas las entidades que tienen asociada una puntuación de riesgo distinta de cero.
+
+{{< img src="security/entities/entities-explorer2.png" alt="Lista de las entidades y sus puntuaciones de riesgo en el Explorador de información sobre riesgos" style="width:100%;" >}}
+
+### Crear rápidamente el contexto de una entidad
+
+Haz clic en una entidad en el [Explorador][4] para abrir el panel lateral de la entidad.
+
+{{< img src="security/entities/entity-side-panel2.png" alt="Panel lateral de una entidad" style="width:90%;" >}}
+
+La sección **Qué ha pasado** del panel resume el recuento de señales, configuraciones erróneas y riesgos de identidad, y su contribución a la puntuación de riesgo, así como cualquier riesgo potencial de configuración.
+
+La sección **Qué contribuye a la puntuación** muestra la lista de señales activadas, configuraciones erróneas relevantes y riesgos de identidad.
+
+### Clasificación y mitigación de amenazas en bloque
+
+La sección **Siguientes pasos** del panel lateral de la entidad incluye los pasos de mitigación disponibles para señales SIEM, configuraciones erróneas y riesgos de identidad.
+
+{{< img src="security/entities/entities-next-steps2.png" alt="Pasos siguientes disponibles para una entidad, como se muestra en el panel lateral de la entidad" style="width:80%;" >}}
+
+## Puntuación de riesgo
+
+La puntuación de riesgo de una entidad se aproxima al nivel de riesgo de la entidad en los últimos 14 días de actividad.
+
+La puntuación de riesgo se calcula a partir de las características de las señales asociadas de la entidad, como el nivel de gravedad de la señal y cuántas veces se activó.
+
+## Referencias adicionales
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: /es/security/cloud_siem/guide/aws-config-guide-for-cloud-siem/
+[2]: https://docs.datadoghq.com/es/security/cloud_security_management/setup
+[3]: https://app.datadoghq.com/security
+[4]: https://app.datadoghq.com/security/entities
\ No newline at end of file
diff --git a/content/es/security/research_feed.md b/content/es/security/research_feed.md
new file mode 100644
index 0000000000000..ab9f0d7d2f4d0
--- /dev/null
+++ b/content/es/security/research_feed.md
@@ -0,0 +1,35 @@
+---
+title: Feed de investigación sobre seguridad
+---
+
+El feed de investigación sobre seguridad de Datadog ofrece contenidos relacionados con la seguridad que se actualizan continuamente para ayudar a las organizaciones a anticiparse a las amenazas y vulnerabilidades emergentes. Gestionado por los equipos de Investigación de Seguridad e Ingeniería de Detección de Datadog, el feed ofrece información puntual sobre los avances más importantes en materia de seguridad, incluidos los siguientes:
+
+- **Vulnerabilidades y amenazas emergentes**: actualizaciones sobre vulnerabilidades recién descubiertas y campañas de ataque activas que podrían afectar tu infraestructura. Estas actualizaciones ayudan los equipos de seguridad a evaluar la cobertura de la detección, identifican los sistemas afectados y determinan el impacto potencial.
+- **Nuevo contenido de detección**: las últimas detecciones publicadas por el equipo de Ingeniería de Detección de Datadog, incluidas las nuevas tácticas, técnicas y procedimientos (TTP) y los paquetes de detección compatibles.
+- **Actualizaciones del producto**: mejoras en las funciones de seguridad de Datadog que optimizan tu capacidad para monitorizar y proteger tu entorno.
+
+{{< img src="security/security_research_feed.png" alt="El feed de investigación sobre seguridad con actualizaciones de seguridad, incluidas entradas de blog, actualizaciones de productos, vulnerabilidades emergentes y nuevas detecciones" width="100%">}}
+
+## Cómo funciona
+
+Los equipos de Investigación de Seguridad e Ingeniería de Detección monitorizan continuamente el panorama de las amenazas y publican actualizaciones tan pronto como surgen nuevas amenazas. Esto garantiza que los profesionales de la seguridad tengan acceso a lo siguiente:
+
+- Análisis de expertos sobre las últimas tendencias en seguridad.
+- Información contextual para evaluar el impacto de una vulnerabilidad o amenaza.
+- Orientación sobre la aplicación de estrategias eficaces de detección y respuesta.
+
+## Criterios de las vulnerabilidades emergentes
+
+Una vulnerabilidad emergente es una debilidad en la seguridad de una tecnología que representa una amenaza significativa para las operaciones empresariales y se define mediante uno o más de los siguientes criterios:
+
+- **Impacto generalizado**: la vulnerabilidad afecta a un gran número de sistemas u organizaciones, lo que crea una amplia superficie de ataque.
+- **Gravedad alta**: su explotabilidad y daño potencial la convierten en un problema de seguridad inmediato.
+- **Visibilidad significativa**: el problema es ampliamente debatido en las comunidades de seguridad y en los medios de noticias principales, lo que aumenta el reconocimiento y la urgencia.
+
+## Criterios de las amenazas emergentes
+
+Una amenaza emergente es una campaña de ataque nueva o en evolución o un ataque a la cadena de suministro que ha perturbado o supone una amenaza significativa para las operaciones empresariales. Se define mediante uno o más de los siguientes criterios:
+
+- **Impacto generalizado**: la amenaza ya afectó a un gran número de sistemas u organizaciones, ya sea a través de ataques amplios y oportunistas, o campañas dirigidas.
+- **Amenaza inminente**: la amenaza ya causó un impacto o se espera que aumente, lo que hace probable que los ataques a corto plazo afecten a muchas organizaciones.
+- **Visibilidad significativa**: el problema es ampliamente debatido en las comunidades de seguridad y en los medios de noticias principales, lo que aumenta el reconocimiento y la urgencia.
\ No newline at end of file
diff --git a/content/es/security/threats/workload_security_rules/custom_rules.md b/content/es/security/threats/workload_security_rules/custom_rules.md
index f6969e31f4b43..21f4803cc6c3f 100644
--- a/content/es/security/threats/workload_security_rules/custom_rules.md
+++ b/content/es/security/threats/workload_security_rules/custom_rules.md
@@ -12,13 +12,77 @@ further_reading:
 - link: /security/notifications/variables/
   tag: Documentación
   text: Más información sobre las variables de notificación de seguridad
-title: Creación de reglas de detección personalizadas
+title: Crear políticas y reglas personalizadas
 ---
 
-En este tema, se explica cómo crear reglas personalizadas de Datadog Agent y reglas de detección para [CSM Threats][8].
+En este tema, se explica cómo crear políticas y reglas de detección personalizadas del Datadog Agent para [CSM Threats][8].
 
 Además de las [reglas de Agent y reglas de detección predeterminadas][7] predefinidas (OOTB), puedes escribir reglas de Agent y reglas de detección personalizadas. Las reglas personalizadas te ayudan a detectar eventos que Datadog no está detectando con sus reglas predefinidas.
 
+Las reglas del Agent se recopilan en políticas. En primer lugar, se crea una política y, a continuación, se añaden las reglas predeterminadas y personalizadas que deseas que aplique la política.
+
+Cuando se crea una política de configuración del Agent sólo contiene las reglas por defecto. Puedes añadir reglas personalizadas a la política para dirigirse a localizaciones de infraestructura específicas.
+
+## RBAC para la gestión de reglas personalizadas
+
+Aquí hay algunos [roles y permisos][11] importantes para usar en las reglas personalizadas RBAC:
+
+- El permiso `security_monitoring_cws_agent_rules_actions` se puede utilizar para activar y configurar la función [Active Protection][12]. Active Protection te permite bloquear y terminar proactivamente las amenazas de minería criptográfica identificadas por las reglas de detección de amenazas del Datadog Agent.
+  - Para utilizar el permiso `security_monitoring_cws_agent_rules_actions`, un usuario con el rol Datadog Admin debe crear una función que contenga el permiso `security_monitoring_cws_agent_rules_actions` y, a continuación, añadir a este rol únicamente a los usuarios que gestionan Active Protection.
+- El rol **Datadog Standard** permite a los usuarios crear/actualizar una regla personalizada por defecto, siempre y cuando la operación no cambie la configuración de **protección** de la regla.
+
+## Políticas
+
+Las reglas se gestionan y aplican mediante políticas. Para ver las políticas, ve a [Security > Cloud Security Management > Agent Configuration][3] (Seguridad > Cloud Security Management > Configuración del Agent).
+
+Puedes crear y desplegar diferentes políticas personalizadas que contengan reglas que desees aplicar a diferentes conjuntos de hosts en tu infraestructura.
+
+Por ejemplo, puedes hacer lo siguiente con las políticas:
+
+- [Asigna prioridades][17] a tus políticas. Las prioridades pueden tener en cuenta políticas con solapamientos parciales de etiquetas (tags).
+- Despliega múltiples reglas en un subconjunto específico de un infraestructura utilizando [etiquetas][18].
+
+### Política predeterminada
+
+La política predeterminada y sus reglas no pueden modificarse. Puedes utilizar el ajuste de prioridad de la política para anular la política predeterminada con políticas personalizadas.
+
+### Crear una política
+
+1. Ve a [Security > Cloud Security Management > Agent Configuration][3] (Seguridad > Cloud Security Management > Configuración del Agent).
+2. Haz clic en **New Policy** (Nuevo política). También puedes abrir un política existente, hacer clic en **Actions** (Acciones) y clonarla.
+3. Introduce un nombre para la política y haz clic en **Create** (Crear).
+   La nueva política se crea y se coloca como máxima prioridad, pero no se activa ni se despliega.
+4. Haz clic en la política para abrirla.
+5. En **Actions** (Acciones), añade reglas personalizadas del Agent a la política. Para más detalles, consulta [Crear las reglas personalizadas del Agent y de detección conjuntamente][14].
+6. Haz clic en **Apply Tags & Deploy** (Aplicar etiquetas y desplegar). 
+7. Añade etiquetas a la política para dirigirse a una infraestructura específica.
+8. Para desplegar la política, selecciona **Enable** (Activar) y haz clic en **Apply** (Aplicar).
+
+### Priorizar las políticas
+
+1. Ve a [Security > Cloud Security Management > Agent Configuration][3] (Seguridad > Cloud Security Management > Configuración del Agent).
+2. Haz clic en **Determine Priority** (Determinar prioridad).
+3. Arrastra las políticas para establecer su prioridad.
+4. Haz clic en **Confirm Reordering** (Confirmar reorganización).
+
+Los Agents que se encuentran en el contexto de varias políticas aplican configuraciones basadas en el orden de prioridad. En los casos en los que una política de mayor prioridad contenga las mismas reglas que una de menor prioridad, las reglas de la política de mayor prioridad prevalecerán sobre las de la política de menor prioridad.
+
+Cuando se anula una política, aparece el estado **Overridden** (Anulado). Pasa el ratón por encima del estado para ver el nombre de política que se ha anulado.
+
+### Aplicar etiquetas
+
+[Las etiquetas][15] son la localización de destino donde se aplica la política (entornos, clústeres, hosts, etc.). Añade etiquetas personalizadas a las políticas para dirigir las reglas de política a determinadas partes de tu infraestructura.
+
+Las etiquetas identifican dos cosas: los Agents que utilizan la política y la infraestructura en la que esos Agents aplican la política. Por ejemplo, si una política tiene la etiqueta `cluster_name:mycluster` los Agents en ese clúster utilizan la política en los hosts en ese clúster.
+
+1. Ve a [Security > Cloud Security Management > Agent Configuration][3] (Seguridad > Cloud Security Management > Configuración del Agent).
+2. Pasa el ratón por encima de una política, o abre una política y haz clic en **Apply Tags & Deploy Policy** (Aplicar etiquetas y desplegar la política).
+3.  Introduce etiquetas y haz clic en **Apply** (Aplicar). Si la política está activada, la política se aplica a los objetivos de etiqueta.
+
+Al añadir etiquetas, Datadog muestra cuántos hosts son el objetivo de las etiquetas. Por ejemplo, `Tags match 144 hosts`. 
+
+En la política, haz clic en **Tags With This Policy** (Etiquetas con esta política). El número de hosts a los que se dirige cada etiqueta se muestran en **Hosts matching this tag** (Hosts que coinciden con esta etiqueta).
+
 ## Resumen de reglas de detección personalizadas
 
 Las reglas de detección personalizadas dependen de las reglas de Agent. Se componen de reglas de Agent existentes y desplegadas y de parámetros de expresión adicionales. 
@@ -33,87 +97,76 @@ Para obtener más información, consulta [Reglas de detección de CSM Threats][7
 Puedes crear reglas personalizadas utilizando estos métodos:
 
 - **Simple:** utiliza el **Creador de reglas asistido** para crear las reglas de Agent y de detección personalizadas juntas.
-  - Para obtener información sobre cómo utilizar el **creador de reglas asistido**, consulta [Crear las reglas de Agent y de detección personalizadas juntas](#create-the-custom-agent-and-detection-rules-together).
+  - Para conocer los pasos para utilizar el **Assisted rule creator** (Creador de reglas asistido), consulta [Crear conjuntamente las reglas personalizadas del Agent y de detección][1].
 - **Avanzado:** crea reglas de detección y de Agent personalizadas individualmente definiendo sus expresiones de detección de amenazas. 
-  - Para conocer los pasos de este método, consulta [Crear una regla personalizada de Agent](#create-a-custom-agent-rule) y [Crear una regla de detección personalizada](#create-a-custom-detection-rule).
+  - Para conocer los pasos de este método, consulta [Crear una regla personalizada del Agent][2] y crear una regla de detección personalizada.
+
+## Crear conjuntamente las reglas de Agent y de detección personalizadas
+
+Las reglas personalizadas del CSM Agent se agrupan en políticas. Las políticas agrupan las reglas del Agent para que puedas aplicar varias reglas de forma más eficaz.
+
 
 ## Crear conjuntamente las reglas de Agent y de detección personalizadas
 
-La opción **Creador de reglas asistido** te ayuda a crear conjuntamente el Agent y las reglas de detección dependientes, y garantiza que se haga referencia a la regla del Agent en las reglas de detección. El uso de esta herramienta es más rápido que el método avanzado de creación del Agent y de las reglas de detección por separado.
+Cuando se crea una política de configuración del Agent sólo contiene las reglas predeterminadas del Agent. Puedes añadir reglas del Agent personalizadas a la política para aplicar reglas específicas a Agents concretos.
+
+Cuando añadas una política de configuración del Agent, puedes utilizar la opción **Assisted rule creator** (Creador de reglas asistido) para crear conjuntamente las reglas de detección del Agent y las reglas dependientes. Este método asegura que se haga referencia a la regla del Agent en las reglas de detección. Utilizar esta herramienta es más rápido que crear las reglas del Agent y de detección por separado y luego referenciar las reglas del Agent en las reglas de detección.
 
 A medida que se definen las reglas mediante esta herramienta, las expresiones de amenaza generadas para estas reglas se muestran en la herramienta.
 
-Para utilizar el creador de reglas simple:
+Para utilizar el creador de reglas asistido:
 
-1. En [Configuración del Agent][4] o [Reglas de detección de amenazas][3], selecciona **New rule** (Nueva regla) y, a continuación, selecciona **Assisted rule creator** (Creador de reglas asistido).
-2. Define la detección. Para monitorizar tu recurso correctamente, tienes las siguientes opciones de tipo de detección:
+1. Ve a [Security > Cloud Security Management > Agent Configuration][3] (Seguridad > Cloud Security Management > Configuración del Agent).
+2. Crea o abre una política.
+3. En **Actions** (Acciones), selecciona **Assisted rule creator** (Creador de reglas asistido).
+4. Define la detección. Para monitorizar tu recurso correctamente, tienes las siguientes opciones de tipo de detección:
    - Para detectar cambios no estándar y sospechosos en los archivos, selecciona **File integrity monitoring (FIM)** (Monitorización de la integridad de archivos (FIM)).
    - Para rastrear y analizar los procesos de software del sistema en busca de comportamientos maliciosos o infracciones de política, selecciona **Process activity monitoring** (Monitorización de la actividad de proceso).
    - Introduce los nombres de archivo/proceso o las rutas para monitorizar.
-3. Especifica más condiciones. Introduce los argumentos que desees añadir a la expresión de la regla de amenaza. Por ejemplo, el argumento `foo` se añade como `process.argv in ["foo"]`.
-4. Establece listas de gravedad y notificación. 
+5. Especifica más condiciones. Introduce los argumentos que desees añadir a la [expresión de la regla de amenaza][16]. Por ejemplo, el argumento `foo` se añade como `process.argv in ["foo"]`.
+6. Establece listas de gravedad y notificación. 
    - Selecciona la gravedad de la señal generada cuando se detecta esta amenaza. 
    - Selecciona listas de notificación para notificar cuando se genera una señal.
-5. Añade el nombre y la descripción de la regla.
-
-   Este es un ejemplo de una nueva regla de FIM, incluidas las expresiones generadas para cada regla.
-
-    {{< img src="/security/csm/csm_threats_simple_rule_creator2.png" alt="Ejemplo del creador de reglas asistido" style="width:100%;" >}}
-
-6. Selecciona **Create _N_ Rules** (Crear _N_ reglas).
-7. En **Generate Rules** (Generar reglas), selecciona **Confirm** (Confirmar). Las reglas se generan.
-8. Selecciona **Finish** (Finalizar). La página [Configuración del Agent][3] muestra las nuevas reglas.
-9. En la [Configuración del Agent][3], selecciona **Deploy Agent Policy** (Desplegar política del Agent).
-
+7. Añade el nombre y la descripción de la regla.
+8. Selecciona **Create _N_ Rules** (Crear _N_ reglas).
+9. En **Generate Rules** (Generar reglas), selecciona **Confirm** (Confirmar). Las reglas se generan.
+10. Selecciona **Finish** (Finalizar). La política muestra las nuevas reglas.
 
 ## Crear una regla del Agent personalizada
 
-Puedes crear una regla personalizada de Agent individual, desplegarla como una [nueva política del Agent](#deploy-the-policy-in-your-environment) y referenciarla en una [regla de detección personalizada](#create-a-custom-detection-rule).
-
-1. En [Configuración del Agent][4], selecciona **New rule** (Nueva regla) y, a continuación, selecciona **Manual rule creator** (Creador de reglas manual).
-2. Añade un nombre y una descripción para la regla.
-3. En **Expression** (Expresión), define la expresión del Agent utilizando la sintaxis del Lenguaje de seguridad (SECL) de Datadog.
-
-    {{< img src="security/cws/workload_security_rules/define_agent_expression.png" alt="Añadir una regla al campo de Expresión" >}}
-
-    Por ejemplo, para monitorizar clientes sospechosos de contenedor:
-
-    ```text
-    exec.file.path in ["/usr/bin/docker", "/usr/local/bin/docker",
-    "/usr/bin/kubectl", "/usr/local/bin/kubectl"] && container.id != ""
-    ```
-
-4. Haz clic en **Create Agent Rule** (Crear regla de Agent). Esto te lleva automáticamente a la página **Agent Configuration** (Configuración del Agent).
-
-Después de crear una regla de Agent personalizada, el cambio se guarda junto con otras actualizaciones de reglas pendientes. Para aplicar el cambio a tu entorno, [despliega la política personalizada actualizada en el Agent](#deploy-the-policy-in-your-environment).
-
-## Despliegue de la política en tu entorno
-
-Las reglas de Agent personalizadas se despliegan en el Agent en una política personalizada separada de la política predeterminada. La política personalizada contiene reglas de Agent personalizadas así como [reglas predeterminadas que han sido desactivadas](#disable-default-agent-rules).
+Puedes crear una regla personalizada del Agent e implementarla como parte de una nueva política del Agent. Más tarde, al definir una [regla de detección] personalizada[3], se hace referencia a la regla personalizada del Agent y se añaden parámetros de expresión.
 
-Puedes utilizar la Configuración remota para desplegar automáticamente la política personalizada en tus hosts designados (todos los hosts o un subconjunto definido de hosts), o cargarla manualmente en el Agent en cada host.
+1. Ve a [Security > Cloud Security Management > Agent Configuration][3] (Seguridad > Cloud Security Management > Configuración del Agent).
+2. Crea o abre una política.
+3. En **Actions** (Acciones), selecciona **Manual rule creator** (Creador de reglas manual).
+4. Añade un nombre y una descripción para la regla.
+5. En **Expression** (Expresión), define la expresión del Agent utilizando la [sintaxis del Lenguaje de seguridad (SECL) de Datadog][16].
+6. Haz clic en **Create Agent Rule** (Crear regla de Agent). Esto te lleva automáticamente a la página de política.
 
-<div class="alert alert-info">La configuración remota para las reglas personalizadas se encuentra en una versión beta privada. Completa este <a href="https://docs.google.com/forms/d/e/1FAIpQLSe5Emr7y_Jg3ShcC44HlYtalxKgHUocFAz8dq87xSkjfeALTg/viewform">formulario</a> para solicitar acceso.</div>
+Después de crear una regla de Agent personalizada, el cambio se guarda junto con otras actualizaciones de reglas pendientes. Para aplicar el cambio a tu entorno, despliega la política personalizada actualizada en el Agent.
 
 ### Configuración remota
 
-1. En la página **Agent Configuration** (Configuración del Agent), selecciona **Deploy Agent Policy** (Desplegar política del Agent).
-2. Selecciona **Remote Configuration** (Configuración remota).
-3. Elige si deseas **Desplegar a todos los hosts** o **Desplegar a un subconjunto de hosts**. Para desplegar la política en un subconjunto de hosts, especifica hosts seleccionando uno o más etiquetas (tags) de servicio.
-4. Haz clic en **Deploy** (Desplegar).
+Para realizar una configuración remota, se utiliza la interfaz de usuario de Datadog para aplicar políticas a infraestructura. Cuando se activa una política, se aplica a la infraestructura identificada por las etiquetas de la política.
+
+1. En la página **Agent Configuration** (Configuración del Agent), pasa el ratón por encima de una política y haz clic en **Apply Tags & Deploy Policy** (Aplicar etiquetas y desplegar la política). También puedes abrir una política y hacer clic en **Apply Tags & Deploy Policy** (Aplicar etiquetas y desplegar la política).
+2. Añade etiquetas para identificar el objetivo de infraestructura.
+3. Selecciona **Enabled** (Habilitado).
+4. Haz clic en **Apply** (Aplicar). La política se aplica a toda la infraestructura a la que se dirigen las etiquetas de política.
 
 ### Despliegue manual
 
-1. En la página **Agent Configuration** (Configuración del Agent), selecciona **Deploy Agent Policy** (Desplegar política del Agent).
-2. Selecciona **Manual**.
-3. Haz clic en **Download Agent Policy** (Descargar política de Agent), luego, haz clic en **Done** (Listo).
+Para realizar un despliegue manual, debes crear la política y sus reglas en la interfaz de usuario de Datadog, descargarla y, a continuación, cargarla en los Agents en los que desees aplicarla.
+
+1. En la página **Agent Configuration** (Configuración del Agent), abre una política.
+2. En Actions (Acciones), selecciona **Download Policy** (Descargar política).
 
 A continuación, utiliza las siguientes instrucciones para cargar el archivo de política en cada host.
 
 {{< tabs >}}
 {{% tab "Host" %}}
 
-Copia el archivo `default.policy` en el host de destino de la carpeta `{$DD_AGENT}/runtime-security.d`. Como mínimo, el archivo debe tener acceso a `read` y `write` para el usuario `dd-agent` en el host. Esto puede requerir el uso de una utilidad como SCP o FTP.
+Copia el archivo `default.policy` en el host de destino de la carpeta `/etc/datadog-agent/runtime-security.d`. El archivo debe tener acceso de `read` y `write` para el usuario `root` en el host. Esto puede requerir el uso de una utilidad como SCP o FTP.
 
 Para aplicar los cambios, reinicia el [Datadog Agent][1].
 
@@ -128,8 +181,7 @@ Para aplicar los cambios, reinicia el [Datadog Agent][1].
 
     ```yaml
     securityAgent:
-      compliance:
-        # [...]
+      # [...]
       runtime:
         # datadog.securityAgent.runtime.enabled
         # Set to true to enable Security Runtime Module
@@ -138,23 +190,36 @@ Para aplicar los cambios, reinicia el [Datadog Agent][1].
           # datadog.securityAgent.runtime.policies.configMap
           # Place custom policies here
           configMap: jdefaultpol
-      syscallMonitor:
-        # datadog.securityAgent.runtime.syscallMonitor.enabled
-        # Set to true to enable Syscall monitoring.
-        enabled: false
+      # [...]
     ```
 
 3. Actualiza la Helm Chart con `helm upgrade <RELEASENAME> -f values.yaml --set datadog.apiKey=<APIKEY> datadog/datadog`.
 
     **Nota:** Si necesitas realizar más cambios en `default.policy`, puedes utilizar `kubectl edit cm jdefaultpol` o sustituir el configMap por `kubectl create configmap jdefaultpol --from-file default.policy -o yaml --dry-run=client | kubectl replace -f -`.
 
-4. Reinicia el [Datadog Agent][1].
-
 [1]: /es/agent/configuration/agent-commands/?tab=agentv6v7#restart-the-agent
 
 {{% /tab %}}
 {{< /tabs >}}
 
+
+## Habilitar y desplegar políticas
+
+Las políticas habilitadas aplican sus reglas a los objetivos de infraestructura identificados por sus etiquetas (tags). Habilitar una política es lo mismo que desplegarla.
+
+Puedes utilizar la configuración remota en la interfaz de usuario de Datadog para desplegar automáticamente la política personalizada en los hosts designados por las etiquetas de la política (todos los hosts o un subconjunto definido de hosts), o puedes cargar manualmente la política en el Agent en cada host.
+
+Para habilitar una política utilizando la configuración remota en la interfaz de usuario de Datadog, haz lo siguiente:
+
+1. En la página **Agent Configuration** (Configuración del Agent), pasa el ratón por encima de una política y haz clic en **Apply Tags & Deploy Policy** (Aplicar etiquetas y desplegar la política). También puedes abrir una política y hacer clic en **Apply Tags & Deploy Policy** (Aplicar etiquetas y desplegar la política).
+2. Añade etiquetas para identificar el objetivo de infraestructura.
+3. Selecciona **Enabled** (Habilitado).
+4. Haz clic en **Apply** (Aplicar). La política se aplica a toda la infraestructura a la que se dirigen las etiquetas de política.
+
+Si desactivas una política, sus reglas dejarán de aplicarse a la infraestructura identificada por sus etiquetas.
+
+Las reglas de Agent personalizadas se despliegan en el Agent en una política personalizada separada de la política predeterminada. La política personalizada contiene reglas de Agent personalizadas así como [reglas predeterminadas que han sido desactivadas][13].
+
 ## Crear una regla de detección personalizada
 
 Después de cargar el nuevo archivo de política predeterminado en el Agent, navega hasta la página [**Threat Detection Rules** (Reglas de detección de amenazas)][3].
@@ -166,33 +231,48 @@ Después de cargar el nuevo archivo de política predeterminado en el Agent, nav
 3. **Define las consultas de búsqueda:**
    1. Configura una nueva regla de CSM Threats. Una regla puede tener varios casos de regla combinados con lógica booleana, por ejemplo `(||, &&)`. También puedes configurar el contador, agrupar por (group by) y el intervalo fijo.
 
-    {{< img src="security/cws/workload_security_rules/define_runtime_expression2.png" alt="Añadir una regla al campo de consultas de búsqueda" >}}
-   - Introduce una consulta para que solo se genere un desencadenante cuando se cumpla un valor. También puedes introducir consultas de supresión en **Reglas de supresión**, para que no se genere un desencadenante cuando se cumplan los valores especificados.
+      {{< img src="security/cws/workload_security_rules/define_runtime_expression2.png" alt="Añadir una regla al campo de consultas de búsqueda" >}}
+
+   2. Introduce una consulta para que solo se genere un desencadenante cuando se cumpla un valor. También puedes introducir consultas de supresión en **Reglas de supresión**, para que no se genere un desencadenante cuando se cumplan los valores especificados.
 4. **Establecer casos de reglas:**
    1. Establece un [caso de regla][9] para el desencadenante y la gravedad.
    2. Define la lógica para cuando esta regla activa una señal de seguridad. Por ejemplo, `a>0` significa que se activa una señal de seguridad siempre que la condición de la regla establecida en la consulta de búsqueda se cumpla al menos una vez en el intervalo variable.
    3. Selecciona una gravedad a la que asociar la regla y selecciona todas las partes relevantes a las que desees notificar.
 
-    {{< img src="security/cws/workload_security_rules/rule_cases2.png" alt="Establece un desencadenante de regla, gravedad y notificación" >}}
+      {{< img src="security/cws/workload_security_rules/rule_cases2.png" alt="Establece un desencadenante de regla, gravedad y notificación" >}}
 5. **Di lo que está pasando:**
    1. Asigna un nombre a la regla y añade el mensaje de notificación en formato Markdown. Utiliza [variables de notificación][5] para proporcionar detalles específicos sobre la señal haciendo referencia a sus etiquetas y atributos de evento. Después del mensaje, añade varias etiquetas para dar más contexto a las señales generadas por tu regla personalizada.
 
-
-      <div class="alert alert-info">Datadog recomienda incluir un [manual][10] de corrección en el cuerpo. Como se indica en la plantilla, utiliza variables de sustitución para generar dinámicamente contenido contextualizado en tiempo de ejecución.</div>
+Datadog recomienda incluir un [manual][10] de corrección en el cuerpo. Como se indica en la plantilla, utiliza variables de sustitución para generar dinámicamente contenido contextualizado en tiempo de ejecución.</div>
 
 ## Desactivar las reglas de Agent predeterminadas
 
-Para desactivar una regla de Agent predeterminada, ve a la página [**Agent Configuration**][6] (Configuración del Agent) y selecciona el conmutador de reglas. Al desactivar una regla de Agent predeterminada, el cambio se guarda junto con otras actualizaciones de reglas pendientes. Para aplicar el cambio a tu entorno, [despliega la política personalizada actualizada en el Agent](#deploy-the-policy-in-your-environment).
+1. Para desactivar una regla del Agent, ve a la página [**Agent Configuration**][6] (Configuración del Agent) y selecciona la política que utiliza la regla.
+2. En la política, abre la regla.
+3. Junto al título de la regla, haz clic en **Monitoring** (Monitorización) y, a continuación, selecciona **Disable Rule** (Desactivar regla).
+4. Haz clic en **Save Changes** (Guardar cambios).
+
+También puedes desactivar una regla estableciendo la sección **Then...** (Entonces...) de una regla en **Do Nothing** (No realizar ninguna acción).
 
 ## Referencias adicionales
 
 {{< partial name="whats-next/whats-next.html" >}}
 
-[3]: https://app.datadoghq.com/security/configuration/workload/rules
+[1]:#create-the-custom-agent-and-detection-rules-together
+[2]:#create-a-custom-agent-rule
+[3]: https://app.datadoghq.com/security/configuration/workload/agent-rules
 [4]: https://app.datadoghq.com/security/configuration/agent-rules
 [5]: /es/security/notifications/variables/?tab=cloudsiem
 [6]: https://app.datadoghq.com/security/configuration/workload/agent-rules
 [7]: /es/security/threats/workload_security_rules
 [8]: /es/security/threats/
-[9]: /es/security/cloud_siem/log_detection_rules/?tab=threshold#set-a-rule-case
-[10]: https://app.datadoghq.com/notebook/list?type=runbook
\ No newline at end of file
+[9]: /es/security/cloud_siem/detection_rules/?tab=threshold#set-a-rule-case
+[10]: https://app.datadoghq.com/notebook/list?type=runbook
+[11]: /es/account_management/rbac/permissions/
+[12]: /es/security/cloud_security_management/guide/active-protection
+[13]: #disable-default-agent-rules
+[14]: #create-the-custom-agent-and-detection-rules-together
+[15]: https://app.datadoghq.com/cost/settings/tags
+[16]: /es/security/threats/agent_expressions/
+[17]: #prioritize-policies
+[18]: #apply-tags
\ No newline at end of file
diff --git a/content/es/serverless/azure_functions/_index.md b/content/es/serverless/azure_functions/_index.md
new file mode 100644
index 0000000000000..07abc4300f3e2
--- /dev/null
+++ b/content/es/serverless/azure_functions/_index.md
@@ -0,0 +1,131 @@
+---
+title: Instala la monitorización serverless para Azure Functions
+---
+
+## Información general
+En esta página se explica cómo recopilar trazas (traces), rastrear métricas, métricas de tiempo de ejecución y métricas personalizadas de Azure Functions. Para recopilar métricas adicionales, instala la [integración de Datadog Azure][6].
+
+## Configuración
+
+{{< programming-lang-wrapper langs="nodejs,python" >}}
+{{< programming-lang lang="nodejs" >}}
+1. **Instala dependencias**. Ejecuta los siguientes comandos:
+   ```shell
+   npm install @datadog/serverless-compat
+   npm install dd-trace
+   ```
+
+   Para usar la [instrumentación automática][1], utiliza `dd-trace` v5.25+.
+
+   Datadog recomienda anclar las versiones de paquete y actualizar periódicamente a las últimas versiones de `@datadog/serverless-compat` y de `dd-trace` para asegurarte de tener acceso a las mejoras y correcciones de errores.
+
+2. **Inicia la capa de compatibilidad serverless de Datadog e inicializa el rastreador de Node.js**. Añade las siguientes líneas al archivo de punto de entrada de tu aplicación principal (por ejemplo, `app.js`):
+
+   ```js
+   require('@datadog/serverless-compat').start();
+
+   // This line must come before importing any instrumented module. 
+   const tracer = require('dd-trace').init()
+   ```
+
+3. (Opcional) **Habilita las métricas del tiempo de ejecución**. Consulta [Métricas del tiempo de ejecución de Node.js][2].
+
+4. (Opcional) **Habilita métricas personalizadas**. Consulta [Presentación de métricas: DogStatsD][3].
+
+[1]: /es/tracing/trace_collection/automatic_instrumentation/?tab=singlestepinstrumentation
+[2]: /es/tracing/metrics/runtime_metrics/nodejs/?tab=environmentvariables
+[3]: /es/metrics/custom_metrics/dogstatsd_metrics_submission/?code-lang=nodejs
+{{< /programming-lang >}}
+{{< programming-lang lang="python" >}}
+1. **Instala dependencias**. Ejecuta los siguientes comandos:
+   ```shell
+   pip install datadog-serverless-compat
+   pip install ddtrace
+   ```
+
+   Para usar la [instrumentación automática][1], utiliza `dd-trace` v2.19+.
+
+   Datadog recomienda utilizar las últimas versiones de `datadog-serverless-compat` y de `ddtrace` para asegurarte de tener acceso a las mejoras y correcciones de errores.
+
+2. **Inicializa el rastreador de Datadog Python y la capa de compatibilidad serverless**. Añade las siguientes líneas al archivo de punto de entrada de tu aplicación principal:
+
+   ```python
+   from datadog_serverless_compat import start
+   from ddtrace import tracer, patch_all
+
+   start()
+   patch_all()
+   ```
+
+3. (Opcional) **Habilita las métricas del tiempo de ejecución**. Consulta [Métricas del tiempo de ejecución de Python][2].
+
+4. (Opcional) **Habilita métricas personalizadas**. Consulta [Presentación de métricas: DogStatsD][3].
+
+[1]: /es/tracing/trace_collection/automatic_instrumentation/?tab=singlestepinstrumentation
+[2]: /es/tracing/metrics/runtime_metrics/python/
+[3]: /es/metrics/custom_metrics/dogstatsd_metrics_submission/?code-lang=python
+{{< /programming-lang >}}
+{{< /programming-lang-wrapper >}}
+
+5. **Despliega tu función**.
+
+6. **Configura Datadog Intake**. Añade las siguientes variables de entorno a la configuración de la aplicación de tus funciones:
+
+   | Nombre | Valor |
+   | ---- | ----- |
+   | `DD_API_KEY` | Tu [Clave de la API de Datadog][1]. |
+   | `DD_SITE` | Tu [sitio Datadog][2]. Por ejemplo, {{< region-param key=dd_site code="true" >}}. |
+
+7. **Configura el etiquetado de servicios unificado**. Puedes recopilar métricas desde tu Azure Functions mediante la instalación de la [integración de Datadog Azure][6]. Para correlacionar estas métricas con tu trazas (traces), primero configura las etiquetas (tags) `env`, `service` y `version` en tu recurso en Azure . A continuación, configura las siguientes variables de entorno. Puedes añadir etiquetas (tags) personalizados como `DD_TAGS`.
+
+   | Nombre | Valor |
+   | ---- | ----- |
+   | `DD_ENV` | Cómo deseas etiquetar tu variable de entorno para el [etiquetado de servicios unificado][9]. Por ejemplo, `prod`. |
+   | `DD_SERVICE` | Cómo deseas etiquetar tu servicio para el [etiquetado de servicios unificado][9].  |
+   | `DD_VERSION` | Cómo deseas etiquetar tu versión para el [etiquetado de servicios unificado][9]. |
+   | `DD_TAGS` | Tus etiquetas (tags) personalizadas separadas por comas. Por ejemplo, `key1:value1,key2:value2`.  |
+
+## ¿Qué toca hacer ahora?
+
+- Puedes ver tus trazas (traces) de Azure Functions en [Trace Explorer][4]. Busca por el nombre del servicio que configuraste en la variable de entorno `DD_SERVICE` para ver tus trazas (traces).
+- Puedes utilizar la página [Serverless > Azure Funcitons][5] para ver tus trazas (traces) enriquecidas con la telemetría recopilada por la [integración de Datadog Azure][6].
+
+### Activa/desactiva métricas de trazas (traces)
+
+Las [métricas de trazas (traces)][3] están activados en forma predeterminada. Para configurar métricas de trazas, utiliza la siguiente variable de entorno:
+
+`DD_TRACE_STATS_COMPUTATION_ENABLED`
+: Activa (`true`) o desactiva (`false`) métricas de trazas. El valor predeterminado es `true`.
+
+  **Valores**: `true`, `false`
+
+## Solucionar problemas
+
+### Activa logs de depuración
+
+Puedes recopilar [logs de depuración][7] para solucionar problemas. Para configurar logs de depuración, utiliza las siguientes variables de entorno:
+
+`DD_TRACE_DEBUG`
+: Activa (`true`) o desactiva (`false`) el registro de depuración para la biblioteca de Datadog Tracing. El valor predeterminado es `false`.
+
+  **Valores**: `true`, `false` 
+
+`DD_LOG_LEVEL`
+: Configura el nivel de registro para la capa de compatibilidad serverless de Datadog. El valor predeterminado es `info`.
+
+  **Valores**: `trace`, `debug`, `info`, `warn`, `error`, `critical`, `off`
+
+### Planes de Linux Consumption y acciones de GitHub
+
+Para utilizar una acción de GitHub para desplegar en una función de Linux Consumption, configura tu flujo de trabajo para utilizar un Azure Service Principal para RBAC. Consulta [Utilizar Azure Service Principal para RBAC como credencial de despliegue][8].
+
+
+[1]: /es/account_management/api-app-keys/#add-an-api-key-or-client-token
+[2]: /es/getting_started/site
+[3]: /es/tracing/metrics/metrics_namespace/
+[4]: https://app.datadoghq.com/apm/traces
+[5]: https://app.datadoghq.com/functions?cloud=azure&entity_view=function
+[6]: /es/integrations/azure/
+[7]: /es/tracing/troubleshooting/tracer_debug_logs/#enable-debug-mode
+[8]: https://github.com/Azure/functions-action?tab=readme-ov-file#using-azure-service-principal-for-rbac-as-deployment-credential
+[9]: /es/getting_started/tagging/unified_service_tagging/
\ No newline at end of file
diff --git a/content/es/serverless/step_functions/redrive.md b/content/es/serverless/step_functions/redrive.md
new file mode 100644
index 0000000000000..1b49ba3b2f2fb
--- /dev/null
+++ b/content/es/serverless/step_functions/redrive.md
@@ -0,0 +1,41 @@
+---
+further_reading:
+- link: https://docs.aws.amazon.com/step-functions/latest/dg/redrive-executions.html
+  tag: Guía del desarrollador de AWS
+  text: Reiniciar ejecuciones de máquinas de estado mediante la recuperación de fallos
+    en Step Functions
+- link: /service_management/app_builder/
+  tag: Documentación
+  text: Datadog App Builder
+title: Recuperación de fallos de ejecuciones en AWS Step Functions
+---
+
+Esta página explica cómo [recuperar de fallos][1] las ejecuciones directamente desde Datadog, para continuar con las AWS Step Functions fallidas desde el punto de fallo sin necesidad de reiniciar la máquina de estados.
+
+{{< img src="serverless/step_functions/redrive.png" alt="Visualización de la ejecución de una Step Function fallida." style="width:100%;" >}}
+
+## Activar la recuperación de fallos en Datadog
+Para habilitar el uso de la recuperación de fallos en Datadog, configura una [conexión AWS][3] con [Datadog App Builder][4]. Asegúrate de que tus roles IAM incluyen permisos que permiten ejecutar una Step Function para la acción de reintento (`StartExecution`) o recuperar una Step Function de un fallo para la acción de recuperación de fallos (`RedriveExecution`).
+
+## Uso
+Para actuar sobre una Step Function en Datadog: 
+1. Ve a la página de [Step Functions][2]. 
+2. Busca la Step Function que quieres recuperar de fallos.
+3. Abre el panel lateral de esta Step Function. En la pestaña **Ejecuciones**, localiza la ejecución fallida que quieres recuperar de un fallo.
+4. Haz clic en la píldora **Failed** (Fallido) para abrir un modal de recuperación de un fallo.
+5. Haz clic en el botón **Redrive** (Recuperar de un fallo).
+
+## Rastreo de recuperaciones de fallos
+Al monitorizar ejecuciones recuperadas de fallos, utiliza la vista de cascada, ya que la gran brecha entre la ejecución original y la recuperación de un fallo puede hacer que la vista de gráfico de llamas sea imperceptible.
+
+### Solucionar problemas de trazas (traces) de recuperación de fallos faltantes
+Una recuperación de un fallo puede no compartir siempre la misma decisión de muestreo que la ejecución original. Para asegurarte de que la ejecución recuperada de fallos también se muestrea, puedes citar la etiqueta (tag) de tramo (span) `@redrive:true` en una consulta de retención.
+
+## Referencias adicionales
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: https://docs.aws.amazon.com/step-functions/latest/dg/redrive-executions.html
+[2]: https://app.datadoghq.com/functions?cloud=aws&entity_view=step_functions
+[3]: https://docs.aws.amazon.com/dtconsole/latest/userguide/welcome-connections.html
+[4]: /es/service_management/app_builder/
\ No newline at end of file
diff --git a/content/es/service_management/app_builder/expressions.md b/content/es/service_management/app_builder/expressions.md
new file mode 100644
index 0000000000000..3507f572ba780
--- /dev/null
+++ b/content/es/service_management/app_builder/expressions.md
@@ -0,0 +1,136 @@
+---
+further_reading:
+- link: /service_management/app_builder/build/
+  tag: Documentación
+  text: Crear aplicaciones
+- link: /service_management/app_builder/components/
+  tag: Documentación
+  text: Componentes
+title: Expresiones de JavaScript
+---
+
+{{< site-region region="gov" >}}
+<div class="alert alert-warning">App Builder no es compatible con el <a href="/getting_started/site">sitio de Datadog </a> ({{< region-param key="dd_site_name" >}}) seleccionado.</div>
+{{< /site-region >}}
+
+Puedes utilizar expresiones de JavaScript (JS) en cualquier parte de App Builder para crear interacciones personalizadas entre las diferentes partes de tu aplicación. Al iniciar una expresión, App Builder ofrece sugerencias de autocompletar basadas en las consultas y componentes existentes en tu aplicación. Haz clic en una sugerencia de autocompletar para utilizarla en tu expresión, o utiliza las teclas de flecha del teclado y haz una selección con la tecla Intro.
+
+{{< img src="service_management/app_builder/app-builder-variable.png" alt="Si no estás seguro sobre qué ingresar como una expresión, escribe $[ para abrir un menú de sugerencia con todas las expresiones disponibles" style="width:70%;" >}}
+
+Algunos campos, como [la transformación después de la consulta][1], muestran un editor de código por defecto y aceptan JS sin formato. En todos los demás campos, encierra tus expresiones de JS en `${}`. Por ejemplo, para interpolar los valores de dos componentes de entrada de texto denominados `textInput0` y `textInput1` en la propiedad **Content** (Contenido) de un componente de texto (y añadir un signo de exclamación), utiliza la expresión `${textInput0.value} ${textInput1.value}!`.
+
+{{< img src="service_management/app_builder/interpolation-2.png" alt="El componente de texto se completa con las palabras 'Hello' y 'World', cada una interpolada de un valor de componente de entrada de texto" style="width:70%;" >}}
+
+App Builder acepta la sintaxis estándar de Vanilla JavaScript, con las siguientes salvedades:
+- El resultado de la expresión debe coincidir con el resultado esperado por el componente o la propiedad de consulta. Por ejemplo, la propiedad **Is Visible** del componente de texto espera un booleano. Para saber qué tipo de datos espera una propiedad de componente, consulta [Ver propiedades de componente](#view-component-properties).
+- Tu código tiene acceso de sólo lectura al estado de la aplicación, pero App Builder ejecuta el código en un entorno de prueba sin acceso al Document Object Model (DOM) o a las APIs del navegador.
+
+## Ver las propiedades de los componentes
+
+Antes de crear una expresión, es útil conocer las propiedades disponibles y los valores predeterminados o actuales del componente con el que deseas interactuar.
+
+Puedes ver las propiedades y valores disponibles para un componente de las siguientes maneras:
+- **Estado de la aplicación**: proporciona propiedades y valores para todos los componentes y consultas de tu aplicación, así como variables globales, como variables de estado o variables de plantilla de dashboard.
+- **Inspeccionar datos**: proporciona propiedades y valores para un componente o consulta específica en tu aplicación.
+- La **Consola de Administración**: la pestaña **Data** (Datos) de la **Admin Console** (Consola de administración) proporciona propiedades y valores para todos los componentes y consultas de tu aplicación.
+
+{{% collapse-content title="Estado de la aplicación" level="h4" %}}
+Para acceder a **App State** (Estado de la aplicación):
+1. Haz clic en **App Properties** (Propiedades de la aplicación) en el panel lateral izquierdo.
+1. Desplázate hasta la sección **App State** (Estado de la aplicación).
+
+{{< img src="service_management/app_builder/app-state-2.png" alt="La sección Estado de la aplicación en Propiedades de la aplicación" style="width:50%;" >}}
+{{% /collapse-content %}}
+
+{{% collapse-content title="Inspeccionar datos" level="h4" %}}
+Para acceder a **Inspect Data** (Inspeccionar Datos):
+1. Haz clic en la consulta o el componente que deseas inspeccionar.
+1. Desplázate hasta la sección **Inspect Data** (Inspeccionar datos).
+
+{{< img src="service_management/app_builder/inspect-data-2.png" alt="La sección Estado de la aplicación en Propiedades de la aplicación" style="width:80%;" >}}
+{{% /collapse-content %}}
+
+{{% collapse-content title="Consola de administración" level="h4" %}}
+Para acceder a la **Admin Console** (Consola de administración):
+1. Haz clic en el icono de engranaje (**Settings** (Configuración)) y selecciona **Admin Console** (Consola de administración).
+1. Haz clic en **Data** (Datos).
+
+{{< img src="service_management/app_builder/admin-console-2.png" alt="La sección Estado de la aplicación en Propiedades de la aplicación" style="width:50%;" >}}
+{{% /collapse-content %}}
+
+## Interacciones de componentes personalizados
+
+La mayoría de los componentes de interfaz de usuario proporcionan opciones integradas, como interruptores y alineación de texto, que cubren el uso básico de la aplicación. Para añadir una interacción personalizada a un componente, haz clic en el símbolo del editor de código (**</>**) e introduce una expresión JS.
+
+### Visibilidad condicional
+
+Puedes hacer que la visibilidad de un componente dependa de otros componentes.
+
+Por ejemplo, si deseas que un componente de texto sólo sea visible cuando dos componentes de entrada de texto denominados `textInput0` y `textInput1` tengan valores, utiliza la expresión `${textInput0.value && textInput1.value}` en la propiedad **Is Visible**.
+
+### Desactivar un componente condicionalmente
+
+De forma similar a la visibilidad, puedes desactivar un componente a menos que se cumplan las condiciones de otros aspectos de tu aplicación, como otros componentes o el contexto de la aplicación.
+
+#### Desactivar un componente en función de su visibilidad
+
+Si tu aplicación tiene un botón que utiliza el contenido de un componente de texto para enviar un mensaje, puedes desactivar el botón a menos que el componente de texto esté visible:
+1. Haz clic en el componente de botón del lienzo.
+1. Haz clic en el símbolo del editor de código (**</>**) situado junto a la propiedad **Is Disabled**.
+1. Añade la expresión `${!text0.isVisible}`.
+
+El componente de texto es invisible y el botón está desactivado a menos que ambos campos de entrada de texto tengan contenido.
+
+{{< img src="service_management/app_builder/is-disabled.png" alt="El componente de texto es invisible y el botón está desactivado a menos que ambos campos de entrada de texto tengan contenido." style="width:100%;" >}}
+
+#### Desactivar un componente en función del contexto de la aplicación
+
+También puedes desactivar un componente en función del contexto de la aplicación, como el equipo en el que se encuentra el usuario.
+
+Por ejemplo, puedes activar un componente sólo para los usuarios que pertenezcan al equipo de Gestión de productos:
+1. Haz clic en el componente de botón del lienzo.
+1. Haz clic en el símbolo del editor de código (**</>**) situado junto a la propiedad **Is Disabled**.
+1. Añade la expresión `${global.user.teams[0].name == 'Product Management'}`.
+
+### Desactivar un componente durante la carga
+
+Otro caso de uso común es desactivar un componente mientras una consulta está en estado de carga. En el [plano de EC2 Instance Manager][3], el componente de selección `instanceType` está deshabilitado mientras la consulta `listInstances` se está cargando. Para ello, la propiedad **Is Disabled** utiliza la expresión `${listInstances.isLoading}`.
+
+{{< img src="service_management/app_builder/isloading.png" alt="El componente de selección 'instanceType' está deshabilitado mientras la consulta 'listInstances' está cargando." style="width:100%;" >}}
+
+## Interacciones de consulta personalizadas
+
+De forma similar a los componentes, puedes utilizar expresiones JS para modificar tus consultas en función de la interacción del usuario.
+
+### Filtrar los resultados de la consulta en función de las entradas del usuario
+
+El [plano de PagerDuty On-call Manager][4] filtra el resultado de la consulta `listSchedules` basándose en las entradas del usuario. El usuario selecciona un equipo y un usuario de los componentes de selección `team` y `user`.
+
+Dentro de la consulta `listSchedules`, la siguiente transformación posterior a la consulta filtra los resultados basándose en los valores de `team` y `user`:
+
+{{< code-block lang="js" disable_copy="true" >}}
+return outputs.body.schedules.map( s => {
+    return {
+        ...s,
+        users: s.users.map(u => u.summary),
+        teams: s.teams.map(u => u.summary)
+    }
+}).filter(s => {
+
+        const matchesName = !name.value.length ? true : s.name.toLowerCase().includes(name.value.toLowerCase());
+        const matchesTeam = team.value === 'Any Team' ? true : s.teams.includes(team.value);
+        const matchesUser = user.value === 'Any User' ? true : s.users.includes(user.value);
+
+        return matchesName && matchesUser && matchesTeam ;
+    }) || []
+{{< /code-block >}}
+
+Si **Run Settings** (Ajustes de ejecución) de la consulta es **Auto**, la consulta se ejecutará cada vez que un usuario cambie un valor en los componentes `team` o `user`.
+
+## Referencias adicionales
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: /es/service_management/app_builder/build/#post-query-transformation
+[3]: https://app.datadoghq.com/app-builder/apps/edit?viewMode=edit&template=ec2_instance_manager
+[4]: https://app.datadoghq.com/app-builder/apps/edit?viewMode=edit&template=pagerduty_oncall_manager
\ No newline at end of file
diff --git a/content/es/service_management/on-call/escalation_policies.md b/content/es/service_management/on-call/escalation_policies.md
new file mode 100644
index 0000000000000..2d5bacfbc4970
--- /dev/null
+++ b/content/es/service_management/on-call/escalation_policies.md
@@ -0,0 +1,73 @@
+---
+further_reading:
+- link: /service_management/on-call/
+  tag: Documentación
+  text: Datadog On-Call
+title: Políticas de elevación
+---
+
+{{< site-region region="gov" >}}
+<div class="alert alert-warning">El servicio de guardia no es compatible con el <a href="/getting_started/site">sitio Datadog </a> seleccionado ({{< region-param key="dd_site_name" >}}).</div>
+{{< /site-region >}}
+
+En Datadog On-Call, las políticas de elevación garantizan que las páginas se traten con prontitud. Las páginas se elevan a través de pasos predefinidos, a menos que se acuse recibo de ellas en los plazos establecidos.
+
+Datadog crea una política de elevación predeterminada cuando [incorporas un equipo a On-Call][1].
+
+## Crea una nueva política de elevación
+{{< img src="service_management/oncall/escalation_policy_2.png" alt="Política de elevación de una muestra" style="width:100%;" >}}
+
+1. Ve a [**On-Call** > **Políticas de elevación**][2].
+1. Selecciona [**+ Nueva política de elevación**][3].
+1. Introduce un **Nombre** para tu política de elevación. Por ejemplo, _Payment's Escalation Policy_.
+1. Selecciona los **Equipos** que poseen esta política de elevación.
+1. Ahora empieza a crear la política. Decide quién o qué debe recibir una página cuando se invoque esta política de elevación. Para cada paso de elevación posterior, selecciona a quién notificar. Cada paso puede notificar a usuarios individuales, equipos enteros y/o a quien esté de guardia en un horario.
+   Por ejemplo: Cuando se activa esta página, se envía a quien esté de guardia en ese momento para el cronograma principal, en este caso John Doe.
+   {{< img src="service_management/oncall/escalation_policy_2_steps.png" alt="Una política de elevación, que muestra dos pasos después de que 'se activa la página'. Cada paso tiene una casilla de entrada 'Notificar' y 'si no se acusa recibo de la página después de N minutos, elevar'. El primer paso está configurado para notificar un cronograma llamado principal y se eleva si se acusa recibo de la página después de 5 minutos. El segundo paso está configurado para notificar a un usuario llamado Jane Doe." style="width:100%;" >}}
+1. Configura cuántos minutos se debe esperar para que uno de los destinatarios acuse recibo de la página. Si nadie acusa recibo de la página en ese período de tiempo, la página se eleva a un nivel superior. En el ejemplo, si la persona de guardia principal, John Doe, no acusa recibo de la página en cinco minutos, la página se envía a Jane Doe.
+1. Configura cuántas veces deben repetirse estos pasos si nadie acusa recibo de la página.
+1. Selecciona si Datadog debe actualizar automáticamente el estado de la página a **Resuelto** después de ejecutar todas las reglas y repeticiones.
+
+## Objetivos de las políticas de elevación
+En cada paso de una política de elevación, puedes notificar a usuarios individuales, a equipos enteros o a quien esté de guardia en un horario.
+
+### Cronogramas
+{{< img src="service_management/oncall/escalation_policy_notify_schedule.png" alt="Un paso de la política de elevación de muestras que notifica un cronograma" style="width:100%;" >}}
+
+Las políticas de elevación pueden notificar a quien esté de guardia según un cronograma predefinido. El sistema checks el cronograma y notifica a la persona o al grupo que está de guardia activamente durante la incidencia. El uso de cronogramas es beneficioso para lo siguiente:
+
+- Envío de alertas al personal de guardia de distintas zonas horarias para una cobertura ininterrumpida.
+- Gestión de la asistencia por niveles, en la que diferentes turnos gestionan distintos niveles de urgencia.
+- Notificaciones dinámicas para equipos con responsabilidades de guardia rotativas, lo que garantiza que siempre se llame a la persona adecuada.
+
+Si no hay nadie de guardia para un horario determinado, el paso de elevación se omite lentamente y el proceso avanza sin retrasos ni interrupciones. La interfaz de usuario indica que se ha omitido el paso.
+
+{{< img src="service_management/oncall/escalation_policy_schedule_skipped.png" alt="Una política de elevación de muestras que indica una elevación omitida debido a que no había ninguna persona de guardia" style="width:100%;" >}}
+
+### Usuarios
+{{< img src="service_management/oncall/escalation_policy_notify_user.png" alt="Una política de elevación de muestras que especifica un usuario en la política de elevación" style="width:100%;" >}}
+
+Puedes incluir usuarios específicos en una política de elevación para asegurarte de que siempre se notifique a las personas clave en el evento de una página. Los casos de uso más comunes para avisar directamente a un usuario son los siguientes:
+
+- Notificar a un ingeniero senior las incidencias de alta gravedad que requieran conocimientos especializados.
+- Alertar a un gerente o director de producto en caso de incidencias de cara al cliente.
+- Dirigir alertas a personal de reserva si el contacto principal no está disponible.
+
+### Equipos
+{{< img src="service_management/oncall/escalation_policy_notify_team.png" alt="Una política de elevación de muestras que notifica a un equipo entero" style="width:100%;" >}}
+
+Los casos de uso más comunes para avisar a un equipo entero son los siguientes:
+
+- Incidencias que afectan a varios sistemas en los que distintos miembros del equipo pueden contribuir a la solución.
+- Elevación a un equipo de DevOps para incidencias relacionadas con la infraestructura.
+- Garantizar que se alerte a todos los miembros pertinentes de un equipo de ingeniería o seguridad en caso de interrupciones críticas.
+
+## Limitaciones
+
+- Máximo de pasos de elevación: 10
+- Número máximo de objetivos de notificación (individuos, equipos o cronogramas) por paso de elevación: 10
+- Tiempo mínimo antes de pasar al siguiente paso: un minuto
+
+[1]: /es/service_management/on-call/teams
+[2]: https://app.datadoghq.com/on-call/escalation-policies
+[3]: https://app.datadoghq.com/on-call/escalation-policies/create
\ No newline at end of file
diff --git a/content/es/service_management/on-call/guides/configure-mobile-device-for-on-call.md b/content/es/service_management/on-call/guides/configure-mobile-device-for-on-call.md
new file mode 100644
index 0000000000000..70a141979ba0e
--- /dev/null
+++ b/content/es/service_management/on-call/guides/configure-mobile-device-for-on-call.md
@@ -0,0 +1,122 @@
+---
+further_reading:
+- link: https://docs.datadoghq.com/service_management/on-call/
+  tag: Documentación
+  text: Documentación de On-Call
+title: Configurar tu dispositivo móvil para Datadog On-Call
+---
+
+Estar de guardia requiere notificaciones fiables y puntuales para asegurar que puedas responder a las incidencias con eficacia. Esta guía te indica los pasos para configurar tu dispositivo móvil para un rendimiento óptimo con Datadog On-Call.
+
+1. Instala la [aplicación móvil de Datadog][1].
+2. [Configurar notificaciones push](#set-up-push-notifications): habilita tu dispositivo para recibir notificaciones desde la aplicación móvil de Datadog.
+3. [Evitar el modo silencio y No molestar](#circumvent-mute-and-do-not-disturb-mode): recibe notificaciones push, llamadas de voz y SMS mientras tu dispositivo está en modo No molestar.
+
+## Establecer notificaciones push
+<div class="alert alert-info">
+Cuando accedes por primera vez a la aplicación móvil de Datadog, un flujo de integración se encarga de la configuración y los permisos de notificación.
+</div>
+
+Por defecto, la aplicación móvil no puede enviarte notificaciones. Para recibir notificaciones push en eventos de On-Call:
+
+{{< tabs >}}
+{{% tab "iOS" %}}
+
+1. En la aplicación móvil de Datadog, ve a **Account** > **Settings** > **Notifications** (Cuenta > Configuración > Notificaciones).
+
+   {{< img src="service_management/oncall/app_settings_iOS.png" alt="Encuentra la configuración de notificación en la versión de iOS de la aplicación móvil de Datadog." style="width:35%;" >}}
+
+2. Activa la casilla **Enable Notifications** (Habilitar notificaciones). Si es la primera vez que activas las notificaciones, se abrirá una solicitud de permisos. Concede el permiso y, a continuación, vuelve a tocar **Enable Notifications** (Activar notificaciones) para ir a la configuración del sistema iOS.
+
+   {{< img src="service_management/oncall/system_notifications_settings_iOS.png" alt="Configura los ajustes de notificación del sistema de tu dispositivo iOS." style="width:100%;" >}}
+
+3. En la configuración del sistema iOS, asegúrate de activar la opción **Allow Notifications** (Permitir notificaciones). Datadog recomienda encarecidamente que también actives las opciones **Sound** (Sonido) y **Badges** (Distintivos).
+
+Asegúrate de conceder a la aplicación móvil los permisos necesarios.
+{{% /tab %}}
+
+{{% tab "Android" %}}
+1. En la aplicación móvil de Datadog, ve a **Account** > **Settings** > **Notifications** (Cuenta > Configuración > Notificaciones).
+
+   {{< img src="service_management/oncall/app_settings_android.png" alt="Encuentra los ajustes de notificación en la versión Android de la aplicación móvil de Datadog." style="width:35%;" >}}
+
+2. Pulsa **Notifications** (Notificaciones) para ir a la configuración del sistema y configurar tus notificaciones de aplicación preferidas.
+
+   {{< img src="service_management/oncall/system_notifications_settings_android.png" alt="Configura los ajustes de notificación del sistema de tu dispositivo Android." style="width:100%;" >}}
+
+3. En la configuración del sistema Android, asegúrate de activar la opción **Allow Notifications** (Permitir notificaciones). Datadog recomienda encarecidamente que también actives la opción **Allow sound and vibration** (Permitir sonido y vibración).
+
+{{% /tab %}}{{< /tabs >}}
+
+### Sonidos personalizados
+Tanto en iOS como en Android, tienes la opción de anular los sonidos predeterminados de notificación del sistema. Para casos de notificaciones de alta urgencia, Datadog recomienda encarecidamente personalizar los sonidos del sistema y los ajustes de volumen. Esto asegura que las alertas no sólo sean más claras y reconocibles, sino también más eficaces a la hora de captar la atención. La aplicación de Datadog viene precargada con una selección de sonidos personalizados.
+
+## Eludir el modo silencio y No molestar
+Puedes anular el volumen de sistema de tu dispositivo y el modo No molestar tanto para las notificaciones push (desde la aplicación móvil de Datadog) como para las notificaciones de telefonía (como llamadas de voz y SMS).
+
+### Notificaciones push
+{{< tabs >}}
+{{% tab "iOS" %}}
+
+{{< img src="service_management/oncall/override_dnd_push_iOS.png" alt="Anular el volumen de sistema de tu dispositivo iOS y el modo No molestar." style="width:100%;" >}}
+
+1. En la aplicación móvil de Datadog, ve a **Account** > **Settings** > **Notifications** (Cuenta > Configuración > Notificaciones).
+
+2. Activa el conmutador **Enable Critical Alerts** (Activar alertas críticas).
+
+Las alertas críticas ignoran el interruptor de silencio y No molestar. Si activas las alertas críticas, el sistema reproduce el sonido de una alerta crítica independientemente de la configuración de silencio o No molestar del dispositivo.
+
+Asegúrate de conceder a la aplicación móvil los permisos necesarios.
+
+{{% /tab %}}
+{{% tab "Android" %}}
+
+{{< img src="service_management/oncall/override_dnd_push_android.png" alt="Anula el volumen de sistema y el modo No molestar del dispositivo Android." style="width:100%;" >}}
+
+1. En la aplicación móvil de Datadog, ve a **Account** > **Settings** > **Notifications** (Cuenta > Configuración > Notificaciones).
+
+2. Activa el conmutador **Override system volume** (Anular volumen del sistema). Esto te llevará a la configuración del sistema. Busca la fila de la aplicación móvil de Datadog y asegúrate de que la opción está activada.
+
+<div class="alert alert-danger">
+En Android, la aplicación móvil de Datadog no puede omitir los ajustes de volumen de sistema o de No molestar cuando se utiliza dentro de un perfil de trabajo. Como solución, instala la aplicación móvil de Datadog en tu perfil personal.
+</div>
+
+{{% /tab %}}{{< /tabs >}}
+
+### Canales de telefonía (llamadas de voz y SMS)
+
+Para mayor fiabilidad, Datadog utiliza un conjunto rotatorio de números de teléfono para ponerse en contacto contigo. Para que tu teléfono reconozca las llamadas y mensajes de Datadog On-Call, puedes crear una tarjeta de contacto digital. Esta tarjeta se actualiza automáticamente con los últimos números de teléfono de Datadog. Puedes asignar permisos especiales a este contacto en la configuración del sistema para mejorar la funcionalidad, como eludir el modo No molestar.
+
+{{< tabs >}}
+{{% tab "iOS" %}}
+
+{{< img src="service_management/oncall/override_dnd_telephony_iOS.png" alt="Anula el modo No molestar del dispositivo iOS para SMS y llamadas de voz" style="width:100%;" >}}
+
+1. En la aplicación móvil de Datadog, ve a **Account** > **Settings** > **Notifications** (Cuenta > Configuración > Notificaciones).
+
+2. Activa **Enable Automatic Contact Card Sync** (Activar sincronización automática de tarjetas de contacto). Esto crea un contacto llamado "Datadog On-Call", que se actualiza regularmente con los últimos números de teléfono de Datadog.
+
+3. Una vez creado este contacto, abre los ajustes del sistema iOS y ve a **Focus** > **Do Not Disturb** (Enfoque > No molestar).
+
+4. En **People** (Personas), permite notificaciones desde el contacto de Datadog On-Call. Si has activado las alertas críticas para las aplicaciones push de Datadog, la aplicación móvil de Datadog también aparecerá en **Applications** (Aplicaciones).
+{{% /tab %}}
+
+{{% tab "Android" %}}
+
+{{< img src="service_management/oncall/override_dnd_telephony_android.png" alt="Anula el modo No molestar del dispositivo Android para SMS y llamadas de voz" style="width:100%;" >}}
+
+1. En la aplicación móvil de Datadog, ve a **Account** > **Settings** > **Notifications** (Cuenta > Configuración > Notificaciones).
+
+2. En **Phone & SMS** (Teléfono y SMS), activa **Automatic Contact Card Sync** (Sincronización automática de tarjetas de contacto). Esto crea un contacto llamado "Datadog On-Call", que se actualiza regularmente con los últimos números de teléfono de Datadog.
+
+3. Una vez creado este contacto, márcalo como favorito.
+
+4. Abre los ajustes del sistema Android y ve a **Sound & vibration** > **Do Not Disturb** (Sonido y vibración > No molestar). Crea una excepción para el contacto de Datadog On-Call.
+
+{{% /tab %}}{{< /tabs >}}
+
+<div class="alert alert-info">
+<a href="https://datadog-on-call.s3.amazonaws.com/datadog-on-call.vcf">Descarga la versión actual de la tarjeta de contacto de Datadog On-Call</a>. <strong>Nota</strong>: La tarjeta de contacto está sujeta a cambios en cualquier momento.
+</div>
+
+[1]: /es/service_management/mobile/?tab=ios
\ No newline at end of file
diff --git a/content/es/service_management/on-call/pages.md b/content/es/service_management/on-call/pages.md
new file mode 100644
index 0000000000000..627b931109d70
--- /dev/null
+++ b/content/es/service_management/on-call/pages.md
@@ -0,0 +1,53 @@
+---
+further_reading:
+- link: /service_management/on-call/
+  tag: Documentation
+  text: Datadog On-Call
+title: Enviar una página
+---
+
+{{< site-region region="gov" >}}
+<div class="alert alert-warning">On-Call no es compatible con el <a href="/getting_started/site">sitio de Datadog</a> seleccionado ({{< region-param key="dd_site_name" >}}).</div>
+{{< /site-region >}}
+
+Una Página se envía a un Equipo y, posteriormente, se enruta a través de las políticas de escalado y los cronogramas de ese Equipo. Una vez que tu equipo esté [integrado en Datadog On-Call][1], puedes empezar a enviar páginas.
+
+### Página de notificaciones
+Puedes enviar una Página mencionando el identificador de un Equipo y añadiendo `oncall-`. Por ejemplo: para enviar una Página al equipo de operaciones de pago (`@checkout-operations`), menciona `@oncall-checkout-operations`.
+
+{{< img src="service_management/oncall/notification_page.png" alt="Notificación que menciona un Equipo de On-Call." style="width:80%;" >}}
+
+Puedes enviar Páginas a los Equipos de On-Call siempre que se admitan @-handles, incluidos monitores, gestión de incidencias, reglas de detección de seguridad, gestión de eventos, etc.
+
+#### Monitores y urgencias dinámicas
+
+Si envías una Página a través de una alerta de monitor y la regla de procesamiento de tu Equipo utiliza urgencias dinámicas:
+- Si se supera el umbral WARN (ADVERTENCIA), la urgencia de la página se establece en `low`.
+- Si se supera el umbral de ALERT (ADVERTENCIA), la urgencia de la página se fija en `high`.
+
+### Envío de páginas manual
+
+Puedes enviar manualmente una Página directamente en la plataforma de Datadog, o a través de una herramienta como Slack o Microsoft Teams.
+
+#### A través de Datadog
+
+1. Ve a [**On-Call** > **Teams**][2] (On-Call > Equipos).
+1. Busca el Equipo al que deseas enviar una página. Selecciona **Page** (Página).
+   {{< img src="service_management/oncall/manual_page.png" alt="La lista de Equipos de On-Call, que muestra el equipo de operaciones de compra. Se muestran tres botones: cronogramas, políticas de escalada, página." style="width:80%;" >}}
+1. Introduce un **Page title** (Título de página). También puedes seleccionar **Tags** (Etiquetas) y añadir más contexto en el campo **Description** (Descripción). Selecciona **Page** (Página).
+
+El envío de páginas manual de un Equipo a través de Datadog siempre da como resultado una Página de urgencia `high`.
+
+#### A través de Slack
+1. Instalar la aplicación de Datadog 
+1. Introduce `/datadog page` o `/dd page`.
+1. Selecciona un Equipo al que enviar una Página.
+
+El envío de páginas manual de un Equipo desde Slack siempre da como resultado una Página de urgencia `high`.
+
+## Referencias adicionales
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: /es/service_management/on-call/teams
+[2]: https://app.datadoghq.com/on-call/teams
\ No newline at end of file
diff --git a/content/es/service_management/on-call/processing_rules.md b/content/es/service_management/on-call/processing_rules.md
new file mode 100644
index 0000000000000..ca2e79ff1d9ca
--- /dev/null
+++ b/content/es/service_management/on-call/processing_rules.md
@@ -0,0 +1,43 @@
+---
+further_reading:
+- link: /service_management/on-call/
+  tag: Documentación
+  text: Datadog On-Call
+title: Reglas de procesamiento
+---
+
+{{< site-region region="gov" >}}
+<div class="alert alert-warning">On-Call no es compatible con el <a href="/getting_started/site">sitio de Datadog</a> seleccionado ({{< region-param key="dd_site_name" >}}).</div>
+{{< /site-region >}}
+
+## Información general
+
+Las reglas de procesamiento de On-Call permiten a los equipos personalizar sus estrategias de respuesta para distintos tipos de eventos entrantes. Esto permite a los equipos añadir eventos y niveles de urgencia a las políticas de escalado basadas en los metadatos de evento. Las páginas de baja urgencia no activan los procesos de escalada.
+
+Datadog crea una regla de procesamiento por defecto cuando se [incorpora un Equipo a On-Call][1].
+
+## Ver las reglas de procesamiento de tu equipo
+
+Para ver la regla de procesamiento de tu Equipo de On-Call, haz clic en el nombre del Equipo en la [lista de Equipos][2].
+
+## Sintaxis de consulta
+
+Las reglas de procesamiento siguen la sintaxis de consulta común de Datadog. Entre los atributos admitidos se incluyen:
+
+* `tags`: las etiquetas establecidas en la alerta entrante. Por ejemplo, `tags.env:prod`.
+* `groups`: comprueba si la alerta entrante se refiere a un grupo específico de monitor. Por ejemplo, `groups:"service:checkout-service"`.
+* `priority`: valor del campo de prioridad del monitor. Los valores posibles son 1, 2, 3, 4 o 5. Por ejemplo, `priority:(1 OR 2)`.
+* `alert_status`: valor del estado del monitor. Los valores posibles son `error`, `warn`, `success`. Ejemplo de uso: `alert_status:(error OR warn)`.
+
+Si no debe aplicarse ningún filtro específico, utiliza `*`.
+
+## Orden
+
+El orden de las reglas de procesamiento es importante. El sistema va de arriba a abajo y se detiene en la primera regla coincidente. Si ninguna consulta o filtro de tiempo coincide con la alerta entrante, se utiliza la regla de procesamiento por defecto.
+
+## Referencias adicionales
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: /es/service_management/on-call/teams
+[2]: https://app.datadoghq.com/on-call/teams
\ No newline at end of file
diff --git a/content/es/service_management/on-call/profile_settings.md b/content/es/service_management/on-call/profile_settings.md
new file mode 100644
index 0000000000000..4b21950bef96a
--- /dev/null
+++ b/content/es/service_management/on-call/profile_settings.md
@@ -0,0 +1,73 @@
+---
+further_reading:
+- link: /service_management/on-call/
+  tag: Documentación
+  text: Datadog On-Call
+title: Configuración del perfil
+---
+
+<div class="alert alert-info">
+Para utilizar Datadog On-Call en tu dispositivo móvil, instala la <a href="/mobile#installing">aplicación móvil de Datadog</a>.
+</div>
+
+{{< site-region region="gov" >}}
+<div class="alert alert-warning">On-Call no es compatible con el <a href="/getting_started/site">sitio Datadog </a> seleccionado ({{< region-param key="dd_site_name" >}}).</div>
+{{< /site-region >}}
+
+Debes [configurar tu configuración del perfil][1] antes de poder recibir páginas de On-Call. Tu perfil incluye la configuración de los métodos de contacto, la comprobación de esos métodos y las preferencias de notificaciones. Esto garantiza que recibas las páginas a tiempo y de forma eficaz.
+
+## Configura tu perfil de On-Call
+
+Ve a [Mi perfil de On-Call][1] para configurar tus parámetros.
+
+### Métodos de contacto
+{{< img src="service_management/oncall/contact_methods.png" alt="Añadir métodos de contacto en la configuración del perfil de On-Call. Se configuran un número de teléfono, un correo electrónico y un dispositivo móvil. El número de teléfono está en el estado de movimiento del mouse, en el que se muestra 'Test llamada' y 'Test opciones de SMS" style="width:100%;" >}}
+   - Debes añadir manualmente tu correo electrónico o número de teléfono. Después, la pantalla te solicitará tu consentimiento para localizarte por SMS. Si das tu consentimiento, aparecerá un distintivo verde junto a tu número de teléfono, que indica que puede utilizarse para las siguientes preferencias de notificación por SMS.
+   - Si la [aplicación móvil][2] de Datadog está instalada en tu dispositivo, este aparecerá automáticamente en esta lista. Check tus parámetros en la aplicación móvil para asegurarte de que tu dispositivo pueda recibir notificaciones.
+   - Datadog te recomienda que realices un test de cada uno de tus métodos de contacto. Pasa el mouse por encima de tu método de contacto para ver las opciones de test.
+
+#### Métodos de contacto admitidos
+- Notificaciones push a través de la [aplicación móvil de Datadog][3]
+- Correos electrónicos (en formato HTML o de texto)
+- SMS
+- Llamadas telefónicas
+
+Para configurar tu dispositivo móvil, incluida la manera de **eludir el modo No molestar**, consulta [Configura Datadog On-Call en tu dispositivo móvil][4].
+
+### Preferencias de notificaciones
+Las preferencias de notificaciones te permiten adaptar cómo y cuándo se le avisa a **ti** de las páginas On-Call en función de la urgencia de la situación. Al configurar las preferencias de baja urgencia y alta urgencia, puedes asegurarte de que las notificaciones sean eficaces y discretas, según la urgencia de la página. La urgencia de una página se determina en [Procesar reglas][5].
+
+El sistema realiza un ciclo por las preferencias de notificaciones configuradas hasta que acuses recibo de la página o la página se transfiera a la siguiente persona de guardia, tal y como se define en [Política de elevación][6].
+
+#### Notificaciones de alta urgencia
+{{< img src="service_management/oncall/high_urgency_notification_preferences.png" alt="Configurar preferencias de notificaciones de alta urgencia en la configuración del perfil de On-Call: Configura en 'Cuando se active una página de alta urgencia' para notificar a un número de teléfono de inmediato a fin de que responda rápidamente a páginas críticas" style="width:100%;" >}}
+
+Configura tus páginas de alta urgencia (alertas de monitor P1, amenazas a la seguridad SEV-1, incidencias SEV-1, etc.), para exigir atención y elevación inmediatas.
+
+Por ejemplo, puedes configurar On-Call para iniciar con una notificación push, llamar después de un minuto y enviar una notificación push de seguimiento si no se acusa recibo después de dos minutos.
+
+##### Mejores prácticas para la alta urgencia
+- Utiliza las notificaciones push inmediatas y las llamadas telefónicas como método principal de notificación para las páginas críticas.
+- Mantén intervalos de seguimiento cortos para garantizar un acuse de recibo rápido.
+- Planifica cuidadosamente las políticas de elevación para evitar que se pierdan respuestas durante las emergencias.
+
+#### Notificaciones de baja urgencia
+{{< img src="service_management/oncall/low_urgency_notification_preferences.png" alt="Configurar preferencias de notificaciones de baja urgencia en la configuración del perfil de On-Call: Configura 'Cuando se active una página de baja urgencia' para notificar por correo electrónico de inmediato pero no elevarla más" style="width:100%;" >}}
+
+Configura tus páginas de baja urgencia (cuestiones no bloqueantes, señales informativas, etc.), para minimizar las interrupciones y asegurarte al mismo tiempo de que te mantengas informado. Por ejemplo, puedes optar por sólo a ti mismo por correo electrónico.
+
+### Otras notificaciones
+{{< img src="service_management/oncall/settings_shift_reminder.png" alt="Configurar un recordatorio de turno en la configuración del perfil de On-Call. Se configura un recordatorio de turno para notificar a un número de teléfono 10 minutos antes de que comience el turno" style="width:100%;" >}}
+
+En **Otras notificaciones**, puedes optar por recibir un **Recordatorio de turno** antes de que comience tu turno de On-Call.
+
+## Referencias adicionales
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: https://app.datadoghq.com/on-call/profile
+[2]: /es/service_management/mobile/?tab=ios
+[3]: /es/mobile
+[4]: /es/service_management/on-call/guides/configure-mobile-device-for-on-call
+[5]: /es/service_management/on-call/processing_rules
+[6]: /es/service_management/on-call/escalation_policies
diff --git a/content/es/service_management/service_level_objectives/ootb_dashboard.md b/content/es/service_management/service_level_objectives/ootb_dashboard.md
new file mode 100644
index 0000000000000..5362421663c5c
--- /dev/null
+++ b/content/es/service_management/service_level_objectives/ootb_dashboard.md
@@ -0,0 +1,70 @@
+---
+further_reading:
+- link: service_management/service_level_objectives/
+  tag: Documentación
+  text: Visión general de Objetivos de nivel de servicio (SLOs)
+title: Dashboard de rendimiento de los SLOs para directivos
+---
+
+{{< jqmath-vanilla >}}
+
+## Información general
+
+El dashboard de resumen del rendimiento de los SLOs permite obtener vistas agregadas de los SLOs para ayudar a los directores ejecutivos a comprender de un solo vistazo la fiabilidad de tu organización. Con este dashboard predefinido puedes:
+
+- Personalizar tus agrupaciones de SLOs para que se basen en servicios, equipos, recorridos de usuarios o cualquier otra etiqueta (tag) que se haya añadido a tus SLOs.
+- Utilizar una puntuación resumida, basada en el presupuesto de error restante de los SLOs subyacentes, para comprender el rendimiento de los SLOs en los diferentes grupos e identificar áreas de mejora.
+
+<div class="alert alert-info">El dashboard de resumen del rendimiento de los SLOs está en Vista previa.</div>
+
+Accede a tu dashboard de resumen del rendimiento de los SLOs predefinido filtrando por `SLO Performance Summary` en la consulta de búsqueda de la [**lista de dashboards**][1] o haciendo clic en el botón **Analytics** (Análisis) en la esquina superior derecha de la [página de estado de los SLOs][2].
+
+{{< img src="service_management/service_level_objectives/ootb_dashboard/slo-ootb-dashboard.png" alt="Dashboard de SLOs predefinido por defecto por etiqueta de servicio" >}}
+
+## Interactuar con tu dashboard de resumen del rendimiento de los SLOs
+
+Por defecto, el dashboard de resumen del rendimiento de los SLOs se basa en la etiqueta de `service` añadida a tus SLOs. Esto te permite ver el rendimiento de los SLOs de tu organización por agrupaciones de servicios para entender qué servicios presentan un mejor o peor rendimiento.
+
+### Puntuación global
+
+El widget **Resumen de SLOs** en el dashboard predefinido incluye una "Puntuación". Fue diseñada como una métrica de resumen para que los directivos ejecutivos comprendan el rendimiento de un grupo de SLOs. La puntuación se calcula a partir del presupuesto de error medio restante de los SLOs subyacentes, que luego se asigna a una puntuación entre 0 y 100:
+
+- La puntuación se "aprueba" (verde/amarillo) cuando la mayoría de los SLOs **no** se incumplen y tienen un presupuesto de error restante.
+- La puntuación se "desaprueba" (rojo) cuando muchos SLOs están fuera del presupuesto de error o unos pocos SLOs están demasiado fuera del presupuesto de error.
+- Los SLOs con el estado "Sin datos" no se tienen en cuenta en la puntuación.
+
+#### Detalles del cálculo de la puntuación
+
+La puntuación se calcula del siguiente modo:
+- Promediando el presupuesto de error restante de los SLOs (el presupuesto de error mínimo se establece en -200%, por lo que cualquier SLO con un presupuesto de error inferior se contará como -200% en el promedio).
+- El presupuesto de error medio (entre -200 y 100) se asigna a una puntuación entre 0 y 100
+- El color y el estado de la puntuación se establecen en función de los siguientes umbrales.
+
+Ten en cuenta que un presupuesto de error medio restante del 0% corresponde a un valor de puntuación de 66,667. El estado y el color de la puntuación se basan en los siguientes umbrales:
+- **Rojo:** 0 ≤ puntuación < 66,667
+- **Amarillo:** 66,667 ≤ puntuación < 80
+- **Verde:** 80 ≤ puntuación ≤ 100
+
+### Personalizar tu dashboard de resumen del rendimiento de los SLOs
+
+Para personalizar tu dashboard de resumen del rendimiento de los SLOs, haz clic en **Configure** (Configurar) en el dashboard y selecciona **Clonar dashboard**. El dashboard por defecto está configurado basado en la etiqueta de `service` que se agregó a los SLOs. Puedes actualizar el dashboard para que se base en cualquier [etiqueta de SLO][3] siguiendo los siguientes pasos:
+
+- Actualiza la configuración de cada widget en el dashboard por defecto para utilizar tu etiqueta elegida, en lugar de `service`.
+- Añade una [variable de plantilla][4] basada en tu etiqueta elegida (o sustituye la variable de plantilla `service` existente).
+
+
+Por ejemplo, si ha añadiste una etiqueta `journey` a tus SLOs, puedes clonar el dashboard de resumen del rendimiento de los SLOs y personalizarlo para que se base en la etiqueta de `journey`:
+
+{{< img src="service_management/service_level_objectives/ootb_dashboard/slo-dashboard-flow.mp4" alt="Dashboard de SLOs predefinido por etiqueta de recorrido" video=true style="width:80%;" >}}
+
+
+
+## Referencias adicionales
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+
+[1]: https://app.datadoghq.com/dashboard/lists
+[2]: https://app.datadoghq.com/slo
+[3]: /es/service_management/service_level_objectives/#slo-tags
+[4]: /es/dashboards/template_variables/#add-a-template-variable
\ No newline at end of file
diff --git a/content/es/service_management/workflows/limits.md b/content/es/service_management/workflows/limits.md
new file mode 100644
index 0000000000000..11d4ef65e4338
--- /dev/null
+++ b/content/es/service_management/workflows/limits.md
@@ -0,0 +1,71 @@
+---
+algolia:
+  tags:
+  - flujo de trabajo
+  - rastreo
+  - automatización del flujo de trabajo
+description: Límites de velocidad para Workflow Automation
+disable_toc: false
+further_reading:
+- link: /service_management/workflows/build
+  tag: Documentación
+  text: Crear flujos de trabajo
+title: Límites
+---
+
+{{< site-region region="gov" >}}
+<div class="alert alert-warning">La automatización de los flujos de trabajo no es compatible con el <a href="/getting_started/site">sitio de Datadog </a> seleccionado ({{< region-param key="dd_site_name" >}}).</div>
+{{< /site-region >}}
+
+En esta página se describen los límites de velocidad y de frecuencia que se aplican a Workflow Automation.
+
+## Límites a nivel de cuenta
+
+### Cuentas de pago
+
+Cada organización:
+
+* Puede crear hasta 500 flujos de trabajo por minuto.
+* Puede ejecutar hasta 200 flujos de trabajo por minuto.
+* Puede ejecutar hasta 50 flujos de trabajo por minuto para una fuente (como un monitor específico).
+* Puede almacenar en buffer hasta 500 solicitudes.
+
+Cuando una organización supera un umbral, las solicitudes de ejecución pendientes se ponen en cola, hasta un máximo de 500 por organización, y luego se procesan según los límites descritos anteriormente. Por ejemplo, si un monitor activa 500 ejecuciones de flujos de trabajo, sólo se activan 50 en el primer minuto. Las 450 ejecuciones de flujos de trabajo restantes se ponen en cola y se activan 50 flujos de trabajo cada minuto hasta que se hayan activado todos los flujos de trabajo.
+
+### Cuentas de prueba
+
+Cada organización:
+
+* Puede crear hasta 20 flujos de trabajo por minuto.
+* Puede ejecutar hasta 50 flujos de trabajo cada 20 minutos.
+* Puede ejecutar hasta 20 flujos de trabajo por minuto para una fuente (como un monitor específico).
+* Puede almacenar en buffer hasta 100 solicitudes.
+
+Cuando una organización supera un umbral, las solicitudes de ejecución pendientes se ponen en cola, hasta un máximo de 100 por organización, y luego se procesan según los límites descritos anteriormente. Por ejemplo, si un monitor activa 100 ejecuciones de flujos de trabajo, sólo se activan 50 en los primeros 20 minuto. Las 50 ejecuciones de flujos de trabajo restantes se ponen en cola y se activan luego de 20 minutos.
+
+## Límites a nivel de flujo de trabajo
+
+* Un flujo de trabajo puede contener hasta 100 pasos. Si necesitas más de 100 pasos en un flujo de trabajo, puedes utilizar la acción **Activar flujo de trabajo** para [llamar a un flujo de trabajo secundario][2]. Utiliza parámetros de salida para devolver el resultado de un flujo de trabajo secundario a tu flujo de trabajo principal.
+* Un flujo de trabajo puede ejecutarse durante un máximo de 7 días. Los flujos de trabajo finalizan cuando intentan ejecutarse por más de 7 días.
+* Un flujo de trabajo puede iniciar hasta 30 pasos por minuto. Si se supera este índice, los pasos se limitan y se inician a un ritmo de 30 por minuto.
+* La suma de todos los resultados de pasos de un flujo de trabajo puede alcanzar los 150 MB.
+* El tamaño del resultado de un flujo de trabajo puede alcanzar los 500 KB.
+
+## Límites de acción
+
+* La entrada de una acción puede alcanzar los 15 MB.
+* El resultado de una acción puede alcanzar los 15 MB.
+* El JavaScript proporcionado por el usuario puede alcanzar los 10 KB.
+* Cada organización puede ejecutar hasta 10.000 acciones de envío de correo electrónico al día. Si se supera este límite, la acción falla con un mensaje de error.
+* La acción [para bucle][1] puede ejecutarse hasta por 2000 iteraciones. Si necesitas más de 2000 iteraciones, puedes dividir la entrada en conjuntos de 2000 y calcularlas en paralelo.
+
+
+## Referencias adicionales
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+<br>¿Tienes preguntas o comentarios? Únete al canal **#workflows** en [Datadog Community Slack][9].
+
+[1]: /es/service_management/workflows/actions/flow_control/#for-loop
+[2]: /es/service_management/workflows/trigger/#trigger-a-workflow-from-a-workflow
+[9]: https://datadoghq.slack.com/
\ No newline at end of file
diff --git a/content/es/service_management/workflows/variables.md b/content/es/service_management/workflows/variables.md
new file mode 100644
index 0000000000000..066097bda6d06
--- /dev/null
+++ b/content/es/service_management/workflows/variables.md
@@ -0,0 +1,152 @@
+---
+algolia:
+  tags:
+  - variables de flujo de trabajo
+  - variables
+  - mutable
+aliases:
+- /es/service_management/workflows/actions/set_variables/
+disable_toc: false
+further_reading:
+- link: /service_management/workflows/actions/flow_control#for-loop
+  tag: Documentación
+  text: Utilizar un bucle for para realizar una acción de forma iterativa
+title: Variables y parámetros
+---
+
+Las siguientes variables y parámetros están disponibles en los flujos de trabajo:
+- [Variables de contexto](#context-variables): las variables de contexto son una amplia categoría de variables inmutables que almacenan información contextual sobre un flujo de trabajo, o contienen datos que se pasan al flujo de trabajo por un evento desencadenante o por un paso en el flujo de trabajo.
+- [Parámetros de entrada](#input-parameters): los parámetros de entrada son pares clave-valor inmutables que puedes utilizar para pasar datos a un flujo de trabajo en tiempo de ejecución.
+- [Parámetros de salida](#output-parameters): los parámetros de salida permiten pasar el resultado de un flujo de trabajo a otro flujo de trabajo.
+- [Variables personalizadas](#custom-variables): las variables personalizadas son mutables. Te permiten declarar, actualizar y acceder a variables a lo largo de tu flujo de trabajo.
+
+## Variables de contexto
+
+La creación de flujos de trabajo útiles a veces requiere pasar datos de un paso a otro, o configurar pasos que actúen sobre datos de la fuente desencadenante del flujo de trabajo. Puede realizar este tipo de interpolación de datos con variables de contexto.
+
+- **Workflow variables** (las variables de flujo de trabajo) te proporcionan información sobre el flujo de trabajo actual:
+    - `WorkflowName`: el nombre del flujo de trabajo.
+    - `WorkflowId`: el ID del flujo de trabajo.
+    - `InstanceId`: el ID de la instancia de ejecución del flujo de trabajo.
+- Algunos pasos vienen con **step output variables** (variables de salida de paso) incorporadas que te permiten pasar datos de ese paso a un paso posterior en tu flujo de trabajo.
+- **Trigger variables** (Las variables de activación) se introducen en el flujo de trabajo a través del evento desencadenante.
+- **Source object variables** (Las variables de objeto fuente) son introducidas en el flujo de trabajo por el evento desencadenante.
+
+La pestaña de **Context Variables** (variables de contexto) para cada paso proporciona un mapa de todas las variables de contexto disponibles para ese paso.
+
+{{< img src="service_management/workflows/context-variables5.png" alt="La pestaña Variables de contexto" >}}
+
+Accede a una variable de contexto en un paso encerrándola entre llaves dobles (`{{`). Para acceder a campos dentro de variables de contexto, utiliza la [Sintaxis de expresión Handlebars][4].
+
+### Variables de salida por pasos
+
+Algunos pasos crean salidas que están disponibles para pasos posteriores en un flujo de trabajo. Accede a una variable de paso con la sintaxis `Steps.<step_name>.<variable>`. Por ejemplo, para recuperar la variable de estado de la solicitud de extracción (`state`) del paso de estado de la solicitud de extracción de GitHub (`Get_pull_request_status`), utilizarías la siguiente variable de contexto:
+
+```
+{{ Steps.Get_pull_request_status.state }}
+```
+
+Si no estás seguro de qué variable buscas, Datadog te sugiere salidas de pasos existentes a medida que escribes. También puedes consultar la pestaña [Context Variables (variables de contexto)](#context-variables) para consultar lista de las variables disponibles.
+
+{{< img src="service_management/workflows/step-outputs2.png" alt="Datadog sugiere las salidas del paso existente mientras escribes." style="width:100%;" >}}
+
+### Variables del objeto fuente
+
+Las variables del objeto fuente son propiedades del evento desencadenante que se resuelven en la ejecución. Las variables disponibles en el flujo de trabajo dependen del tipo de disparador que inició la instancia del flujo de trabajo. Por ejemplo, si la instancia de flujo de trabajo es desencadenada por un monitor, la variable ID del monitor está disponible utilizando `{{Source.monitor.id}}`. Si el flujo de trabajo se desencadena por una detección de señal de seguridad o una regla de notificación, el ID de la señal está disponible utilizando `{{Source.securitySignal.id}}`.
+
+Todas las variables del objeto fuente son visibles en la pestaña de Variables de contexto.
+
+{{< img src="service_management/workflows/context-variables-tab-source-object-variables2.png" alt="Las variables objeto de origen en la pestaña de Variables de contexto" style="width:60%;">}}
+
+## Parámetros de entrada
+
+Los parámetros de entrada son pares clave-valor inmutables que puedes utilizar para pasar datos a un flujo de trabajo. Puedes utilizar parámetros de entrada en flujos de trabajo que:
+- Se activan manualmente, por ejemplo, desde dashboard.
+- Utilizar disparadores de mención, como monitores y Reglas de notificaciones de señal de seguridad.
+
+Para añadir un parámetro de entrada:
+1. Haz clic en el lienzo del flujo de trabajo.
+1. Haz clic en el icono **+** situado junto a **Input Parameters** (Parámetros de entrada).
+1. Añade un nombre de parámetro, un tipo de datos y una descripción para el parámetro. El nombre para mostrar se genera automáticamente a partir del nombre del parámetro. Verifica la casilla **Use custom display name** (Usar nombre para mostrar personalizado) para personalizarlo. El nombre para mostrar es un nombre legible para el parámetro, mientras que el nombre del parámetro se utiliza para hacer referencia al parámetro en tus pasos del flujo de trabajo.
+1. Opcionalmente, añade un valor por defecto para el parámetro. Si añades un valor por defecto, el parámetro es opcional en tiempo de ejecución.
+
+Para hacer referencia al parámetro de entrada en un paso, utiliza la sintaxis `{{ Trigger.<parameter name>}}`. Por ejemplo, para hacer referencia a un parámetro de entrada denominado `user`, utiliza `{{Trigger.user}}`.
+
+La sección **Input Parameters** (Parámetros de entrada) muestra los nombres de todos los parámetros de entrada existentes junto con un contador. Pasa el cursor por encima de un contador para ver qué pasos utilizan el parámetro.
+
+{{< img src="service_management/workflows/input-parameter3.png" alt="Pasa sobre un contador para ver qué pasos están usando el parámetro." style="width:60%;">}}
+
+Puedes añadir un parámetro de entrada implícito (un parámetro que aún no existe en el flujo de trabajo) escribiéndolo en un paso del flujo de trabajo utilizando la sintaxis `{{ Trigger.<parameter name> }}`. La próxima vez que guardes el flujo de trabajo, aparecerá un cuadro de diálogo que te permitirá convertir el parámetro en uno explícito. Para obtener más información sobre la activación de flujos de trabajo, consulta [Trigger a workflow (Activar un flujo de trabajo)][5].
+
+Si estás buscando un parámetro de entrada existente, empieza a escribir `{{ Trigger.` para ver si aparece como sugerencia. También puedes consultar la pestaña [Context Variables (variables de contexto)](#context-variables) para ver una lista de los parámetros disponibles.
+
+## Parámetros de salida
+
+Los parámetros de salida te permiten acceder al resultado de un flujo de trabajo. Esto es útil cuando deseas pasar el resultado de un flujo de trabajo a otro flujo de trabajo o a una aplicación de App Builder.
+
+Para añadir un parámetro de salida:
+1. Haz clic en el lienzo del flujo de trabajo.
+1. Haz clic en el icono **+** situado junto a **Output Parameters** (Parámetros de salida).
+1. Añade un nombre de parámetro, un valor y un tipo de datos para el parámetro.
+1. Opcionalmente, añade un valor por defecto para el parámetro. Si añades un valor por defecto, el parámetro es opcional en tiempo de ejecución.
+
+La sección **Output Parameters** (Parámetros de salida) muestra los nombres de todos los parámetros de salida existentes junto con un contador.
+
+Para obtener información sobre el paso de datos entre flujos de trabajo, consulta [Acceder al resultado de un flujo de trabajo secundario][7].
+
+Para ver un ejemplo de cómo utilizar parámetros de salida para pasar información entre flujos de trabajo y App Builder, consulta [devolver resultados de flujo de trabajo a una aplicación][6].
+
+## Variables personalizadas
+
+Para establecer una variable mutable de flujo de trabajo, utiliza la acción [Establecer variable][1]. Puedes utilizar esta acción para declarar, actualizar y acceder a variables personalizadas en todo el flujo de trabajo, lo que te permite realizar operaciones de flujo de trabajo más complejas. Por ejemplo:
+- _Gestión de la paginación de la API_: las solicitudes de la API a veces requieren que hagas un seguimiento de un token o desplazamiento de página.
+- _Gestión de listas_: puedes usar una variable para inicializar un array y realizar acciones como map (asignar) y reduce (reducir).
+- _Iteración_: las variables te permiten manipular y almacenar datos dentro de un [bucle for][2]. A continuación, puedes utilizar esos datos en el resto del flujo de trabajo.
+
+### Establecer una variable personalizada
+
+Para establecer una variable personalizada:
+1. Haz clic en el icono más (**+**) del lienzo del flujo de trabajo para abrir el catálogo de acciones.
+1. Busca y selecciona el paso **Set variable** (Fijar variable).
+1. Haz clic en el paso **Set variable** (Establecer variable) e ingresa un **Step name** (Nombre de paso).
+1. Introduce un **variable name** (nombre de variable). Los nombres de las variables deben empezar por una letra y sólo pueden contener caracteres alfanuméricos y guiones bajos.
+1. Introduce un valor para la variable.
+   - Escribe ``{{`` si deseas utilizar una variable contextual del flujo de trabajo.
+   - Para crear un objeto, haz clic en el botón **Create object** (Crear objeto)<i class="icon-api"></i>.
+   - Para crear una matriz, haz clic en el botón **Create array** (Crear matriz) <span id="icon-array">[ ]</span>.
+
+Si necesitas cambiar el valor de una variable personalizada después de establecerla, debes añadir un paso adicional **Set variable** (Establecer variable) y reasignar la variable o crear una nueva variable.
+
+Aquí hay un ejemplo de un flujo de trabajo que demuestra el paso **Set variable** (Establecer variable):
+
+1. En tu flujo de trabajo, comienza con un paso **Set variable** (Establecer variable) para declarar una variable llamada `intList` y darle el valor `[1,2,3,4]`.
+1. Añade un segundo paso **Set variable** (Establecer variable) y declara una variable llamada `evenList` con el valor `${Variables.intList.filter(number => number % 2 === 0)}`. Esta es una [expresión en línea de JavaScript][8] que filtra los números impares.
+1. Añade un paso **Echo** (Eco) para hacer eco del valor de `evenList` (`2,4`).
+
+{{< img src="service_management/workflows/set-variable-updated.png" alt="Este flujo de trabajo establece una variable para tener una lista de números, declara una segunda variable que filtra los números impares en la lista usando una expresión en línea y hace eco del valor de la segunda variable." style="width:100%;" >}}
+
+### Acceder a una variable personalizada
+
+Puedes acceder a una variable personalizada en tu flujo de trabajo utilizando `{{ Variables.variableName }}`. Por ejemplo, para acceder a una variable personalizada denominada `DashboardList`, utiliza `{{ Variables.DashboardList }}`.
+
+### Iteración
+
+Establecer una variable personalizada dentro de un bucle **For** te permite almacenar datos para su uso fuera del bucle. Por ejemplo, si estás haciendo múltiples solicitudes a la API dentro de un bucle **For**, puedes establecer una variable personalizada y añadirle los datos que necesites en cada iteración. Fuera del bucle, puedes acceder a la variable personalizada y manejar los datos recopilados.
+
+Para evitar un error de tipo resultante de una variable indefinida, asigna una variable personalizada antes de utilizarla en un bucle. En el ejemplo siguiente, la variable personalizada `evenList` se establece en una matriz vacía antes de utilizarla en el bucle.
+
+{{< img src="service_management/workflows/loop.png" alt="Este flujo de trabajo establece una variable antes de que se utilice en un bucle." style="width:100%;" >}}
+
+## Referencias adicionales
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+<br>¿Tienes preguntas o comentarios? Únete al canal **#workflows** en [Datadog Community Slack][3].
+
+[1]: https://app.datadoghq.com/workflow/action-catalog#/com.datadoghq.core/com.datadoghq.core.setVariable
+[2]: /es/service_management/workflows/actions/flow_control#for-loop
+[3]: https://datadoghq.slack.com/
+[4]: https://handlebarsjs.com/guide/expressions.html#expressions
+[5]: /es/service_management/workflows/trigger
+[6]: /es/service_management/app_builder/queries/#return-workflow-results-to-an-app
+[7]: /es/service_management/workflows/trigger/#access-the-result-of-a-child-workflow
\ No newline at end of file
diff --git a/content/es/software_catalog/endpoints/explore_endpoints.md b/content/es/software_catalog/endpoints/explore_endpoints.md
new file mode 100644
index 0000000000000..a6bb915cd9a56
--- /dev/null
+++ b/content/es/software_catalog/endpoints/explore_endpoints.md
@@ -0,0 +1,52 @@
+---
+aliases:
+- /es/tracing/api_catalog/explore_and_catalog_apis/
+- /es/api_catalog/explore_and_catalog_apis/
+- /es/tracing/api_catalog/explore_apis/
+- /es/api_catalog/explore_apis/
+- /es/service_catalog/endpoints/explore_endpoints/
+further_reading:
+- link: /rastreo/catálogo_software/
+  tag: Documentación
+  text: Catálogo de software Datadog
+title: Exploring Endpoints
+---
+
+{{< img src="tracing/software_catalog/endpoints-list.png" alt="Lista de endpoints en el Catálogo de software, que muestra información de rendimiento de cada endpoint" style="width:100%;" >}}
+
+## Información general
+
+La [lista de endpoints][1] proporciona visibilidad de todos los endpoints HTTP de los entornos de tu organización Datadog. Cada endpoint muestra su método HTTP (por ejemplo, `GET`), la ruta URL (por ejemplo, `/payment/{shop_id}/purchase`) y el nombre de servicio asociado (por ejemplo, `Payments`).
+
+<div class="alert alert-info">La lista de <strong>endpoints</strong> sólo admite endpoints HTTP.</div>
+
+## Exploración del rendimiento de endpoints
+
+La lista de endpoints muestra los datos de rendimiento correspondientes al entorno y periodo de tiempo seleccionados:
+
+- **Clasificación de columnas**: Haz clic en los encabezados de columna para ordenar por métricas. Por ejemplo, haz clic en **P95** para ver endpoints con el percentil 95 para la latencia.
+- **Seguimiento de la propiedad**: Observa la propiedad de los equipos en la columna **EQUIPO**. Esta información se hereda de la definición del servicio asociado en el [Catálogo de software][2]. El propietario del servicio es propietario de todos los endpoints conectados al servicio.
+- **Filtrado y búsqueda**: Busca por servicio, ruta, o cualquier etiqueta (tag) primaria, o filtra utilizando facetas como **Servicio** y **Equipo**.
+- **Contexto**: Especifica el entorno, las etiquetas primarias adicionales (por ejemplo, `cluster_name`) y el periodo de tiempo.
+
+{{< img src="tracing/software_catalog/scope-data.png" alt="Al cambiar los parámetros del contexto se cambian los datos que se muestran en la lista de endpoints" >}}
+
+## Visualizar detalles del endpoint
+
+Utiliza la página de detalles del endpoint para detectar las API de bajo rendimiento e identificar oportunidades de optimización.
+
+Para acceder a la página de detalles del endpoint:
+
+1. Utiliza las opciones de filtrado, clasificación y búsqueda en la lista de endpoints para encontrar endpoints de interés.
+1. Haz clic en un endpoint para ver su página de detalles.
+
+La página de detalles del endpoint te muestra metadatos, métricas de rendimiento, errores, dependencias y telemetría correlacionada de otras áreas de Datadog.
+
+{{< img src="tracing/software_catalog/endpoint-details.png" alt="Haz clic en un endpoint para abrir la página con sus detalles y ver información como errores y dependencias." >}}
+
+## Referencias adicionales
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: https://app.datadoghq.com/apis/catalog
+[2]: /es/tracing/software_catalog/
\ No newline at end of file
diff --git a/content/es/software_catalog/scorecards/using_scorecards.md b/content/es/software_catalog/scorecards/using_scorecards.md
new file mode 100644
index 0000000000000..5eea7a7285ba4
--- /dev/null
+++ b/content/es/software_catalog/scorecards/using_scorecards.md
@@ -0,0 +1,72 @@
+---
+aliases:
+- /es/tracing/software_catalog/scorecards/using_scorecards
+- /es/tracing/service_catalog/scorecards/using_scorecards
+- /es/service_catalog/scorecards/using_scorecards
+further_reading:
+- link: /tracing/software_catalog/
+  tag: Documentación
+  text: Catálogo de software
+- link: /api/latest/service-scorecards/
+  tag: Documentación
+  text: API de Scorecards
+- link: https://www.datadoghq.com/blog/service-scorecards/
+  tag: Blog
+  text: Priorizar y promover las prácticas recomendadas de observabilidad del servicio
+    con Scorecards
+- link: https://www.datadoghq.com/blog/datadog-custom-scorecards/
+  tag: Blog
+  text: Formalizar las prácticas recomendadas con Scorecards personalizados
+- link: /continuous_integration/dora_metrics/
+  tag: Documentación
+  text: Seguimiento de las métricas DORA con Datadog
+title: Utilización de Scorecards
+---
+
+{{< callout url="#" btn_hidden="true" header="false" >}}
+Scorecards está en vista previa.
+{{< /callout >}}
+
+Después de configurar tus Scorecards, puedes ver las puntuaciones a nivel de servicio, realizar un seguimiento de las puntuaciones a lo largo del tiempo y generar informes de Scorecards para actualizar automáticamente tu equipo con la información de la Scorecard.
+
+## Ver detalles y puntuaciones a nivel de servicio
+
+Puedes acceder al resumen de las Scorecards en la [**página Explorar**][1] del Catálogo de software, en la columna **Scorecards** de la pestaña **Propiedad**. Puedes ver cómo está tu servicio específico o tu subconjunto de servicios en cada Scorecard y las reglas de cada uno de ellos. 
+
+Haz clic en **View Details* (Ver detalles) en la Scorecard o abre el panel lateral de detalles del servicio para ver la pestaña **Scorecards** que enumera todas las Scorecards, las reglas y la puntuación aprobada o fallida del servicio para cada regla.
+
+## Seguimiento de las puntuaciones a lo largo del tiempo
+
+Puedes visualizar cómo progresan las puntuaciones de los equipos a lo largo del tiempo a medida que realizan cambios y solucionan problemas conocidos mediante series temporales históricas en la interfaz de usuario de las Scorecards. También puedes exportar estas series temporales a dashboards y notebooks donde puedes filtrar por diferentes etiquetas (tags) como `team`, `rule`, `scorecard`, `application`, `tier` y `lifecycle`. 
+
+{{< img src="/tracing/software_catalog/scorecard-historical-metrics.png" alt="Series temporales que muestran cambios en las puntuaciones a lo largo del tiempo en la interfaz de usuario de la Scorecard" style="width:90%;" >}}
+
+## Generar informes de Scorecards
+
+Puedes generar informes de Scorecards, que envían información general programada de los datos de la Scorecard al canal de Slack de tu equipo para que todos puedan entender cómo los servicios y los equipos cumplen los estándares esperados. La creación de un informe genera un flujo de trabajo utilizando [Datadog Workflow Automation][2], que se ejecuta en un horario programado.
+
+<div class="alert alert-warning">La ejecución de este flujo de trabajo puede afectar a tu facturación. Para obtener más información, consulta la <a href="https://www.datadoghq.com/pricing/?product=workflow-automation#products">página de precios</a>.</div>
+
+Para crear un informe:
+
+1. Haz clic en **Create Report** (Crear informe) en la página Scorecards.
+2. Elige si quieres incluir todos los servicios definidos en tu organización o los servicios de un equipo específico. 
+3. Define la fecha, la hora y la frecuencia con la que quieres recibir estos informes.
+4. Define el espacio de trabajo y el canal de Slack al que deben enviarse los informes. El canal seleccionado debe ser público y debe tener instalada la aplicación Slack de Datadog. 
+5. Haz clic en **Enable this Workflow** (Habilitar este flujo de trabajo).
+
+Con esta información, Datadog te envía informes sobre las reglas, los servicios y los equipos con mayor y menor puntuación. 
+
+{{< img src="/tracing/software_catalog/scorecard-reports.png" alt="Modal de creación de informes de Scorecards, que muestra cómo crear informes para todos los servicios" style="width:90%;" >}}
+
+
+### Gestionar informes de Scorecards
+Para editar o eliminar un flujo de trabajo, haz clic en **Manage Reports** (Gestionar Informes) en la página Scorecards y selecciona el flujo de trabajo. Edita el flujo de trabajo o elimínalo utilizando el menú Configuración.
+
+
+## Referencias adicionales
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: https://app.datadoghq.com/services
+[2]: /es/service_management/workflows/
\ No newline at end of file
diff --git a/content/es/software_catalog/software_templates.md b/content/es/software_catalog/software_templates.md
new file mode 100644
index 0000000000000..de1b58b0f6e52
--- /dev/null
+++ b/content/es/software_catalog/software_templates.md
@@ -0,0 +1,123 @@
+---
+aliases:
+- /es/service_catalog/software_templates
+further_reading:
+- link: https://www.datadoghq.com/blog/monitor-cdn-performance-with-synthetic-testing/
+  tag: Blog
+  text: Solucionar las incidencias más rápidamente con App Builder
+- link: /service_management/app_builder/
+  tag: Documentación
+  text: Más información sobre App Builder
+- link: /service_management/workflows/
+  tag: Documentación
+  text: Más información sobre Workflows
+title: Autoservicio
+---
+
+## Automatizar los flujos de trabajo de los desarrolladores
+Utiliza [App Builder][2] para crear formularios dinámicos y fáciles de usar que recopilen las entradas de los desarrolladores. Llama a [Acciones][7] de Datadog desde tu aplicación para iniciar llamadas a API externas, realizar lógica personalizada o transformaciones de datos. Organiza los procesos de extremo a extremo de múltiples acciones utilizando [Workflow Automation][1]. Intégralas con el catálogo de software de Datadog para habilitar flujos de trabajo dinámicos y de autoservicio.
+
+{{< img src="tracing/service_catalog/self-service-ui.png" alt="Publicar en autoservicio" style="width:100%;" >}}
+
+{{< callout url="https://forms.gle/6Er52qd3BCERhotg7" d_target="#signupModal" btn_hidden="false">}}
+  Las plantillas de software están en vista previa. Rellena el formulario para solicitar acceso.
+{{< /callout >}} 
+
+### Crear flujos de trabajo de plantillas de software
+Para utilizar plantillas de software en Datadog, crea un repositorio de Git con la plantilla deseada. Puedes empezar desde cero o utilizar nuestros planos de inicio rápido para aprender a partir de un ejemplo.
+
+#### A partir de un ejemplo
+Ve a [planos de App Builder][9] y selecciona uno de los siguientes planos. Estos son ejemplos de cómo configurar una aplicación o flujo de trabajo para empezar. Puedes realizar actualizaciones en los ejemplos para adaptarlos a tus necesidades, como configurar entradas, configurar integraciones con gestión de código fuente o proveedores de nube y configurar permisos.
+
+##### Nuevo servicio de andamiaje
+
+El [plano Nuevo servicio de andamiaje][11] muestra un ejemplo de andamiaje de una nueva función de Lambda a partir de una plantilla. El formulario captura las entradas de un desarrollador que se pasarán al repositorio de Git correspondiente.
+
+1. Desde la aplicación, personaliza el formulario para incluir los parámetros que deseas capturar de tus desarrolladores.
+2. Haz clic en **Save as New App** (Guardar como nueva aplicación) para guardar la aplicación. Esto también creará un flujo de trabajo de plantillas correspondiente.
+
+##### Crear un bucket de S3 con Terraform
+
+El [plano Crear bucket de S3][10] muestra un ejemplo de cómo generar código de Terraform para un bucket de S3 usando un formulario en GitHub.
+
+##### Aprovisionar clúster de Kubernetes
+
+El [plano Aprovisionar clúster de EKS][12] muestra un ejemplo de cómo generar código de Terraform para un clúster de Kubernetes en GitHub.
+
+##### Aprovisionar instancia de RDS
+
+El [plano Aprovisionar instancias de RDS][13] muestra un ejemplo de cómo aprovisionar una instancia de RDS a través de la integración directa con AWS.
+
+
+#### Empezar desde cero
+Ve a la página [Workflow Automation][3] para configurar la plantilla en Datadog.
+
+1. Crea un formulario para el frontend del desarrollador utilizando App Builder:
+   - Ve a **Actions** > **App Builder** (Acciones > App Builder) y selecciona **New App** (Nueva aplicación.
+   - Introduce un nombre y una descripción y utiliza el editor de arrastrar y soltar para crear un formulario que recopile los parámetros obligatorios de tu plantilla.
+   - Puedes aprovechar el componente `Form` o crear una interfaz de usuario personalizada.
+   - Una vez terminada la interfaz de usuario, selecciona **New Query** (Nueva consulta) y utiliza la acción **Trigger workflow** (Activar flujo de trabajo) para llamar a tu flujo de trabajo de plantillas e introducir los parámetros pertinentes. También puedes explorar las integraciones disponibles en el [Catálogo de acciones][7] o aprovechar la acción `HTTP` para interactuar con cualquier integración no predefinida.
+   - Crea un **Botón** que envíe el formulario, active tu flujo de trabajo y pase los parámetros de la plantilla.
+   - Guarda y publica la aplicación.
+
+2. [Crea un flujo de trabajo][6] para tu plantilla:
+   - En la página [Workflow Automation][3], haz clic en **New Workflow** (Nuevo flujo de trabajo).
+   - Introduce un nombre, añade etiquetas (tags) pertinentes y define los parámetros de entrada que desees recopilar de los usuarios.
+
+3. Configura el flujo de trabajo de las plantillas:
+   - Utiliza [acciones][7] de GitHub, Gitlab o HTTP para recuperar tus archivos de plantilla.
+   - Utiliza la [acción][7] Apply Template (Aplicar plantilla) para manipular tu repositorio de plantillas y pasar tus parámetros de entrada.
+   - Utiliza [acciones][7] de GitHub, Gitlab o HTTP para cargar los archivos del proyecto al repositorio.
+   - Guarda el flujo de trabajo.
+
+  {{< img src="tracing/software_catalog/templating-workflow.png" alt="Flujo de trabajo para crear automatizaciones de plantillas de software" style="width:100%;" >}}
+
+4. Testear tu aplicación y flujo de trabajo:
+   - Haz clic en **View App** (Ver aplicación) para ver la aplicación en una página independiente en una vista previa.
+   - Realiza un seguimiento del éxito del proceso de plantillas de flujo de trabajo en [Workflow Automation][3].
+
+### Publicación de la aplicación
+Cuando hayas terminado de configurar y testear tu aplicación, puedes publicarla para que la utilicen los miembros de tu equipo. El flujo de publicación te pedirá que definas los permisos y, a continuación, te permitirá añadir tu aplicación a un dashboard o al portal de autoservicio. 
+
+  {{< img src="tracing/service_catalog/self-servicio-publish.png" alt="Publicar en autoservicio" style="width:100%;" >}}
+
+### Acciones disponibles en el catálogo de software
+
+A continuación, se muestra una lista de acciones disponibles para el Catálogo de software en Datadog App Builder y Workflow Automation. Puedes ver una lista completo en el [Catálogo de acciones][7].
+
+- **Templating** (Creación de plantillas)
+  - "Apply template" (Aplicar plantilla) para pasar parámetros a un conjunto de archivos
+- **Github**
+  - "Create or update file" (Crear o actualizar archivo) para crear nuevos archivos
+  - "Edit configuration file" (Editar archivo de configuración) para manipular archivos YAML o JSON
+  - "Trigger GitHub Actions workflow run" (Activar la ejecución del flujo de trabajo de las acciones de GitHub) para iniciar una acción de GitHub
+  - "Search repositories" (Buscar repositorios) para devolver un lista de repositorios
+  - "Create pull request" (Crear solicitud pull) para abrir un solicitud pull
+- **Retrieve Service Information** (Recuperar información de servicio)
+  - "Get service definition" (Obtener definición de servicio) para un solo servicio
+  - "List service definitions" (Enumerar definiciones de servicio) para obtener todas las definiciones del catálogo de software de Datadog 
+  - "Get service dependencies" (Obtener las dependencias de servicio) para consultar los servicios ascendentes y descendentes
+- **Incident Triage** (Triaje de incidencias)
+  - "Get service PagerDuty on call" (Llamar al servicio PagerDuty de guardia)
+  - Cuando se integra con otras acciones, puedes desencadenar flujos de trabajo basados en eventos críticos (por ejemplo, ejecutar runbooks).
+- **Private Actions** (Acciones privadas)
+  - Para interactuar con recursos privados, utiliza el [Ejecutar de acciones privadas][12].
+
+
+## Referencias adicionales
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: /es/service_management/workflows/
+[2]: /es/service_management/app_builder/
+[3]: https://app.datadoghq.com/workflow
+[4]: https://www.cookiecutter.io/
+[5]: https://gist.github.com/enbashi/366c62ee8c5fc350d52ddabc867602d4#file-readme-md
+[6]: /es/service_management/workflows/build/#create-a-custom-workflow
+[7]: /es/actions/actions_catalog/
+[9]: https://app.datadoghq.com/app-builder/blueprints
+[10]: https://app.datadoghq.com/app-builder/apps/edit?activeTab=queries&showActionCatalog=false&template=create-new-s3-bucket&viewMode=edit
+[11]: https://app.datadoghq.com/app-builder/apps/edit?activeTab=queries&showActionCatalog=false&template=scaffolding&viewMode=edit
+[12]: /es/actions/private_actions/
+[13]: https://app.datadoghq.com/app-builder/apps/edit?activeTab=data&showActionCatalog=false&template=provision-eks-cluster&viewMode=edit&visibleDataItemId=createOrUpdateFile0-action
+[14]: https://app.datadoghq.com/app-builder/apps/edit?activeTab=data&showActionCatalog=false&template=rds_provision_instance&viewMode=edit&visibleDataItemId=createDbInstance0-action
\ No newline at end of file
diff --git a/content/es/software_catalog/troubleshooting.md b/content/es/software_catalog/troubleshooting.md
new file mode 100644
index 0000000000000..76f00b5e4d06d
--- /dev/null
+++ b/content/es/software_catalog/troubleshooting.md
@@ -0,0 +1,80 @@
+---
+aliases:
+- /es/tracing/software_catalog/troubleshooting
+- /es/software_catalog/guides/troubleshooting
+- /es/tracing/service_catalog/troubleshooting
+- /es/service_catalog/guides/troubleshooting
+- /es/api_catalog/troubleshoot/
+- /es/service_catalog/troubleshooting
+further_reading:
+- link: /tracing/software_catalog/setup/
+  tag: Documentación
+  text: Configuración del catálogo de software
+title: Solucionar problemas con el Catálogo de software
+---
+
+Si ocurre un comportamiento inesperado con el Catálogo de software de Datadog, esta guía puede ayudarte a resolver el problema. Si sigues teniendo problemas, ponte en contacto con el [Soporte técnico de Datadog][4] para obtener más ayuda.
+
+## Servicios
+
+### No aparecen servicios instrumentados por APM
+
+Si servicios que sabes que están instrumentados para APM no aparecen en la lista de Catálogo de software, es probable que se deba a que no han estado emitiendo datos de rendimiento en la última hora para los valores `env` seleccionados (o cualquier valor de Etiqueta primaria de tu elección) o [etiqueta primaria secundaria][1]. Para confirmarlo, en la pestaña **Performance** (Rendimiento), pasa el ratón por encima de las columnas en las que esperas que aparezcan las métricas de rendimiento y ve la información sobre en qué entornos están activos los servicios.
+
+{{< img src="tracing/software_catalog/svc_cat_troubleshooting_1.png" alt="Mensaje emergente que indica que no se han informado datos de rendimiento en la última hora" >}}
+
+### SLOs no listados en la sección Guía de configuración
+
+El recuento en la sección Software Catalog Setup Guidance (Guía de configuración del Catálogo de software) refleja el número de SLOs con etiquetas `service`. Si tus SLOs no aparecen en la lista, verifica que tengan valores de etiqueta `service` especificados y que coincidan con los nombres de servicio en otros productos como APM y USM.
+
+### La telemetría adicional está disponible para un servicio, pero no está en la lista
+
+El Catálogo de software se basa en la etiqueta `DD_SERVICE` en todos los tipos de telemetría (métricas de infraestructura, logs, Cloud Network Monitoring) para recopilar información sobre un servicio dado. Si no ves un tipo de telemetría que esperas en el Catálogo de software, asegúrate de haber configurado la etiqueta `DD_SERVICE` de acuerdo con las instrucciones de [etiquetado de servicios unificado][2].
+
+### No se pueden añadir metadatos para servicios de RUM
+
+No es posible añadir metadatos para servicios de RUM.
+
+### Varios servicios comparten los mismos metadatos
+
+Si tienes muchos servicios que comparten los mismos metadatos, no necesitas archivos `service.datadog.yaml` separados para cada uno. Puedes definir varios servicios en un único archivo `service.datadog.yaml` separando cada servicio con un separador `---`. Copia y pega los metadatos compartidos para las entidades dd-servicio pertinentes.
+
+### Los monitores asociados no aparecen en la sección Guía de configuración
+
+El catálogo de software asocia monitores a servicios cuando están etiquetados, clasificados o agrupados con servicio o [etiquetas primarias de APM][3]. 
+
+El recuento total de monitores que aparece en la pestaña **Setup Guidance** (Guía de Configuración) para un único servicio no incluye los monitores silenciados ni los grupos.
+
+## Endpoints
+
+### Endpoints faltantes
+
+La lista de Endpoints se basa en el rastreo de APM, así que asegúrate de que tus [servicios están instrumentados][7].
+
+### La definición coincide con demasiados servicios
+
+Por defecto, la lista de Endpoints asigna una definición a todas las instancias que se ajustan a la ruta definida.
+Puedes limitar la definición a un servicio específico añadiendo el [parámetro de servicio][6] a la definición de la API.
+
+### No hay datos telemétricos para el archivo de OpenAPI
+
+La lista de endpoints se derivan del rastreo de APM, por lo que la información de tráfico sólo se muestra si hay trazas disponibles para el endpoint. Después de cargar un archivo de OpenAPI, los datos de despliegue se hacen visibles después de que Datadog ingiera un tramo para el endpoint.
+
+### No hay datos para nuevos monitores
+
+La lista de endpoints se basa en el rastreo de APM, por lo que la información de tráfico sólo se muestra cuando hay trazas disponibles para el endpoint. Si no aparecen datos en el gráfico del monitor, puede darse una de las siguientes situaciones:
+- No se ha accedido al endpoint desde que se registró y se cargó a través de OpenAPI.
+- Las trazas se muestrean en el lado del Agent. Para más detalles, consulta [Controles de ingesta][5].
+
+
+## Referencias adicionales
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: /es/tracing/guide/setting_primary_tags_to_scope/#add-a-second-primary-tag-in-datadog
+[2]: /es/getting_started/tagging/unified_service_tagging
+[3]: /es/tracing/guide/setting_primary_tags_to_scope
+[4]: /es/help/
+[5]: /es/tracing/trace_pipeline/ingestion_controls/
+[6]: /es/api_catalog/add_metadata/
+[7]: /es/tracing/trace_collection/
\ No newline at end of file
diff --git a/content/es/software_catalog/use_cases/_index.md b/content/es/software_catalog/use_cases/_index.md
new file mode 100644
index 0000000000000..247fd52760cb8
--- /dev/null
+++ b/content/es/software_catalog/use_cases/_index.md
@@ -0,0 +1,29 @@
+---
+aliases:
+- /es/tracing/service_catalog/guides
+- /es/service_catalog/guides
+- /es/tracing/software_catalog/guides
+- /es/software_catalog/guides
+title: Casos prácticos
+---
+
+## Guías de prácticas recomendadas
+
+{{< whatsnext desc=" " >}}
+    {{< nextlink href="/software_catalog/guides/best-practices/" >}}Prácticas recomendadas 
+    {{< /nextlink >}}
+    {{< nextlink href="tracing/software_catalog/guides/validating-service-definition" >}}Validación de los YAML de definición de servicio{{< /nextlink >}}
+{{< /whatsnext >}}
+
+## Guías de casos prácticos
+
+{{< whatsnext desc=" " >}}
+    {{< nextlink href="/software_catalog/use_cases/api_management/" >}}Gestión de API{{< /nextlink >}}
+    {{< nextlink href="/software_catalog/use_cases/cloud_cost_management" >}}Cloud Cost Management{{< /nextlink >}}
+    {{< nextlink href="/tracing/software_catalog/use_cases/appsec_management" >}}Application Security Management{{< /nextlink >}}
+    {{< nextlink href="/tracing/software_catalog/use_cases/dev_onboarding" >}}Incorporación de desarrolladores{{< /nextlink >}}
+    {{< nextlink href="/tracing/software_catalog/use_cases/dependency_management" >}}Gestión de dependencias{{< /nextlink >}}
+    {{< nextlink href="/tracing/software_catalog/use_cases/production_readiness" >}}Preparación de los productos{{< /nextlink >}}
+    {{< nextlink href="/tracing/software_catalog/use_cases/incident_response" >}}Respuesta ente incidentes{{< /nextlink >}}
+    {{< nextlink href="/tracing/software_catalog/use_cases/pipeline_visibility" >}}Visibilidad de pipelines CI{{< /nextlink >}}
+{{< /whatsnext >}}
\ No newline at end of file
diff --git a/content/es/software_catalog/use_cases/api_management.md b/content/es/software_catalog/use_cases/api_management.md
new file mode 100644
index 0000000000000..0a2199d65e97e
--- /dev/null
+++ b/content/es/software_catalog/use_cases/api_management.md
@@ -0,0 +1,36 @@
+---
+aliases:
+- /es/tracing/software_catalog/guides/api_management
+- /es/software_catalog/guides/api_management
+- /es/tracing/service_catalog/guides/api_management
+- /es/service_catalog/guides/api_management
+- /es/service_catalog/use_cases/api_management
+further_reading:
+- link: /tracing/software_catalog/
+  tag: Documentación
+  text: Catálogo de software de Datadog
+title: Simplificar la gestión de API
+---
+
+El Catálogo de software simplifica la gestión de API proporcionando una plataforma centralizada para la detección, propiedad y gobernanza de API. Al garantizar que las APIs sean fáciles de encontrar, utilizar y mantener, el Catálogo de software fomenta la colaboración eficaz entre desarrolladores y gestores.
+
+{{< img src="tracing/software_catalog/api-management-use-case.png" alt="La vista del panel lateral de una API en el Catálogo de software, que muestra los metadatos de API y una vista previa de OpenAI." >}}
+
+## Detección y utilización de API:
+
+- Desarrolladores: acceden rápidamente a la documentación de las API, fragmentos de código, límites de velocidad, métricas de estado y puntuaciones de fiabilidad para agilizar la integración de las APIs en sus aplicaciones y promover la reutilización de las APIs existentes en todos los proyectos.
+- Ingenieros y gestores de plataformas: dirigen a los equipos para que aprovechen las API existentes para crear nuevas funciones o servicios, reduciendo la redundancia, ahorrando tiempo y mejorando la eficiencia.
+
+## Propiedad y responsabilidad de la API:
+
+- Desarrolladores: monitorizan el estado y uso de las APIs, agilizan las comunicaciones con los consumidores de API y asumen la plena propiedad de sus APIs.
+- Ingenieros y gestores de plataformas:  promueven una cultura de responsabilidad proporcionando herramientas para que los desarrolladores gestionen sus APIs y aseguren la fiabilidad.
+
+## Gobernanza de las APIs a escala:
+
+- Desarrolladores: reciben información clara sobre el cumplimiento de las normas de calidad, seguridad y gobernanza.
+- Ingenieros y gestores de plataformas: establecen y mantienen normas de API para garantizar APIs de alta calidad en toda la organización.
+
+## Referencias adicionales
+
+{{< partial name="whats-next/whats-next.html" >}}
\ No newline at end of file
diff --git a/content/es/software_catalog/use_cases/appsec_management.md b/content/es/software_catalog/use_cases/appsec_management.md
new file mode 100644
index 0000000000000..f4d9dddaaa7c7
--- /dev/null
+++ b/content/es/software_catalog/use_cases/appsec_management.md
@@ -0,0 +1,52 @@
+---
+aliases:
+- /es/tracing/software_catalog/guides/appsec_management
+- /es/software_catalog/guides/appsec_management
+- /es/tracing/software_catalog/use_cases/appsec_management
+- /es/tracing/service_catalog/guides/appsec_management
+- /es/service_catalog/guides/appsec_management
+- /es/service_catalog/use_cases/appsec_management
+- /es/tracing/service_catalog/use_cases/appsec_management
+- /es/service_catalog/use_cases/application_security
+further_reading:
+- link: /security/application_security/
+  tag: Documentación
+  text: Datadog Application Security Management
+title: Gestionar la postura de seguridad de las aplicaciones en todos los equipos
+  de desarrollo
+---
+
+El Catálogo de software permite a las organizaciones incorporar sin problemas la seguridad en todas las fases de desarrollo, garantizando una sólida postura de seguridad en todos los equipos, aplicaciones y sistemas.
+
+El Catálogo de software muestra y centraliza las señales de seguridad, lo que permite a los desarrolladores priorizar las acciones y abordar las vulnerabilidades con rapidez. Mientras tanto, los administradores pueden supervisar los riesgos, impulsar mejoras y garantizar el cumplimiento de la organización.
+
+{{< img src="tracing/software_catalog/appsec-use-case.png" alt="Pestaña Seguridad del Catálogo de servicios que muestra los riesgos de vulnerabilidad, la exposición a ataques y la cobertura para cada servicio." >}}
+
+## Crear aplicaciones seguras desde el diseño
+
+El Catálogo de software proporciona rutas y barreras de seguridad predeterminadas para ayudar a los equipos a crear, evaluar y mejorar la seguridad de los procesos. Los desarrolladores pueden [crear nuevos servicios][1] o integrar recursos de nube con confianza, con la seguridad de que las normas de seguridad se cumplen en cada paso. 
+
+Para servicios instrumentados con APM, APM Security Views detecta automáticamente los servicios vulnerables a ataques a aplicaciones, como inyecciones SQL, SSRF o ataques Log4Shell. Puedes utilizar APM Security Views para investigar cada servicio y tipo de ataque que encuentre tu organización, comprender los riesgos de seguridad asociados y gestionar eficazmente la superficie de ataque de tu aplicación con un contexto de tiempo de ejecución.
+
+## Seguimiento del software y las dependencias de terceros
+
+El Catálogo de software organiza y destaca las dependencias de terceros, desde las bibliotecas de código abierto hasta los lenguajes de programación. Los equipos pueden monitorizar versiones, lanzar actualizaciones y abordar las vulnerabilidades de forma proactiva.
+
+- DevSecOps: Utiliza el Catálogo de software para realizar un seguimiento de las dependencias y encabezar las iniciativas de actualización.
+- Administradores: Accede a informes en tiempo real sobre el progreso y el cumplimiento de las actualizaciones.
+- Desarrolladores: Incorpora las actualizaciones de dependencias a los flujos de trabajo diarios con una interrupción mínima.
+
+## Detalles de configuración
+
+1. Haz clic en un servicio en el Catálogo de software para abrir el panel lateral del servicio.
+1. Selecciona la pestaña **Rendimiento** en la parte superior del panel.
+1. Busca la sub-pestaña **Bibliotecas**, que enumera todas las bibliotecas externas utilizadas y sus versiones.
+
+{{< img src="tracing/software_catalog/appsec-use-case-libraries.png" alt="Pestaña Seguridad del Catálogo de servicios que muestra los riesgos de vulnerabilidad, la exposición a ataques y la cobertura para cada servicio." >}}
+
+
+## Referencias adicionales
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: https://app.datadoghq.com/app-builder/apps/edit?activeTab=data&showActionCatalog=false&template=scaffolding&viewMode=edit&visibleDataItemId=triggerScaffoldNewServiceWorkflow-action
\ No newline at end of file
diff --git a/content/es/software_catalog/use_cases/dependency_management.md b/content/es/software_catalog/use_cases/dependency_management.md
new file mode 100644
index 0000000000000..58c7f99bb63c9
--- /dev/null
+++ b/content/es/software_catalog/use_cases/dependency_management.md
@@ -0,0 +1,88 @@
+---
+aliases:
+- /es/tracing/software_catalog/guides/dependency_management
+- /es/software_catalog/guides/dependency_management
+- /es/tracing/software_catalog/use_cases/dependency_management
+- /es/tracing/service_catalog/guides/dependency_management
+- /es/service_catalog/use_cases/dependency_management
+- /es/service_catalog/guides/dependency_management
+- /es/tracing/service_catalog/use_cases/dependency_management
+further_reading:
+- link: /tracing/
+  tag: Documentación
+  text: Monitorización del rendimiento de las aplicaciones de Datadog
+- link: /universal_service_monitoring/
+  tag: Documentación
+  text: Monitorización universal de servicios de Datadog
+- link: /real_user_monitoring
+  tag: Documentación
+  text: Datadog Real User Monitoring (RUM)
+title: Gestión y asignación de dependencias
+---
+
+El Catálogo de servicios de Datadog ofrece poderosas funciones de asignación de dependencias para ayudar a los equipos a documentar, rastrear y evaluar relaciones ascendentes y descendentes. Estas funciones admiten tanto la detección automática como la definición manual para que puedas definir la arquitectura de tu sistema con flexibilidad y precisión.
+
+## Asignación automática de dependencias y detección de entidades
+
+- **Detección automática:** Por defecto, el Catálogo de software incluye todos los servicios detectados de APM, USM y RUM. Cuando instrumentas aplicaciones adicionales en tus entornos, tus dependencias se añaden automáticamente al Catálogo.
+
+- **Integración de telemetría:** El Catálogo de software detecta automáticamente las relaciones de dependencias mediante la telemetría de aplicaciones recopilada por APM, USM y RUM, lo que proporciona a los equipos información en tiempo real sobre las relaciones entre servicios y el impacto en el rendimiento.
+
+{{< img src="tracing/software_catalog/dependency-mgmt-use-case-auto-discovery.png" alt="The Dependencies pestaña in the side panel for a servicio, showing a flow chart of servicio dependencies." >}}
+
+## Definición manual de dependencias en la v3.0 del esquema del Catálogo de software
+
+En la [v3.0 del esquema del Catálogo de software][2], los equipos pueden definir manualmente las relaciones para complementar las topologías detectadas automáticamente. Esta función es especialmente útil para definir dependencias que reflejan el conocimiento institucional y la colaboración en equipo, garantizando una visión más completa de las relaciones del sistema.
+
+{{< img src="tracing/software_catalog/dependency-mgmt-use-case-relationship-mapping.png" alt="Diagrama de relaciones jerárquicas que muestra las dependencias de un servicio." >}}
+
+### Configurar una dependencia manual 
+
+Para definir una dependencia manual, actualiza la sección `spec` de la definición de entidad correspondiente utilizando las siguientes claves:
+
+  - `dependsOn`: Especifica las dependencias (por ejemplo, el servicio A depende del servicio B).
+  - `ownedBy`: Asigna la propiedad a un equipo o grupo (por ejemplo, el servicio A es propiedad del equipo A).
+  - `partOf`: Agrupa los componentes de un sistema (por ejemplo, el servicio A forma parte del sistema A).
+
+Ejemplo de configuración YAML:
+
+```yaml
+apiVersion: v3
+kind: service
+metadata:
+  name: web-store
+spec:
+  dependsOn: 
+    - service: cws-webapp
+```
+
+### Visualizar dependencias manuales
+
+Para ver las dependencias manuales en la aplicación Datadog:
+
+1. Ve al [Catálogo de software][1].
+1. Selecciona tu servicio para abrir el panel lateral.
+1. Busca la pestaña Rendimiento y luego selecciona la subpestaña Dependencias.
+
+También puedes abrir la página de servicios completa de un servicio específico y seleccionar la sección Dependencias en el panel de navegación de la izquierda. 
+
+Se muestran todas las dependencias, incluidas las manuales. Puedes utilizar la función "Incluir detectadas" para modificar la vista: 
+
+- Cuando la función **Incluir detectadas** está desactivada: Sólo se muestran las dependencias definidas manualmente.
+- Cuando la función **Incluir detectadas** está activada: Las dependencias añadidas manualmente se muestran por encima de las detectadas automáticamente para ofrecer una distinción clara.
+
+{{< img src="tracing/software_catalog/dependency-mgmt-use-case-include-detected.png" alt="Diagrama que muestra las dependencias de un servicio, donde la función 'Incluir detectadas' está desactivada." >}}
+
+### Ventajas de la definición manual de dependencias
+
+- Mayor precisión: Al definir las dependencias manualmente, los equipos pueden incorporar su comprensión y sus conocimientos específicos al Catálogo de software, garantizando que represente con precisión las arquitecturas de los sistemas del mundo real que las herramientas automatizadas podrían pasar por alto.
+- Mayor colaboración: Las dependencias definidas manualmente favorecen una mejor comunicación y coordinación al hacer explícitas las relaciones, lo que ayuda en los esfuerzos de respuesta a incidentes y en la planificación estratégica de la arquitectura.
+- Conocimiento contextual: Proporcionar definiciones manuales ayuda a los desarrolladores y a los nuevos miembros del equipo a comprender rápidamente las complejidades de las dependencias y arquitecturas del sistema, lo que facilita la incorporación y la transferencia de conocimientos.
+
+
+## Referencias adicionales
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: https://app.datadoghq.com/services
+[2]: /es/software_catalog/service_definitions/v3-0/
\ No newline at end of file
diff --git a/content/es/software_catalog/use_cases/dev_onboarding.md b/content/es/software_catalog/use_cases/dev_onboarding.md
new file mode 100644
index 0000000000000..d1aaf79b1d807
--- /dev/null
+++ b/content/es/software_catalog/use_cases/dev_onboarding.md
@@ -0,0 +1,56 @@
+---
+aliases:
+- /es/tracing/software_catalog/guides/dev_onboarding
+- /es/software_catalog/guides/dev_onboarding
+- /es/tracing/software_catalog/use_cases/dev_onboarding
+- /es/tracing/service_catalog/guides/dev_onboarding
+- /es/service_catalog/guides/dev_onboarding
+- /es/service_catalog/use_cases/dev_onboarding
+- /es/tracing/service_catalog/use_cases/dev_onboarding
+further_reading:
+- link: /software_catalog/scorecards/
+  tag: Documentación
+  text: Cuadros de mandos de Datadog
+- link: /software_catalog/software_templates/
+  tag: Documentación
+  text: Plantillas de software de Datadog
+title: Acelerar la incorporación de desarrolladores
+---
+
+El catálogo del software de Datadog automatiza las tareas clave y centraliza los recursos esenciales (como documentos, guías de ejecución, [cuadros de mandos][1] y [plantillas][2]) para reducir el tiempo necesario para el primer compromiso y optimizar la experiencia general del desarrollador.
+
+{{< img src="tracing/software_catalog/dev-onboarding-use-case-overview.png" alt="Una página de inicio del servicio, en la que se muestra información como enlaces a la documentación y al repositorio, propietarios de servicios y detalles de guardia" >}}
+
+## Acceso rápido a documentación y normas
+
+El catálogo del software actúa como una única fuente de verdad para tu entorno de ingeniería. Los desarrolladores recién incorporados pueden:
+
+- Localizar rápidamente [API][3], servicios, repositorios y dependencias pertinentes.
+- Acceder a documentación actualizada, fragmentos de código y libros de ejecución, lo que les permitirá empezar a hacer contribuciones significativas.
+- Navegar por [metadatos organizados e inventario organizativo][4] para comprender la estructura, los canales de comunicación y las mejores prácticas del equipo.
+
+{{< img src="tracing/software_catalog/dev-onboarding-use-case-workflows.png" alt="La vista del panel lateral de una API en el catálogo del software, en el que se muestra un diagrama de flujo de los servicios que consumen la API, una vista previa de OpenAPI y metadatos de la API" >}}
+
+
+## Automatizar los flujos de trabajo de incorporación
+
+Las [plantillas de software][2] reducen el trabajo manual de la incorporación al estandarizar y agilizar las tareas comunes. Con las plantillas de software, puedes:
+
+- Poner en marcha flujos de trabajo de incorporación que aprovisionen automáticamente repositorios Git, asignen cronogramas de PagerDuty o notifiquen a los canales de Slack pertinentes.
+- Integrarse con herramientas y sistemas de terceros para garantizar que cada nuevo desarrollador comience con los permisos, entornos y recursos correctos.
+- Elevar procesos de incorporación a medida que tu equipo crece, al mismo tiempo que mantiene la coherencia y la calidad en todas las nuevas contrataciones.
+
+[Explorar los planos de App Builder][5] para automatizar las tareas de incorporación de desarrolladores.
+
+{{< img src="tracing/software_catalog/dev-onboarding-use-case-app-builder.png" alt="La página de aterrizaje de App Builder, en la que se muestran planos preconfigurados para flujos de trabajo de desarrolladores comunes" >}}
+
+
+## Referencias adicionales
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: /es/software_catalog/scorecards/
+[2]: /es/software_catalog/software_templates/
+[3]: /es/api/latest/api-management/
+[4]: /es/account_management/teams/
+[5]: /es/service_management/app_builder/
\ No newline at end of file
diff --git a/content/es/software_catalog/use_cases/incident_response.md b/content/es/software_catalog/use_cases/incident_response.md
new file mode 100644
index 0000000000000..f326cd3e30831
--- /dev/null
+++ b/content/es/software_catalog/use_cases/incident_response.md
@@ -0,0 +1,43 @@
+---
+aliases:
+- /es/tracing/software_catalog/use_cases/incident_response
+- /es/tracing/software_catalog/guides/upstream-downstream-dependencies
+- /es/software_catalog/guides/upstream-downstream-dependencies
+- /es/tracing/service_catalog/guides/upstream-downstream-dependencies
+- /es/service_catalog/guides/upstream-downstream-dependencies
+- /es/service_catalog/use_cases/upstream_downstream_dependencies
+further_reading:
+- link: /service_management/incident_management/
+  tag: Documentación
+  text: Gestión de incidencias
+- link: /integrations/pagerduty/
+  tag: Documentación
+  text: Integración PagerDuty
+title: Mejorar la respuesta a los incidentes
+---
+
+
+El Catálogo de software mejora la respuesta a los incidentes:
+
+- Mejorando la experiencia de cada turno mediante la verificación y consolidación de los datos de propiedad, los canales de comunicación y los recursos de monitorización y resolución de problemas.
+- Integrando soluciones así como también documentación y manuales de operaciones de tipo herramienta, directamente en los flujos de trabajo de observabilidad existentes.
+- Acelerando la recuperación de incidentes mediante la simplificación del proceso de identificación de propietarios de dependencias ascendentes y descendentes.
+
+El Catálogo de software también se integra con [Datadog Incident Management][1] y [PagerDuty][2], lo que te permite ver los incidentes relacionados en la pestaña Fiabilidad en la página de detalles de servicio.
+
+**Nota**: Los incidentes de Datadog se vinculan automáticamente con el Catálogo de software, pero debes aplicar etiquetas (tags) `SERVICE` a los incidentes para asegurarte de que los datos de cada incidente de servicio son precisos. La integración PagerDuty debe configurarse manualmente para integrarse con la información de incidentes del Catálogo de software.
+
+{{< img src="tracing/software_catalog/incident-mgmt-reliability.png" alt="Pestaña Fiabilidad de un servicio, que muestra métricas de incidentes y errores para el servicio global y por versión" style="width:100%;" >}}
+
+Para ver el estado de los incidentes de las dependencias ascendentes y descendentes, haz clic en un servicio en el Catálogo de software para abrir la página de detalles del servicio y, a continuación, haz clic en la pestaña Dependencias. 
+
+{{< img src="tracing/software_catalog/incident-mgmt-incident-status.png" alt="Pestaña Incidentes de un servicio, que muestra las dependencias ascendentes y descendentes y resalta aquellas afectadas por un incidente" style="width:100%;" >}}
+
+
+
+## Referencias adicionales
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: /es/service_management/incident_management/
+[2]: /es/integrations/pagerduty/
\ No newline at end of file
diff --git a/content/es/software_catalog/use_cases/pipeline_visibility.md b/content/es/software_catalog/use_cases/pipeline_visibility.md
new file mode 100644
index 0000000000000..27098d876c610
--- /dev/null
+++ b/content/es/software_catalog/use_cases/pipeline_visibility.md
@@ -0,0 +1,65 @@
+---
+aliases:
+- /es/tracing/software_catalog/use_cases/pipeline_visibility
+- /es/service_catalog/use_cases/pipeline_visibility
+- /es/service_catalog/use_cases/streamlining-development-lifecycle-with-ci-visibility/
+- /es/tracing/service_catalog/guides/streamlining-development-lifecycle-with-ci-visibility
+- /es/service_catalog/guides/streamlining-development-lifecycle-with-ci-visibility
+- /es/tracing/service_catalog/use_cases/pipeline_visibility
+- /es/tracing/software_catalog/guides/streamlining-development-lifecycle-with-ci-visibility
+- /es/software_catalog/guides/streamlining-development-lifecycle-with-ci-visibility
+- /es/service_catalog/use_cases/ci_visibility
+- /es/software_catalog/use_cases/ci_visibility
+further_reading:
+- link: /security/code_security/static_analysis/
+  tag: Documentación
+  text: Análisis estático
+- link: /dora_metrics/
+  tag: Documentación
+  text: Métricas de DORA
+title: Agilizar el ciclo de vida del desarrollo con CI Visibility
+---
+
+
+La pestaña Entrega del Catálogo de servicios te ayuda a evaluar y optimizar el estado previo a la producción de tu servicio, proporcionándote información sobre los pipelines CI y las infracciones de Static Analysis. 
+
+{{< img src="tracing/software_catalog/pipeline-visibility-software-delivery.png" alt="Pestaña Entrega para monitorizar el estado previo a la producción en el Catálogo de servicios" style="width:100%;" >}}
+
+Con Entrega, puedes:
+
+- Monitorizar el rendimiento de los pipelines CI relacionados con tus servicios.
+- Identificar problemas de seguridad y de calidad del código a partir de [Static Analysis][1].
+- Solucionar problemas de ralentización y fallos previos a la producción.
+- Realizar el seguimiento del tiempo de entrega de cambios integrándolo con [métricas de DORA][2].
+
+Por defecto, tu servicio está vinculado a los pipelines CI a través de la URL de tu repositorio. Para añadir o eliminar un pipeline asociado a tu servicio:
+
+1. Haz clic en tu servicio en el [Catálogo de software][4] para abrir el panel lateral del servicio, luego haz clic en la pestaña Propiedad y encuentra las opciones de edición de Entity Metadata.
+
+   **Nota**: Esta opción sólo está disponible para el esquema v2.2 y posterior del Catálogo de software.
+
+   {{< img src="tracing/software_catalog/edit_metadata.png" alt="Vista detallada del panel lateral de un servicio, con las opciones de edición de metadatos resaltadas" style="width:100%;" >}}
+
+2. Edita los metadatos del servicio para añadir o eliminar un pipeline:
+
+   - **Editar en la interfaz de usuario**: Busca la sección Entrega de Software, luego busca y selecciona los pipelines que quieres asociar al servicio.
+
+      {{< img src="tracing/software_catalog/pipeline-visibility-update-metadata.png" alt="Página de configuración para actualizar metadatos del servicio, que muestra el campo Entrega de software para agregar y eliminar pipelines asociados" style="width:100%;" >}}
+
+   - **Editar en GitHub**: Añade manualmente una huella digital de pipeline de `ci-pipeline-fingerprints` en el archivo YAML de metadatos del servicio (consulta [este ejemplo][6]). Para encontrar la huella digital de un pipeline, ve a la página [Pipelines][5], haz clic en el pipeline y selecciona el icono del engranaje.
+
+      {{< img src="tracing/software_catalog/pipeline-visibility-pipeline-fingerprint.png" alt="Ejemplo de huella digital de un pipeline" style="width:100%;" >}}
+
+Para obtener más detalles sobre el estado de CI y las infracciones de Static Analysis de los pipelines asociados a un determinado servicio, haz clic en el servicio y ve a la pestaña **Entrega**.
+
+{{< img src="tracing/software_catalog/delivery_tab.png" alt="Pestaña Entrega de un servicio que muestra información de un pipeline como la frecuencia de éxito y la fecha de la última ejecución" style="width:100%;" >}}
+
+## Referencias adicionales
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: /es/security/code_security/static_analysis/
+[2]: /es/dora_metrics/
+[4]: https://app.datadoghq.com/software
+[5]: https://app.datadoghq.com/ci/pipelines
+[6]: /es/software_catalog/service_definitions/v2-2/#example-yaml
\ No newline at end of file
diff --git a/content/es/synthetics/explore/results_explorer/search_runs.md b/content/es/synthetics/explore/results_explorer/search_runs.md
new file mode 100644
index 0000000000000..77e7745f38435
--- /dev/null
+++ b/content/es/synthetics/explore/results_explorer/search_runs.md
@@ -0,0 +1,254 @@
+---
+aliases:
+- /es/continuous_testing/explorer/search_runs/
+description: Examina todas las ejecuciones de test y resuelve los problemas de los
+  resultados con errores.
+further_reading:
+- link: /synthetics/explore/results_explorer
+  tag: Documentación
+  text: Más información sobre la Monitorización Synthetic y el Explorador de resultados
+    de tests
+title: Buscar ejecuciones de test
+---
+
+## Información general
+
+Después de seleccionar un marco temporal en el menú desplegable de la parte superior derecha, puedes buscar las ejecuciones de test haciendo clic en el tipo de evento **Test Runs** (Ejecuciones de test) en el [Explorador de monitorización Synthetic y resultados de tests][1].
+
+{{< img src="continuous_testing/explorer/explorer_test_runs_2.png" alt="Busca y gestiona tus tests en el Explorador de monitorización Synthetic y resultados de tests" style="width:100%;">}}
+
+Puedes utilizar facetas para realizar las siguientes acciones:
+
+- Observar las últimas ejecuciones de test que requirieron reintentos.
+- Añadir las ejecuciones de test de API con errores por código de estado HTTP y tendencias de diagramas. 
+
+## Explorar facetas
+
+En el panel de facetas de la izquierda, se enumeran varias facetas que puedes utilizar para buscar entre tus ejecuciones de test. Para comenzar a personalizar la consulta de búsqueda, haz clic en lista para ver las facetas a partir de **Common** (Comunes).
+
+<div class="alert alert-info">La siguiente lista de facetas disponibles puede variar en función de tu sitio y región.</a></div>
+
+### Atributos comunes de las ejecuciones de test
+
+{{< tabs >}}
+{{% tab "v0" %}}
+
+| Faceta                            | Descripción                                                                                                    |
+|----------------------------------|----------------------------------------------------------------------------------------------------------------|
+| `Batch ID`                       | El ID de lote asociado a la ejecución del test.                                                                     |
+| <code>Execution&nbsp;Rule</code> | La regla de ejecución asociada al resultado del test del lote de CI: `Blocking`, `Non Blocking` y `Skipped`. |
+| `Location`                       | La localización asociada al resultado del test del lote.                                                     |
+| `Passed`                         | El estado general de la ejecución del test.                                                                            |
+| `Run Type`                       | El tipo de ejecución del test. Puede ser programada, de CI o activada manualmente.                                  |
+
+{{% /tab %}}
+
+{{% tab "v1" %}}
+
+| Faceta                              | Descripción                                                                                             |
+|------------------------------------|---------------------------------------------------------------------------------------------------------|
+| `Failure Code`                     | El código que indica el motivo del error del test.                                                                  |
+| `Test Type`                        | El tipo de test que se está ejecutando.                                                                               |
+| `Test Subtype`                     | El subtipo específico del test.                                                                             |
+| `Location Version`                 | La versión de la localización privada del test.                                                                     |
+| `Location Platform`                | El nombre de la plataforma de la localización privada.                                                                    |
+| `Test ID`                          | El identificador del test.                                                                                |
+| `Failure Message`                  | El mensaje en el que se detalla el error.                                                                          |
+| `Result Retry Number`              | El número de reintentos del test.                                                                   |
+| `Test Finished At`                 | La marca temporal de la finalización del test.                                                                       |
+| `Test Started At`                  | La marca temporal del inicio del test.                                                                        |
+| `Test Triggered At`                | La marca temporal de la activación del test.                                                                  |
+| `Test Will Retry At`               | La marca temporal del siguiente reintento del test.                                                               |
+| `Trace ID`                         | El identificador de rastreo para hacer el seguimiento.                                                                          |
+| `Open Telemetry ID`                | El identificador de Open Telemetry.                                                                              |
+| `Variable Name`                    | El nombre de una variable utilizada en el test.                                                                    |
+
+{{% /tab %}}
+{{< /tabs >}}
+
+### Atributos de tiempo
+
+Las facetas de **tiempo** permiten filtrar los atributos relacionados con el tiempo de las ejecuciones de test de API.
+
+| Faceta          | Descripción                                                     |
+|----------------|-----------------------------------------------------------------|
+| `DNS`          | El tiempo empleado en resolver el nombre de DNS para una ejecución de test de API.      |
+| `Download`     | El tiempo empleado en descargar la respuesta de una ejecución de test de API.    |
+| `First Byte`   | El tiempo de espera para recibir el primer byte de la respuesta de una ejecución de test de API. |
+| `Open`         | El tiempo total que un websocket ha permanecido abierto durante una ejecución de test de WebSocket. |
+| `Received`     | El tiempo total que una conexión websocket pasó recibiendo datos para una ejecución de test de WebSocket. |
+| `TCP`          | El tiempo empleado en establecer una conexión TCP para una ejecución de test de API. |
+| `Total`        | El tiempo total de respuesta de una ejecución de test de API.                    |
+
+### Atributos HTTP
+
+Las facetas **HTTP** permiten filtrar por atributos HTTP.
+
+| Faceta                  | Descripción                                 |
+|------------------------|---------------------------------------------|
+| `HTTP Status Code`     | El código de estado HTTP para la ejecución del test.      |
+
+### Atributos de gRPC
+
+Las facetas de **gRPC** están relacionadas con las ejecuciones de test de gRPC.
+
+| Faceta                   | Descripción                                                            |
+|-------------------------|------------------------------------------------------------------------|
+| `Health Check Status`   | El estado del check del test de gRPC. Los estados son `Serving` o `Failing`. |
+
+### Atributos SSL
+
+Las facetas **SSL** están relacionadas con las ejecuciones de test de SSL.
+
+| Faceta     | Descripción                                                      |
+|-----------|------------------------------------------------------------------|
+| `AltNames`| Los nombres de registro alternativos asociados a un certificado SSL.     |
+
+### Atributos TCP
+
+Las facetas **TCP** están relacionadas con las conexiones TCP durante las ejecuciones de test.
+
+| Faceta                 | Descripción                                                                           |
+|-----------------------|---------------------------------------------------------------------------------------|
+| `Connection Outcome`  | El estado de la conexión TCP. Los resultados pueden ser `established`, `timeout` o `refused`. |
+
+### Atributos de los dispositivos
+
+Las facetas de los **dispositivos** están relacionadas con los dispositivos utilizados durante las ejecuciones de test.
+
+
+{{< tabs >}}
+{{% tab "v1" %}}
+
+| Faceta                    | Descripción                                                  |
+|--------------------------|--------------------------------------------------------------|
+| `Device Name`            | El nombre del dispositivo utilizado para hacer el test.                         |
+| `Device Resolution Width`| El ancho de la resolución del dispositivo.                              |
+| `Device Resolution Height`| La altura de la resolución del dispositivo.                            |
+| `Device Type`            | El tipo de dispositivo utilizado para hacer el test.                         |
+
+{{% /tab %}}
+{{< /tabs >}}
+
+### Atributos del navegador
+
+Las facetas del **navegador** están relacionadas con los test del navegador.
+
+{{< tabs >}}
+{{% tab "v1" %}}
+| Faceta | Descripción |
+|------------------------|-----------------------------------------------------------------|
+| `Browser Type` | El tipo de navegador utilizado en el test.                                  |
+| `Browser Version` | La versión del navegador utilizado en el test.                        |
+| `Browser User Agent` | El Agent del usuario del navegador utilizado.                                 |
+
+{{% /tab %}}
+{{< /tabs >}}
+
+### Atributos de API
+
+Las facetas de **API** están relacionadas con las ejecuciones de test de API.
+
+{{< tabs >}}
+{{% tab "v1" %}}
+
+| Faceta                         | Descripción                                                 |
+|-------------------------------|-------------------------------------------------------------|
+| `Resolved IP`                 | La IP resuelta por la resolución de DNS.                              |
+| `DNS Resolution Server`       | El servidor utilizado para la resolución de DNS.                             |
+| `Request Body`                | El cuerpo de la solicitud HTTP.                                   |
+| `Request Headers`             | Los encabezados de la solicitud HTTP.                                |
+| `Request Host`                | El host en la solicitud HTTP.                                   |
+| `Request Message`             | El mensaje en la solicitud HTTP.                                |
+| `Request Metadata`            | Los metadatos relacionados con la solicitud HTTP.                       |
+| `Request URL`                 | La URL de la solicitud HTTP.                                    |
+| `Response Body`               | El cuerpo de la respuesta HTTP.                                  |
+| `Body Size`                   | El tamaño del cuerpo de la respuesta.                                  |
+| `Cache Headers Server`        | El servidor de encabezados de caché en la respuesta.                      |
+| `Cache Headers Vary`          | El campo variable de los encabezados de caché en la respuesta.                  |
+| `Cache Headers Via`           | El campo de paso de los encabezados de caché en la respuesta.                   |
+| `CDN Provider`                | El proveedor de CDN utilizado en la entrega de la respuesta.                     |
+| `Response Close Status Code`  | El código de estado del momento en que se cerró la respuesta.                       |
+| `Response Is Body Truncated`  | Indica si el cuerpo de la respuesta está truncado.                   |
+| `Response Is Message Truncated`| Indica si el mensaje de la respuesta está truncado.               |
+| `Response Message`            | El mensaje en la respuesta HTTP.                               |
+| `Response Metadata`           | Los metadatos relacionados con la respuesta HTTP.                      |
+| `Response Close Reason`       | El motivo del cierre de la respuesta.                                  |
+| `Response Redirects`          | La información de redirección en la respuesta.                       |
+| `Response Status Code`        | El código de estado HTTP de la ejecución del test.                      |
+| `Healthcheck Message Service` | La información del servicio de mensajes de checks de estado.                    |
+| `Handshake Request Message`   | El mensaje durante la solicitud de reconocimiento.                           |
+| `Handshake Response Headers`  | Los encabezados durante la respuesta de reconocimiento.                          |
+| `Handshake Response Status Code` | El código de estado durante la respuesta de reconocimiento.                   |
+
+{{% /tab %}}
+{{< /tabs >}}
+
+### Atributos de dispositivos móviles
+
+Las facetas de **dispositivos móviles** están relacionadas con los tests de dispositivos móviles.
+
+{{< tabs >}}
+{{% tab "v1" %}}
+| Faceta | Descripción |
+|---------------------------|-------------------------------------------------------------|
+| `Mobile Platform` | El nombre de la plataforma del dispositivo móvil.                         |
+| `Mobile Application` | El ID de versión de la aplicación del dispositivo móvil.                       |
+| `Mobile Platform Version` | La versión de la plataforma del dispositivo móvil.                                 |
+| `Device Resolution Pixel Ratio` | La proporción de píxeles de la pantalla del dispositivo.                            |
+{{% /tab %}}
+{{< /tabs >}}
+
+### Atributos de tests continuos
+
+Las facetas de **tests continuos** están relacionadas con los tests continuos.
+
+{{< tabs >}}
+{{% tab "v1" %}}
+
+| Faceta                    | Descripción                                                                   |
+|--------------------------|-------------------------------------------------------------------------------|
+| `Concurrency Wait Time`  | El tiempo de espera en los tests de concurrencia.                                             |
+| `Git Author Email`       | El correo electrónico del autor de la confirmación.                                            |
+| `Git Author Name`        | El nombre del autor de la confirmación.                                             |
+| `Git Branch`             | La rama del repositorio utilizado.                                                |
+| `Git URL`                | La URL del repositorio de git.                                                    |
+| `CI Job Name`            | El nombre del trabajo de CI.                                                           |
+| `CI Job URL`             | La URL del trabajo de CI.                                                            |
+| `CI Pipeline ID`         | El identificador del pipeline de CI.                                               |
+| `CI Pipeline Name`       | El nombre del pipeline de CI.                                                      |
+| `CI Pipeline Number`     | El número asignado al pipeline de CI.                                           |
+| `CI Pipeline URL`        | La URL del pipeline de CI.                                                       |
+| `CI Provider Name`       | El nombre del proveedor de IC.                                                      |
+| `CI Stage Name`          | El nombre de la etapa en el proceso de CI.                                          |
+| `CI Workspace Path`      | La ruta del espacio de trabajo en el proceso de CI.                                                 |
+
+{{% /tab %}}
+{{< /tabs >}}
+
+### Atributos de pasos
+
+Las facetas de **pasos** están relacionadas con los pasos del test.
+
+{{< tabs >}}
+{{% tab "v1" %}}
+
+| Faceta         | Descripción                    |
+|---------------|--------------------------------|
+| `Step ID`     | El identificador de los pasos del test.     |
+| `Step Name`   | El nombre de los pasos del test.        |
+| `Step Status` | El estado de los pasos del test.      |
+
+{{% /tab %}}
+{{< /tabs >}}
+
+Para filtrar las ejecuciones de test con reintentos, crea una consulta de búsqueda con `@result.isFastRetry:true`. También puedes recuperar la última ejecución de un test con reintentos mediante el campo `@result.isLastRetry:true`.
+
+Para obtener más información sobre la búsqueda de ejecuciones de test, consulta [Sintaxis de búsqueda][2].
+
+## Referencias adicionales
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: https://app.datadoghq.com/synthetics/explorer/
+[2]: /es/continuous_testing/explorer/search_syntax
\ No newline at end of file
diff --git a/content/es/tracing/trace_collection/custom_instrumentation/go/migration.md b/content/es/tracing/trace_collection/custom_instrumentation/go/migration.md
new file mode 100644
index 0000000000000..9070dc11ed0e6
--- /dev/null
+++ b/content/es/tracing/trace_collection/custom_instrumentation/go/migration.md
@@ -0,0 +1,51 @@
+---
+aliases:
+- /es/tracing/trace_collection/custom_instrumentation/opentracing/go
+description: Actualiza tu rastreador de Go de la v1 a la v2.
+further_reading:
+- link: tracing/trace_collection/custom_instrumentation/go/dd-api
+  tag: Documentación
+  text: Comienza con la v1 del rastreador de Go
+title: Migración de la v1 a la v2 del rastreador de Go
+---
+
+<div class="alert alert-info">En esta documentación, se da por hecho que utilizas la versión v1.x del rastreador de Go. Si ya utilizas v2.x, consulta <a href="/tracing/trace_collection/custom_instrumentation/go/dd-api">Instrumentación personalizada de Go mediante la API de Datadog</a> en su lugar.</div>
+
+En esta guía, se explica cómo migrar de la v1.x a la v2 del rastreador de Go. Consulta [Requisitos de compatibilidad del rastreador de Go][2].
+
+La versión 2 del rastreador de Go incluye mejoras importantes en la API:
+
+- Elimina interfaces para permitir flexibilidad en el futuro.
+- Aísla integraciones para evitar falsos positivos de los análisis de seguridad.
+- Aplica patrones de las bibliotecas para evitar usos indebidos.
+
+Para simplificar el proceso de migración, Datadog ofrece una herramienta de migración que gestiona automáticamente las actualizaciones esenciales del código.
+
+## Características de la herramienta de migración
+
+La herramienta de migración actualiza automáticamente tu código de rastreo al actualizar `dd-trace-go` de la v1.x a la v2.0. Realiza los siguientes cambios:
+
+* Actualiza las URL de importación de `dd-trace-go.v1` a `dd-trace-go/v2`.
+* Mueve las importaciones y el uso de ciertos tipos de `ddtrace/tracer` a `ddtrace`.
+* Convierte las llamadas a `Span` y `SpanContext` para utilizar punteros.
+* Sustituye las llamadas no compatibles de `WithServiceName()` por `WithService()`.
+* Actualiza las llamadas de `TraceID()` a `TraceIDLower()` para obtener los ID de rastreo `uint64`.
+
+## Uso de la herramienta de migración
+
+Ejecuta estos comandos para usar la herramienta de migración:
+
+```shell
+go install github.com/DataDog/dd-trace-go/tools/v2check@latest
+# En el directorio de tu repositorio
+v2check .
+```
+
+Para obtener más información sobre la migración, consulta la [página de la documentación de Go sobre dd-trace-go v2][1].
+
+## Referencias adicionales
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: https://godoc.org/github.com/DataDog/dd-trace-go/v2/
+[2]: /es/tracing/trace_collection/compatibility/go/?tab=v1#go-tracer-support
\ No newline at end of file
diff --git a/content/es/tracing/trace_collection/proxy_setup/envoy.md b/content/es/tracing/trace_collection/proxy_setup/envoy.md
new file mode 100644
index 0000000000000..346d8589bf8d2
--- /dev/null
+++ b/content/es/tracing/trace_collection/proxy_setup/envoy.md
@@ -0,0 +1,261 @@
+---
+aliases:
+- /es/tracing/proxies/envoy
+- /es/tracing/envoy/
+- /es/tracing/setup/envoy/
+- /es/tracing/setup_overview/envoy/
+- /es/tracing/setup_overview/proxy_setup/
+code_lang: envoy
+code_lang_weight: 20
+further_reading:
+- link: /tracing/glossary/
+  tag: Documentación
+  text: Explorar tus servicios, recursos y trazas (traces)
+- link: https://www.envoyproxy.io/
+  tag: Sitio externo
+  text: Página web de Envoy
+- link: https://www.envoyproxy.io/docs/envoy/latest/api-v3/config/trace/v3/datadog.proto
+  text: Configuración del rastreador de Datadog para Envoy
+- link: https://www.envoyproxy.io/docs/envoy/latest/
+  tag: Sitio externo
+  text: Documentación de Envoy
+title: Instrumentación de Envoy
+type: lenguaje de código múltiple
+---
+
+Datadog APM se incluye en Envoy v1.9.0 y posteriores.
+
+## Habilitación de Datadog APM
+
+**Nota**: El siguiente ejemplo de configuración corresponde a Envoy v1.19.
+
+Los siguientes parámetros son necesarios para habilitar Datadog APM en Envoy:
+
+- un clúster para enviar trazas al Datadog Agent
+- la configuración `http_connection_manager` para activar el rastreo
+
+1. Añade un clúster para enviar trazas al Datadog Agent:
+
+   ```yaml
+    clusters:
+    ... existing cluster configs ...
+    - name: datadog_agent
+      connect_timeout: 1s
+      type: strict_dns
+      lb_policy: round_robin
+      load_assignment:
+        cluster_name: datadog_agent
+        endpoints:
+        - lb_endpoints:
+          - endpoint:
+              address:
+                socket_address:
+                  address: localhost
+                  port_value: 8126
+   ```
+
+   Cambia el valor de `address`, si Envoy se está ejecutando en un contenedor o en un entorno orquestado.
+
+2. Incluye la siguiente configuración adicional en las secciones `http_connection_manager` para habilitar el rastreo:
+
+{{< highlight yaml "hl_lines=9-15" >}}
+    - name: envoy.filters.network.http_connection_manager
+      typed_config:
+        "@type": type.googleapis.com/envoy.extensions.filters.network.http_connection_manager.v3.HttpConnectionManager
+        generate_request_id: true
+        request_id_extension:
+          typed_config:
+            "@type": type.googleapis.com/envoy.extensions.request_id.uuid.v3.UuidRequestIdConfig
+            use_request_id_for_trace_sampling: false
+        tracing:
+          provider:
+            name: envoy.tracers.datadog
+            typed_config:
+              "@type": type.googleapis.com/envoy.config.trace.v3.DatadogConfig
+              collector_cluster: datadog_agent
+              service_name: envoy-v1.19
+{{< /highlight >}}
+
+   El valor `collector_cluster` debe coincidir con el nombre proporcionado para el clúster del Datadog Agent. `service_name` puede cambiarse por un valor significativo para tu uso de Envoy.
+
+Con esta configuración, las solicitudes HTTP a Envoy se inician y propagan trazas de Datadog y aparecen en la interfaz de usuario APM.
+
+## Ejemplo de configuración de Envoy v1.19
+
+El siguiente ejemplo de configuración demuestra la localización de los elementos necesarios para habilitar el rastreo utilizando Datadog APM.
+
+{{< highlight yaml "hl_lines=18-24 66-78" >}}
+static_resources:
+  listeners:
+  - address:
+      socket_address:
+        address: 0.0.0.0
+        port_value: 80
+    traffic_direction: OUTBOUND
+    filter_chains:
+    - filters:
+      - name: envoy.filters.network.http_connection_manager
+        typed_config:
+          "@type": type.googleapis.com/envoy.extensions.filters.network.http_connection_manager.v3.HttpConnectionManager
+          generate_request_id: true
+          request_id_extension:
+            typed_config:
+              "@type": type.googleapis.com/envoy.extensions.request_id.uuid.v3.UuidRequestIdConfig
+              use_request_id_for_trace_sampling: false
+          tracing:
+            provider:
+              name: envoy.tracers.datadog
+              typed_config:
+                "@type": type.googleapis.com/envoy.config.trace.v3.DatadogConfig
+                collector_cluster: datadog_agent   # matched against the named cluster
+                service_name: envoy-v1.19          # user-defined service name
+          codec_type: auto
+          stat_prefix: ingress_http
+          route_config:
+            name: local_route
+            virtual_hosts:
+            - name: backend
+              domains:
+              - "*"
+              routes:
+              - match:
+                  prefix: "/"
+                route:
+                  cluster: service1
+          # Traces for healthcheck requests should not be sampled.
+          http_filters:
+          - name: envoy.filters.http.health_check
+            typed_config:
+              "@type": type.googleapis.com/envoy.extensions.filters.http.health_check.v3.HealthCheck
+              pass_through_mode: false
+              headers:
+                - exact_match: /healthcheck
+                  name: :path
+          - name: envoy.filters.http.router
+            typed_config: {}
+          use_remote_address: true
+  clusters:
+  - name: service1
+    connect_timeout: 0.250s
+    type: strict_dns
+    lb_policy: round_robin
+    load_assignment:
+      cluster_name: service1
+      endpoints:
+      - lb_endpoints:
+        - endpoint:
+            address:
+              socket_address:
+                address: service1
+                port_value: 80
+  # Configurar este clúster con la dirección del Datadog Agent
+  # para enviar trazas (traces).
+  - name: datadog_agent
+    connect_timeout: 1s
+    type: strict_dns
+    lb_policy: round_robin
+    load_assignment:
+      cluster_name: datadog_agent
+      endpoints:
+      - lb_endpoints:
+        - endpoint:
+            address:
+              socket_address:
+                address: localhost
+                port_value: 8126
+
+admin:
+  access_log_path: "/dev/null"
+  address:
+    socket_address:
+      address: 0.0.0.0
+      port_value: 8001
+{{< /highlight >}}
+
+## Exclusión de métricas
+
+Si utilizas la configuración de Envoy `dog_statsd` para informar métricas, puedes excluir la actividad del clúster `datadog_agent` con esta configuración adicional.
+
+```yaml
+stats_config:
+  stats_matcher:
+    exclusion_list:
+      patterns:
+      - prefix: "cluster.datadog_agent."
+```
+
+## Muestreo de Envoy
+
+Para controlar el volumen de trazas de Envoy que se envían a Datadog, especifica una frecuencia de muestreo configurando el parámetro `DD_TRACE_SAMPLING_RULES` con un valor comprendido entre `0.0` (0%) y `1.0` (100%). Si no se especifica ningún valor, se enviarán el 100% de las trazas provenientes de Envoy.
+
+Para utilizar las [frecuencias de muestreo calculadas del Datadog Agent][1] (10 trazas por segundo por Agent) e ignorar la regla de muestreo predeterminada, definida en 100%, configura el parámetro `DD_TRACE_SAMPLING_RULES` en una matriz vacía:
+
+```
+DD_TRACE_SAMPLING_RULES=[]
+```
+
+También puedes definir una frecuencia de muestreo explícita entre `0.0` (0%) y `1.0` (100%), por servicio. Por ejemplo, para configurar la frecuencia de muestreo en 10% para el servicio `envoy-proxy` :
+
+```
+DD_TRACE_SAMPLING_RULES=[{"service": "envoy-proxy","sample_rate": 0.1}]
+```
+
+
+Para configurar tu frecuencia de muestreo con `DD_TRACE_SAMPLING_RULES`, utiliza uno de los siguientes métodos, dependiendo de cómo ejecutes Envoy:
+
+- **Por script de shell**: Define la variable de entorno inmediatamente antes de ejecutar `envoy` en el script:
+
+  ```
+  #!/bin/sh
+  export DD_TRACE_SAMPLING_RULES=[]
+  envoy -c envoy-config.yaml
+  ```
+
+- **En una configuración Docker Compose**: define la variable de entorno en la sección `environment` de la definición del servicio:
+
+  ```
+  services:
+    envoy:
+      image: envoyproxy/envoy:v1.19-latest
+      entrypoint: []
+      command:
+          - envoy
+          - -c
+          - /etc/envoy/envoy.yaml
+      volumes:
+          - './envoy.yaml:/etc/envoy/envoy.yaml:ro'
+      environment:
+          - DD_TRACE_SAMPLING_RULES=[]
+  ```
+
+- **Como contenedor dentro de un pod Kubernetes**: Especifica la variable de entorno en la sección `env` de la entrada `containers` correspondiente de la especificación del pod:
+
+  ```
+  apiVersion: v1
+  kind: Pod
+  metadata:
+    name: envoy
+  spec:
+    containers:
+    - name: envoy
+      image: envoyproxy/envoy:v1.20-latest
+      env:
+      - name: DD_TRACE_SAMPLING_RULES
+        value: "[]"
+  ```
+
+## Variables de entorno
+
+<div class="alert alert-warning">
+ <strong>Nota:</strong> Las variables <code>DD_AGENT_HOST</code>, <code>DD_TRACE_AGENT_PORT</code> y <code>DD_TRACE_AGENT_URL</code> no se aplican a Envoy, ya que la dirección del Datadog Agent se configura utilizando los parámetros del <code>clúster</code>.
+</div>
+
+Las [variables de entorno][2] disponibles dependen de la versión del rastreador C++ incorporado en Envoy.
+Es posible encontrar la versión del rastreador C++ en logs, indicada por la línea que empieza con "DATADOG TRACER CONFIGURATION".
+
+## Referencias adicionales
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: /es/tracing/trace_pipeline/ingestion_mechanisms/#in-the-agent
+[2]: /es/tracing/setup/cpp/#environment-variables
\ No newline at end of file
diff --git a/content/es/watchdog/faulty_cloud_saas_api_detection.md b/content/es/watchdog/faulty_cloud_saas_api_detection.md
new file mode 100644
index 0000000000000..5b5c81be4828f
--- /dev/null
+++ b/content/es/watchdog/faulty_cloud_saas_api_detection.md
@@ -0,0 +1,108 @@
+---
+further_reading:
+- link: https://www.datadoghq.com/blog/watchdog-outage-detection/
+  tag: Blog
+  text: Adelántate a las interrupciones de servicio con Watchdog Cloud y API Outage
+    Detection
+- link: watchdog/faulty_deployment_detection/
+  tag: Documentación
+  text: Más información sobre las detecciones de despliegue defectuoso de un servicio
+    de Watchdog
+title: Detección automática de API de nube y SaaS defectuosas
+---
+{{< site-region region="us3,us5,eu,ap1,gov" >}}
+<div class="alert alert-warning">Las detecciones de despliegue defectuoso de un servicio de Watchdog no están disponibles para el <a href="/getting_started/site">sitio de Datadog</a> seleccionado ({{< region-param key="dd_site_name" >}}).</div>
+{{< /site-region >}}
+
+## Información general
+
+La detección automática de API de nube y SaaS defectuosas detecta en cuestión de minutos los problemas de proveedores externos (pasarelas de pago, proveedores de nube, etc.), lo que reduce el tiempo medio hasta la detección (MTTD). Watchdog utiliza la telemetría de APM para monitorizar continuamente las elevadas tasas de error en solicitudes a proveedores externos, como AWS, OpenAI, Slack, Stripe, etc., para detectar la degradación de servicio en cuanto se produce. Esta detección proactiva te permite identificar y mitigar los problemas antes de que se agraven, lo que reduce significativamente el tiempo dedicado al análisis de la causa raíz y mejora los tiempos de respuesta.
+
+Cuando Watchdog detecta un fallo en un proveedor externo, indica los servicios afectados por el problema y el alcance de la interrupción. Esto te permite diferenciar entre problemas externos e internos. Datadog también proporciona enlaces directos a la página de estado del proveedor y a los canales de soporte, para que puedas ponerte en contacto con ellos cuando lo necesite.
+
+{{< img src="watchdog/external_provider_outage.png" alt="Detección de proveedores de API de SaaS defectuosas" >}}
+
+Cada vez que se detecta un despliegue defectuoso, Watchdog crea un evento en el [Event Explorer][1]. Puedes configurar un monitor para recibir notificaciones automáticas sobre tales eventos:
+
+1. Ve a la página [New Monitor][11] (Nuevo monitor).
+2. Elige **Watchdog**.
+3. Selecciona `Third Party` en la categoría de alertas.
+
+
+## Proveedores compatibles
+Watchdog monitoriza el estado de las API de los siguientes proveedores externos: 
+
+| Proveedor externo | API supervisada |  
+|----------|--------------------|
+| Amplitude | api.amplitude.com |
+| Atlassian | *.atlassian.net |
+| Auth0 | *.auth0.com |
+| Binance | api.binance.com     |
+| Braintree | api.braintreegateway.com |
+| Coreweave | *.coreweave.com |
+| Cloudflare | api.cloudflare.com |
+| Confluent | api.confluent.cloud y api.telemetry.confluent.cloud |
+| Databricks | *.cloud.databricks.com |
+| Envoy | api.envoy.com |
+| Facebook | graph.facebook.com |
+| GitHub | api.github.com |
+| Google | developers.google.com |
+| Hubspot | api.hubspot.com |
+| Intercom | api.intercom.io |
+| Mapbox | api.mapbox.com |
+| Mixpanel | api.mixpanel.com |
+| OpenAI | *.openai.com|
+| PagerDuty | api.pagerduty.com |
+| Palo Alto Networks | api.urlcloud.paloaltonetworks.com |
+| Render | api.render.com |
+| SendGrid | *.sendgrid.com |
+| ServiceNow | *.service-now.com |
+| Slack | *.slack.com |
+| Snowflake | *.snowflakecomputing.com |
+| SoundCloud | api.soundcloud.com |
+| PHP | *.splunkcloud.com |
+| Square | connect.squareup.com |
+| Stripe | api.stripe.com |
+| Towerdata | api.towerdata.com |
+| Twilio | api.twilio.com |
+| Twitter | api.twitter.com |
+| Zendesk | *.zendesk.com |
+| Zoom    | api.zoom.us |
+
+Se monitorizan los siguientes servicios de AWS (.*amazonaws.com):
+- CloudWatch
+- DynamoDB
+- ELB
+- ES
+- Firehose
+- Kinesis
+- KMS
+- Lambda
+- RDS
+- S3
+- SNS
+- SQS
+- STS
+
+en las siguientes regiones:
+| AMER          | EMEA         | APAC           |
+| --------------| -------------|----------------|
+| us-east-2     | af-south-1   | ap-east-1      |
+| us-east-1     | eu-central-1 | ap-south-2     | 
+| us-west-1     | eu-west-1    | ap-southeast-3 | 
+| us-west-2     | eu-west-2    | ap-southeast-4 |
+| ca-central-1  | eu-south-1   | ap-south-1     |
+| ca-west-1     | eu-west-3    | ap-northeast-3 |
+| us-gov-east-1 | eu-south-2   | ap-northeast-2 |
+| us-gov-west-1 | eu-north-1   | ap-southeast-1 |
+| sa-east-1     | eu-central-2 | ap-southeast-2 |
+|               | me-south-1   | ap-northeast-1 | 
+|               | me-central-1 |                |
+|               | il-central-1 |                |
+
+## Referencias adicionales
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: https://app.datadoghq.com/event/explorer
+[2]: https://app.datadoghq.com/monitors/create
\ No newline at end of file
diff --git a/content/ja/agent/guide/private-link.md b/content/ja/agent/guide/private-link.md
index 8b053cbcd6e4f..3de0ddb42d84d 100644
--- a/content/ja/agent/guide/private-link.md
+++ b/content/ja/agent/guide/private-link.md
@@ -1,5 +1,8 @@
 ---
 further_reading:
+- link: https://www.datadoghq.com/architecture/using-cross-region-aws-privatelink-to-send-telemetry-to-datadog/
+  tag: アーキテクチャセンター
+  text: クロスリージョン AWS PrivateLink を使用して Datadog にテレメトリを送信する
 - link: /agent/logs
   tag: ドキュメント
   text: Agent によるログ収集を有効にする
@@ -19,41 +22,36 @@ title: AWS PrivateLink を介して Datadog に接続する
 ---
 
 {{% site-region region="us3,us5,eu,gov" %}}
-<div class="alert alert-warning">Datadog PrivateLink は選択された Datadog サイトをサポートしていません。</div>
+<div class="alert alert-warning">選択された Datadog サイトでは Datadog PrivateLink はサポートされていません。</div>
 {{% /site-region %}}
 
 {{% site-region region="us,ap1" %}}
 
-このガイドでは、Datadog で [AWS PrivateLink][1] を使用するための構成方法について説明します。
-
 ## 概要
 
-全体のプロセスは、ローカルの Datadog Agent がデータを送信できるように、VPC 内に内部エンドポイントを構成することから成ります。その後、あなたの VPC エンドポイントは Datadog の VPC 内のエンドポイントとピアリングされます。
+このガイドでは、[AWS PrivateLink][11] を Datadog で使用するための設定手順について説明します。大まかな流れとしては、VPC 内にローカルの Datadog Agent がデータを送信できる内部エンドポイントを設定し、その VPC エンドポイントを Datadog 側の VPC 内にあるエンドポイントとピアリングすることで構成します。
 
-{{< img src="agent/guide/private_link/vpc_diagram_schema.png" alt="VPC ダイアグラムのスキーマ" >}}
-
-## セットアップ
+{{< img src="agent/guide/private_link/vpc_diagram_schema.png" alt="VPC の概要図" >}}
 
 Datadog は **{{< region-param key="aws_region" >}}** に AWS PrivateLink エンドポイントを公開しています。
+- 同一リージョン内で Datadog へのトラフィックをルーティングする必要がある場合は、[同一リージョンからの接続](#connect-from-the-same-region)の手順に従ってエンドポイントをセットアップしてください。
+- 他のリージョンから {{< region-param key="aws_region" >}} 内の Datadog の PrivateLink を利用するには、Datadog では[クロスリージョン PrivateLink エンドポイント](?tab=crossregionprivatelinkendpoints#connect-from-other-regions)を推奨しています。[Cross-region PrivateLink][11] を使用すると、異なる AWS リージョン間でもプライベート IP アドレスを使って VPC リソース同士を通信させることができます。あるいは、[VPC Peering](?tab=vpcpeering#connect-from-other-regions) を使用することも可能です。
 
-しかし、他のリージョンから {{< region-param key="aws_region" code="true" >}} の Datadog の PrivateLink サービスにトラフィックをルーティングするには、リージョン間の [Amazon VPC ピアリング][2]を使用します。リージョン間 VPC ピアリングを使用すると、異なる AWS リージョン間で VPC の接続を確立できます。これにより、異なるリージョンの VPC リソースがプライベート IP アドレスを使用して相互に通信できます。詳細については、[Amazon VPC ピアリング][2]を参照してください。
-
-{{< tabs >}}
-{{% tab "同じリージョンから接続" %}}
-
-1. AWS コンソールをリージョン **{{< region-param key="aws_region" >}}** に接続し、VPC エンドポイントを作成します。
+## 同一リージョンからの接続
 
-{{< img src="agent/guide/private_link/create_vpc_endpoint.png" alt="VPC エンドポイントの作成" style="width:60%;" >}}
-
-2. **Find service by name** を選択します。
-3. AWS PrivateLink を確立したいサービスに応じて、_Service Name_ テキストボックスに入力します。
+1. 使用するリージョンに AWS Management Console を接続します。
+1. VPC ダッシュボードの **PrivateLink and Lattice** から **Endpoints** を選択します。
+1. **Create Endpoint** をクリックします:
+   {{< img src="agent/guide/private-link-vpc.png" alt="VPC ダッシュボードの Endpoints ページ" style="width:90%;" >}}
+1. **Find service by name** を選択します。
+1. AWS PrivateLink を確立したいサービスに応じて、Service Name テキストボックスに以下の値を入力します: 
 
-{{< img src="agent/guide/private_link/vpc_service_name.png" alt="VPC サービス名" style="width:70%;" >}}
+    {{< img src="agent/guide/private_link/vpc_service_name.png" alt="VPC サービス名" style="width:70%;" >}}
 
 | Datadog | PrivateLink サービス名 | プライベート DNS 名 |
 |---------------------------|----------------------------------------------------------------------------------------|------------------------------------------------------------------------|
 | ログ (Agent HTTP インテーク) | {{< region-param key="aws_private_link_logs_agent_service_name" code="true" >}} | {{< region-param key="agent_http_endpoint" code="true">}} |
-| ログ (User HTTP インテーク) | {{< region-param key="aws_private_link_logs_user_service_name" code="true" >}} | {{< region-param key="http_endpoint" code="true">}} |
+| ログ (ユーザー HTTP インテーク) | {{< region-param key="aws_private_link_logs_user_service_name" code="true" >}} | {{< region-param key="http_endpoint" code="true">}} |
 | API | {{< region-param key="aws_private_link_api_service_name" code="true" >}} | <code>api.{{< region-param key="dd_site" >}}</code> |
 | メトリクス | {{< region-param key="aws_private_link_metrics_service_name" code="true" >}} | <code>metrics.agent.{{< region-param key="dd_site" >}}</code> |
 | コンテナ | {{< region-param key="aws_private_link_containers_service_name" code="true" >}} | <code>orchestrator.{{< region-param key="dd_site" >}}</code> |
@@ -63,72 +61,103 @@ Datadog は **{{< region-param key="aws_region" >}}** に AWS PrivateLink エン
 | Database Monitoring | {{< region-param key="aws_private_link_dbm_service_name" code="true" >}} | <code>dbm-metrics-intake.{{< region-param key="dd_site" >}}</code> |
 | Remote Configuration | {{< region-param key="aws_private_link_remote_config_service_name" code="true" >}} | <code>config.{{< region-param key="dd_site" >}}</code> |
 
-4. **Verify** をクリックします。これで _Service name found_ が表示されない場合は、[Datadog サポート][1]に連絡してください。
-5. Datadog VPC サービスエンドポイントとピアリングする VPC とサブネットを選択します。
-6. **Enable DNS name** の項目で、_Enable for this endpoint_ がチェックされていることを確認します。
+4. **Verify** をクリックします。Service name found が表示されない場合は、[Datadog サポート][14]にお問い合わせください。
+5. Datadog VPC のサービスエンドポイントとピアリングしたい VPC とサブネットを選択します。
+6. **Enable DNS name** の項目で、Enable for this endpoint にチェックが入っていることを確認してください: 
 
-{{< img src="agent/guide/private_link/enabled_dns_private.png" alt="DNS プライベートの有効化" style="width:80%;" >}}
+   {{< img src="agent/guide/private_link/enabled_dns_private.png" alt="DNS のプライベート有効化" style="width:80%;" >}}
 
-7. お好みのセキュリティグループを選択して、この VPC エンドポイントにトラフィックを送信できるものを制御します。
+7. 任意のセキュリティグループを選択して、どのトラフィックがこの VPC エンドポイントに送信できるかを制御します。
 
-**注**: **セキュリティグループは TCP ポート `443` のインバウンドトラフィックを許可する必要があります。**
+    **注**: **セキュリティグループでは TCP の `443` 番ポートへのインバウンドトラフィックを許可する必要があります**。
 
-8. 画面の下部にある **Create endpoint** をクリックします。成功すると、以下が表示されます。
+8. 画面下部の **Create endpoint** をクリックします。成功すると次のように表示されます:
 
-{{< img src="agent/guide/private_link/vpc_endpoint_created.png" alt="VPC エンドポイントが作成されました" style="width:60%;" >}}
+   {{< img src="agent/guide/private_link/vpc_endpoint_created.png" alt="VPC エンドポイントの作成完了" style="width:60%;" >}}
 
-9. VPC エンドポイント ID をクリックして、そのステータスを確認します。
-10. ステータスが _Pending_ から _Available_ に変わるのを待ちます。これには最大 10 分かかることがあります。_Available_ と表示されたら、AWS PrivateLink を使用できます。
+9. VPC エンドポイント ID をクリックし、そのステータスを確認します。
+10. ステータスが Pending から Available に変わるまで待ちます。最大 10 分ほどかかる場合があります。Available と表示されたら、AWS PrivateLink を使用できます。
 
-{{< img src="agent/guide/private_link/vpc_status.png" alt="VPC ステータス" style="width:60%;" >}}
+    {{< img src="agent/guide/private_link/vpc_status.png" alt="VPC ステータス" style="width:60%;" >}}
 
-11. v6.19 または v7.19 より古いバージョンの Datadog Agent を実行している場合、ログデータを収集するために、Agent が HTTPS 経由でログを送信するように構成されていることを確認してください。データがまだない場合は、[Agent の `datadog.yaml` コンフィギュレーションファイル][2]に以下を追加します。
+11. Datadog Agent のバージョンが v6.19 または v7.19 より古い場合、ログデータを収集するには Agent が HTTPS 経由でログを送信するように設定してください。設定ファイル [`datadog.yaml`][15] に以下の内容がない場合は追記します:
 
-```yaml
-logs_config:
-force_use_http: true
-```
+    ```yaml
+    logs_config:
+        force_use_http: true
+    ```
 
-コンテナ Agent を使用している場合は、代わりに以下の環境変数を設定します。
+    コンテナ Agent を使用している場合は、代わりに次の環境変数を設定します:
 
-```
-DD_LOGS_CONFIG_FORCE_USE_HTTP=true
-```
+    ```
+    DD_LOGS_CONFIG_FORCE_USE_HTTP=true
+    ```
 
-この構成は、AWS PrivateLink と Datadog Agent を使用してログを Datadog に送信する場合に必要であり、Lambda Extension には必要ありません。詳細については、[Agent のログ収集][3]を参照してください。
+    これは、AWS PrivateLink と Datadog Agent を使用してログを Datadog に送信する場合に必要な設定であり、Lambda Extension には必要ありません。詳細については、[Agent によるログ収集][16] を参照してください。
 
-12. Lambda Extension が環境変数 `DD_API_KEY_SECRET_ARN` で指定された ARN を使用して AWS Secrets Manager から Datadog API キーをロードする場合、[Secrets Manager の VPC エンドポイントを作成][4]する必要があります。
+12. Lambda Extension が `DD_API_KEY_SECRET_ARN` 環境変数で指定された ARN を使用して AWS Secrets Manager から Datadog API Key を読み込む場合は、[Secrets Manager 用の VPC エンドポイント][17] を作成する必要があります。
 
-13. [Agent を再起動][5]して、AWS PrivateLink 経由で Datadog にデータを送信します。
+13. [Agent を再起動][13] して、AWS PrivateLink 経由で Datadog にデータを送信します。
 
+## 他のリージョンからの接続
 
+{{< tabs >}}
+{{% tab "Cross-region PrivateLink endpoints" %}}
+1. 使用するリージョンに AWS Management Console を接続します。
+1. VPC ダッシュボードの **PrivateLink and Lattice** から Endpoints を選択します。
+1. **Create Endpoint** をクリックします:
+   {{< img src="agent/guide/private-link-vpc.png" alt="VPC ダッシュボードの Endpoints ページ" style="width:90%;" >}}
+1. VPC インターフェイスエンドポイントの設定を行います
+   1. 任意で **Name tag** を入力します。
+   1. **Type** で **PrivateLink Ready partner services** を選択します。
+1. クロスリージョン対応のインターフェイスエンドポイントを検出し、設定します:
+   1. **Service name** に以下の[表](#privatelink-service-names)にある有効な PrivateLink サービス名を入力します。
+   1. **Service region** で **Enable Cross Region endpoint** にチェックを入れ、**{{< region-param key="aws_private_link_cross_region" >}}** を選択します。
+   1. **Verify service** をクリックし、Service name verified の通知が表示されるまで待ちます。
+      **注:** 上記の手順を完了してもサービスを検証できない場合は、[Datadog サポート][1]にお問い合わせください。
+1. **Network Settings** で、VPC インターフェイスエンドポイントをデプロイする VPC を選択します。
+1. **Enable DNS name** が有効になっていることを確認します。
+1. **Subnets** で、VPC インターフェイスエンドポイントを配置する 1 つ以上のサブネットを選択します。
+1. **Security Groups** で、この VPC エンドポイントにトラフィックを送信できるかどうかを制御するセキュリティグループを選択します。
+
+   **注**: セキュリティグループでは TCP の 443 番ポートへのインバウンドトラフィックを許可する必要があります。
+1. 任意で **Name tag** を設定し、**Create endpoint** をクリックします。
+1. ステータスが **Pending** から **Available** に変わるまで数分かかる場合があります。最大 10 分ほどかかる場合があります。想定より長引く場合は [Datadog サポート][1]にお問い合わせください。
+
+エンドポイントのステータスが **Available** に更新されたら、クロスリージョンの AWS PrivateLink エンドポイントを使用して Datadog にテレメトリを送信できます。
+
+## PrivateLink サービス名
+
+  | Datadog | PrivateLink サービス名 | プライベート DNS 名 |
+  |---------------------------|----------------------------------------------------------------------------------------|------------------------------------------------------------------------|
+  | ログ (Agent HTTP インテーク) | {{< region-param key="aws_private_link_logs_agent_service_name" code="true" >}} | <code>agent-http-intake.logs.{{< region-param key="dd_site" >}}</code> |
+  | ログ (ユーザー HTTP インテーク) | {{< region-param key="aws_private_link_logs_user_service_name" code="true" >}} | <code>http-intake.logs.{{< region-param key="dd_site" >}}</code> |
+  | API | {{< region-param key="aws_private_link_api_service_name" code="true" >}} | <code>api.{{< region-param key="dd_site" >}}</code> |
+  | メトリクス | {{< region-param key="aws_private_link_metrics_service_name" code="true" >}} | <code>metrics.agent.{{< region-param key="dd_site" >}}</code> |
+  | コンテナ | {{< region-param key="aws_private_link_containers_service_name" code="true" >}} | <code>orchestrator.{{< region-param key="dd_site" >}}</code> |
+  | プロセス | {{< region-param key="aws_private_link_process_service_name" code="true" >}} | <code>process.{{< region-param key="dd_site" >}}</code> |
+  | プロファイリング | {{< region-param key="aws_private_link_profiling_service_name" code="true" >}} | <code>intake.profile.{{< region-param key="dd_site" >}}</code> |
+  | トレース | {{< region-param key="aws_private_link_traces_service_name" code="true" >}} | <code>trace.agent.{{< region-param key="dd_site" >}}</code> |
+  | Database Monitoring | {{< region-param key="aws_private_link_dbm_service_name" code="true" >}} | <code>dbm-metrics-intake.{{< region-param key="dd_site" >}}</code> |
+  | Remote Configuration | {{< region-param key="aws_private_link_remote_config_service_name" code="true" >}} | <code>config.{{< region-param key="dd_site" >}}</code> |
 
 [1]: /ja/help/
-[2]: /ja/agent/configuration/agent-configuration-files/#agent-main-configuration-file
-[3]: /ja/agent/logs/?tab=tailexistingfiles#send-logs-over-https
-[4]: https://docs.aws.amazon.com/secretsmanager/latest/userguide/vpc-endpoint-overview.html
-[5]: /ja/agent/configuration/agent-commands/#restart-the-agent
 {{% /tab %}}
 
-{{% tab "Connect from another region using VPC Peering" %}}
-
-### Amazon VPC ピアリング
-
-1. AWS コンソールをリージョン **{{< region-param key="aws_region" >}}** に接続し、VPC エンドポイントを作成します。
+{{% tab "VPC Peering" %}}
+1. AWS コンソールを **{{< region-param key="aws_region" >}}** に接続し、VPC エンドポイントを作成します。
 
 {{< img src="agent/guide/private_link/create_vpc_endpoint.png" alt="VPC エンドポイントの作成" style="width:80%;" >}}
 
 2. **Find service by name** を選択します。
-3. AWS PrivateLink を確立したいサービスに応じて、_Service Name_ テキストボックスに入力します。
+3. 接続したいサービスに応じて、Service Name テキストボックスに次の値を入力します:
 
 {{< img src="agent/guide/private_link/vpc_service_name.png" alt="VPC サービス名" style="width:90%;" >}}
 
-| Datadog | PrivateLink サービス名
-
-|
+| Datadog | PrivateLink サービス名 |
 |---------------------------|----------------------------------------------------------------------------------------|
 | ログ (Agent HTTP インテーク) | {{< region-param key="aws_private_link_logs_agent_service_name" code="true" >}} |
-| ログ (User HTTP インテーク) | {{< region-param key="aws_private_link_logs_user_service_name" code="true" >}} |
+| ログ (ユーザー HTTP インテーク) | {{< region-param key="aws_private_link_logs_user_service_name" code="true" >}} |
 | API | {{< region-param key="aws_private_link_api_service_name" code="true" >}} |
 | メトリクス | {{< region-param key="aws_private_link_metrics_service_name" code="true" >}} |
 | コンテナ | {{< region-param key="aws_private_link_containers_service_name" code="true" >}} |
@@ -138,57 +167,57 @@ DD_LOGS_CONFIG_FORCE_USE_HTTP=true
 | Database Monitoring | {{< region-param key="aws_private_link_dbm_service_name" code="true" >}} |
 | Remote Configuration | {{< region-param key="aws_private_link_remote_config_service_name" code="true" >}} |
 
-4. **Verify** をクリックします。これで _Service name found_ が表示されない場合は、[Datadog サポート][1]に連絡してください。
+4. **Verify** をクリックします。Service name found が表示されない場合は、[Datadog サポート][1]にお問い合わせください。
 
-5. 次に、Datadog VPC サービスエンドポイントとピアリングする VPC とサブネットを選択します。**Enable DNS name** は選択しないでください。VPC ピアリングでは DNS を手動で構成する必要があります。
+5. 次に、Datadog VPC サービスエンドポイントとピアリングする VPC とサブネットを選択します。VPC Peering では DNS を手動で設定する必要があるため、**Enable DNS name** は選択しないでください。
 
-6. お好みのセキュリティグループを選択して、この VPC エンドポイントにトラフィックを送信できるものを制御します。
+6. 任意のセキュリティグループを選択して、どのトラフィックがこの VPC エンドポイントに送信されるかを制御します。
 
-**注**: **セキュリティグループは TCP ポート `443` のインバウンドトラフィックを許可する必要があります。**
+    **注**: **セキュリティグループでは TCP の `443` 番ポートへのインバウンドトラフィックを許可する必要があります**。
 
-7. 画面の下部にある **Create endpoint** をクリックします。成功すると、以下が表示されます。
+7. 画面下部の **Create endpoint** をクリックします。成功すると次のように表示されます:
 
-{{< img src="agent/guide/private_link/vpc_endpoint_created.png" alt="VPC エンドポイントが作成されました" style="width:80%;" >}}
+{{< img src="agent/guide/private_link/vpc_endpoint_created.png" alt="VPC エンドポイントの作成完了" style="width:80%;" >}}
 
-8. VPC エンドポイント ID をクリックして、そのステータスを確認します。
-9. ステータスが _Pending_ から _Available_ に変わるのを待ちます。これには最大 10 分かかることがあります。
-10. エンドポイントを作成した後、VPC ピアリングを使用して、PrivateLink エンドポイントを別のリージョンで利用できるようにし、PrivateLink 経由で Datadog にテレメトリーを送信します。詳細は、AWS の [VPC ピアリング接続の操作][2]ページを参照してください。
+8. VPC エンドポイント ID をクリックし、そのステータスを確認します。
+9. ステータスが Pending から Available に変わるまで待ちます。最大 10 分ほどかかる場合があります。
+10. エンドポイントを作成した後は、VPC Peering を使用して別のリージョンでもこの PrivateLink エンドポイントを利用できるようにし、PrivateLink 経由で Datadog にテレメトリを送信します。詳細は AWS ドキュメントの [Work With VPC Peering connections][2] を参照してください。
 
 {{< img src="agent/guide/private_link/vpc_status.png" alt="VPC ステータス" style="width:80%;" >}}
 
 ### Amazon Route53
 
-1. AWS PrivateLink エンドポイントを作成した各サービスに対して、[Route53 プライベートホストゾーン][3]を作成します。プライベートホストゾーンを {{< region-param key="aws_region" code="true" >}} の VPC に適用します。
+1. 使用するサービスごとに[Route53 プライベートホストゾーン][3]を作成し、プライベートホストゾーンを {{< region-param key="aws_region" code="true" >}} 内の VPC にアタッチします。
 
 {{< img src="agent/guide/private_link/create-a-route53-private-hosted-zone.png" alt="Route53 プライベートホストゾーンの作成" style="width:80%;" >}}
 
-以下のリストを使用して、Datadog の異なる部分にサービスと DNS 名をマッピングします。
+以下の一覧を参考に、サービスと DNS 名をマッピングします:
 
-| Datadog | PrivateLink サービス名 | プライベート DNS 名 |
-|---------------------------|----------------------------------------------------------------------------------------|------------------------------------------------------------------------|
-| ログ (Agent HTTP インテーク) | {{< region-param key="aws_private_link_logs_agent_service_name" code="true" >}} | <code>agent-http-intake.logs.{{< region-param key="dd_site" >}}</code> |
-| ログ (User HTTP インテーク) | {{< region-param key="aws_private_link_logs_user_service_name" code="true" >}} | <code>http-intake.logs.{{< region-param key="dd_site" >}}</code> |
-| API | {{< region-param key="aws_private_link_api_service_name" code="true" >}} | <code>api.{{< region-param key="dd_site" >}}</code> |
-| メトリクス | {{< region-param key="aws_private_link_metrics_service_name" code="true" >}} | <code>metrics.agent.{{< region-param key="dd_site" >}}</code> |
-| コンテナ | {{< region-param key="aws_private_link_containers_service_name" code="true" >}} | <code>orchestrator.{{< region-param key="dd_site" >}}</code> |
-| プロセス | {{< region-param key="aws_private_link_process_service_name" code="true" >}} | <code>process.{{< region-param key="dd_site" >}}</code> |
-| プロファイリング | {{< region-param key="aws_private_link_profiling_service_name" code="true" >}} | <code>intake.profile.{{< region-param key="dd_site" >}}</code> |
-| トレース | {{< region-param key="aws_private_link_traces_service_name" code="true" >}} | <code>trace.agent.{{< region-param key="dd_site" >}}</code> |
-| Database Monitoring | {{< region-param key="aws_private_link_dbm_service_name" code="true" >}} | <code>dbm-metrics-intake.{{< region-param key="dd_site" >}}</code> |
-| Remote Configuration | {{< region-param key="aws_private_link_remote_config_service_name" code="true" >}} | <code>config.{{< region-param key="dd_site" >}}</code> |
+  | Datadog | PrivateLink サービス名 | プライベート DNS 名 |
+  |---------------------------|----------------------------------------------------------------------------------------|------------------------------------------------------------------------|
+  | ログ (Agent HTTP インテーク) | {{< region-param key="aws_private_link_logs_agent_service_name" code="true" >}} | <code>agent-http-intake.logs.{{< region-param key="dd_site" >}}</code> |
+  | ログ (ユーザー HTTP インテーク) | {{< region-param key="aws_private_link_logs_user_service_name" code="true" >}} | <code>http-intake.logs.{{< region-param key="dd_site" >}}</code> |
+  | API | {{< region-param key="aws_private_link_api_service_name" code="true" >}} | <code>api.{{< region-param key="dd_site" >}}</code> |
+  | メトリクス | {{< region-param key="aws_private_link_metrics_service_name" code="true" >}} | <code>metrics.agent.{{< region-param key="dd_site" >}}</code> |
+  | コンテナ | {{< region-param key="aws_private_link_containers_service_name" code="true" >}} | <code>orchestrator.{{< region-param key="dd_site" >}}</code> |
+  | プロセス | {{< region-param key="aws_private_link_process_service_name" code="true" >}} | <code>process.{{< region-param key="dd_site" >}}</code> |
+  | プロファイリング | {{< region-param key="aws_private_link_profiling_service_name" code="true" >}} | <code>intake.profile.{{< region-param key="dd_site" >}}</code> |
+  | トレース | {{< region-param key="aws_private_link_traces_service_name" code="true" >}} | <code>trace.agent.{{< region-param key="dd_site" >}}</code> |
+  | Database Monitoring | {{< region-param key="aws_private_link_dbm_service_name" code="true" >}} | <code>dbm-metrics-intake.{{< region-param key="dd_site" >}}</code> |
+  | Remote Configuration | {{< region-param key="aws_private_link_remote_config_service_name" code="true" >}} | <code>config.{{< region-param key="dd_site" >}}</code> |
 
-また、AWS API の `DescribeVpcEndpointServices` を照会するか、以下のコマンドを使用して、この情報を見つけることができます。
+  この情報は AWS API の `DescribeVpcEndpointServices` を呼び出すか、下記のようにコマンドを実行することでも確認可能です:
 
-```bash
-aws ec2 describe-vpc-endpoint-services --service-names <service-name>`
-```
+  ```bash
+  aws ec2 describe-vpc-endpoint-services --service-names <service-name>`
+  ```
 
-例えば、{{< region-param key="aws_region" code="true" >}} の Datadog メトリクスエンドポイントの場合:
+  例として、{{< region-param key="aws_region" code="true" >}} 用の Datadog メトリクスエンドポイントを取得する場合:
 
 <div class="site-region-container">
-<div class="highlight">
-<pre tabindex="0" class="chroma"><code class="language-bash" data-lang="bash"><span class="line">aws ec2 describe-vpc-endpoint-services --service-names {{< region-param key="aws_private_link_metrics_service_name" >}} | jq '.ServiceDetails[0].PrivateDnsName'</span></code></pre>
-</div>
+  <div class="highlight">
+    <pre tabindex="0" class="chroma"><code class="language-bash" data-lang="bash"><span class="line">aws ec2 describe-vpc-endpoint-services --service-names {{< region-param key="aws_private_link_metrics_service_name" >}} | jq '.ServiceDetails[0].PrivateDnsName'</span></code></pre>
+  </div>
 </div>
 
 これは、Agent トラフィックの発信元となる VPC と関連付けるために必要な、プライベートホストゾーン名である <code>metrics.agent.{{< region-param key="dd_site" >}}</code> を返します。このレコードを上書きすると、メトリクスに関連するインテークホスト名がすべて取得されます。
@@ -254,15 +283,20 @@ DNS は正しく解決しているのに、`port 443` への接続に失敗す
 [5]: https://docs.amazonaws.cn/en_us/Route53/latest/DeveloperGuide/hosted-zone-private-associate-vpcs-different-accounts.html
 [6]: https://docs.aws.amazon.com/Route53/latest/DeveloperGuide/hosted-zone-private-considerations.html#hosted-zone-private-considerations-vpc-settings
 [7]: /ja/agent/configuration/agent-commands/?tab=agentv6v7#restart-the-agent
-[8]: /ja/agent/configuration/agent-configuration-files/?tab=agentv6v7#agent-main-configuration-file
-[9]: https://docs.datadoghq.com/ja/agent/logs/?tab=tailexistingfiles#send-logs-over-https
+[8]: /ja/agent/configuration/agent-configuration-files/#agent-main-configuration-file
+[9]: /ja/agent/logs/?tab=tailexistingfiles#send-logs-over-https
 [10]: https://docs.aws.amazon.com/secretsmanager/latest/userguide/vpc-endpoint-overview.html
 {{% /tab %}}
 {{< /tabs >}}
 
+[11]: https://aws.amazon.com/privatelink/
+[12]: https://docs.aws.amazon.com/vpc/latest/peering/what-is-vpc-peering.html
+[13]: /ja/agent/configuration/agent-commands/#restart-the-agent
+[14]: /ja/help/
+[15]: /ja/agent/configuration/agent-configuration-files/#agent-main-configuration-file
+[16]: /ja/agent/logs/?tab=tailexistingfiles#send-logs-over-https
+[17]: https://docs.aws.amazon.com/secretsmanager/latest/userguide/vpc-endpoint-overview.html
 
-[1]: https://aws.amazon.com/privatelink/
-[2]: https://docs.aws.amazon.com/vpc/latest/peering/what-is-vpc-peering.html
 {{% /site-region %}}
 
 ## 参考資料
diff --git a/content/ja/integrations/aqua.md b/content/ja/integrations/aqua.md
index 406451d825658..473ee9a8af459 100644
--- a/content/ja/integrations/aqua.md
+++ b/content/ja/integrations/aqua.md
@@ -26,7 +26,7 @@ categories:
 - コンテナ
 - ログの収集
 - セキュリティ
-custom_kind: integration
+custom_kind: インテグレーション
 dependencies:
 - https://github.com/DataDog/integrations-extras/blob/master/aqua/README.md
 display_on_public_website: true
@@ -34,7 +34,7 @@ draft: false
 git_integration_title: aqua
 integration_id: aqua
 integration_title: Aqua
-integration_version: 1.0.0
+integration_version: 1.0.1
 is_public: true
 manifest_version: 2.0.0
 name: aqua
@@ -174,4 +174,4 @@ Aqua には、イベントは含まれません。
 [11]: https://docs.datadoghq.com/ja/agent/guide/agent-commands/#service-status
 [12]: https://github.com/DataDog/integrations-extras/blob/master/aqua/metadata.csv
 [13]: https://github.com/DataDog/integrations-extras/blob/master/aqua/assets/service_checks.json
-[14]: https://docs.datadoghq.com/ja/help/
+[14]: https://docs.datadoghq.com/ja/help/
\ No newline at end of file
diff --git a/content/ja/integrations/avi_vantage.md b/content/ja/integrations/avi_vantage.md
index 895a70410858f..cf6db3884f4dd 100644
--- a/content/ja/integrations/avi_vantage.md
+++ b/content/ja/integrations/avi_vantage.md
@@ -40,7 +40,7 @@ draft: false
 git_integration_title: avi_vantage
 integration_id: avi-vantage
 integration_title: Avi Vantage
-integration_version: 5.2.0
+integration_version: 5.3.0
 is_public: true
 manifest_version: 2.0.0
 name: avi_vantage
diff --git a/content/ja/integrations/ceph.md b/content/ja/integrations/ceph.md
index 98bf4b3377790..08e8dd35a414f 100644
--- a/content/ja/integrations/ceph.md
+++ b/content/ja/integrations/ceph.md
@@ -41,7 +41,7 @@ draft: false
 git_integration_title: ceph
 integration_id: ceph
 integration_title: Ceph
-integration_version: 4.0.0
+integration_version: 4.1.0
 is_public: true
 manifest_version: 2.0.0
 name: ceph
diff --git a/content/ja/integrations/cert_manager.md b/content/ja/integrations/cert_manager.md
index 1f4b8745d011b..5ba13b50aefef 100644
--- a/content/ja/integrations/cert_manager.md
+++ b/content/ja/integrations/cert_manager.md
@@ -35,7 +35,7 @@ draft: false
 git_integration_title: cert_manager
 integration_id: cert-manager
 integration_title: cert-manager
-integration_version: 5.2.0
+integration_version: 5.3.0
 is_public: true
 manifest_version: 2.0.0
 name: cert_manager
diff --git a/content/ja/integrations/cisco_aci.md b/content/ja/integrations/cisco_aci.md
index 70ec8a37ee99b..53088662e1740 100644
--- a/content/ja/integrations/cisco_aci.md
+++ b/content/ja/integrations/cisco_aci.md
@@ -40,7 +40,7 @@ draft: false
 git_integration_title: cisco_aci
 integration_id: cisco-aci
 integration_title: CiscoACI
-integration_version: 4.3.0
+integration_version: 4.4.0
 is_public: true
 manifest_version: 2.0.0
 name: cisco_aci
diff --git a/content/ja/integrations/couch.md b/content/ja/integrations/couch.md
index 601ca52fc26cb..457d5010b107e 100644
--- a/content/ja/integrations/couch.md
+++ b/content/ja/integrations/couch.md
@@ -42,7 +42,7 @@ draft: false
 git_integration_title: couch
 integration_id: couchdb
 integration_title: CouchDB
-integration_version: 8.1.0
+integration_version: 8.3.0
 is_public: true
 manifest_version: 2.0.0
 name: couch
diff --git a/content/ja/integrations/foundationdb.md b/content/ja/integrations/foundationdb.md
index cd63471381d50..7f9fdd54709c2 100644
--- a/content/ja/integrations/foundationdb.md
+++ b/content/ja/integrations/foundationdb.md
@@ -53,7 +53,7 @@ draft: false
 git_integration_title: foundationdb
 integration_id: foundationdb
 integration_title: FoundationDB
-integration_version: 3.1.0
+integration_version: 3.2.0
 is_public: true
 manifest_version: 2.0.0
 name: foundationdb
diff --git a/content/ja/integrations/http_check.md b/content/ja/integrations/http_check.md
index f7d5ca08286cc..4b579e36c1f3d 100644
--- a/content/ja/integrations/http_check.md
+++ b/content/ja/integrations/http_check.md
@@ -29,7 +29,7 @@ draft: false
 git_integration_title: http_check
 integration_id: ネットワーク
 integration_title: HTTP チェック
-integration_version: 11.1.0
+integration_version: 11.2.0
 is_public: true
 manifest_version: 2.0.0
 name: http_check
diff --git a/content/ja/integrations/launchdarkly.md b/content/ja/integrations/launchdarkly.md
index 89551c9b567e4..775b58152e3e3 100644
--- a/content/ja/integrations/launchdarkly.md
+++ b/content/ja/integrations/launchdarkly.md
@@ -25,7 +25,7 @@ author:
 categories:
 - 構成 & デプロイ
 - notifications
-custom_kind: integration
+custom_kind: インテグレーション
 dependencies:
 - https://github.com/DataDog/integrations-extras/blob/master/launchdarkly/README.md
 display_on_public_website: true
@@ -48,10 +48,11 @@ tile:
   classifier_tags:
   - Category::Configuration & Deployment
   - Category::Notifications
-  - Offering::UI Extension
+  - Offering::Integration
   - Supported OS::Linux
   - Supported OS::Windows
   - Supported OS::macOS
+  - Submitted Data Type::Metrics
   configuration: README.md#Setup
   description: 機能リリースとインフラストラクチャーの変更を自信を持ってコントロールすることができます。
   media:
@@ -59,12 +60,6 @@ tile:
     image_url: images/video-thumbnail.png
     media_type: ビデオ
     vimeo_id: 637675972
-  - caption: LaunchDarkly のフラグウィジェットとイベントインテグレーションで構成された LaunchDarkly ダッシュボード。
-    image_url: images/dashboard.png
-    media_type: image
-  - caption: フラグ変更サイドパネルを開けた LaunchDarkly ダッシュボード。
-    image_url: images/toggle-flag.png
-    media_type: image
   overview: README.md#Overview
   resources:
   - resource_type: その他
@@ -96,10 +91,6 @@ Datadog の [LaunchDarkly][1] イベントインテグレーションは、モ
 
 LaunchDarkly の機能フラグ追跡インテグレーションは、RUM データを機能フラグで強化し、パフォーマンスの監視と行動の変化を可視化します。どのユーザーにユーザーエクスペリエンスが表示され、それがユーザーのパフォーマンスに悪影響を及ぼしているかどうかを判断します。
 
-### ダッシュボードウィジェット
-
-LaunchDarkly のダッシュボードウィジェットでは、サブセット機能のフラグターゲティングトグルを Datadog ダッシュボードに固定し、1 つのウィンドウから機能の稼働を監視・実行することができます。
-
 ### リレープロキシメトリクスのインテグレーション
 
 [LaunchDarkly Relay Proxy][2] を使用している場合、アクティブ接続や累積接続などのメトリクスを Datadog にエクスポートするように構成することができます。
@@ -132,29 +123,9 @@ const client = LDClient.initialize("<APP_KEY>", "<USER_ID>", {
 });
 ```
 
-### ダッシュボードウィジェット
-
-1. [LaunchDarkly インテグレーションタイル][6]で、LaunchDarkly インテグレーションがインストールされていることを確認します。
-1. Datadog で、既存のダッシュボードに移動するか、新しいダッシュボードを作成します。
-1. **Add Widgets** ボタンを押すと、ウィジェットドローワが表示されます。
-1. **LaunchDarkly** と検索すると、ウィジェットドローワの **Apps** セクションに LaunchDarkly ウィジェットが見つかります。
-1. LaunchDarkly ウィジェットアイコンをクリックまたはドラッグしてダッシュボードに追加し、**LaunchDarkly editor** モーダルを開きます。
-1. LaunchDarkly アカウントを接続するには、**Connect** ボタンを押します。新しいウィンドウが開き、Datadog を認証するよう促されます。
-1. **Authorize** をクリックすると、Datadog に戻ります。
-1. 次に、**LaunchDarkly editor** で、以下のウィジェットオプションを構成します。
-
-   - **LaunchDarkly project**: ダッシュボードウィジェットに関連付けたい LaunchDarkly プロジェクトの名前です。
-   - **LaunchDarkly environment**: ダッシュボードウィジェットに関連付けたい LaunchDarkly 環境の名前です。
-   - **Environment template variable**: **LaunchDarkly environment** オプションを上書きするために使用されるオプションの [Datadog テンプレート変数][7]です。
-   - **LaunchDarkly tag filter**: オプションの `+` 区切りリストタグで、ウィジェットに表示される機能フラグをフィルタリングすることができます。複数のタグが含まれている場合、含まれているすべてのタグにマッチするフラグのみがウィジェットに表示されます。省略された場合は、プロジェクトのすべての機能フラグがウィジェットに表示されます。
-   - **Sort**: ウィジェットに表示されるフラグの順番。デフォルトは **Newest** です。
-
-1. オプションでウィジェットのタイトルを指定します。
-1. **Save** を押して、Datadog ダッシュボードウィジェットの構成を完了します。
-
 ### Relay Proxy メトリクス
 
-Relay Proxy の[メトリクスインテグレーションのドキュメント][8]に従って、この機能を構成することができます。
+Relay Proxy の[メトリクスインテグレーションのドキュメント][6]に従って、この機能を構成することができます。
 
 ## 収集データ
 
@@ -164,7 +135,7 @@ LaunchDarkly Relay Proxy は、以下のメトリクスを Datadog に送信す
 
 - **`connections`**: SDK から Relay Proxy への現在存在するストリーム接続数。
 - **`newconnections`**: Relay Proxy が起動してからのストリーム接続の累積数。
-- **`requests`**: Relay Proxy のすべての[サービスエンドポイント][9] (ステータスエンドポイントを除く) が起動してから受け取ったリクエストの累積数。
+- **`requests`**: Relay Proxy のすべての[サービスエンドポイント][7] (ステータスエンドポイントを除く) が起動してから受け取ったリクエストの累積数。
 
 ### イベント
 
@@ -176,7 +147,7 @@ LaunchDarkly インテグレーションには、サービスのチェック機
 
 ## サポート
 
-ご不明な点は、[Datadog のサポートチーム][10]までお問い合わせください。
+ご不明な点は、[Datadog のサポートチーム][8]までお問合せください。
 
 ## その他の参考資料
 
@@ -187,8 +158,6 @@ LaunchDarkly インテグレーションには、サービスのチェック機
 [3]: https://app.datadoghq.com/organization-settings/api-keys
 [4]: https://docs.launchdarkly.com/integrations/datadog/events
 [5]: https://docs.datadoghq.com/ja/real_user_monitoring/guide/setup-feature-flag-data-collection/
-[6]: https://app.datadoghq.com/integrations/launchdarkly
-[7]: https://docs.datadoghq.com/ja/dashboards/template_variables/
-[8]: https://github.com/launchdarkly/ld-relay/blob/v6/docs/metrics.md
-[9]: https://github.com/launchdarkly/ld-relay/blob/v6/docs/endpoints.md
-[10]: https://docs.datadoghq.com/ja/help/
+[6]: https://github.com/launchdarkly/ld-relay/blob/v6/docs/metrics.md
+[7]: https://github.com/launchdarkly/ld-relay/blob/v6/docs/endpoints.md
+[8]: https://docs.datadoghq.com/ja/help/
\ No newline at end of file
diff --git a/content/ja/integrations/network.md b/content/ja/integrations/network.md
index ddbf3062296e5..c488c57aac6ee 100644
--- a/content/ja/integrations/network.md
+++ b/content/ja/integrations/network.md
@@ -21,7 +21,7 @@ author:
   support_email: help@datadoghq.com
 categories:
 - network
-custom_kind: integration
+custom_kind: インテグレーション
 dependencies:
 - https://github.com/DataDog/integrations-core/blob/master/network/README.md
 display_on_public_website: true
@@ -29,7 +29,7 @@ draft: false
 git_integration_title: ネットワーク
 integration_id: システム
 integration_title: Network
-integration_version: 5.1.0
+integration_version: 5.2.0
 is_public: true
 manifest_version: 2.0.0
 name: ネットワーク
diff --git a/content/ja/integrations/puma.md b/content/ja/integrations/puma.md
index 2ac841bd49e3c..77eb317c40ea9 100644
--- a/content/ja/integrations/puma.md
+++ b/content/ja/integrations/puma.md
@@ -23,7 +23,7 @@ author:
   support_email: justin.morris@ferocia.com.au
 categories:
 - メトリクス
-custom_kind: integration
+custom_kind: インテグレーション
 dependencies:
 - https://github.com/DataDog/integrations-extras/blob/master/puma/README.md
 display_on_public_website: true
@@ -31,7 +31,7 @@ draft: false
 git_integration_title: puma
 integration_id: puma
 integration_title: Puma
-integration_version: 1.2.1
+integration_version: 1.2.2
 is_public: true
 manifest_version: 2.0.0
 name: puma
@@ -119,4 +119,4 @@ Puma には、イベントは含まれません。
 [8]: https://docs.datadoghq.com/ja/agent/guide/agent-commands/#agent-status-and-information
 [9]: https://github.com/DataDog/integrations-extras/blob/master/puma/metadata.csv
 [10]: https://github.com/DataDog/integrations-extras/blob/master/puma/assets/service_checks.json
-[11]: https://docs.datadoghq.com/ja/help/
+[11]: https://docs.datadoghq.com/ja/help/
\ No newline at end of file
diff --git a/content/ja/integrations/redisdb.md b/content/ja/integrations/redisdb.md
index 720af7e263e11..0e6702e00b816 100644
--- a/content/ja/integrations/redisdb.md
+++ b/content/ja/integrations/redisdb.md
@@ -45,7 +45,7 @@ draft: false
 git_integration_title: redisdb
 integration_id: redis
 integration_title: Redis
-integration_version: 7.1.0
+integration_version: 7.2.0
 is_public: true
 manifest_version: 2.0.0
 name: redisdb
diff --git a/content/ja/integrations/riakcs.md b/content/ja/integrations/riakcs.md
index f979f7d20771e..17fb1f9ced5a9 100644
--- a/content/ja/integrations/riakcs.md
+++ b/content/ja/integrations/riakcs.md
@@ -37,7 +37,7 @@ draft: false
 git_integration_title: riakcs
 integration_id: riak-cs
 integration_title: Riak CS
-integration_version: 4.2.0
+integration_version: 4.3.0
 is_public: true
 manifest_version: 2.0.0
 name: riakcs
diff --git a/content/ja/real_user_monitoring/platform/_index.md b/content/ja/real_user_monitoring/platform/_index.md
index e39a81f120a71..32f2e6a581c60 100644
--- a/content/ja/real_user_monitoring/platform/_index.md
+++ b/content/ja/real_user_monitoring/platform/_index.md
@@ -21,15 +21,11 @@ RUM アプリケーションのデータ収集を開始したら、Datadog プ
 
 {{< img src="monitors/monitor_types/rum/rum_multiple_queries_2.png" alt="カートページのエラー率についてアラートを出すように構成されたモニターです。このモニターには 2 つのクエリ (a、b) があり、数式 (a/b)*100 が含まれています。" style="width:80%;" >}}
 
-## カスタムメトリクスを生成
+## カスタムメトリクスの生成
 [カスタムメトリクス][3]を生成して、アプリケーションの KPI を最大 15 か月にわたって追跡します。
 
 {{< img src="real_user_monitoring/generate_metrics/generate_metric_example.png" alt="RUM ベースのカスタムメトリクスを生成する" width="80%" >}}
 
-## RUM とトレースの接続
-[RUM とトレースを接続][4]して、フロントエンドのリクエストを対応するバックエンドのトレースにリンクし、スタックのどこに問題があるかを特定します。
-
-{{< img src="real_user_monitoring/connect_rum_and_traces/rum_trace_tab.png" alt="RUM とトレース" style="width:100%;">}}
 
 ## その他の参考資料
 
@@ -37,5 +33,4 @@ RUM アプリケーションのデータ収集を開始したら、Datadog プ
 
 [1]: /ja/real_user_monitoring/platform/dashboards
 [2]: /ja/monitors/types/real_user_monitoring/
-[3]: /ja/real_user_monitoring/platform/generate_metrics
-[4]: /ja/real_user_monitoring/platform/connect_rum_and_traces
+[3]: /ja/real_user_monitoring/platform/generate_metrics
\ No newline at end of file
diff --git a/content/ja/security/code_security/static_analysis/setup/_index.md b/content/ja/security/code_security/static_analysis/setup/_index.md
new file mode 100644
index 0000000000000..22fe8e3b7bea1
--- /dev/null
+++ b/content/ja/security/code_security/static_analysis/setup/_index.md
@@ -0,0 +1,486 @@
+---
+algolia:
+  tags:
+  - static analysis
+  - static analysis rules
+  - static application security testing
+  - SAST
+aliases:
+- /ja/continuous_integration/static_analysis
+- /ja/static_analysis
+description: Datadog Static Code Analysis について学ぶことで、コードが本番環境に到達する前に、コードの品質問題やセキュリティ脆弱性をスキャンすることができます。
+is_beta: false
+title: Static Code Analysis (SAST) のセットアップ
+---
+
+{{% site-region region="gov" %}}
+<div class="alert alert-danger">
+    Code Security は {{< region-param key="dd_site_name" >}} サイトでは利用できません。
+</div>
+{{% /site-region %}}
+
+## 概要
+Datadog SAST をアプリ内でセットアップするには、[**Security** > **Code Security**][1] に移動してください。
+
+## 静的コード解析スキャンを実行する場所を選択する
+
+### Datadogホスティングによるスキャン
+
+GitHub リポジトリの場合、Datadog のインフラ上で直接 Datadog Static Code Analysis スキャンを実行できます。開始するには、[**Code Security** ページ][1]に移動してください。
+
+### CI パイプラインでスキャンする
+Datadog Static Code Analysis は、[`datadog-ci` CLI][8] を使用して CI パイプライン上で実行されます。
+
+まず、Datadog API とアプリケーションキーを設定します。`DD_APP_KEY` と `DD_API_KEY` をシークレットとして追加し、Datadog アプリケーションキーに `code_analysis_read` スコープがあることを確認してください。
+
+次に、下記の使用する CI プロバイダごとの手順に従って、Static Code Analysis を実行してください。
+
+{{< whatsnext desc="使用している CI プロバイダに応じた手順を参照:">}}
+    {{< nextlink href="security/code_security/static_analysis/circleci_orbs" >}}CircleCI Orbs{{< /nextlink >}}
+    {{< nextlink href="security/code_security/static_analysis/github_actions" >}}GitHub Actions{{< /nextlink >}}
+    {{< nextlink href="security/code_security/static_analysis/generic_ci_providers" >}}Generic CI Providers{{< /nextlink >}}
+{{< /whatsnext >}}
+
+## ソースコード管理プロバイダを選択する
+Datadog Static Code Analysis はすべてのソースコード管理プロバイダをサポートしており、GitHub をネイティブにサポートしています。
+### GitHub インテグレーションのセットアップ
+ソースコード管理プロバイダが GitHub の場合、[GitHub インテグレーションタイル][9]を使用して GitHub App を設定し、[ソースコードインテグレーション][10]を構成してインラインのコードスニペットを表示し、[プルリクエストコメント][11]を有効にする必要があります。
+
+GitHub App をインストールする際、以下のパーミッションが特定の機能を有効にするために必要です:
+
+- `Content: Read`: Datadog でコードスニペットを表示するために必要
+- `Pull Request: Read & Write`: Datadog が [プルリクエストコメント][11]を使用してプルリクエスト内で直接違反に対するフィードバックを追加し、[脆弱性の修正][12]用のプルリクエストを作成できるようにするために必要
+
+### その他のソースコード管理プロバイダ
+他のソースコード管理プロバイダを使用している場合は、`datadog-ci` CLI ツールを使用して CI パイプライン内で Static Code Analysis を実行し、Datadog に[その結果をアップロード](#upload-third-party-static-analysis-results-to-datadog)してください。
+**Code Security** ページに結果が表示されるようになる前に、デフォルトブランチ上で一度リポジトリの解析を実行する**必要があります**。
+
+## 設定のカスタマイズ
+
+デフォルトでは、Datadog Static Code Analysis はプログラミング言語ごとの [Datadog のデフォルトルールセット][6]を使用してリポジトリをスキャンします。実行するルールセットやルールの選択・無視、その他のパラメータを自由にカスタマイズできます。これらの設定はリポジトリ内または Datadog アプリ上で行えます。
+
+### 設定の場所
+
+Datadog Static Code Analysis は、Datadog 内、またはリポジトリの**ルートディレクトリ**に配置されたファイルのいずれかで設定できます。
+
+設定には以下の3つのレベルがあります:
+
+* 組織 (Org) レベルの設定 (Datadog)
+* リポジトリ レベルの設定 (Datadog)
+* リポジトリ レベルの設定 (リポジトリファイル)
+
+すべて同じ YAML 形式を使用し、**順番**に基づいてオーバーレイ/パッチマージが行われます。たとえば、以下の2つのサンプル YAML ファイルを見てみましょう:
+
+```yaml
+rulesets:
+ - A
+   rules:
+      foo:
+        ignore: ["**"]
+        args: ["my_arg1", "my_arg2"]
+```
+
+```yaml
+rulesets:
+ - A
+    rules:
+        foo:
+            ignore: ["my_ignored_file.file"]
+        bar:
+            only: ["the_only_file.file"]
+ - B
+
+```
+
+最初のファイルに対して2番目のファイルを順にマージ (オーバーレイ/パッチ方式) すると、最終的に以下のようになります:
+
+```yaml
+rulesets:
+ - A
+    rules:
+        foo:
+            ignore: ["my_ignored_file.file"]
+            args: ["my_arg1", "my_arg2"]
+        bar:
+            only: ["the_only_file.file"]
+ - B
+
+
+```
+
+ご覧のとおり、最初のファイルの `ignore: ["**"]` は競合が発生したため、後に読み込まれたファイルの `ignore: ["my_ignored_file.file"]` に上書きされています。一方で、最初のファイルにある `args` フィールドは競合する値がないためそのまま保持されています。
+
+#### 組織 (Org) レベルの設定
+
+{{< img src="/security/code_security/org-wide-configuration2.png" alt="作成されたルール" style="width:100%;" >}}
+
+組織レベルでの設定は、解析対象となるすべてのリポジトリに適用されます。必ず実行したいルールや、グローバルで除外すべきパス/ファイルを定義するのに適した場所です。
+
+#### リポジトリ レベルの設定
+
+{{< img src="/security/code_security/org-wide-configuration2.png" alt="作成されたルール" style="width:100%;" >}}
+
+リポジトリ レベルの設定は、選択した特定のリポジトリのみに適用されます。これらの設定は組織レベルの設定とマージされ、リポジトリ レベルの設定が優先されます。リポジトリ特有の詳細を上書きしたり、そのリポジトリだけに固有のルールを追加したい場合に有用です。
+
+#### リポジトリ レベルの設定 (ファイル)
+
+組織とリポジトリ レベルで提供される設定に加え、リポジトリのルートにある ``static-analysis.datadog.yml`` ファイルで設定を定義することもできます。このファイルは Datadog 上で定義したリポジトリ レベルの設定より優先されます。リポジトリのファイルベース設定は、ルールの設定を変更しながらセットアップやテストを繰り返す場合に便利です。
+
+### 設定フォーマット
+
+以下の設定フォーマットは、組織レベル、リポジトリ レベル、リポジトリ レベル(ファイル) のすべてに共通して適用されます。
+
+設定ファイルの全体的な構造は以下のとおりです:
+
+```yaml
+rulesets:
+  - ruleset-name # デフォルト設定で実行したいルールセット
+  - ruleset-name:
+    # このルールセットを特定のパス/ファイルのみに適用する
+    only:
+      - "path/example"
+      - "**/*.file"
+    # このルールセットを特定のパス/ファイルでは適用しない
+    ignore:
+      - "path/example"
+      - "**/*.file"
+  - ruleset-name:
+    rules:
+      rule-name:
+        # このルールを特定のパス/ファイルのみに適用する
+        only:
+          - "path/example"
+          - "**/*.file"
+        # このルールを特定のパス/ファイルでは適用しない
+        ignore:
+          - "path/example"
+          - "**/*.file"
+        arguments:
+          # ルールの引数を値に設定
+          argument-name: value
+      rule-name:
+        arguments:
+          # 異なるサブツリーに対して異なる引数値を設定する
+          argument-name:
+            # デフォルト(リポジトリのルート)は value_1
+            /: value_1
+            # 特定のパスには value_2 を設定
+            path/example: value_2
+# すべてのルールセットを以下のパス/ファイルのみに対して解析する
+only:
+  - "path/example"
+  - "**/*.file"
+# すべてのルールセットで以下のパス/ファイルを解析対象外にする
+ignore:
+  - "path/example"
+  - "**/*.file"
+```
+
+
+
+
+この YAML 設定ファイルでは、以下のトップレベルキーがサポートされます:
+
+| **プロパティ** | **タイプ** | **説明** | **デフォルト** |
+| ------------------ | -------------- | ---------------------------------------------------------------------------------------------------------------------------------- | ----------------- |
+| `rulesets` | Array | 解析対象のルールセット一覧。文字列 (ルールセット名) または詳細設定を含むオブジェクトのいずれかを要素として指定できます。 | *必須* |
+| `only` | Array | ファイルパスまたはグロブパターンのリスト。指定した場合、すべてのルールセットにおいてこれらにマッチするファイルだけが解析されます。 | なし |
+| `ignore` | Array | ファイルパスまたはグロブパターンのリスト。すべてのルールセットにおいて、これらにマッチするファイルは解析対象から除外されます。 | なし |
+
+*注:* ここで示した `only` と `ignore` は、設定ファイル全体に適用されるファイルフィルタとして機能します。
+
+---
+
+## ルールセットの設定
+
+`rulesets` 配列の各要素は、次のいずれかの方法で定義できます:
+
+1. **シンプルなルールセット宣言**: たとえば `ruleset-name` のように単なる文字列を指定すると、そのルールセットはデフォルト設定で実行されます。
+2. **詳細なルールセット オブジェクト:** キーをルールセット名、値を追加の設定を含むオブジェクトとして指定します。詳細設定可能なプロパティは以下のとおりです:
+
+| **プロパティ** | **タイプ** | **説明** | **デフォルト** |
+| ------------------ | -------------- | --------------------------------------------------------------------------------------------------- | ----------------- |
+| `only` | Array | ファイルパスまたはグロブパターンのリスト。このルールセットでは、これらのパターンに一致するファイルのみ解析対象にします。 | なし |
+| `ignore` | Array | ファイルパスまたはグロブパターンのリスト。このルールセットの解析対象から除外するファイルを指定します。 | なし |
+| `rules` | Object | 個々のルール名とその設定オブジェクトのマッピングです。 | なし |
+
+---
+
+## ルールの設定
+
+ルールセットの `rules` プロパティの中で、それぞれのルールは名前と設定によって定義されます。各ルールで利用できるプロパティは以下のとおりです:
+
+| **プロパティ** | **タイプ** | **説明** | **デフォルト** |
+| ------------------ | -------------- | -------------------------------------------------------------------------------------------------- | ----------------- |
+| `only` | Array | ファイルパスまたはグロブパターンのリスト。このルールは、これらのパターンに一致するファイルにのみ適用されます。 | なし |
+| `ignore` | Array | ファイルパスまたはグロブパターンのリスト。このルールの適用対象から除外するファイルを指定します。 | なし |
+| `arguments` | Object | ルールのパラメータと値を指定します。スカラー値またはパス単位で指定することができます。 | なし |
+
+---
+
+## 引数 (arguments) の設定
+
+ルールの引数は次の2通りの形式で定義できます:
+
+1. **固定値 (Static Value):** 引数に直接値を割り当てます。
+
+   ```yaml
+   arguments:
+     argument-name: value
+   ```
+2. **パスごとの値割り当て (Path-Specific Mapping):**
+   ファイルパスに応じて異なる値を設定します。特別なキー `/` はデフォルト値 (リポジトリルートに適用) を示します。
+
+   ```yaml
+   arguments:
+     argument-name:
+       /: value_default
+       path/example: value_specific
+   ```
+
+| **キー** | **タイプ** | **説明** | **デフォルト** |
+| ----------------- | -------------- | ------------------------------------------------------------------------- | ----------------- |
+| `/` | Any | 特定のパスに一致しない場合に使用されるデフォルトの引数値です。 | なし |
+| `specific path` | Any | 指定したパスまたはグロブパターンに一致するファイルに対して設定される引数値です。 | なし |
+
+---
+
+
+
+設定例
+
+```yaml
+rulesets:
+  - python-best-practices
+  - python-security
+  - python-code-style:
+    rules:
+      max-function-lines:
+        # max-function-lines ルールを以下のファイルでは適用しない
+        ignore:
+          - "src/main/util/process.py"
+          - "src/main/util/datetime.py"
+        arguments:
+          # max-function-lines のしきい値を 150 行に設定
+          max-lines: 150
+      max-class-lines:
+        arguments:
+          # max-class-lines ルールのしきい値をサブツリーごとに変更
+          max-lines:
+            # デフォルト (リポジトリのルート) は 200 行
+            /: 200
+            # src/main/backend 配下は 100 行
+            src/main/backend: 100
+  - python-inclusive
+  - python-django:
+    # python-django ルールセットを以下のパスのみに適用
+    only:
+      - "src/main/backend"
+      - "src/main/django"
+    # 以下のパターンにマッチするファイルには python-django ルールセットを適用しない
+    ignore:
+      - "src/main/backend/util/*.py"
+# ソースコードのみ解析対象にする
+only:
+  - "src/main"
+  - "src/tests"
+  - "**/*.py"
+# サードパーティや生成ファイルは解析対象外
+ignore:
+  - "lib/third_party"
+  - "**/*.generated.py"
+  - "**/*.pb.py"
+```
+
+
+| 名前 | 説明 | 必須 | デフォルト |
+| -------------------- | ------------------------------------------------------------------------------------------- | --------- | --------- |
+| `rulesets` | ルールセット名および設定のリスト。[利用可能なすべてのルールセットはこちら][6]。 | `true` | |
+| `ignore` | 無視するパスやグロブパターンのリスト。これらに一致するファイルは解析されません。 | `false` | |
+| `only` | 解析対象とするパスやグロブパターンのリスト。これらに一致するファイルのみ解析されます。 | `false` | |
+| `ignore-gitignore` | `.gitignore` に記載されたパスを解析対象外として扱わないようにするかどうかを指定します。 | `false` | `false` |
+| `max-file-size-kb` | 指定したサイズ(kB)より大きいファイルを無視します。 | `false` | `200` |
+
+`static-analysis.datadog.yml` ファイル内で使用できる**ルールセット (ruleset)** オプションは以下のとおりです:
+
+| 名前 | 説明 | 必須 |
+| ---------- | --------------------------------------------------------------------------------------------------------------------- | --------- |
+| `rules` | ルールセットに属する各ルールの設定リストです。 | `false` |
+| `ignore` | このルールセットだけで無視するパスやグロブパターンのリスト。該当するファイルは解析されません。 | `false` |
+| `only` | このルールセットだけで解析対象にするパスやグロブパターンのリスト。該当するファイルのみ解析します。 | `false` |
+
+同様に、**ルール (rule)** 単位で設定できるオプションは以下のとおりです:
+
+| 名前 | 説明 | 必須 |
+| ------------- | ------------------------------------------------------------------------------------------------------------------ | --------- |
+| `ignore` | このルールだけで無視するパスやグロブパターンのリスト。該当するファイルは解析されません。 | `false` |
+| `only` | このルールだけで解析対象にするパスやグロブパターンのリスト。該当するファイルのみ解析します。 | `false` |
+| `arguments` | カスタマイズ可能な引数をサポートするルールに対して値を指定するマップです。 | `false` |
+
+`arguments` フィールドのマップは、引数の名前をキーとし、値として文字列またはマップを指定します:
+
+* リポジトリ全体で同じ値を設定する場合は、単純に文字列として指定します。
+* リポジトリ内の異なるサブツリーごとに値を変えたい場合は、サブツリーのプレフィックスをキーとして、そこに適用する値をマップ形式で指定します。
+
+### 違反の無視
+
+#### リポジトリ単位で無視する
+`static-analysis.datadog.yml` ファイルに無視ルールを追加します。以下の例では、`javascript-express/reduce-server-fingerprinting` というルールをすべてのディレクトリに対して無視しています。
+
+```
+rulesets:
+  - javascript-express:
+    rules:
+      reduce-server-fingerprinting:
+        ignore: "**"
+```
+
+#### ファイルやディレクトリ単位で無視する
+`static-analysis.datadog.yml` ファイルに無視ルールを追加します。下記の例では、`javascript-express/reduce-server-fingerprinting` というルールを特定のファイルに対して無視しています。パスによる無視の詳しい方法については、[設定のカスタマイズセクション](#customize-your-configuration)を参照してください。
+
+```
+rulesets:
+  - javascript-express:
+    rules:
+      reduce-server-fingerprinting:
+        ignore: "ad-server/src/app.js"
+```
+
+#### 特定の違反インスタンスを無視する
+
+特定の違反インスタンスを無視するには、対象行の上に `no-dd-sa` コメントを入れます。こうすると、その行からは違反が検出されなくなります。以下の Python コード例では、`foo = 1` の行が Static Code Analysis スキャンで無視されます。
+
+```python
+#no-dd-sa
+foo = 1
+bar = 2
+```
+
+また、`no-dd-sa` を使って特定のルールだけを無視することもできます。その場合は、無視したいルール名を `<rule-name>` の代わりに指定します。
+
+`no-dd-sa:<rule-name>`
+
+たとえば、以下の JavaScript コード例では、`my_foo = 1` は `javascript-code-style/assignment-name` ルール以外のすべてのルールで解析されます。このルールは開発者に [snake_case][7] ではなく [camelCase][6] を使うよう指示するものです。
+
+```javascript
+// no-dd-sa:javascript-code-style/assignment-name
+my_foo = 1
+myBar = 2
+```
+
+## Datadog のサービスやチームに結果を関連付ける
+### サービスへの関連付け
+Datadog は、以下の仕組みを用いて静的コードおよびライブラリスキャンの結果を該当するサービスに関連付けます。
+
+1. [Software Catalog を用いたコード配置場所の特定](#identifying-the-code-location-in-the-software-catalog)
+2. [他の Datadog 製品内でのファイル使用パターンの検出](#detecting-file-usage-patterns)
+3. [ファイルパスやリポジトリ名からサービス名を検索](#detecting-service-name-in-paths-and-repository-names)
+
+いずれか1つの方法で関連付けに成功すると、それ以降のマッピングは行われません。それぞれのマッピング方法は以下で詳しく説明します。
+
+#### Software Catalog でコード配置場所を特定する
+
+Software Catalog の [スキーマバージョン `v3`][14] 以降では、サービスがどのリポジトリに存在し、どのパスを含むかを `codeLocations` セクションで定義できます。
+
+`paths` 属性には、リポジトリ内のパスとマッチするグロブパターンのリストを指定します。
+
+{{< code-block lang="yaml" filename="entity.datadog.yaml" collapsible="true" >}}
+apiVersion: v3
+kind: service
+metadata:
+  name: my-service
+datadog:
+  codeLocations:
+    - repositoryURL: https://github.com/myorganization/myrepo.git
+      paths:
+        - path/to/service/code/**
+{{< /code-block >}}
+
+#### ファイル使用パターンの検出
+
+Datadog は Error Tracking などの追加機能でファイルの使用状況を検出し、実行時のサービスとファイルを関連付けます。たとえば、`foo` というサービスがあり、ログやスタックトレースの中に `/modules/foo/bar.py` というファイルパスが含まれている場合、Datadog は `/modules/foo/bar.py` をサービス `foo` に関連付けます。
+
+
+
+
+#### パスやリポジトリ名からサービス名を検出する
+
+Datadog はパスやリポジトリ名に含まれるサービス名を検出し、一致があればファイルをそのサービスに関連付けます。
+
+たとえば、`myservice` というサービスがあって、リポジトリ URL が `https://github.com/myorganization/myservice.git` の場合は、リポジトリ内のすべてのファイルが `myservice` に関連付けられます。
+
+
+
+もしリポジトリとの一致が見つからなかった場合、Datadog はファイルの `path` を調べて一致するサービスを検索します。たとえば、`myservice` というサービス名が存在し、ファイルパスが `/path/to/myservice/foo.py` であれば、パスの一部に `myservice` が含まれるためファイルは `myservice` に関連付けられます。パスに 2 つのサービス名が含まれている場合は、ファイル名に近いほうのサービス名が選択されます。
+
+
+
+### チームへの関連付け
+
+Datadog は、違反や脆弱性が検出された際に、そのファイルが関連付けられているサービスにひも付いたチームを自動的に関連付けます。たとえば、`domains/ecommerce/apps/myservice/foo.py` が `myservice` に関連付けられていれば、このファイルで見つかった違反はチーム `myservice` に関連付けられます。
+
+
+
+サービスやチームが見つからない場合は、リポジトリ内の `CODEOWNERS` ファイルが使用されます。このファイルにより、Git プロバイダ上でどのチームがどのファイルを所有するかが決定されます。
+
+**注**: この機能を正しく動作させるには、Git プロバイダのチームと [Datadog のチーム][10]を正しくマッピングしておく必要があります。
+
+## 差分(diff)-Aware スキャン
+
+差分スキャンを使用すると、Datadog の静的アナライザは機能ブランチ内でコミットによって変更されたファイルだけをスキャンします。これにより、リポジトリ全体を毎回スキャンしなくてよいので、スキャン時間が大幅に短縮されます。CI パイプラインで差分スキャンを有効にするには、以下の手順に従ってください:
+
+1. `DD_APP_KEY`、`DD_SITE`、`DD_API_KEY` の各変数を CI パイプラインで設定してください。
+2. 静的アナライザを呼び出す前に `datadog-ci git-metadata upload` を実行します。これにより、Datadog バックエンドが必要とする Git メタデータが準備されます。ファイル数を算出するのに Git メタデータが必須です。
+3. datadog-static-analyzer を呼び出す際に `--diff-aware` フラグを付けて実行してください。
+
+以下はコマンド実行例です (これらはすべて Git リポジトリ内で実行してください):
+```bash
+datadog-ci git-metadata upload
+
+datadog-static-analyzer -i /path/to/directory -g -o sarif.json -f sarif –-diff-aware <...other-options...>
+```
+
+**注:** 差分スキャンが実行できない場合は、ディレクトリ全体がスキャン対象となります。
+
+## サードパーティ製静的解析の結果を Datadog にアップロードする
+
+<div class="alert alert-info">
+  SARIF インポートは Snyk、CodeQL、Semgrep、Checkov、Gitleaks、Sysdig でテスト済みです。他の SARIF に準拠したツールで問題がある場合は <a href="/help">Datadog サポート</a>にお問い合わせください。
+</div>
+
+相互運用可能な[静的分析結果交換形式 (SARIF)][2] であることを条件に、サードパーティーの静的分析ツールから Datadog へ結果を送信することができます。Node.js バージョン 14 以降が必要です。
+
+SARIF レポートをアップロードするには
+
+1. [`DD_API_KEY` 変数と `DD_APP_KEY` 変数が定義されている][4]ことを確認します。
+2. 必要に応じて [`DD_SITE` 変数][7]を設定します (デフォルトは `datadoghq.com`)。
+3. `datadog-ci` ユーティリティをインストールします。
+
+   ```bash
+   npm install -g @datadog/datadog-ci
+   ```
+
+4. サードパーティの静的分析ツールをコード上で実行し、結果を SARIF 形式で出力します。
+5. 結果を Datadog にアップロードします。
+
+   ```bash
+   datadog-ci sarif upload $OUTPUT_LOCATION
+   ```
+
+<!-- ## その他の参考資料
+
+{{< partial name="whats-next/whats-next.html" >}} -->
+
+[1]: https://app.datadoghq.com/security/configuration/code-security/setup
+[2]: https://www.oasis-open.org/committees/tc_home.php?wg_abbrev=sarif
+[3]: /ja/developers/ide_plugins/idea/#static-analysis
+[4]: /ja/account_management/api-app-keys/
+[6]: /ja/security/code_security/static_analysis/static_analysis_rules
+[7]: /ja/getting_started/site/
+[8]: https://github.com/DataDog/datadog-ci
+[9]: /ja/integrations/github/#link-a-repository-in-your-organization-or-personal-account
+[10]: /ja/integrations/guide/source-code-integration
+[11]: /ja/security/code_security/dev_tool_int/github_pull_requests
+[12]: /ja/security/code_security/dev_tool_int/github_pull_requests#fixing-a-vulnerability-directly-from-datadog
+[13]: https://docs.github.com/en/actions/security-for-github-actions/security-guides
+[14]: https://docs.datadoghq.com/ja/software_catalog/service_definitions/v3-0/
\ No newline at end of file
diff --git a/content/ja/serverless/google_cloud_run/_index.md b/content/ja/serverless/google_cloud_run/_index.md
index 8c06791929dfb..db91a12cb2fdd 100644
--- a/content/ja/serverless/google_cloud_run/_index.md
+++ b/content/ja/serverless/google_cloud_run/_index.md
@@ -1,190 +1,852 @@
 ---
 further_reading:
-- link: https://www.datadoghq.com/blog/collect-traces-logs-from-cloud-run-with-datadog/
+- link: https://www.datadoghq.com/blog/instrument-cloud-run-with-datadog-sidecar/
   tag: GitHub
+  text: 新しい Datadog Agent サイドカーを使用して Google Cloud Run アプリケーションをインスツルメントする
+- link: https://www.datadoghq.com/blog/collect-traces-logs-from-cloud-run-with-datadog/
+  tag: ブログ
   text: Cloud Run サービスからのトレース、ログ、カスタムメトリクスの収集
 title: Google Cloud Run
 ---
 
 ## 概要
 
-Google Cloud Run は、コンテナベースのアプリケーションをデプロイし、スケーリングするためのフルマネージドサーバーレスプラットフォームです。Datadog は、[Google Cloud インテグレーション][1]を通して Cloud Run のモニタリングとログ収集を提供しています。また、Datadog は、トレース、カスタムメトリクス、直接ログ収集を可能にする専用 Agent で Cloud Run アプリケーションをインスツルメントするソリューションも提供しています。
+Google Cloud Run は、コンテナベースのアプリケーションをデプロイおよびスケーリングするためのフルマネージドのサーバーレスプラットフォームです。Datadog は [Google Cloud integration][1] を通じて、Cloud Run の監視およびログ収集を提供します。
 
-### 前提条件
+<div class="alert alert-info">Google Cloud Run のアプリケーションを <code>serverless-init</code> でインスツルメントするには、<a href="/serverless/guide/gcr_serverless_init">serverless-init を使用して Google Cloud Run をインスツルメントする</a>を参照してください。</div> 
 
-[Datadog API キー][6]を取得済みであることと、[Datadog トレーシングライブラリがサポートする][2]プログラミング言語を使用していることを確認してください。
+## セットアップ
 
-## アプリケーションをインスツルメントする
+### Application
 
-アプリケーションをインスツルメンテーションするには、[Dockerfile](#dockerfile) と[ビルドパック](#buildpack)の 2 つの方法があります。
+{{< tabs >}}
+{{% tab "Node.js" %}}
+#### トレーシング
 
-### Dockerfile
+メインアプリケーションに `dd-trace-js` ライブラリを追加します。手順については [Node.js アプリケーションのトレーシング][1]を参照してください。 
 
-Datadog は、`serverless-init` コンテナイメージの新しいリリースを Google の gcr.io、Azure の ACR、AWS の ECR、および Docker Hub に公開しています。
+`ENV NODE_OPTIONS="--require dd-trace/init"` を設定します。これは、Node.js プロセス開始時に `dd-trace/init` モジュールが必ず読み込まれるよう指定するものです。 
 
-| dockerhub.io            | gcr.io                           | public.ecr.aws                         | datadoghq.azurecr.io                 |
-| ----------------------- | -------------------------------- | -------------------------------------- | ------------------------------------ |
-| datadog/serverless-init | gcr.io/datadoghq/serverless-init | public.ecr.aws/datadog/serverless-init | datadoghq.azurecr.io/serverless-init |
+#### プロファイリング
+プロファイラは Datadog のトレーシングライブラリ内に同梱されています。すでにアプリケーションのトレース収集 (APM) を行っている場合は、ライブラリを追加インストールする必要はなく、プロファイラの有効化に直接進めます。環境変数の追加方法については [Node.js プロファイラの有効化][5]を参照してください。
 
-イメージはセマンティックバージョニングに基づいてタグ付けされ、新しいバージョンごとに 3 つの関連タグが付与されます。
+#### メトリクス
+トレーシングライブラリはカスタムメトリクスも収集します。詳しくは[コード例][2]を参照してください。
 
-* `1`、`1-alpine`: 重大な変更がない最新のマイナーリリースを追跡する場合、これらを使用します
-* `1.x.x`、`1.x.x-alpine`: ライブラリの正確なバージョンにピン留めする場合、これらを使用します
-* `latest`、`latest-alpine`: 重大な変更が含まれる可能性がある最新のバージョンリリースに従う場合、これらを使用します
+#### ログ
+Datadog のサイドカーは共有ボリュームを通じてログを収集します。メインコンテナからサイドカーにログを転送するには、以下の手順に従い、アプリケーションがすべてのログを `shared-volume/logs/*.log` のような場所に書き込むよう設定してください。GCP の UI で `DD_SERVERLESS_LOG_PATH` 環境変数と、メイン・サイドカー両方のコンテナに対する共有ボリュームマウントを追加する必要があります。YAML や Terraform を使ってデプロイする場合は、環境変数やヘルスチェック、ボリュームマウントがすでに追加されています。
 
-## `serverless-init` の動作
+アプリケーションでのログ設定方法については [Node.js ログ収集][3]を参照してください。トレースとログの相関を設定するには [Node.js のログとトレースの相関][4]を参照してください。
 
-`serverless-init` アプリケーションはプロセスをラップし、サブプロセスとしてこれを実行します。このアプリケーションはメトリクス用の DogStatsD リスナーとトレース用の Trace Agent リスナーを起動します。アプリケーションの stdout/stderr ストリームをラップすることでログを収集します。ブートストラップの後、serverless-init はサブプロセスとしてコマンドを起動します。
+[1]: /ja/tracing/trace_collection/automatic_instrumentation/dd_libraries/nodejs/#getting-started
+[2]: /ja/metrics/custom_metrics/dogstatsd_metrics_submission/#code-examples
+[3]: /ja/logs/log_collection/nodejs/?tab=winston30
+[4]: /ja/tracing/other_telemetry/connect_logs_and_traces/nodejs
+[5]: https://docs.datadoghq.com/ja/profiler/enabling/nodejs?tab=environmentvariables
 
-完全なインスツルメンテーションを得るには、Docker コンテナ内で実行する最初のコマンドとして `datadog-init` を呼び出していることを確認します。これを行うには、エントリーポイントとして設定するか、CMD の最初の引数として設定します。
+{{% /tab %}}
+{{% tab "Python" %}}
+#### トレーシング
 
-{{< programming-lang-wrapper langs="nodejs,python,java,go,dotnet,ruby,php" >}}
-{{< programming-lang lang="nodejs" >}}
+メインアプリケーションに `dd-trace-py` ライブラリを追加します。手順については [Python アプリケーションのトレース][1]を参照してください。[チュートリアル: Python アプリケーションと Datadog Agent をコンテナで使用してトレースを有効化する][5]を利用することもできます。
 
-{{% svl-init-nodejs %}}
+#### プロファイリング
+プロファイラは Datadog のトレーシングライブラリ内に同梱されています。すでにアプリケーションのトレース収集 (APM) を行っている場合は、ライブラリを追加インストールする必要はなく、プロファイラの有効化に直接進めます。環境変数の追加方法については [Python プロファイラの有効化][7]を参照してください。
 
-{{< /programming-lang >}}
-{{< programming-lang lang="python" >}}
+#### メトリクス
+トレーシングライブラリはカスタムメトリクスも収集します。詳しくは[コード例][2]を参照してください。
 
-{{% svl-init-python %}}
+#### ログ
+Datadog のサイドカーは共有ボリュームを通じてログを収集します。メインコンテナからサイドカーにログを転送するには、以下の手順に従い、アプリケーションがすべてのログを `shared-volume/logs/*.log` のような場所に書き込むよう設定してください。GCP の UI で `DD_SERVERLESS_LOG_PATH` 環境変数と、メイン・サイドカー両方のコンテナに対する共有ボリュームマウントを追加する必要があります。YAML や Terraform を使ってデプロイする場合は、環境変数やヘルスチェック、ボリュームマウントがすでに追加されています。
 
-{{< /programming-lang >}}
-{{< programming-lang lang="java" >}}
+アプリケーションでのログ設定方法については [Python ログ収集][3]を参照してください。[Python ロギングのベストプラクティス][6]も役立ちます。トレースとログの相関を設定するには [Python のログとトレースの相関][4]を参照してください。
 
-{{% svl-init-java %}}
+[1]: /ja/tracing/trace_collection/automatic_instrumentation/dd_libraries/python
+[2]: /ja/metrics/custom_metrics/dogstatsd_metrics_submission/#code-examples
+[3]: /ja/logs/log_collection/python
+[4]: /ja/tracing/other_telemetry/connect_logs_and_traces/python
+[5]: /ja/tracing/guide/tutorial-enable-python-containers/
+[6]: https://www.datadoghq.com/blog/python-logging-best-practices/
+[7]: https://docs.datadoghq.com/ja/profiler/enabling/python
 
-{{< /programming-lang >}}
-{{< programming-lang lang="go" >}}
+{{% /tab %}}
+{{% tab "Java" %}}
+#### トレーシング
 
-{{% svl-init-go %}}
+メインアプリケーションに `dd-trace-java` ライブラリを追加します。[Java アプリケーションのトレース][1]の手順に従うか、以下の例の Dockerfile を使用して、自動インストルメンテーション付きでトレーシングライブラリを追加・起動してください。
 
-{{< /programming-lang >}}
-{{< programming-lang lang="dotnet" >}}
+```dockerfile
+FROM eclipse-temurin:17-jre-jammy
+WORKDIR /app
+COPY target/cloudrun-java-1.jar cloudrun-java-1.jar
 
-{{% svl-init-dotnet %}}
 
-{{< /programming-lang >}}
-{{< programming-lang lang="ruby" >}}
+# Datadog トレーサーを追加
+ADD 'https://dtdg.co/latest-java-tracer' dd-java-agent.jar
 
-{{% svl-init-ruby %}}
 
-{{< /programming-lang >}}
-{{< programming-lang lang="php" >}}
+EXPOSE 8080
 
-{{% svl-init-php %}}
 
-{{< /programming-lang >}}
-{{< /programming-lang-wrapper >}}
+# Datadog トレーサーを javaagent 引数付きで起動
+ENTRYPOINT [ "java", "-javaagent:dd-java-agent.jar", "-jar", "cloudrun-java-1.jar" ]
+```
+#### プロファイリング
+Datadog のトレーシングライブラリにはプロファイラが同梱されています。すでにアプリケーションのトレース収集 (APM) を行っている場合は、ライブラリを追加インストールする必要はなく、プロファイラの有効化に直接進めます。環境変数の追加方法については [Java プロファイラの有効化][5]を参照してください。
 
-### Buildpack
+#### メトリクス
+カスタムメトリクスを収集するには、[Java DogStatsD クライアントのインストール][2]を行ってください。
 
-[`Pack Buildpacks`][3] は Dockerfile を使用せずに、コンテナをパッケージ化する便利な手段を提供します。
+#### ログ
+Datadog のサイドカーは共有ボリュームを通じてログを収集します。メインコンテナからサイドカーにログを転送するには、以下の手順に従い、アプリケーションがすべてのログを `shared-volume/logs/*.log` のような場所に書き込むよう設定してください。GCP の UI で `DD_SERVERLESS_LOG_PATH` 環境変数と、メインおよびサイドカー両方のコンテナへの共有ボリュームマウントを追加する必要があります。YAML や Terraform を使用する場合は、環境変数、ヘルスチェック、ボリュームマウントがすでに追加されています。
 
-まず、トレーサーを手動でインストールします。
-- [Node.JS][14]
-- [Python][13]
-- [Java][15]
-- [Go][12]
-- [.NET][18]
-- [Ruby][16]
-- [PHP][17]
+アプリケーションでのログ設定方法については [Java ログ収集][3]を、トレースとログの相関を設定するには [Java のログとトレースの相関][4]を参照してください。
 
-次に、以下のコマンドを実行して、アプリケーションを構築します。
+[1]: /ja/tracing/trace_collection/automatic_instrumentation/dd_libraries/java/#getting-started
+[2]: /ja/developers/dogstatsd/?tab=hostagent&code-lang=java#install-the-dogstatsd-client
+[3]: /ja/logs/log_collection/java/?tab=winston30
+[4]: /ja/tracing/other_telemetry/connect_logs_and_traces/java
+[5]: https://docs.datadoghq.com/ja/profiler/enabling/java?tab=datadogprofiler
 
-```shell
-pack build --builder=gcr.io/buildpacks/builder \
---buildpack from=builder \
---buildpack datadog/serverless-buildpack:latest \
-gcr.io/YOUR_PROJECT/YOUR_APP_NAME
-```
+{{% /tab %}}
+{{% tab "Go" %}}
+#### トレーシング
+
+メインアプリケーションに `dd-trace-go` ライブラリを追加します。手順については [Go アプリケーションのトレース][1]を参照してください。
+
+#### プロファイリング
+Datadog のトレーシングライブラリにはプロファイラが同梱されています。すでにアプリケーションのトレース収集 (APM) を行っている場合は、ライブラリを追加インストールする必要はなく、プロファイラの有効化に直接進めます。環境変数の追加方法については [Go プロファイラの有効化][5]を参照してください。
+
+#### メトリクス
+トレーシングライブラリはカスタムメトリクスも収集します。詳しくは[コード例][2]を参照してください。
+
+#### ログ
+Datadog のサイドカーは共有ボリュームを通じてログを収集します。メインコンテナからサイドカーにログを転送するには、以下の手順に従い、アプリケーションがすべてのログを `shared-volume/logs/*.log` のような場所に書き込むよう設定してください。GCP の UI で `DD_SERVERLESS_LOG_PATH` 環境変数と、メインおよびサイドカー両方のコンテナへの共有ボリュームマウントを追加する必要があります。YAML や Terraform を使用する場合は、環境変数、ヘルスチェック、ボリュームマウントがすでに追加されています。
+
+アプリケーションでのログ設定方法については [Go ログ収集][3]を、トレースとログの相関を設定するには [Go のログとトレースの相関][4]を参照してください。
 
-**注**: ビルドパックのインスツルメンテーションは Alpine イメージと互換性がありません
+[1]: /ja/tracing/trace_collection/automatic_instrumentation/dd_libraries/go/
+[2]: /ja/metrics/custom_metrics/dogstatsd_metrics_submission/#code-examples
+[3]: /ja/logs/log_collection/go
+[4]: /ja/tracing/other_telemetry/connect_logs_and_traces/go
+[5]: https://docs.datadoghq.com/ja/profiler/enabling/go
 
-## アプリケーションを構成する
+{{% /tab %}}
+{{% tab ".NET" %}}
+#### トレーシング
 
-コンテナが構築され、レジストリにプッシュされたら、最後の手順として Datadog Agent 用に必要な環境変数を設定します。
-- `DD_API_KEY`: データを Datadog アカウントに送信するために使用する Datadog API キー。プライバシーと安全性の問題を考慮して、[Google Cloud シークレット][11]に設定する必要があります。
-- `DD_SITE`: Datadog のエンドポイントと Web サイト。このページの右側で自分のサイトを選択します。あなたのサイトは {{< region-param key="dd_site" code="true" >}} です。
-- `DD_TRACE_ENABLED`: `true` に設定してトレースを有効にします
-- `DD_TRACE_PROPAGATION_STYLE`: これを `datadog` に設定することで、コンテキスト伝搬とログトレースの相関を利用できます。
+メインアプリケーションに .NET トレーシングライブラリを追加します。手順については [.NET アプリケーションのトレース][1]を参照してください。
 
-環境変数とその機能の詳細については、[追加の構成](#additional-configurations)を参照してください。
+Dockerfile の例:
 
-次のコマンドでサービスをデプロイし、どの外部接続からもそのサービスにアクセスできるようにします。`DD_API_KEY` を環境変数として設定し、サービスのリスニングポートを 8080 に設定します。
+```dockerfile
+FROM mcr.microsoft.com/dotnet/aspnet:8.0-jammy
+WORKDIR /app
+COPY ./bin/Release/net8.0/publish /app
+
+ADD https://github.com/DataDog/dd-trace-dotnet/releases/download/v2.56.0/datadog-dotnet-apm_2.56.0_amd64.deb /opt/datadog/datadog-dotnet-apm_2.56.0_amd64.deb
+RUN dpkg -i /opt/datadog/datadog-dotnet-apm_2.56.0_amd64.deb
+RUN mkdir -p /shared-volume/logs/
+
+ENV CORECLR_ENABLE_PROFILING=1
+ENV CORECLR_PROFILER={846F5F1C-F9AE-4B07-969E-05C26BC060D8}
+ENV CORECLR_PROFILER_PATH=/opt/datadog/Datadog.Trace.ClrProfiler.Native.so
+ENV DD_DOTNET_TRACER_HOME=/opt/datadog/
+
+ENV DD_TRACE_DEBUG=true
+
+ENTRYPOINT ["dotnet", "dotnet.dll"]
+```
+#### プロファイリング
+Datadog のトレーシングライブラリにはプロファイラが同梱されています。すでにアプリケーションのトレース収集 (APM) を行っている場合は、ライブラリを追加インストールする必要はなく、プロファイラの有効化に直接進めます。環境変数の追加方法については [.NET プロファイラの有効化][5]を参照してください。
+上記の Dockerfile 例には、プロファイラのための環境変数も含まれています。
+
+#### メトリクス
+トレーシングライブラリはカスタムメトリクスも収集します。詳しくは[コード例][2]を参照してください。 
+
+#### ログ
+Datadog のサイドカーは共有ボリュームを通じてログを収集します。メインコンテナからサイドカーにログを転送するには、以下の手順に従い、アプリケーションですべてのログを `shared-volume/logs/*.log` のような場所に書き込むよう設定してください。GCP の UI で `DD_SERVERLESS_LOG_PATH` 環境変数と、メインコンテナおよびサイドカーの両方に対する共有ボリュームマウントを追加する必要があります。YAML や Terraform を使用してデプロイする場合、環境変数、ヘルスチェック、ボリュームマウントはすでに追加されています。
+
+アプリケーションでのログ設定については [C# ログ収集][3]を、トレースとログの相関を設定するには [.NET のログとトレースの相関][4]を参照してください。
+
+[1]: /ja/tracing/trace_collection/automatic_instrumentation/dd_libraries/dotnet-core/?tab=linux#enable-the-tracer-for-your-service
+[2]: https://www.datadoghq.com/blog/statsd-for-net-dogstatsd/
+[3]: /ja/log_collection/csharp/?tab=serilog
+[4]: /ja/tracing/other_telemetry/connect_logs_and_traces/dotnet/?tab=serilog
+[5]: https://docs.datadoghq.com/ja/profiler/enabling/dotnet?tab=nuget
+
+{{% /tab %}}
+{{% tab "PHP" %}}
+メインアプリケーションに `dd-trace-php` ライブラリを追加します。手順については [PHP アプリケーションのトレース][1]を参照してください。
+
+#### メトリクス
+トレーシングライブラリはカスタムメトリクスも収集します。詳しくは[コード例][2]を参照してください。
+
+#### ログ
+Datadog のサイドカーは共有ボリュームを通じてログを収集します。メインコンテナからサイドカーにログを転送するには、以下の手順に従い、アプリケーションですべてのログを `shared-volume/logs/*.log` のような場所に書き込むよう設定してください。GCP の UI で `DD_SERVERLESS_LOG_PATH` 環境変数と、メインコンテナおよびサイドカーの両方に対する共有ボリュームマウントを追加する必要があります。YAML や Terraform を使用してデプロイする場合、環境変数、ヘルスチェック、ボリュームマウントはすでに追加されています。
+
+アプリケーションでのログ設定については [PHP ログ収集][3]を、トレースとログの相関を設定するには [PHP のログとトレースの相関][4]を参照してください。
+
+[1]: /ja/tracing/trace_collection/automatic_instrumentation/dd_libraries/php/
+[2]: /ja/metrics/custom_metrics/dogstatsd_metrics_submission/#code-examples
+[3]: /ja/logs/log_collection/php
+[4]: /ja/tracing/other_telemetry/connect_logs_and_traces/php
+{{% /tab %}}
+{{< /tabs >}}
+
+### コンテナ
+{{< tabs >}}
+{{% tab "GCR UI" %}}
+
+#### サイドカーコンテナ
+
+1. Cloud Run で **Edit & Deploy New Revision** を選択します。
+1. ページ下部で **Add Container** を選択します。
+1. **Container image URL** には `gcr.io/datadoghq/serverless-init:latest` を指定します。
+1. **Volume Mounts** に移動し、ログ用のボリュームマウントを設定します。アプリケーションの書き込み先とパスが一致していることを確認してください。例: 
+   {{< img src="serverless/gcr/volume_mount.png" width="80%" alt="Volume Mounts タブ。Mounted volumes の Volume Mount 1 で、Name 1 に 'shared-logs (In-Memory)' が選択され、Mount path 1 に '/shared-volume' が設定されている。">}}
+1. **Settings** に移動し、スタートアップチェックを追加します。
+   - **Select health check type**: Startup check
+   - **Select probe type**: TCP
+   - **Port**: ポート番号を入力します (次のステップで使用するためメモしておきます)。
+1. **Variables & Secrets** に移動し、以下の環境変数を name-value ペアとして追加します。
+   - `DD_SERVICE`: サービス名。例: `gcr-sidecar-test`
+   - `DD_ENV`: 環境名。例: `dev`
+   - `DD_SERVERLESS_LOG_PATH`: ログパス。例: `/shared-volume/logs/*.log`
+   - `DD_API_KEY`: [Datadog API キー][1]
+   - `DD_HEALTH_PORT`: 前のステップでスタートアップチェックに設定したポート番号
+
+   追加のタグを含む全環境変数のリストについては、[環境変数](#environment-variables)を参照してください。
+
+#### メインコンテナ
+
+1. **Volume Mounts** に移動し、サイドカーコンテナと同じ共有ボリュームを追加します。
+   **注**: **Done** を選択して変更内容を保存してください。最終ステップまでデプロイは行わないでください。
+1. **Variables & Secrets** に移動し、サイドカーコンテナで設定したものと同じ `DD_SERVICE` 環境変数を追加します。
+1. **Settings** に移動し、**Container start up order** のドロップダウンメニューでサイドカーを選択します。
+1. メインアプリケーションをデプロイします。
+
+[1]: https://app.datadoghq.com/organization-settings/api-keys
+
+{{% /tab %}}
+{{% tab "YAML デプロイ" %}}
+Cloud Run サービスを YAML のサービス仕様でデプロイするには、以下のサンプル構成ファイルを使用します。
+
+1. 次の内容を含む YAML ファイルを作成してください。
+
+   ```yaml
+   apiVersion: serving.knative.dev/v1
+   kind: Service
+   metadata:
+     name: '<SERVICE_NAME>'
+     labels:
+       cloud.googleapis.com/location: '<LOCATION>'
+   spec:
+     template:
+       metadata:
+         annotations:
+           autoscaling.knative.dev/maxScale: '100' # The maximum number of instances that can be created for this service. https://cloud.google.com/run/docs/reference/rest/v1/RevisionTemplate
+           run.googleapis.com/container-dependencies: '{"run-sidecar-1":["serverless-init-1"]}' # Configure container start order for sidecar deployments https://cloud.google.com/run/docs/configuring/services/containers#container-ordering
+           run.googleapis.com/startup-cpu-boost: 'true' # The startup CPU boost feature for revisions provides additional CPU during instance startup time and for 10 seconds after the instance has started. https://cloud.google.com/run/docs/configuring/services/cpu#startup-boost
+       spec:
+         containers:
+           - env:
+               - name: DD_SERVICE
+                 value: '<SERVICE_NAME>'
+             image: '<CONTAINER_IMAGE>'
+             name: run-sidecar-1
+             ports:
+               - containerPort: 8080
+                 name: http1
+             resources:
+               limits:
+                 cpu: 1000m
+                 memory: 512Mi
+             startupProbe:
+               failureThreshold: 1
+               periodSeconds: 240
+               tcpSocket:
+                 port: 8080
+               timeoutSeconds: 240
+             volumeMounts:
+               - mountPath: /shared-volume
+                 name: shared-volume
+           - env:
+               - name: DD_SERVERLESS_LOG_PATH
+                 value: shared-volume/logs/*.log
+               - name: DD_SITE
+                 value: '<DATADOG_SITE>'
+               - name: DD_ENV
+                 value: serverless
+               - name: DD_API_KEY
+                 value: '<API_KEY>'
+               - name: DD_SERVICE
+                 value: '<SERVICE_NAME>'
+               - name: DD_VERSION
+                 value: '<VERSION>'
+               - name: DD_LOG_LEVEL
+                 value: debug
+               - name: DD_LOGS_INJECTION
+                 value: 'true'
+               - name: DD_HEALTH_PORT
+                 value: '12345'
+             image: gcr.io/datadoghq/serverless-init:latest
+             name: serverless-init-1
+             resources:
+               limits:
+                 cpu: 1000m
+                 memory: 512Mi # Can be updated to a higher memory if needed
+             startupProbe:
+               failureThreshold: 3
+               periodSeconds: 10
+               tcpSocket:
+                 port: 12345
+               timeoutSeconds: 1
+             volumeMounts:
+               - mountPath: /shared-volume
+                 name: shared-volume
+         volumes:
+           - emptyDir:
+               medium: Memory
+               sizeLimit: 512Mi
+             name: shared-volume
+     traffic: # make this revision and all future ones serve 100% of the traffic as soon as possible, overriding any established traffic split
+       - latestRevision: true
+         percent: 100
+   ```
+   この例では、環境変数、スタートアップヘルスチェック、ボリュームマウントがすでに追加されています。ログを有効にしたくない場合は、共有ボリュームを削除してください。メインコンテナのコンテナポートが Dockerfile/サービスで公開しているポートと同じであることを確認してください。
+1. プレースホルダ値を置き換えてください。
+   - `<SERVICE_NAME>`: サービス名。例: `gcr-sidecar-test` ([統合サービスタグ付け][2]を参照) 
+   - `<LOCATION>`: サービスをデプロイするリージョン。例: `us-central`
+   - `<DATADOG_SITE>`: 使用している [Datadog のサイト][3] ({{< region-param key="dd_site" code="true" >}}) 
+   - `<API_KEY>`: [Datadog API キー][1]
+   - `<VERSION>`: デプロイのバージョン番号 ([統合サービスタグ付け][2]を参照) 
+   - `<CONTAINER_IMAGE>`: Cloud Run にデプロイするコードのイメージ。例: `us-docker.pkg.dev/cloudrun/container/hello`
+
+1. 次を実行します。
+   ```bash
+   gcloud run services replace <FILENAME>.yaml
+   ```
+
+[1]: https://app.datadoghq.com/organization-settings/api-keys
+[2]: /ja/getting_started/tagging/unified_service_tagging/
+[3]: /ja/getting_started/site/
+
+{{% /tab %}}
+{{% tab "Terraform デプロイ" %}}
+Terraform を使用して Cloud Run サービスをデプロイするには、以下のサンプル構成ファイルを使用します。この例では、環境変数、スタートアップヘルスチェック、ボリュームマウントがすでに追加されています。ログを有効にしたくない場合は、共有ボリュームを削除してください。メインコンテナのコンテナポートが Dockerfile/サービスで公開しているポートと同じであることを確認してください。パブリックアクセスを許可したくない場合は、IAM ポリシーのセクションを削除してください。
 
 ```
-shell
-gcloud run deploy APP_NAME --image=gcr.io/YOUR_PROJECT/APP_NAME \
-  --port=8080 \
-  --update-env-vars=DD_API_KEY=$DD_API_KEY \
-  --update-env-vars=DD_TRACE_ENABLED=true \
-  --update-env-vars=DD_SITE='datadoghq.com' \
-  --update-env-vars=DD_TRACE_PROPAGATION_STYLE='datadog' \
+provider "google" {
+  project = "<PROJECT_ID>"
+  region  = "<LOCATION>"  # 例: us-central1
+}
+
+resource "google_cloud_run_service" "terraform_with_sidecar" {
+  name     = "<SERVICE_NAME>"
+  location = "<LOCATION>"
+
+  template {
+    metadata {
+      annotations = {
+        # 正しくフォーマットされた container-dependencies アノテーション
+        "run.googleapis.com/container-dependencies" = jsonencode({main-app = ["sidecar-container"]})
+      }
+    }
+    spec {
+      # 共有ボリュームを定義
+      volumes {
+        name = "shared-volume"
+        empty_dir {
+          medium = "Memory"
+        }
+      }
+
+      # メインアプリケーションコンテナ
+      containers {
+        name  = "main-app"
+        image = "<CONTAINER_IMAGE>"
+
+        # メインコンテナ用のポートを公開
+        ports {
+          container_port = 8080
+        }
+        # 共有ボリュームをマウント
+        volume_mounts {
+          name      = "shared-volume"
+          mount_path = "/shared-volume"
+        }
+
+        # TCP ヘルスチェックのための Startup Probe
+        startup_probe {
+          tcp_socket {
+            port = 8080
+          }
+          initial_delay_seconds = 0  # プローブ開始までの遅延
+          period_seconds        = 10   # プローブ間隔
+          failure_threshold     = 3   # 異常とみなすまでの失敗回数
+          timeout_seconds       = 1  # タイムアウトまでの秒数
+        }
+
+        # メインコンテナの環境変数
+        env {
+          name  = "DD_SERVICE"
+          value = "<SERVICE_NAME>"
+        }
+
+        # メインコンテナのリソース制限
+        resources {
+          limits = {
+            memory = "512Mi"
+            cpu    = "1"
+          }
+        }
+      }
+
+      # サイドカーコンテナ
+      containers {
+        name  = "sidecar-container"
+        image = "gcr.io/datadoghq/serverless-init:latest"
+
+        # 共有ボリュームをマウント
+        volume_mounts {
+          name      = "shared-volume"
+          mount_path = "/shared-volume"
+        }
+
+        # TCP ヘルスチェックのための Startup Probe
+        startup_probe {
+          tcp_socket {
+            port = 12345
+          }
+          initial_delay_seconds = 0  # プローブ開始までの遅延
+          period_seconds        = 10   # プローブ間隔
+          failure_threshold     = 3   # 異常とみなすまでの失敗回数
+          timeout_seconds       = 1
+        }
+
+        # サイドカーコンテナの環境変数
+        env {
+          name  = "DD_SITE"
+          value = "<DATADOG_SITE>"
+        }
+        env {
+          name  = "DD_SERVERLESS_LOG_PATH"
+          value = "shared-volume/logs/*.log"
+        }
+        env {
+          name  = "DD_ENV"
+          value = "serverless"
+        }
+        env {
+          name  = "DD_API_KEY"
+          value = "<API_KEY>"
+        }
+        env {
+          name  = "DD_SERVICE"
+          value = "<SERVICE_NAME>"
+        }
+        env {
+          name  = "DD_VERSION"
+          value = "<VERSION>"
+        }
+        env {
+          name  = "DD_LOG_LEVEL"
+          value = "debug"
+        }
+        env {
+          name  = "DD_LOGS_INJECTION"
+          value = "true"
+        }
+        env {
+          name  = "DD_HEALTH_PORT"
+          value = "12345"
+        }
+
+        # サイドカーコンテナのリソース制限
+        resources {
+          limits = {
+            memory = "512Mi"
+            cpu    = "1"
+          }
+        }
+      }
+    }
+  }
+
+  # トラフィックを分割する設定
+  traffic {
+    percent         = 100
+    latest_revision = true
+  }
+}
+
+# 公開アクセスを許可するための IAM メンバー (オプションで必要に応じて調整) 
+resource "google_cloud_run_service_iam_member" "invoker" {
+  service  = google_cloud_run_service.terraform_with_sidecar.name
+  location = google_cloud_run_service.terraform_with_sidecar.location
+  role     = "roles/run.invoker"
+  member   = "allUsers"
+}
 ```
 
-## 結果
+プレースホルダ値を置き換えてください。
+- `<PROJECT_ID>`: Google Cloud プロジェクト ID。
+- `<LOCATION>`: サービスをデプロイするリージョン (例: `us-central1`)
+- `<SERVICE_NAME>`: サービス名 (例: `gcr-sidecar-test`。[統合サービスタグ付け][2]を参照) 
+- `<CONTAINER_IMAGE>`: Cloud Run にデプロイするコードのイメージ
+- `<DATADOG_SITE>`: ご使用の [Datadog サイト][3] ({{< region-param key="dd_site" code="true" >}}) 
+- `<API_KEY>`: [Datadog API キー][1]
+- `<VERSION>`: デプロイのバージョン番号 ([統合サービスタグ付け][2]を参照) 
+
+[1]: https://app.datadoghq.com/organization-settings/api-keys
+[2]: /ja/getting_started/tagging/unified_service_tagging/
+[3]: /ja/getting_started/site/
+{{% /tab %}}
+{{< /tabs >}}
+
+## 環境変数
+
+| 変数 | 説明 |
+| -------- | ----------- |
+|`DD_API_KEY`| [Datadog API key][4] - **必須**|
+| `DD_SITE` | [Datadog サイト][5] - **必須** |
+| `DD_LOGS_INJECTION`| true にすると、[Java][6]、[Node][7]、[.NET][8]、[PHP][9] のサポートされているロガーにトレースデータが付与されます。[Python][10]、[Go][11]、[Ruby][12] については追加ドキュメントを参照してください。 |
+| `DD_SERVICE`      | [統合サービスタグ付け][13]を参照してください。                                  |
+| `DD_VERSION`      | [統合サービスタグ付け][13]を参照してください。                                  |
+| `DD_ENV`          | [統合サービスタグ付け][13]を参照してください。                                  |
+| `DD_SOURCE`       | [統合サービスタグ付け][13]を参照してください。                                  |
+| `DD_TAGS`         | [統合サービスタグ付け][13]を参照してください。 |
+
+`DD_LOGS_ENABLED` 環境変数は使用しないでください。この変数は [serverless-init][14] インストール方法でのみ使用されます。
+
+## アプリケーション例
+
+以下の例は、単一のアプリにトレーシング、メトリクス、ログが設定されているサンプルです。
+
+{{< tabs >}}
+{{% tab "Node.js" %}}
+
+```js
+const tracer = require('dd-trace').init({
+ logInjection: true,
+});
+const express = require("express");
+const app = express();
+const { createLogger, format, transports } = require('winston');
+
+const logger = createLogger({
+ level: 'info',
+ exitOnError: false,
+ format: format.json(),
+ transports: [new transports.File({ filename: `/shared-volume/logs/app.log`}),
+  ],
+});
+
+app.get("/", (_, res) => {
+ logger.info("ようこそ!");
+ res.sendStatus(200);
+});
+
+app.get("/hello", (_, res) => {
+ logger.info("こんにちは!");
+ metricPrefix = "nodejs-cloudrun";
+ // 複数のメトリクスをテストするため、3 種類のメトリクスを送信します
+ metricsToSend = ["sample_metric_1", "sample_metric_2", "sample_metric_3"];
+ metricsToSend.forEach((metric) => {
+   for (let i = 0; i < 20; i++) {
+     tracer.dogstatsd.distribution(`${metricPrefix}.${metric}`, 1);
+   }
+ });
+ res.status(200).json({ msg: "Datadog にメトリクスを送信します" });
+});
+
+const port = process.env.PORT || 8080;
+app.listen(port);
+```
 
-デプロイが完了すると、メトリクスとトレースが Datadog に送信されます。Datadog で **Infrastructure->Serverless** に移動すると、サーバーレスメトリクスとトレースを確認できます。
+{{% /tab %}}
+{{% tab "Python" %}}
+
+### app.py
+
+```python
+import ddtrace
+from flask import Flask, render_template, request
+import logging
+from datadog import initialize, statsd
+
+ddtrace.patch(logging=True)
+app = Flask(__name__)
+options = {
+   'statsd_host':'127.0.0.1',
+   'statsd_port':8125
+}
+FORMAT = ('%(asctime)s %(levelname)s [%(name)s] [%(filename)s:%(lineno)d] '
+         '[dd.service=%(dd.service)s dd.env=%(dd.env)s dd.version=%(dd.version)s dd.trace_id=%(dd.trace_id)s dd.span_id=%(dd.span_id)s] '
+         '- %(message)s')
+logging.basicConfig(level=logging.DEBUG, filename='app.log', format=FORMAT)
+logger = logging.getLogger(__name__)
+logger.level = logging.INFO
+
+ddlogs = []
+
+@ddtrace.tracer.wrap(service="dd_gcp_log_forwader")
+@app.route('/', methods=["GET"])
+def index():
+   log = request.args.get("log")
+   if log != None:
+       with tracer.trace('sending_logs') as span:
+           statsd.increment('dd.gcp.logs.sent')
+           span.set_tag('logs', 'nina')
+           logger.info(log)
+           ddlogs.append(log)
+   return render_template("home.html", logs=ddlogs)
+
+if __name__ == '__main__':
+   tracer.configure(port=8126)
+   initialize(**options)
+   app.run(debug=True)
+```
 
-## 追加の構成
+### Home.html
+```html
+<!DOCTYPE html>
+<html lang="en">
+<head>
+   <meta charset="UTF-8">
+   <meta http-equiv="X-UA-Compatible" content="IE=edge">
+   <meta name="viewport" content="width=device-width, initial-scale=1.0">
+   <title>Datadog Test</title>
+</head>
+<body>
+   <h1>Welcome to Datadog!💜</h1>
+   <form action="">
+       <input type="text" name="log" placeholder="Enter Log">
+       <button>Add Log</button>
+   </form>
+   <h3>Logs Sent to Datadog:</h3>
+   <ul>
+   {% for log in logs%}
+       {% if log %}
+       <li>{{ log }}</li>
+       {% endif %}
+   {% endfor %}
+   </ul>
+</body>
+</html>
+```
+{{% /tab %}}
+{{% tab "Java" %}}
+
+```java
+package com.example.springboot;
+
+import org.springframework.web.bind.annotation.GetMapping;
+import org.springframework.web.bind.annotation.RestController;
+
+import com.timgroup.statsd.NonBlockingStatsDClientBuilder;
+import com.timgroup.statsd.StatsDClient;
+
+import org.apache.commons.logging.Log;
+import org.apache.commons.logging.LogFactory;
+
+@RestController
+public class HelloController {
+   Private static final StatsDClient Statsd = new NonBlockingStatsDClientBuilder().hostname("localhost").build();
+   private static final Log logger = LogFactory.getLog(HelloController.class);
+   @GetMapping("/")
+   public String index() {
+       Statsd.incrementCounter("page.views");
+       logger.info("Hello Cloud Run!");
+       return "💜 Hello Cloud Run! 💜";
+   }
+}
+```
 
-- **高度なトレース:** Datadog Agent は、一般的なフレームワーク向けに基本的なトレース機能をすでにいくつか提供しています。さらに詳しい情報については、[高度なトレースガイド][2]に従ってください。
+{{% /tab %}}
+{{% tab "Go" %}}
+```go
+package main
+
+
+import (
+   "fmt"
+   "log"
+   "net/http"
+   "os"
+   "path/filepath"
+
+
+   "github.com/DataDog/datadog-go/v5/statsd"
+   "gopkg.in/DataDog/dd-trace-go.v1/ddtrace"
+   "gopkg.in/DataDog/dd-trace-go.v1/ddtrace/tracer"
+)
+
+
+const logDir = "/shared-volume/logs"
+
+var logFile *os.File
+var logCounter int
+var dogstatsdClient *statsd.Client
+
+func handler(w http.ResponseWriter, r *http.Request) {
+   log.Println("Yay!! Main container works")
+   span := tracer.StartSpan("maincontainer", tracer.ResourceName("/handler"))
+   defer span.Finish()
+   logCounter++
+   writeLogsToFile(fmt.Sprintf("received request %d", logCounter), span.Context())
+   dogstatsdClient.Incr("request.count", []string{"test-tag"}, 1)
+}
+
+func writeLogsToFile(log_msg string, context ddtrace.SpanContext) {
+   span := tracer.StartSpan(
+       "writeLogToFile",
+       tracer.ResourceName("/writeLogsToFile"),
+       tracer.ChildOf(context))
+   defer span.Finish()
+   _, err := logFile.WriteString(log_msg + "\n")
+   if err != nil {
+       log.Println("Error writing to log file:", err)
+   }
+}
+
+func main() {
+   log.Print("Main container started...")
+
+   err := os.MkdirAll(logDir, 0755)
+   if err != nil {
+       panic(err)
+   }
+   logFilePath := filepath.Join(logDir, "maincontainer.log")
+   log.Println("Saving logs in ", logFilePath)
+   logFileLocal, err := os.OpenFile(logFilePath, os.O_WRONLY|os.O_APPEND|os.O_CREATE, 0644)
+   if err != nil {
+       panic(err)
+   }
+   defer logFileLocal.Close()
+
+   logFile = logFileLocal
+
+   dogstatsdClient, err = statsd.New("localhost:8125")
+   if err != nil {
+       panic(err)
+   }
+   defer dogstatsdClient.Close()
+
+   tracer.Start()
+   defer tracer.Stop()
+
+   http.HandleFunc("/", handler)
+   log.Fatal(http.ListenAndServe(":8080", nil))
+}
+```
+{{% /tab %}}
+{{% tab ".NET" %}}
+```csharp
+using Microsoft.AspNetCore.Mvc;
+using Microsoft.AspNetCore.Mvc.RazorPages;
+using Serilog;
+using Serilog.Formatting.Json;
+using Serilog.Formatting.Compact;
+using Serilog.Sinks.File;
+using StatsdClient;
+
+
+namespace dotnet.Pages;
+
+
+public class IndexModel : PageModel
+{
+   private readonly static DogStatsdService _dsd;
+   static IndexModel()
+   {
+       var dogstatsdConfig = new StatsdConfig
+       {
+           StatsdServerName = "127.0.0.1",
+           StatsdPort = 8125,
+       };
+
+
+       _dsd = new DogStatsdService();
+       _dsd.Configure(dogstatsdConfig);
+
+
+       Log.Logger = new LoggerConfiguration()
+           .WriteTo.File(new RenderedCompactJsonFormatter(), "/shared-volume/logs/app.log")
+           .CreateLogger();
+   }
+   public void OnGet()
+   {
+       _dsd.Increment("page.views");
+       Log.Information("Hello Cloud Run!");
+   }
+}
+```
+{{% /tab %}}
+{{% tab "PHP" %}}
 
-- **ログ:** [Google Cloud インテグレーション][1]を使用している場合は、すでにログが収集されています。また、環境変数 `DD_LOGS_ENABLED` を `true` に設定することで、サーバーレスインスツルメンテーションを通じて直接アプリケーションログをキャプチャすることも可能です。
+```php
+<?php
 
-- **カスタムメトリクス:** [DogStatsd クライアント][4]を使って、カスタムメトリクスを送信することができます。Cloud Run やその他のサーバーレスアプリケーションの監視には、[ディストリビューション][9]メトリクスを使用します。ディストリビューションは、デフォルトで `avg`、`sum`、`max`、`min`、`count` の集計データを提供します。Metric Summary ページでは、パーセンタイル集計 (p50、p75、p90、p95、p99) を有効にすることができ、タグの管理も可能です。ゲージメトリクスタイプの分布を監視するには、[時間集計と空間集計][11]の両方で `avg`を使用します。カウントメトリクスタイプの分布を監視するには、時間集計と空間集計の両方で `sum` を使用します。
 
-### 環境変数
+require __DIR__ . '/vendor/autoload.php';
 
-| 変数                   | 説明                                                                                                                                                                                                                            |
-| ---------------------- | ------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- |
-| `DD_API_KEY`           | [Datadog API キー][7] - **必須**                                                                                                                                                                                                |
-| `DD_SITE`              | [Datadog サイト][5] - **必須**                                                                                                                                                                                                  |
-| `DD_LOGS_ENABLED`      | true の場合、ログ (stdout と stderr) を Datadog に送信します。デフォルトは false です。                                                                                                                                         |
-| `DD_LOGS_INJECTION`    | true の場合、[Java][19]、[Node][20]、[.NET][21]、および [PHP][22] でサポートされているロガーのトレースデータですべてのログをリッチ化します。[Python][23]、[Go][24]、[Ruby][25] については追加のドキュメントを参照してください。 |
-| `DD_TRACE_SAMPLE_RATE` | トレース取り込みのサンプルレート `0.0` と `1.0` をコントロールします。                                                                                                                                                          |
-| `DD_SERVICE`           | [統合サービスタグ付け][6]を参照してください。                                                                                                                                                                                   |
-| `DD_VERSION`           | [統合サービスタグ付け][6]を参照してください。                                                                                                                                                                                   |
-| `DD_ENV`               | [統合サービスタグ付け][6]を参照してください。                                                                                                                                                                                   |
-| `DD_SOURCE`            | [統合サービスタグ付け][6]を参照してください。                                                                                                                                                                                   |
-| `DD_TAGS`              | [統合サービスタグ付け][6]を参照してください。                                                                                                                                                                                   |
 
-## トラブルシューティング
+use DataDog\DogStatsd;
+use Monolog\Logger;
+use Monolog\Handler\StreamHandler;
+use Monolog\Formatter\JsonFormatter;
 
-このインテグレーションは、ランタイムに完全な SSL 実装があることが前提です。slim イメージを使用している場合、証明書を含めるために Dockerfile に次のコマンドを追加する必要があります。
 
-```
-RUN apt-get update && apt-get install -y ca-certificates
+$statsd = new DogStatsd(
+   array('host' => '127.0.0.1',
+         'port' => 8125,
+    )
+ );
+
+
+$log = new logger('datadog');
+$formatter = new JsonFormatter();
+
+
+$stream = new StreamHandler('/shared-volume/logs/app.log', Logger::DEBUG);
+$stream->setFormatter($formatter);
+
+
+$log->pushHandler($stream);
+
+
+$log->info("Hello Datadog!");
+echo '💜 Hello Datadog! 💜';
+
+
+$log->info("sending a metric");
+$statsd->increment('page.views', 1, array('environment'=>'dev'));
+
+
+?>
 ```
 
+{{% /tab %}}
+{{< /tabs >}}
 
-## その他の参考資料
+## 参考資料
 
 {{< partial name="whats-next/whats-next.html" >}}
 
 
 [1]: /ja/integrations/google_cloud_platform/#log-collection
-[2]: /ja/tracing/trace_collection/#for-setup-instructions-select-your-language
-[3]: https://buildpacks.io/docs/tools/pack/
-[4]: /ja/metrics/custom_metrics/dogstatsd_metrics_submission/
+[2]: https://app.datadoghq.com/organization-settings/api-keys
+[3]: https://hub.docker.com/r/datadog/serverless-init
+[4]: /ja/account_management/api-app-keys/#api-keys
 [5]: /ja/getting_started/site/
-[6]: /ja/getting_started/tagging/unified_service_tagging/
-[7]: /ja/account_management/api-app-keys/#api-keys
-[8]: https://github.com/DataDog/crpb/tree/main
-[9]: /ja/metrics/distributions/
-[10]: /ja/metrics/#time-and-space-aggregation
-[11]: https://cloud.google.com/run/docs/configuring/secrets
-[12]: /ja/tracing/trace_collection/library_config/go/
-[13]: /ja/tracing/trace_collection/dd_libraries/python/?tab=containers#instrument-your-application
-[14]: /ja/tracing/trace_collection/dd_libraries/nodejs/?tab=containers#instrument-your-application
-[15]: /ja/tracing/trace_collection/dd_libraries/java/?tab=containers#instrument-your-application
-[16]: /ja/tracing/trace_collection/dd_libraries/ruby/?tab=containers#instrument-your-application
-[17]: /ja/tracing/trace_collection/dd_libraries/php/?tab=containers#install-the-extension
-[18]: /ja/tracing/trace_collection/dd_libraries/dotnet-core/?tab=linux#custom-instrumentation
-[19]: /ja/tracing/other_telemetry/connect_logs_and_traces/java/?tab=log4j2
-[20]: /ja/tracing/other_telemetry/connect_logs_and_traces/nodejs
-[21]: /ja/tracing/other_telemetry/connect_logs_and_traces/dotnet?tab=serilog
-[22]: /ja/tracing/other_telemetry/connect_logs_and_traces/php
-[23]: /ja/tracing/other_telemetry/connect_logs_and_traces/python
-[24]: /ja/tracing/other_telemetry/connect_logs_and_traces/go
-[25]: /ja/tracing/other_telemetry/connect_logs_and_traces/ruby
+[6]: /ja/tracing/other_telemetry/connect_logs_and_traces/java/?tab=log4j2
+[7]: /ja/tracing/other_telemetry/connect_logs_and_traces/nodejs
+[8]: /ja/tracing/other_telemetry/connect_logs_and_traces/dotnet?tab=serilog
+[9]: /ja/tracing/other_telemetry/connect_logs_and_traces/php
+[10]: /ja/tracing/other_telemetry/connect_logs_and_traces/python
+[11]: /ja/tracing/other_telemetry/connect_logs_and_traces/go
+[12]: /ja/tracing/other_telemetry/connect_logs_and_traces/ruby
+[13]: /ja/getting_started/tagging/unified_service_tagging/
+[14]: /ja/serverless/guide/gcr_serverless_init
\ No newline at end of file
diff --git a/content/ja/tracing/trace_collection/runtime_config/_index.md b/content/ja/tracing/trace_collection/runtime_config/_index.md
index 47d360eb30c58..ec74de6c3a99a 100644
--- a/content/ja/tracing/trace_collection/runtime_config/_index.md
+++ b/content/ja/tracing/trace_collection/runtime_config/_index.md
@@ -45,7 +45,7 @@ title: 実行時の構成
 
 以下のオプションは、実行時の構成でサポートされています。各言語に必要なトレーサーのバージョンが記載されています。
 
-| オプション                                                                                                                                 | Java      | Javascript              | Python   | .NET      | Ruby      | Go        | C++ |
+| オプション                                                                                                                                 | Java      | Node.js                 | Python   | .NET      | Ruby      | Go        | C++ |
 |----------------------------------------------------------------------------------------------------------------------------------------|-----------|-------------------------|----------|-----------|-----------|-----------|-|
 | <h5>カスタムサンプリングレート</h5>DD_TRACE_SAMPLE_RATE を使用し、ライブラリのグローバルなサンプリングレートを設定します。                                  | `1.17.0+` | `4.11+` `3.32+` `2.45+` | `2.4.0+` | `2.33.0+` | `1.13.0+` | `1.59.0+` | `0.2.0+` |
 | <h5>ログインジェクション</h5>DD_LOGS_INJECTION を有効にして、ログとトレースを関連付けるためのトレース相関 ID をログに自動挿入します。 | `1.17.0+` | `4.11+` `3.32+` `2.45+` | `2.6.0+` | `2.33.0+` | `1.13.0+` |           | |
diff --git a/content/ko/account_management/_index.md b/content/ko/account_management/_index.md
index 98c0eb2a2c381..02156342cdd47 100644
--- a/content/ko/account_management/_index.md
+++ b/content/ko/account_management/_index.md
@@ -6,6 +6,10 @@ cascade:
   algolia:
     rank: 70
 description: Datadog 계정과 조직을 관리하세요
+further_reading:
+- link: https://www.datadoghq.com/blog/volkswagen-organizations/
+  tag: 블로그
+  text: 대규모 Datadog 조직 관리 모범 사례
 title: 계정 관리
 ---
 {{< site-region region="gov" >}}
@@ -31,7 +35,10 @@ Google Authentication을 사용해 Datadog에 로그인하는 경우 이메일 
 
 #### 이메일 구독
 
-이메일을 구독하면 다음 보고서에 접근할 수 있습니다.
+이메일을 구독하면 다음 보고서에 액세스할 수 있습니다.
+{{< site-region region="us3,us5,gov,ap1" >}}
+<div class="alert alert-warning">이메일 다이제스트는 선택한 사이트 ({{< region-param key="dd_site_name" >}})에서 사용할 수 없습니다.</div>
+{{< /site-region >}}
 
 * 일간 다이제스트
 * 주간 다이제스트
@@ -56,7 +63,7 @@ Google Authentication을 사용해 Datadog에 로그인하는 경우 이메일 
 
 **참조**: 더 이상 조직 소속이 아닌 경우, 조직 관리자가 초대하지 않는 이상 다시 조직에 참여할 수 없습니다.
 
-기존 조직에 참여하려면 관리자가 초대해야 합니다. 초대를 받았다면 '<Organization Name>에 참여하도록 초대받았습니다'라는 제목의 이메일이 발송됩니다. 이메일의 **계정 참여** 버튼을 클릭합니다.
+기존 조직에 참여하려면 관리자가 초대해야 합니다. 초대를 받았다면 \<Organization Name>"에 참여하도록 초대받았습니다'라는 제목의 이메일이 발송됩니다. 이메일의 **계정 참여** 버튼을 클릭합니다.
 
 사용자가 조직 관리자인 경우 다음의 추가 설명서를 확인하시기 바랍니다.
 
@@ -84,13 +91,13 @@ Google Authentication을 사용해 Datadog에 로그인하는 경우 이메일 
 
 컴퓨터 디스플레이 설정에 맞게 조정하려면 *System* 옵션을 선택하세요. 이는 Datadog의 디스플레이를 OS 수준에서 설정한 테마와 자동으로 일치시킵니다.
 
-## GitHub로 연결
+## GitHub에 연결
 
-Datadog에서 이벤트를 생성하기 위해 [GitHub 통합][9]을 설치한 경우 개인 GitHub 계정을 Datadog 사용자 계정에 연결하세요. 계정을 연결하면 Datadog 내 GitHub 이벤트에 게시한 댓글이 자동으로 해당하는 GitHub  문제나 풀 요청에 게시됩니다.
+Datadog에서 이벤트를 생성하기 위해 [GitHub 통합][9]를 설치한 경우, 개인 GitHub 계정을 Datadog 사용자 계정에 연결합니다. 계정을 연결하면 Datadog에서 GitHub 이벤트에 게시한 모든 댓글이 자동으로 GitHub의 해당 이슈 또는 풀 리퀘스트에 재게시됩니다.
 
-## 조직 계정 비활성화
+## 조직의 계정 비활성화하기
 
-Datadog 조직 계정을 비활성화하려면 [Datadog 지원팀][10]에 문의하세요.
+Datadog 조직 계정을 비활성화하려면 [Datadog 지원 팀][10]에 문의하세요.
 
 [1]: https://gravatar.com
 [2]: https://support.google.com/accounts/answer/19870?hl=en
diff --git a/content/ko/account_management/billing/apm_tracing_profiler.md b/content/ko/account_management/billing/apm_tracing_profiler.md
index f92a9ebd64fb3..d51e5d4503b67 100644
--- a/content/ko/account_management/billing/apm_tracing_profiler.md
+++ b/content/ko/account_management/billing/apm_tracing_profiler.md
@@ -6,175 +6,175 @@ aliases:
 title: 애플리케이션 성능 모니터링(APM) 빌링
 ---
 
-APM은 APM, APM Pro 및 APM Enterprise의 세 가지 티어로 제공됩니다. 애플리케이션 성능 모니터링(APM)은 분산된 추적 기능, 원활한 트레이스, 로그, 기타 텔레메트리 간 연계, 바로 사용 가능한 서비스용 성능 대시보드 등을 통해 애플리케이션에 대한 높은 수준의 가시성을 제공합니다. APM Enterprise의 지속적 프로파일러를 사용하면 서비스 및 엔드포인트 수준과 모든 분산된 트레이스에 대한 집계로 구분해 가장 느리고 가장 리소스 집약적인 메소드를 찾아낼 수 있습니다.  APM Pro 및 APM Enterprise의 데이터 스트림 모니터링(DSM)을 사용하면 손쉽게 Kafka와 RabbitMQ를 사용하는 이벤트 기반 애플리케이션과 데이터 스트리밍 파이프라인의 엔드 투 엔드 성능을 추적할 수 있습니다.
+APM은 APM, APM Pro, APM Enterprise의 세 가지 티어로 제공됩니다. APM은 분산 추적 기능, 트레이스, 로그, 기타 텔레메트리 간의 원활한 상호 연결, 서비스용 기본 제공 성능 대시보드를 통해 애플리케이션에 관한 심층적 가시성을 제공합니다. APM Enterprise의 연속 프로파일러를 사용하면 서비스 및 엔드포인트 수준 집계는 물론 모든 분산 추적에서 가장 느리면서도 리소스 집약적인 메서드를 정확하게 찾아낼 수 있습니다. APM Pro 및 APM Enterprise의 데이터 스트림 모니터링(DSM)을 사용하면 데이터 스트리밍 파이프라인과 Kafka 및 RabbitMQ를 사용하는 이벤트 기반 애플리케이션의 엔드 투 엔드 성능을 쉽게 추적할 수 있습니다.
 
 
-| 빌링 파라미터  | 가격                                      | 수집 및 인덱싱된 스팬                                                                 | Billing                                                                                                                                                                                                                                                                                                                          |
+| 빌링 파라미터  | 비용                                      | 수집 및 인덱싱된 스팬(span)                                                                 | 빌링                                                                                                                                                                                                                                                                                                                          |
 |--------------------|--------------------------------------------|-------------------------------------------------------------------------------|----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
-| [APM Host][5]      | 매월 기반 [APM 호스트][5]당 $31 | APM 호스트당 매월 1백만 개의 인덱싱된 스팬 및 150GB 수집된 스팬이 포함되어 있습니다.   | Datadog는 한 시간마다 Datadog APM 서비스에서 동시에 모니터링하는 [APM 호스트][5]의 개수를 기록합니다. 하이 워터마크 플랜(HWMP)에서 이러한 시가간별 측정값은 월말에 높은 순으로 정렬되며 Datadog는 9번째로 높은 층적값을 기반으로 요금을 부과합니다. 2월은 예외로, Datadog는 8번째로 높은 측정값을 기준으로 요금을 부과합니다. [자세한 APM 가격 책정 정보를 살펴보세요.][5] |
-| APM Pro(데이터 스트림 모니터링 포함 APM 호스트) | 기본 [APM 호스트][5]당 $35입니다. 데이터 스트림 모니터링을 포함합니다. | APM 호스트와 동일 | Datadog는 한 시간마다 Datadog APM 서비스의 고유한 APM 호스트와 고유한 DSM 호스트의 개수를 기록합니다. APM Pro에 대한 시간당 측정값 및 과금은 APM 호스트와 동일한 방법으로 이뤄집니다.  |
-| APM 엔터프라이즈(데이터 스트림 모니터링 포함 APM 호스트 및 [지속적 프로파일러)][6] | 기본 [APM 호스트][5]당 $40입니다. 데이터 스트림 모니터링 및 [지속적 프로파일러][6]뿐만 아니라 매월 호스트당 4개의 프로파일링된 컨테이너를 포함합니다. | APM 호스트와 동일 | Datadog는 한 시간마다 동시에 모니터링하는 고유한 지속적 프로파일러 호스트, 고유한 DSM 호스트, APM 서비스 내 고유한 APM 호스트 개수를 기록합니다. APM Enterprise에 대한 시간당 측정값 및 과금은 APM 호스트와 동일한 방법으로 이뤄집니다. |
-| [Fargate][4]       | APM: 매월 동시 작업당 $2 <br> APM Pro: 매월 동시 작업당 $2.30 <br> APM Enterprise: 매월 동시 작업당 $2.60              | 가격에 6만 5천 개의 인덱싱된 스팬 및 10GB의 수집된 스팬이 포함되어 있습니다.              | Datadog는 5분 간격으로 Datadog APM 서비스에서 모니터링하는 작업 인스턴스 개수를 기록합니다. Datadog는 월말에 해당 간격 기준 측정값을 집계하고 애플리케이션이 실행되고 모니터링된 평균 시간을 기준으로 요금을 부과합니다. [더 자세한 Fargate 가격 책정 정보를 살펴보세요.][4]              |
-| [인덱싱된 스팬][5] | 매월 백만 인덱싱된 스팬당 $1.70 | 사용량이 매 APM 호스트에 포함된 인덱싱된 스팬을 초과하는 경우 청구됨 | 인덱싱된 스팬은 스택에서 개별 서비스에 대한 개별 요청입니다. Datadog는 매월 말 Datadog APM 서비스에 대해 레거시 분석된 스팬 또는 유지 필터로 인덱싱된 스팬 총 수를 기반으로 요금을 부과합니다. [자세한 APM 가격 책정 정보를 살펴보세요.][5]                                                                                          |
-| [수집된 스팬][5] | 매월 수집된 스팬 기가바이트(GB)당 $.10 | 사용량이 매 APM 호스트에 포함된 수집된 스팬을 초과하는 경우 청구됨 | 수집된 스팬은 스택에서 개별 서비스에 대한 개별 요청입니다. Datadog는 매월 말 Datadog에 수집된 스팬의 기가바이트 총 수를 기반으로 요금을 부과합니다. [자세한 APM 가격 책정 정보를 살펴보세요.][5]                                                                                          |
+| [APM 호스트][5]      | 기본 [애플리케이션 성능 모니터링(APM) 호스트][5]당 월 $31 | 애플리케이션 성능 모니터링(APM) 호스트당 매월 인덱싱된 스팬 100만 개와 수집된 스팬 150GB가 포함됩니다.   | Datadog은 Datadog APM 서비스에서 한 시간에 한 번씩 동시에 모니터링하는 [APM 호스트][5]의 수를 기록합니다. HWMP(하이 워터마크 플랜)에서 이러한 시간당 측정치는 월말에 오름차순으로 정렬되며, Datadog은 9번째로 높은 측정치를 기준으로 요금을 청구합니다. 다만 2월은 예외로, Datadog은 8번째로 높은 측정치를 기준으로 요금을 청구합니다. 자세한 내용을 확인하려면 [APM 청구 정보 더 보기][5]를 참고하세요. |
+| APM Pro (데이터 스트림 모니터링 포함 APM 호스트) | 기본 [APM 호스트][5]당 $35. 데이터 스트림 모니터링 포함. | APM 호스트와 동일 | Datadog은 한 시간에 한 번씩 동시에 모니터링하는 Datadog APM 서비스의 특정 APM 호스트 및 특정 DSM 호스트의 수를 기록합니다. APM Pro에 대한 시간당 측정 및 빌링 작업은 APM 호스트와 동일하게 진행됩니다.  |
+| APM Enterprise (데이터 스트림 모니터링 포함 APM 호스트 및 [연속 프로파일러)][6] | 기본 [APM 호스트][5]당 $40. 데이터 스트림 모니터링, 호스트당 매달 4개의 프로파일링된 컨테이너가 포함된 [연속 프로파일러][6] 포함. | APM 호스트와 동일 | Datadog은 한 시간에 한 번씩 동시에 모니터링하는 APM 서비스의 특정 APM 호스트, 특정 DSM 호스트, 특정 연속 프로파일러 호스트 수를 기록합니다. APM Enterprise에 대한 시간당 측정 및 빌링 작업은 APM 호스트와 동일하게 진행됩니다. |
+| [Fargate][4]       | APM: 동시 작업당 월 $2 <br> APM Pro: 동시 작업당 월 $2.30 <br> APM Enterprise: 동시 작업당 월 $2.60              | 인덱싱된 스팬 65,000개와 수집된 스팬 10GB가 포함된 가격입니다.              | Datadog은 5분 간격으로 Datadog APM 서비스에서 모니터링하는 작업 인스턴스의 수를 기록합니다. Datadog은 월말에 기간 기반 측정값을 집계하고, 애플리케이션을 실행 및 모니터링한 평균 시간을 기준으로 요금을 청구합니다. 자세한 내용을 확인하려면 [Fargate 요금제 상세 정보][4]를 참고하세요.              |
+| [인덱싱된 스팬][5] | 인덱싱된 스팬 100만 개당 월 $1.70 | 사용량이 APM 호스트에 포함된 인덱싱된 스팬을 초과하면 요금 청구 | 인덱싱된 스팬은 스택의 개별 서비스에 대한 개별 요청입니다. Datadog 은 Datadog APM 서비스에 보존 필터 또는 레거시 분석 스팬으로 인덱싱한 총 스팬 수를 기준으로 요금을 매월 말 청구합니다. 자세한 내용을 확인하려면 [APM 요금 청구 정보 더 보기][5]를 참고하세요.                                                                                          |
+| [수집한 스팬][5] | 수집된 스팬 GB당 월 $0.10 | 사용량이 APM 호스트에 포함된 수집된 스팬을 초과하면 요금 청구 | 수집된 스팬은 스택의 개별 서비스에 대한 개별 요청입니다. Datadog는 수집한 스팬의 총 기가바이트 수를 기준으로 요금을 매월 말 청구합니다. 자세한 내용을 확인하려면 [APM 요금 청구 정보 더 보기][5]를 참고하세요.                                                                                          |
 
-**참고**:  
-   - 컨테이너 기반 환경을 사용하는 경우, Datadog 에이전트를 배포하는 기반 호스트에 대해 청구됩니다.
-   - 프로파일링된 하나의 컨테이너에서 지속적 프로파일러 서비스가 실행됩니다. 프로파일링되지 않고 있는 컨테이너를 포함하지 않습니다. 예를 들어 DNS 서비스 컨테이터는 프로파일링되지 않고 프로파일링된 애플리케이션 컨테이너와 동시에 실행됩니다. 이 컨테이너는 4개의 프로파일러 컨테이너에 할당된 것으로 계산되지 않습니다.
-   - [범용 서비스 모니터링][15]은 추가 비용 없이 모든 APM 티어(APM, APM Pro, APM Enterprise)에 포함되어 있습니다.
+**참고**: 
+   - Fargate가 아닌 컨테이너 기반 환경을 사용하는 경우, Datadog 에이전트를 배포하는 기본 호스트에 대한 요금이 청구됩니다.
+   - 하나의 프로파일링된 컨테이너는 연속 프로파일러 서비스를 실행 중인 컨테이너입니다. 여기에는 프로파일링되지 않는 컨테이너는 포함되지 않습니다. 예를 들어, 프로파일링되지 않은 DNS 서비스 컨테이너가 프로파일링 중인 애플리케이션 컨테이너와 동시에 실행되는 경우, 이는 프로파일러 컨테이너 할당치 4개에 포함되지 않습니다.
+   - [유니버설 서비스 모니터링][15]은 모든 APM 티어(APM, APM Pro, APM Enterprise)에 추가 비용 없이 포함됩니다.
 
-자세한 정보는 [가격 책정 페이지][7]를 참조하세요.
+자세한 내용을 확인하려면 [요금 페이지][7]를 참고하세요.
 
 ## 데이터베이스 모니터링
 
-| 빌링 파라미터  | 표준화된 쿼리                | Billing                                          |
+| 빌링 파라미터  | 표준화된 쿼리                | 빌링                                          |
 |--------------------|-----------------------------------|--------------------------------------------------|
-| 데이터베이스 호스트      | 모든 데이터베이스 호스트와 매월 200개의 표준화된 쿼리가 포함되어 있습니다. | Datadog는 한 시간마다 데이터베이스 모니터링을 통해 동시에 모니터링하는 데이터베이스 호스트의 개수를 기록합니다. 하이 워터마크 플랜(HWMP)에서 이러한 시간별 측정값은 월말에 높은 순으로 정렬되며 Datadog는 9번째로 높은 층적값을 기반으로 요금을 부과합니다. 2월은 예외로, Datadog는 8번째로 높은 측정값을 기준으로 요금을 부과합니다.  |
-| 표준화된 쿼리 | 설정된 임계값이 모든 데이터베이스 호스트와 포함된 표준화된 쿼리를 초과하는 경우 청구됨 | _표준화된 쿼리_는 유사한 구조의 쿼리 집계를 나타내며 쿼리 파마리터별로만 차이를 구분할 수 있습니다. Datadog는 주어진 시간 추적 중인 설정된 모든 표준화된 쿼리의 수를 바탕으로 요금을 부과합니다. |
+| 데이터베이스 호스트      | 모든 데이터베이스 호스트에 월당 표준화된 쿼리 200개가 포함됩니다. | Datadog은 데이터베이스 모니터링을 통해 한 시간에 한 번씩 동시에 모니터링하는 데이터베이스 호스트의 수를 기록합니다. HWMP(하이 워터마크 플랜)에서 이러한 시간당 측정치는 월말에 오름차순으로 정렬되며, Datadog은 9번째로 높은 측정치를 기준으로 요금을 청구합니다. 다만 2월은 예외로, Datadog은 8번째로 높은 측정치를 기준으로 요금을 청구합니다. |
+| 표준화된 쿼리 | 설정된 임계값이 모든 데이터베이스 호스트에 포함된 표준화된 쿼리값을 초과하는 경우 요금이 청구됩니다. | _표준화된 쿼리_는 비슷한 구조를 지닌 쿼리의 집계를 나타내며, 쿼리 파라미터로만 구분됩니다. Datadog은 특정 시간에 추적되는 설정된 '표준화된 쿼리'의 총 수에 기반하여 요금을 청구합니다. |
 
-자세한 정보는 [가격 책정 페이지][7]를 참조하세요.
+자세한 내용을 확인하려면 [비용 페이지][7]를 참조하세요.
 
 ## 배포 시나리오
 
-**샘플 사례는 기본 15일 인덱싱된 스팬 유지 기간을 사용한 연간 청구 요금을 보여줍니다. 계정에 대량 볼륨 할인이 적용되는지 알아보려면 [영업 팀][8] 또는 [고객 성공][9] 관리자에게 문의하세요.**
+**본 샘플 케이스는 인덱싱된 스팬 기본 보존 기간 15일에 대한 연간 청구 요금에 대한 예시입니다. 계정의 대용량 할인에 대해 알아보려면 [영업 팀][8] 또는 [고객 성공][9] 관리자에게 문의하세요.**
 
-### APM 호스트, 인덱싱된 스팬, 추가 인덱싱된 스팬
+### APM 호스트, 인덱싱된 스팬, 추가 수집된 스팬
 
-5개의 APM 호스트 사용, 3000만 개의 인덱싱된 스팬 전송, 총 수집된 스팬 900GB
+APM 호스트 5개를 사용하여 인덱싱된 스팬 3,000만 개와 총 900GB의 수집된 스팬을 전송합니다.
 
-| 청구 가능한 단위  | 수량   | 가격                                                                                           | 포뮬라       | 소계              |
+| 청구 가능 단위  | 수량   | 비용                                                                                           | 수식       | 소계              |
 |----------------|------------|-------------------------------------------------------------------------------------------------|---------------|-----------------------|
 | APM 호스트      | 5          | 호스트당 $31                                                                                    | 5 * $31       | $155                  |
-| 인덱싱된 스팬 | 3000만 개 | 5개의 APM 호스트에 5백만 개가 포함되어 있습니다. 추가 2500만 개의 인덱싱된 스팬에 대해 백만 개당 $1.70이 적용됩니다. | 25 * $1.70    | $42.50                |
-| 수집된 스팬(span) | 900 GB          | 5개의 APM 호스트에 750GB가 포함되어 있습니다. 수집된 스팬 추가 150GB에 대해 기가바이트당 $.10이 적용됩니다.                                                                                 | 150 * $.10      | $15                  |
-| 총수          |            |                                                                                                 | $155 + $42.50 + $15 | **매월 $212.50** |
+| 인덱싱된 스팬 | 3,000만 개 | APM 호스트 5개에 포함된 500만 개. 인덱싱된 스팬 추가 2,500만 개에 대해 100만 개당 $1.70 | 25 * $1.70    | $42.50                |
+| 수집된 스팬 | 900 GB          | APM 호스트 5개에 포함된 750 GB. 인덱싱된 스팬 추가 150 GB에 대해 GB당 $.10                                                                                 | 150 * $.10      | $15                  |
+| Total          |            |                                                                                                 | $155 + $42.50 + $15 | **월 $212.50** |
 
-### APM Pro 호스트, 인덱싱된 스팬, 추가 인덱싱된 스팬
+### APM Pro 호스트, 인덱싱된 스팬, 추가 수집된 스팬
 
-5개의 APM Pro 호스트 사용, 3000만 개의 인덱싱된 스팬 전송, 총 수집된 스팬 900GB
+APM Pro 호스트 5개를 사용하여 인덱싱된 스팬 3,000만 개와 총 900GB의 수집된 스팬을 전송합니다.
 
-| 청구 가능한 단위  | 수량   | 가격                                                                                           | 포뮬라       | 소계              |
+| 청구 가능 단위  | 수량   | 비용                                                                                           | 수식       | 소계              |
 |----------------|------------|-------------------------------------------------------------------------------------------------|---------------|-----------------------|
 | APM Pro 호스트      | 5          | 호스트당 $35                                                                                    | 5 * $35       | $175                  |
-| 인덱싱된 스팬 | 3000만 개 | 5개의 APM 호스트에 5백만 개가 포함되어 있습니다. 추가 2500만 개의 인덱싱된 스팬에 대해 백만 개당 $1.70이 적용됩니다. | 25 * $1.70    | $42.50                |
-| 수집된 스팬(span) | 900 GB          | 5개의 APM 호스트에 750GB가 포함되어 있습니다. 수집된 스팬 추가 150GB에 대해 기가바이트당 $.10이 적용됩니다.                                                                                 | 150 * $.10      | $15                  |
-| 총수          |            |                                                                                                 | $175 + $42.50 + $15 | **매월 $232.50** |
+| 인덱싱된 스팬 | 3,000만 개 | APM 호스트 5개에 포함된 500만 개. 인덱싱된 스팬 추가 2,500만 개에 대해 100만 개당 $1.70 | 25 * $1.70    | $42.50                |
+| 수집된 스팬 | 900 GB          | APM 호스트 5개에 포함된 750 GB. 인덱싱된 스팬 추가 150 GB에 대해 GB당 $.10                                                                                 | 150 * $.10      | $15                  |
+| Total          |            |                                                                                                 | $175 + $42.50 + $15 | **월 $232.50** |
 
-### 호스트당 6개의 프로파일링된 컨테이너를 포함하는 APM Enterprise 호스트
+### 호스트당 프로파일링된 컨테이너 6개가 포함된 APM Enterprise 호스트
 
-5개의 APM Enterprise 호스트 사용, 각 호스트당 별도의 컨테이너에 6개의 앱 실행
+각 호스트당 별도의 컨테이너에서 실행되는 6개의 앱이 포함된 APM Enterprise 호스트 5개를 사용합니다.
 
-| 청구 가능한 단위  | 수량   | 가격                                                                                           | 포뮬라       | 소계              |
+| 청구 가능 단위  | 수량   | 비용                                                                                           | 수식       | 소계              |
 |----------------|------------|-------------------------------------------------------------------------------------------------|---------------|-----------------------|
 | APM Enterprise 호스트       | 5          | 호스트당 $40                                                                                    | 5 * $40       | $200                  |
-| 프로파일링된 컨테이너  | 호스트당 6개 | 호스트당 추가 컨테이너별 $2가 적용됩니다. 이 경우, 각 호스트에 대해 6 - 4 = 2개의 추가 컨테이너가 있습니다.        | 2  * $2 * 5 호스트         | $20                   |
-| 총수          |            |                                                                                                 | $200 + $20      | **매월 $220**    |
+| 프로파일링된 컨테이너  | 호스트당 6개 | 각 호스트에 대해 추가 컨테이너당 $2. 본 예시의 경우 호스트당 6 - 4 = 2의 추가 컨테이너가 존재합니다.        | 2  * $2 * 5 호스트         | $20                   |
+| Total          |            |                                                                                                 | $200 + $20      | **월 $220**    |
 
 ### APM 호스트, Fargate, 인덱싱된 스팬
 
-5개의 APM 호스트 사용, 2000만 개의 인덱싱된 스팬 전송, 한달간 평균 20개의 Fargate 작업에 APM 배포
+APM 호스트 5개를 사용하여 인덱싱된 스팬 2,000만 개를 전송하고, 한 달간 Fargate 작업 평균 20개에 APM을 배포했습니다.
 
-| 청구 가능한 단위  | 수량   | 가격                                                                                           | 포뮬라             | 소계              |
+| 청구 가능 단위  | 수량   | 비용                                                                                           | 수식             | 소계              |
 |----------------|------------|-------------------------------------------------------------------------------------------------|---------------------|-----------------------|
 | APM 호스트      | 5          | 호스트당 $31                                                                                    | 5 * $31             | $155                  |
 | Fargate 작업  | 20         | 작업당 $2                                                                                     | 20 * $2             | $40                   |
-| 인덱싱된 스팬 | 2000만 | 5개의 APM 호스트에 5백만 개가 포함되어 있습니다. 20개의 Fargate 작업에 130만 개가 포함되어 있습니다. 추가 1370만 개의 수집된 스팬에 대해 백만당 $1.70이 적용됩니다. | 13.7 * $1.70          | $23.29                |
-| 총수          |            |                                                                                                 | $155 + $40 + $23.29 | **매월 $218.29** |
+| 인덱싱된 스팬 | 2,000만 개 | APM 호스트 5개에 500만 개 포함. Fargate 작업 20개에 130만 개 포함. 인덱싱된 스팬 추가 1,370만 개에 대해 100만 개당 $1.70 | 13.7 * $1.70          | $23.29                |
+| Total          |            |                                                                                                 | $155 + $40 + $23.29 | **월 $218.29** |
 
-### APM Enterprise 호스트, 서비스, 컨테이너 및 인덱싱된 스팬
+### APM Enterprise 호스트, 서비스, 컨테이너, 인덱싱된 스팬
 
-서비스 1에 대해 APM Enterprise가 컨테이너 1에서 실행 중입니다. 서비스 2는 컨테이너 2에서 실행됩니다. 양 컨테이너는 단일 호스트에서 실행 중이며 애플리케이션 분석으로 2000만 개의 인덱싱된 스팬을 전송합니다.
+컨테이너 1에서 실행되는 서비스 1, 컨테이너 2에서 실행되는 서비스 2에 대한 APM Enterprise. 두 컨테이너 모두 하나의 호스트에서 실행되며, 애플리케이션 분석에 인덱싱된 스팬 2,000만 개를 전송합니다.
 
-| 청구 가능한 단위  | 수량   | 가격                                                                                          | 포뮬라      | 소계             |
+| 청구 가능 단위  | 수량   | 비용                                                                                          | 수식      | 소계             |
 |----------------|------------|------------------------------------------------------------------------------------------------|--------------|----------------------|
 | APM Enterprise 호스트      | 1          | 호스트당 $40                                                                                   | 1 * $40      | $40                  |
-| 프로파일링된 컨테이너  | 2 | 4개의 APM 호스트 할당 내에 프로파일링된 컨테이너가 있으므로 $0이 적용됩니다.
-| 인덱싱된 스팬 | 2000만 | 1개의 APM 호스트에 1백만 개가 포함되어 잇습니다. 1900만 개의 추가 인덱싱된 스팬에 대해 백만당 $1.70이 적용됩니다. | 19 * $1.70   | $32.30               |
-| 총수          |            |                                                                                                | $40 + $32.30 | **매월 $72.30** |
+| 프로파일링된 컨테이너  | 2 | 프로파일링된 컨테이너가 APM 호스트 할당치당 4개 이내이므로 $0입니다.
+| 인덱싱된 스팬 | 2,000만 개 | 1 APM 호스트 5개에 포함된 100만 개. 인덱싱된 스팬 추가 1,900만 개에 대해 100만 개당 $1.70 | 19 * $1.70   | $32.30               |
+| Total          |            |                                                                                                | $40 + $32.30 | **월 $72.30** |
 
 ### 동적 스케일링, 컨테이너, Fargate 포함 및 인덱싱된 스팬 불포함 APM 호스트
 
-앱 1이 20~40개의 컨테이너에서 실행 중입니다. 컨테이너는 4~8개의 호스트 인스턴스에 배포되어 있습니다. 앱 2는 10~30개의 Fargate 작업에서 실행 중입니다. EC2 인스턴스 99번째 백분위수 사용량을 7로, 한달간 Fargate 작업 평균을 28로 가정해 봅니다.
+앱 1은 호스트 인스턴스 4~8개에 배포된 컨테이너 20~40개에서 실행되고, 앱 2는 10~30 Fargate 작업에서 실행됩니다. EC2 인스턴스의 99 백분위수 사용량이 7이고, 한 달간 Fargate 작업량 평균이 28이라고 가정합니다.
 
-| 청구 가능한 단위 | 수량 | 가격        | 포뮬라    | 소계           |
+| 청구 가능 단위 | 수량 | 비용        | 수식    | 소계           |
 |---------------|----------|--------------|------------|--------------------|
 | APM 호스트     | 7        | 호스트당 $31 | 7 * $31    | $217               |
 | Fargate 작업 | 28       | 작업당 $2  | 28 * $2    | $56                |
-| 총수         |          |              | $217 + $56 | **매월 $273** |
+| Total         |          |              | $217 + $56 | **월 $273** |
 
-**참고**: 배포된 에이전트가 E2C 인스턴스에 있는 경우 컨테이너 개수는 관계가 없습니다.
+**참고**: 배포한 에이전트가 EC2 인스턴스에 있는 경우 컨테이너의 카운트는 중요하지 않습니다.
 
-### APM Enterprise 호스트, 쿠버네티스(Kubernetes) 노드, 인덱싱된 스팬
+### Kubernetes 노드가 있는 APM Enterprise 호스트 및 인덱싱된 스팬
 
-Datadog 에이전트가 포함된 앱용 APM Enterprise가 쿠버네티스의 20개 작업자 노드에서 실행 중이며 2000만 개의 인덱싱된 스팬을 전송합니다. 이러한 작업자 노드의 10개에는 8개의 포드가 있고 포드당 1개의 컨테이너가 있습니다. 다른 10개에는 각각 2개의 포드가 있고 포드당 1개의 컨테이너를 포함합니다.
+Kubernetes로 작업자 노드 20개를 실행하고 인덱싱된 스팬 2,000만 개를 전송하는 Datadog 에이전트를 갖춘 앱용 APM Enterprise. 해당 작업자 노드 중 10개에는 포드당 컨테이너가 하나씩 있는 포드 8개가 있습니다. 다른 10개에는 포드당 컨테이너가 하나씩 있는 포드 2개가 있습니다.
 
-| 청구 가능한 단위     | 수량   | 가격                                                                       | 포뮬라   | 소계           |
+| 청구 가능 단위     | 수량   | 비용                                                                       | 수식   | 소계           |
 |-------------------|------------|-----------------------------------------------------------------------------|-----------|--------------------|
 | APM Enterprise 호스트(노드) | 20         | 호스트당 $40                                                                | 20 * $40 | $800               |
-| 프로파일링된 컨테이너  | 총 100개 | 추가 컨테이너당 $2가 적용됩니다. 이 사례에서 20개의 호스트는 최대 80개의 컨테이너를 허용하지만 2개 호스트에 걸쳐 총 20개 컨테이너가 있습습니다. 100 - 80 = 20개의 추가 컨테이너        | $2 * 20 호스트        | $40                    |
-| 인덱싱된 스팬    | 2000만 | 20개의 APM 호스트(노드)에 2000만 개가 포함되어 있습니다. 추가 인덱싱된 스팬이 없습니다. | 0 * $1.70 | 0                  |
-| 총수             |            |                                                                             | $800 + $40 | **매월 $840** |
+| 프로파일링된 컨테이너  | 집계 100 | 추가 컨테이너당 $2. 이 경우 호스트 20개는 최대 80개의 컨테이너를 허용하지만 두 개의 호스트에 대해 100-80 = 20개의 추가 컨테이너가 합산됩니다.        | $2 * 20 호스트        | $40                    |
+| 인덱싱된 스팬    | 2,000만 개 | APM 호스트 20개에 포함된 2,000만 개. 인덱싱된 스팬 추가 없음 | 0 * $1.70 | 0                  |
+| Total             |            |                                                                             | $800 + $40 | **월 $840** |
 
-쿠버네티스의 경우 APM & 지속적 프로파일러는 포드별이 아니라 노드별로 가격이 책정됩니다.
+Kubernetes의 경우 APM & 연속 프로파일러는 포드 단위가 아니라 노드 단위로 요금이 청구됩니다.
 
-### 람다 함수 및 인덱싱된 스팬
+### Lambda 함수 및 인덱싱된 스팬
 
-AWS-람다 기반 서버리스 애플리케이션이 매월 1000만 회 호출되며 1000만 개의 인덱싱된 스팬을 전송합니다.
+인덱싱된 스팬 1,000만 개를 전송하고 한 달에 1,000만 번 호출되는 AWS-Lambda 기반 서버리스 애플리케이션입니다.
 
-| 청구 가능한 단위                  | 수량   | 가격                                                                       | 포뮬라   | 소계           |
+| 청구 가능 단위                  | 수량   | 비용                                                                       | 수식   | 소계           |
 |--------------------------------|------------|-----------------------------------------------------------------------------|-----------|--------------------|
-| 람다 함수 호출    | 1000만 | [매월 $5][10]                                                           | 10 * $5  | $50               |
-| 인덱싱된 스팬                  | 1000만 회 | 각 1백만 람다 호출에 150,000개의 인덱싱된 스팬이 포함되어 있습니다. 추가 인덱싱된 스팬 백만 개당 $1.70이 적용됩니다. | 8.5 * $1.70 | $14.45               |
-| 총수                          |            |                                                                             | $50 + $14.45 | **매월 $64.45** |
+| Lambda 함수 호출    | 1,000만 번 | [월 $5][10]                                                           | 10 * $5  | $50               |
+| 인덱싱된 스팬                  | 1,000만 개 | 1,000만 번 Lambda 호출마다 인덱싱된 스팬 150,000가 포함됩니다. 추가 인덱싱된 스팬 100만 개당 $1.70 | 8.5 * $1.70 | $14.45               |
+| Total                          |            |                                                                             | $50 + $14.45 | **월 $64.45** |
 
 ## FAQ
 
-**1. 빌링에 해당하는 APM 호스트는 무엇인가요?**
+**1. 요금이 청구되는 APM 호스트로 분류되는 항목은 무엇인가요?**
 
-[호스트][4]란 물리적 또는 가상 운영 체제 인스턴스입니다. Datadog는 한 시간에 한 번 Datadog 인프라스트럭처 서비스에서 동시에 모니터링하는 호스트 개수를 기록합니다. APM 빌링을 위해 [APM이 설치된][12] 호스트 개수와 전송되는 트레이스 개수가 매 시간 계산됩니다. 매월 말, [APM 호스트][5]의 99번째 백분위수 사용량을 기준으로 청구됩니다.
+[호스트][4]는 물리 또는 가상 운영체제 인스턴스입니다. 매시간 Datadog은 Datadog 인프라스트럭처 서비스에서 동시에 모니터링하는 호스트 수를 기록합니다. APM 요금 청구의 경우, [APM이 설치된][12] 호스트의 수와 트레이스 전송 횟수가 매 시간 계산됩니다. 월말에 [APM 호스트][5]에 대한 99 백분위수 사용량을 기준으로 요금이 청구됩니다.
 
-**2. 컨테이너별로 단일 에이전트를 배포할 때 빌링이 어떻게 계산되나요?**
+**2. 컨테이너당 하나의 에이전트를 배포할 때 청구 요금은 어떻게 계산되나요?**
 
-**컨테이너 배포를 위해 _기반 호스트당 하나의 에이전트_를 설정하는 것이 좋습니다. 대신 컨테이너당 하나의 에이전트를 실행하기로 선택하면, 각 컨테이너가 하나의 호스트로 간주됩니다. 그러면 가격은 (APM 호스트당 가격) * (컨테이너 수)가 됩니다.
+컨테이너 배포를 위해 _기본 호스트당 에이전트 하나_를 설정하실 것을 권장합니다. 컨테이너당 하나의 에이전트를 실행하도록 선택하면 각 컨테이너는 하나의 호스트로 취급됩니다. 그러면 청구 비용은 (APM 호스트당 비용) * (컨테이너 수)입니다.
 
-**빌링에 해당하는 APM Fargate 작업은 무엇인가요?**
+**3. 요금이 청구되는 APM Fargate 작업으로 분류되는 항목은 무엇인가요?**
 
-Fargate 작업은 AWS Fargate에서 서버리스 컴퓨팅 엔진으로 실행되도록 예약된 컨테이너 집합을 말합니다. Datadog는 5분 간격으로 Datadog에서 동시에 모니터링하는 작업 수를 기록합니다. APM 빌링을 위해 Datadog는 계정 전체에서 한달간 매 시간 Datadog로 트레이스를 전송한 Fargate 작업의 평균 개수를 산정하여 요금을 청구합니다.
+Fargate 작업은 서버리스 컴퓨팅 엔진으로 AWS Fargate에서 실행되도록 예약된 컨테이너 모음입니다. Datadog은 5분 간격으로 Datadog에서 동시에 모니터링하는 작업의 수를 기록합니다. APM 요금 청구의 경우, Datadog은 한 달 동안 해당 계정으로 시간당 Datadog에 트레이스를 전송하는 Fargate 평균 작업 수를 기준으로 요금을 청구합니다.
 
-**환경을 업그레이드하면 빌링에 어떤 변화가 생기나요?**
+**4. 환경을 확장하면 요금 청구는 어떻게 되나요?**
 
-APM 빌링은 매월 매 시간 트레이스를 전송하는 활성 에이전트의 상위 99번째 백분위수를 사용해 계산됩니다. 매월 말 Datadog는 상위 1% 값을 무시하여 예기치 못한 증가에 대해 요금이 청구되는 것을 방지합니다.
+APM 요금은 매월 매시간마다 트레이스를 전송하는 활성 에이전트 중 상위 99 백분위수에 기반하여 산출됩니다. 월말에 Datadog은 상위 1% 값을 무시하여 예상치 못한 급등으로 인한 요금 청구를 방지합니다.
 
-**5. 쿠버네티스에서 일시 중지된 컨테이너에 대한 요금이 부과되나요?**
+**5. Kubernetes에서 일시 정지된 컨테이너에도 요금이 청구되나요?**
 
-쿠버네티스는 포드의 IP 주소를 가져와 해당 포드에 포함할 기타 모든 컨테이너의 네트워크 네임스페이스를 설정하기 위해 일시 중지 컨테이너를 생성합니다. Datadog는 모든 일시 중지 컨테이너를 쿼터에서 제외하고 이에 대한 요금을 부과하지 않습니다(에이전트 5.8+ 필요). 쿠버네티스의 경우 APM은 포드당이 아니라 노드당 요금이 부과됩니다.
+Kubernetes는 일시 중지 컨테이너를 생성하여 해당 파드의 IP 주소를 획득하고 해당 파드에 가입하는 다른 모든 컨테이너에 대한 네트워크 네임스페이스를 설정합니다. Datadog은 할당량에서 모든 일시 중지 컨테이너를 제외하고 이에 대한 비용을 청구하지 않습니다(에이전트 5.8+ 필요). 쿠버네티스의 경우 APM은 포드 단위가 아니라 노드 단위로 요금을 청구합니다.
 
-**6. 서비스와 연결된 호스트 빌링은 어떻게 되나요?**
+**6. 호스트 요금 청구는 서비스와 어떤 연관이 있나요?**
 
-APM은 서비스가 아니라 트레이스를 전송하는 에이전트가 배포된 [호스트][5]를 기준으로 청구됩니다. 또한, 호스트당 월간 할당에서 APM은 수집된 스팬 볼륨과 인덱싱된 스팬 개수를 기준으로 청구됩니다. 서비스마다 얼마의 수집된 스팬과 인덱싱된 스팬이 전송되고 있는지 확인하려면 [수집][2] 및 [보존][13] 설명서를 참조하세요.
+APM은 서비스가 아니라 트레이스를 전송하는 에이전트에 배포된 [호스트][5]를 기준으로 청구됩니다. 또한, 호스트별 월 할당치에 따라 APM  요금은 수집된 스팬 볼륨 및 인덱싱된 스팬 카운트를 기준으로 청구됩니다. 각 서비스가 전송하는 수집 및 인덱싱된 스팬의 수를 추정해 보려면 [수집][2] 및 [보존 기간][13] 설명서를 참조하세요.
 
-**7. 기본 애플리케이션 분석 필터에 어떤 일이 발생하나요?**
+**7. 기존 애플리케이션 분석 필터는 어떻게 되나요?**
 
-2020년 10월 20일 기준, 모든 기존 애플리케이션 분석 필터가 자동으로 보존 필터로 전환되었습니다. 계속하여 필터를 변경하지 않은 채로 두거나 필요에 따라 수정할 수 있습니다. 전환된 필터는 *i*가 표시되어 있으며, [보존 필터][3] 페이지 내에 레거시 애플리케이션 분석 필터를 나타냅니다.
+2020년 10월 20일부로 기존의 모든 애플리케이션 분석 필터는 보존 필터로 자동 전환됩니다. 필터를 계속 변경하지 않고 그대로 두거나 필요에 따라 수정할 수 있습니다. 전환된 필터는 [보존 필터][3] 페이지 내에서 레거시 애플리케이션 분석 필터를 나타내는 *i*로 표시됩니다.
 
-**8. 수집되거나 인덱싱된 스팬 볼륨을 어떻게 예측하나요?**
+**8. 수집 또는 인덱싱된 스팬의 볼륨은 어떻게 추정하나요?**
 
-Datadog는 수집되고 인덱싱된 스팬 볼륨을 모니터링할 수 있도록 `datadog.estimated_usage.apm.ingested_bytes` 및 `datadog.estimated_usage.apm.ingested_spans` 메트릭을 제공합니다. 자세한 내용은 [사용량 메트릭][14] 설명서를 참조할 수 있습니다.
+Datadog은 수집 및 인덱싱된 스팬 볼륨 모니터링용 메트릭 `datadog.estimated_usage.apm.ingested_bytes` 및 `datadog.estimated_usage.apm.ingested_spans`을 제공해 드립니다. 자세한 내용은 [사용량 메트릭][14] 문서에서 확인할 수 있습니다.
 
-**9. 지속적 프로파일러는 독립형 제품으로 사용할 수 있나요?**
+**9. 연속 프로파일러를 독립형 제품으로 활용할 수 있나요?**
 
-예. Datadog에 APM을 포함하지 않는 지속적 프로파일러를 구매하는 데 관심이 있는지 알려주세요. [영업 팀][8]이나 [고객 성공 매니저][9]에게 문의하세요.
+그렇습니다. APM 없이 연속 프로파일러를 구매하고 싶으시다면 Datadog에 문의해 주세요. [영업 팀][8] 또는 [고객 성공 관리자][9]에게 문의하세요.
 
-**10. 데이터 스트림 모니터링을 독립형 제품으로 이용할 수 있나요?**
+**10. 데이터 스트림 모니터링을 독립형 제품으로 활용할 수 있나요?**
 
-예. Datadog에 APM을 포함하지 않는 데이터 스트림 모니터링을 구매하는 데 관심이 있는지 알려주세요. [영업 팀][8]이나 [고객 성공 매니저][9]에게 문의하세요.
+그렇습니다. APM 없이 데이터 스트리밍 모니터링을 구매하고 싶으시다면 Datadog에 문의해 주세요. [영업 팀][8] 또는 [고객 성공 관리자][9]에게 문의하세요.
 
 
 ## 참고 자료
 
 {{< whatsnext >}}
-    {{< nextlink href="account_management/billing/usage_monitor_apm/" >}}APM 사용량에서 보기 및 알림{{< /nextlink >}}
-    {{< nextlink href="account_management/billing/usage_control_apm/" >}}APM 사용량 예측 및 제어{{< /nextlink >}}
+    {{< nextlink href="account_management/billing/usage_monitor_apm/" >}}APM 사용량 확인 및 알림{{< /nextlink >}}
+    {{< nextlink href="account_management/billing/usage_control_apm/" >}}APM 사용량 추정 및 관리{{< /nextlink >}}
 {{< /whatsnext >}}
 
 
diff --git a/content/ko/agent/guide/_index.md b/content/ko/agent/guide/_index.md
index 1108f8d04a381..ad68aaae1c1ea 100644
--- a/content/ko/agent/guide/_index.md
+++ b/content/ko/agent/guide/_index.md
@@ -9,12 +9,14 @@ private: true
 title: 에이전트 가이드
 ---
 
-{{< whatsnext desc="설정 가이드:" >}}
+{{< whatsnext desc="구성 가이드:" >}}
     {{< nextlink href="agent/guide/environment-variables" >}}Agent 환경 변수{{< /nextlink >}}
-    {{< nextlink href="agent/guide/installing-the-agent-on-a-server-with-limited-internet-connectivity" >}}인터넷 연결이 제한된 서버에 Agent 설치하기{{< /nextlink >}}
-    {{< nextlink href="agent/guide/ansible_standalone_role/" >}}독립형 Datadog 역할을 사용하여 Ansible 설정하기{{< /nextlink >}}
-    {{< nextlink href="agent/guide/how-do-i-uninstall-the-agent" >}}Agent 제거하기{{< /nextlink >}}
+    {{< nextlink href="agent/guide/installing-the-agent-on-a-server-with-limited-internet-connectivity" >}}인터넷 연결이 제한된 서버에 Agent 설치{{< /nextlink >}}
+    {{< nextlink href="agent/guide/ansible_standalone_role/" >}}독립형 Datadog 역할을 사용하여 Ansible 설정{{< /nextlink >}}
+    {{< nextlink href="agent/guide/how-do-i-uninstall-the-agent" >}}Agent 제거 방법{{< /nextlink >}}
     {{< nextlink href="agent/guide/linux-key-rotation-2024" >}}2024 Linux 키 로테이션{{< /nextlink >}}
+    {{< nextlink href="agent/guide/fips-agent" >}}FIPS Agent 설치 및 구성{{< /nextlink >}}
+
 {{< /whatsnext >}}
 
 {{< whatsnext desc="Windows guides:" >}}
diff --git a/content/ko/agent/guide/private-link.md b/content/ko/agent/guide/private-link.md
index ffc2cd685b1ff..0028258c3d1b0 100644
--- a/content/ko/agent/guide/private-link.md
+++ b/content/ko/agent/guide/private-link.md
@@ -1,5 +1,8 @@
 ---
 further_reading:
+- link: https://www.datadoghq.com/architecture/using-cross-region-aws-privatelink-to-send-telemetry-to-datadog/
+  tag: 아키텍처 센터
+  text: 크로스 리전 AWS PrivateLink를 사용하여 Datadog에 원격 측정 데이터 전송
 - link: /agent/logs
   tag: 설명서
   text: Agent로 로그 수집 활성화
@@ -19,174 +22,201 @@ title: AWS PrivateLink를 통해 Datadog에 연결
 ---
 
 {{% site-region region="us3,us5,eu,gov" %}}
-<div class="alert alert-warning">Datadog PrivateLink는 선택한 Datadog 사이트를 지원하지 않습니다.</div>
+<div class="alert alert-warning">Datadog PrivateLink는 선택한 Datadog site에서 지원되지 않습니다.</div>
 {{% /site-region %}}
 
 {{% site-region region="us,ap1" %}}
 
-이 가이드는 Datadog와 함께 사용하기 위해 [AWS PrivateLink][1]를 설정하는 방법을 안내합니다.
-
 ## 개요
 
-전체 프로세스는 로컬 Datadog 에이전트가 데이터를 보낼 수 있는 VPC 내부 엔드포인트를 설정하는 것으로 구성됩니다. 그런 다음 VPC 엔드포인트는 Datadog의 VPC 내 엔드포인트로 피어링됩니다.
-
-{{< img src="agent/guide/private_link/vpc_diagram_schema.png" alt="VPC diagram Schema" >}}
-
-## 설정
+이 가이드는 Datadog과 함께 사용할 수 있도록 [AWS PrivateLink][11]를 구성하는 방법을 안내합니다. 전체 프로세스는 로컬 Datadog Agent가 데이터를 전송할 수 있는 VPC의 내부 엔드포인트를 구성하는 것으로 진행됩니다. 그런 다음 VPC 엔드포인트를 Datadog의 VPC 내 엔드포인트와 피어링합니다.
 
-Datadog는 **{{< region-param key="aws_region" >}}**에 AWS PrivateLink 엔드포인트를 노출합니다.
-
-그러나 다른 리전에서 {{< region-param key="aws_region" code="true" >}}에 있는 Datadog 의 PrivateLink 제품으로 트래픽을 라우팅하려면 리전 간 [Amazon VPC 피어링][2]을 사용해야 합니다. 리전 간 VPC 피어링을 사용하면 서로 다른 AWS 리전에 있는 VPC 간에 연결을 설정할 수 있습니다. 이를 통해 서로 다른 지역에 있는 VPC 리소스가 비공개 IP 주소를 사용하여 서로 통신할 수 있습니다. 자세한 내용은 [Amazon VPC 피어링][2]을 참조하세요.
-
-{{< tabs >}}
-{{% tab "Connect from same region" %}}
+{{< img src="agent/guide/private_link/vpc_diagram_schema.png" alt="VPC 다이어그램 스키마" >}}
 
-1. AWS 콘솔을 **{{< region-param key="aws_region" >}}** 리전에 연결하고 VPC 엔드포인트를 생성합니다.
+Datadog은 **{{< region-param key="aws_region" >}}**에서 AWS PrivateLink 엔드포인트를 노출합니다.
+- 동일한 리전에서 Datadog 트래픽을 라우팅해야 하는 경우 [동일한 리전에서 연결](#connect-from-the-same-region)의 단계에 따라 엔드포인트를 설정합니다.
+-  {{< region-param key="aws_region" >}}에서 다른 리전으로부터 Datadog의 PrivateLink 제품으로 트래픽을 라우팅하려면 Datadog는 [크로스 리전 PrivateLink 엔드포인트](?tab=crossregionprivatelinkendpoints#connect-from-other-regions)를 권장합니다. [크로스 리전 PrivateLink][11]를 사용하면 서로 다른 AWS 리전의 VPC 간에 연결을 설정할 수 있습니다. 이를 통해 서로 다른 리전의 VPC 리소스가 프라이빗 IP 주소를 사용하여 서로 통신할 수 있습니다. 또는 [VPC 피어링](?tab=vpcpeering#connect-from-other-regions)을 사용합니다.
 
-   {{< img src="agent/guide/private_link/create_vpc_endpoint.png" alt="VPC 엔드포인트 생성" style="width:60%;" >}}
+## 동일한 리전에서 연결
 
-2. **이름으로 서비스 찾기**를 선택합니다.
-3. AWS PrivateLink를 설정할 서비스 에 따라 _서비스 이름_ 텍스트 상자를 입력합니다:
+1. AWS Management Console을 원하는 리전에 연결합니다.
+1. VPC 대시보드의 **PrivateLink and Lattice**에서 **Endpoints**를 선택합니다.
+1. **Create Endpoint**를 클릭합니다.
+   {{< img src="agent/guide/private-link-vpc.png" alt="VPC 대시보드의 엔드포인트 페이지" style="width:90%;" >}}
+1. **Find service by name**을 선택합니다.
+1. AWS PrivateLink를 설정하려는 서비스에 따라 _Service Name_ 텍스트 상자에 입력합니다.
 
     {{< img src="agent/guide/private_link/vpc_service_name.png" alt="VPC 서비스 이름" style="width:70%;" >}}
 
-| Datadog | PrivateLink 서비스 이름 | 비공개 DNS 이름 |
+| Datadog                   | PrivateLink 서비스 이름                                                               | 프라이빗 DNS 이름                                                       |
 |---------------------------|----------------------------------------------------------------------------------------|------------------------------------------------------------------------|
-| 로그(에이전트 HTTP 인테이크) | {{< region-param key="aws_private_link_logs_agent_service_name" code="true" >}}        | {{< region-param key="agent_http_endpoint" code="true">}}              |
-| 로그(사용자 HTTP 인테이크) | {{< region-param key="aws_private_link_logs_user_service_name" code="true" >}}         | {{< region-param key="http_endpoint" code="true">}}                    |
-| API | {{< region-param key="aws_private_link_api_service_name" code="true" >}}               | <code>API.{{< region-param key="dd_site" >}}</code>                    |
-| 메트릭 | {{< region-param key="aws_private_link_metrics_service_name" code="true" >}}           | <code>메트릭.에이전트.< region-param key="dd_site" >}}</code>           |
-| 컨테이너 |< region-param key="aws_private_link_containers_service_name" code="true" >}}        | <code>orchestrator.{{< region-param key="dd_site" >}}</code>            |
-| 프로세스 | {{< region-param key="aws_private_link_process_service_name" code="true" >}}           | <code>프로세스.{{< region-param key="dd_site" >}}</code>                 |
-| 프로파일링 |< region-param key="aws_private_link_profiling_service_name" code="true" >}}         | <code>intake.profile.{{< region-param key="dd_site" >}}</code>         |
-| 트레이스 | {{< region-param key="aws_private_link_traces_service_name" code="true" >}}            | <code>추적하다.에이전트.< region-param key="dd_site" >}}</code>             |
-| 데이터베이스 모니터링 | {{< region-param key="aws_private_link_dbm_service_name" code="true" >}}               | <code>dbm-메트릭</code> -intake <code>.{{< region-param key="dd_site" >}}</code>      |
-| 원격 설정 | {{< region-param key="aws_private_link_remote_config_service_name" code="true" >}}     | <code>config.< region-param key="dd_site" >}}</code>                  |
+| 로그 (Agent HTTP 인테이크)  | {{< region-param key="aws_private_link_logs_agent_service_name" code="true" >}}        | {{< region-param key="agent_http_endpoint" code="true">}}              |
+| 로그 (User HTTP 인테이크)   | {{< region-param key="aws_private_link_logs_user_service_name" code="true" >}}         | {{< region-param key="http_endpoint" code="true">}}                    |
+| API                       | {{< region-param key="aws_private_link_api_service_name" code="true" >}}               | <code>api.{{< region-param key="dd_site" >}}</code>                    |
+| 메트릭                   | {{< region-param key="aws_private_link_metrics_service_name" code="true" >}}           | <code>metrics.agent.{{< region-param key="dd_site" >}}</code>          |
+| 컨테이너                | {{< region-param key="aws_private_link_containers_service_name" code="true" >}}        | <code>orchestrator.{{< region-param key="dd_site" >}}</code>           |
+| 프로세스                   | {{< region-param key="aws_private_link_process_service_name" code="true" >}}           | <code>process.{{< region-param key="dd_site" >}}</code>                |
+| 프로파일링                 | {{< region-param key="aws_private_link_profiling_service_name" code="true" >}}         | <code>intake.profile.{{< region-param key="dd_site" >}}</code>         |
+| 트레이스                    | {{< region-param key="aws_private_link_traces_service_name" code="true" >}}            | <code>trace.agent.{{< region-param key="dd_site" >}}</code>            |
+| 데이터베이스 모니터링       | {{< region-param key="aws_private_link_dbm_service_name" code="true" >}}               | <code>dbm-metrics-intake.{{< region-param key="dd_site" >}}</code>     |
+| 원격 구성      | {{< region-param key="aws_private_link_remote_config_service_name" code="true" >}}     | <code>config.{{< region-param key="dd_site" >}}</code> |
 
-4. **확인**을 클릭합니다.  _서비스 이름을 찾을 수 없음_이 반환되지 않으면 [Datadog 지원팀][1]에 문의하세요.
-5. Datadog VPC 서비스 엔드포인트로 피어링할 VPC와 서브넷을 선택합니다.
-6. **DNS 이름 사용**에서 _이 엔드포인트에 대해 사용_이 선택되어 있는지 확인합니다:
+4. **Verify**를 클릭합니다. _Service name found_가 표시되지 않으면  [Datadog 지원팀][14]에 문의하세요.
+5. Datadog VPC 서비스 엔드포인트와 피어링할 VPC 및 서브넷을 선택합니다.
+6. **Enable DNS name**에 대해 _Enable for this endpoint_가 선택되어 있는지 확인합니다.
 
-   {{< img src="agent/guide/private_link/enabled_dns_private.png" alt="DNS 비공개 사용" style="width:80%;" >}}
+   {{< img src="agent/guide/private_link/enabled_dns_private.png" alt="Enable DNS private" style="width:80%;" >}}
 
-7. 원하는 보안 그룹을 선택하여 이 VPC 엔드포인트로 트래픽을 보낼 수 있는 항목을 제어합니다.
+7. 원하는 보안 그룹을 선택하여 이 VPC 엔드포인트로 트래픽을 전송할 수 있는 항목을 제어합니다.
 
-    **참고**: **보안 그룹은 TCP 포트 `443`**에서 인바운드 트래픽을 허용해야 합니다.
+    **참고**: **보안 그룹은 TCP 포트 `443`에서 인바운드 트래픽을 허용해야 합니다**.
 
-8. 화면 하단의 **엔드포인트 생성**을 클릭합니다. 성공하면 다음과 같은 화면이 표시됩니다:
+8. 화면 하단의 **Create endpoint**를 클릭합니다. 성공하면 다음 화면이 표시됩니다.
 
    {{< img src="agent/guide/private_link/vpc_endpoint_created.png" alt="VPC 엔드포인트 생성됨" style="width:60%;" >}}
 
-9. VPC 엔드포인트 ID를 클릭하여 점검 상태를 확인합니다.
-10. 상태가 _보류 중_에서 _사용 가능_으로 바뀔 때까지 기다립니다. 최대 10분 정도 걸릴 수 있습니다. _사용 가능_으로 표시되면 AWS PrivateLink를 사용할 수 있습니다.
+9. VPC 엔드포인트 ID를 클릭하여 상태를 확인하세요.
+10. 상태가 _Pending_에서 _Available_로 변경될 때까지 기다립니다. 최대 10분이 걸릴 수 있습니다. _Available_로 표시되면 AWS PrivateLink를 사용할 수 있습니다.
 
-    {{< img src="agent/guide/private_link/vpc_status.png" alt="VPC 상태" style="width:60%;" >}}
+    {{< img src="agent/guide/private_link/vpc_status.png" alt="VPC status" style="width:60%;" >}}
 
-11. Datadog 에이전트 버전이 6.19 또는 7.19 이전인 경우 로그 데이터를 수집하려면 에이전트가 HTTPS를 통해 로그 를 전송하도록 설정되어 있는지 확인하세요. 데이터가 아직 없는 경우 [에이전트 `datadog.yaml` 설정 파일][2]에 다음을 추가합니다:
+11. v6.19 또는 v7.19보다 이전 버전의 Datadog Agent를 실행 중이고 로그 데이터를 수집하려면 Agent가 HTTPS를 통해 로그를 보내도록 구성되어 있는지 확인하세요. 데이터가 아직 없으면 [Agent `datadog.yaml` 구성 파일][15]에 다음을 추가하세요.
 
     ```yaml
     logs_config:
-        FORCE_USE_HTTP: TRUE
+        force_use_http: true
     ```
 
-    컨테이너 에이전트를 사용하는 경우 대신 다음 환경 변수를 대신 설정하세요.
+    컨테이너 Agent를 사용하는 경우 대신 다음 환경 변수를 설정하세요.
 
     ```
     DD_LOGS_CONFIG_FORCE_USE_HTTP=true
     ```
 
-    이 설정은 로그를 Datadog로 보내는 경우 및 AWS PrivateLink 및 Datadog 에이전트를 사용하는 경우 필요하며, 람다 확장에는 필요하지 않습니다. 자세한 내용은 [에이전트 <txprotected>로그 수집][3]을 참조하세요.
+    이 구성은 AWS PrivateLink 및 Datadog Agent를 사용하여 Datadog에 로그를 보낼 때 필요하며 Lambda Extension에는 필요하지 않습니다. 자세한 내용은 [Agent 로그 수집][16]을 참조하세요.
 
-12. 람다 확장 프로그램에서 환경 변수 `DD_API_KEY_SECRET_ARN`에 지정된 ARN을 사용하여 AWS Secrets Manager에서 Datadog API 키를 로드하는 경우 [Secrets Manager용 VPC 엔드포인트 생성][4]을 수행해야 합니다.
+12. Lambda Extension이 환경 변수 `DD_API_KEY_SECRET_ARN`으로 지정된 ARN을 사용하여 AWS Secrets Manager에서 Datadog API 키를 로드하는 경우 [Secrets Manager에 대한 VPC 엔드포인트를 생성][17]해야 합니다.
 
-13. [에이전트][5]를 다시 시작하여 AWS PrivateLink를 통해 Datadog에 데이터를 전송합니다.
+13. AWS PrivateLink를 통해 Datadog로 데이터를 보내려면 [Agent를 다시 시작][13]하세요.
 
+## 다른 리전에서 연결
 
+{{< tabs >}}
+{{% tab "크로스 리전 PrivateLink 엔드포인트" %}}
+1. AWS Management Console을 원하는 리전에 연결합니다.
+1. VPC 대시보드의 **PrivateLink and Lattice**에서 **Endpoints**를 선택합니다.
+1. **Create Endpoint**를 클릭합니다.
+   {{< img src="agent/guide/private-link-vpc.png" alt="VPC 대시보드의 엔드포인트 페이지" style="width:90%;" >}}
+1. VPC 인터페이스 엔드포인트 설정을 구성합니다.
+   1. (선택 사항) **Name tag**를 입력합니다.
+   1. **Type**에서 **PrivateLink Ready partner services**를 선택합니다.
+1. 크로스 리전 서포트를 통해 인터페이스 엔드포인트를 검색하고 구성합니다.
+   1. **Service name**에 아래 [표](#privatelink-service-names)에서 유효한 PrivateLink 서비스 이름으로 서비스 이름을 입력합니다.
+   1. **Service region**에서 **Enable Cross Region endpoint**를 클릭하고 **{{< region-param key="aws_private_link_cross_region" >}}**을 선택합니다.
+   1. **Verify service**를 선택하고 _Service name verified_ 알림을 기다립니다.
+      **참고:** 위의 단계를 완료한 후에도 서비스를 확인할 수 없는 경우 [Datadog 지원팀][1]에 문의하세요.
+1. **Network Settings**에서 VPC 인터페이스 엔드포인트를 배포할 VPC를 선택합니다.
+1. **Enable DNS name**이 선택되어 있는지 확인합니다.
+1. **Subnets**에서 인터페이스 엔드포인트에 대해 VPC에서 하나 이상의 서브넷을 선택합니다.
+1. **Security Groups**에서 VPC 엔드포인트로 트래픽을 전송할 수 있는 항목을 제어하려면 보안 그룹을 선택합니다.
+
+   **참고**: 보안 그룹은 TCP 포트 443에서 인바운드 트래픽을 허용해야 합니다.
+1. (선택 사항) **Name tag**를 제공하고 **Create endpoint**를 클릭합니다.
+1. 엔드포인트 상태가 **Pending***에서 **Available**로 업데이트될 때까지 몇 분 정도 기다립니다. 최대 10분이 걸릴 수 있습니다. 예상보다 오래 걸리는 경우 [Datadog 지원팀][1]에 문의하세요.
+
+엔드포인트 상태가 **Available**로 업데이트되면 이 엔드포인트를 사용하여 크로스 리전 AWS PrivateLink 엔드포인트를 통해 Datadog에 원격 측정 데이터를 전송할 수 있습니다.
+
+## PrivateLink 서비스 이름
+
+  | Datadog                   | PrivateLink 서비스 이름                                                               | 프라이빗 DNS 이름                                                       |
+  |---------------------------|----------------------------------------------------------------------------------------|------------------------------------------------------------------------|
+  | 로그 (Agent HTTP 인테이크)  | {{< region-param key="aws_private_link_logs_agent_service_name" code="true" >}}        | <code>agent-http-intake.logs.{{< region-param key="dd_site" >}}</code> |
+  | 로그 (User HTTP 인테이크)   | {{< region-param key="aws_private_link_logs_user_service_name" code="true" >}}         | <code>http-intake.logs.{{< region-param key="dd_site" >}}</code>       |
+  | API                       | {{< region-param key="aws_private_link_api_service_name" code="true" >}}               | <code>api.{{< region-param key="dd_site" >}}</code>                    |
+  | 메트릭                | {{< region-param key="aws_private_link_metrics_service_name" code="true" >}}           | <code>metrics.agent.{{< region-param key="dd_site" >}}</code>          |
+  | 컨테이너               | {{< region-param key="aws_private_link_containers_service_name" code="true" >}}        | <code>orchestrator.{{< region-param key="dd_site" >}}</code>           |
+  | 프로세스                   | {{< region-param key="aws_private_link_process_service_name" code="true" >}}           | <code>process.{{< region-param key="dd_site" >}}</code>                |
+  | 프로파일링                 | {{< region-param key="aws_private_link_profiling_service_name" code="true" >}}         | <code>intake.profile.{{< region-param key="dd_site" >}}</code>         |
+  | 트레이스                | {{< region-param key="aws_private_link_traces_service_name" code="true" >}}            | <code>trace.agent.{{< region-param key="dd_site" >}}</code>            |
+  | 데이터베이스 모니터링       | {{< region-param key="aws_private_link_dbm_service_name" code="true" >}}               | <code>dbm-metrics-intake.{{< region-param key="dd_site" >}}</code>     |
+  | 원격 구성      | {{< region-param key="aws_private_link_remote_config_service_name" code="true" >}}     | <code>config.{{< region-param key="dd_site" >}}</code>                 |
 
 [1]: /ko/help/
-[2]: /ko/agent/configuration/agent-configuration-files/#agent-main-configuration-file
-[3]: /ko/agent/logs/?tab=tailexistingfiles#send-logs-over-https
-[4]: https://docs.aws.amazon.com/secretsmanager/latest/userguide/vpc-endpoint-overview.html
-[5]: /ko/agent/configuration/agent-commands/#restart-the-agent
-
 {{% /tab %}}
 
-{{% tab "Connect from another region using VPC Peering" %}}
-
-### Amazon VPC 피어링
-
-1. AWS 콘솔을 **{{< region-param key="aws_region" >}}** 리전에 연결하고 VPC 엔드포인트를 생성합니다.
+{{% tab "VPC 피어링" %}}
+1. AWS 콘솔을 리전 **{{< region-param key="aws_region" >}}**에 연결하고 VPC 엔드포인트를 생성합니다.
 
 {{< img src="agent/guide/private_link/create_vpc_endpoint.png" alt="VPC 엔드포인트 생성" style="width:80%;" >}}
 
-2. **이름으로 서비스 찾기**를 선택합니다.
-3. AWS PrivateLink를 설정하려는 서비스 에 따라 _서비스 이름_ 텍스트 상자를 입력합니다:
+2. **Find service by name**을 선택합니다.
+3. AWS PrivateLink를 설정하려는 서비스에 따라 _Service Name_ 텍스트 상자에 입력합니다.
 
 {{< img src="agent/guide/private_link/vpc_service_name.png" alt="VPC 서비스 이름" style="width:90%;" >}}
 
-| Datadog | PrivateLink 서비스 이름 |
+| Datadog                   | PrivateLink 서비스 이름                                                               |
 |---------------------------|----------------------------------------------------------------------------------------|
-| 로그 에이전트 HTTP 인테이크) | {{< region-param key="aws_private_link_logs_agent_service_name" code="true" >}}        |
-| 로그(사용자 HTTP 인테이크) | {{< region-param key="aws_private_link_logs_user_service_name" code="true" >}}         |
-| API | {{< region-param key="aws_private_link_api_service_name" code="true" >}}               |
-| 메트릭 | {{< region-param key="aws_private_link_metrics_service_name" code="true" >}}           |
-| 컨테이너 | {{< region-param key="aws_private_link_containers_service_name" code="true" >}}        |
-| 프로세스 | {{< region-param key="aws_private_link_process_service_name" code="true" >}}           |
-| 프로파일링 | {{< region-param key="aws_private_link_profiling_service_name" code="true" >}}         |
-| 트레이스 | {{< region-param key="aws_private_link_traces_service_name" code="true" >}}            |
-| 데이터베이스 모니터링 | {{< region-param key="aws_private_link_dbm_service_name" code="true" >}}               |
-| 원격 설정 | {{< region-param key="aws_private_link_remote_config_service_name" code="true" >}}     |
+| 로그 (Agent HTTP 인테이크)  | {{< region-param key="aws_private_link_logs_agent_service_name" code="true" >}}        |
+| 로그 (User HTTP 인테이크)   | {{< region-param key="aws_private_link_logs_user_service_name" code="true" >}}         |
+| API                       | {{< region-param key="aws_private_link_api_service_name" code="true" >}}               |
+| 메트릭                  | {{< region-param key="aws_private_link_metrics_service_name" code="true" >}}           |
+| 컨테이너               | {{< region-param key="aws_private_link_containers_service_name" code="true" >}}        |
+| 프로세스                   | {{< region-param key="aws_private_link_process_service_name" code="true" >}}           |
+| 프로파일링                | {{< region-param key="aws_private_link_profiling_service_name" code="true" >}}         |
+| 트레이스                   | {{< region-param key="aws_private_link_traces_service_name" code="true" >}}            |
+| 데이터베이스 모니터링       | {{< region-param key="aws_private_link_dbm_service_name" code="true" >}}               |
+| 원격 구성      | {{< region-param key="aws_private_link_remote_config_service_name" code="true" >}}     |
 
-4. **확인**을 클릭합니다.  _서비스 이름 찾음_이 반환되지 않으면 [Datadog 지원팀][1]에 문의하세요.
+4. **Verify**를 클릭합니다. _Service name found_가 표시되지 않으면 [Datadog 지원팀][1]에 문의하세요.
 
-5. 다음으로 Datadog VPC 서비스 엔드포인트로 피어링할 VPC와 서브넷을 선택합니다. VPC 피어링을 사용하려면 DNS를 수동으로 설정해야 하므로 **DNS 이름 사용**을 선택하지 마세요.
+5. Datadog VPC 서비스 엔드포인트와 피어링해야 하는 VPC와 서브넷을 선택합니다. VPC 피어링에는 DNS를 수동으로 구성해야 하기 때문에 **Enable DNS name**을 선택하지 마세요. 
 
-6. 원하는 보안 그룹을 선택하여 이 VPC 엔드포인트로 트래픽을 보낼 수 있는 항목을 제어합니다.
+6. 원하는 보안 그룹을 선택하여 이 VPC 엔드포인트로 트래픽을 전송할 수 있는 항목을 제어합니다.
 
-    **참고**: **보안 그룹은 TCP 포트 `443`**에서 인바운드 트래픽을 허용해야 합니다.
+    **참고**: **보안 그룹은 TCP 포트 `443`에서 인바운드 트래픽을 허용해야 합니다**.
 
-7.  화면 하단의 **엔드포인트 생성**을 클릭합니다. 성공하면 다음과 같은 화면이 표시됩니다:
+7. 화면 하단에서 **Create endpoint**를 클릭합니다. 성공하면 다음 화면이 표시됩니다.
 
-{{< img src="agent/guide/private_link/vpc_endpoint_created.png" alt="VPC 엔드포인트 생성됨" 스타일="width:80%;" >}}
+{{< img src="agent/guide/private_link/vpc_endpoint_created.png" alt="VPC 엔드포인트 생성됨" style="width:80%;" >}}
 
-8. VPC 엔드포인트 ID를 클릭하여 점검 상태를 확인합니다.
-9. 상태가 _보류 중_에서 _사용 가능_으로 바뀔 때까지 기다립니다. 최대 10분 정도 걸릴 수 있습니다.
-10. 엔드포인트를 생성한 후 VPC 피어링을 사용하여 다른 지역에서 PrivateLink 엔드포인트를 사용할 수 있도록 설정하여 PrivateLink를 통해 Datadog로 텔레메트리을 보냅니다. 자세한 내용은 AWS의 [VPC 피어링 연결로 작업하기][2] 페이지를 참조하세요.
+8. VPC 엔드포인트 ID를 클릭하여 상태를 확인합니다.
+9. 상태가 _Pending_에서 _Available_로 바뀔 때까지 기다립니다. 최대 10분이 걸릴 수 있습니다.
+10. 엔드포인트를 만든 후 VPC 피어링을 사용하여 PrivateLink 엔드포인트를 다른 지역에서 사용할 수 있게 하여 PrivateLink를 통해 Datadog에 원격 측정을 보냅니다. 자세한 내용은 AWS의 [VPC 피어링 연결 작업][2] 페이지를 참조하세요.
 
-{{< img src="agent/guide/private_link/vpc_status.png" alt="VPC 상태" style="width:80%;" >}}
+{{< img src="agent/guide/private_link/vpc_status.png" alt="VPC status" style="width:80%;" >}}
 
 ### Amazon Route53
 
-1. AWS PrivateLink 엔드포인트를 생성한 각 서비스 에 대해 [Route53 비공개 호스트 영역][3]을 생성합니다. {{< region-param key="aws_region" code="true" >}}의 VPC에 프라이빗 호스트 영역을 연결합니다.
+1. AWS PrivateLink 엔드포인트를 생성한 각 서비스에 대해 [Route53 프라이빗 호스팅 영역][3]을 생성합니다. {{< region-param key="aws_region" code="true" >}}에서 Attach 프라이빗 호스팅 영역을 VPC에 연결합니다.
 
-{{< img src="agent/guide/private_link/create-a-route53-private-hosted-zone.png" alt="Route53 사설 호스트 영역 생성" style="width:80%;" >}}
+{{< img src="agent/guide/private_link/create-a-route53-private-hosted-zone.png" alt="Route53 프라이빗 호스팅 영역 생성" style="width:80%;" >}}
 
-아래 목록을 사용하여 서비스와 DNS 이름을 Datadog의 다른 부분에 매핑합니다:
+아래 목록을 사용하여 서비스와 DNS 이름을 Datadog의 다른 부분에 매핑하세요.
 
-  | Datadog | PrivateLink 서비스 이름 | 비공개 DNS 이름 |
+  | Datadog                   | PrivateLink 서비스 이름                                                              | 프라이빗 이름                                                       |
   |---------------------------|----------------------------------------------------------------------------------------|------------------------------------------------------------------------|
-  | 로그(에이전트 HTTP 인테이크) | {{< region-param key="aws_private_link_logs_agent_service_name" code="true" >}}        | <code>http-intake.logs.</code> <code>.로그.{{< region-param key="dd_site" >}}</code>  |
-  | 로그(사용자 HTTP 인테이크) | {{< region-param key="aws_private_link_logs_user_service_name" code="true" >}}         | <code>로그.{{< region-param key="dd_site" >}}</code>        |
-  | API | {{< region-param key="aws_private_link_api_service_name" code="true" >}}               | <code>API.{{< region-param key="dd_site" >}}</code>                     |
-  | 메트릭 | {{< region-param key="aws_private_link_metrics_service_name" code="true" >}}           | <code>metrics.agent.< region-param key="dd_site" >}}</code>           |
-  | 컨테이너 |< region-param key="aws_private_link_containers_service_name" code="true" >}}        | <code>orchestrator.{{< region-param key="dd_site" >}}</code>            |
-  | 프로세스 | {{< region-param key="aws_private_link_process_service_name" code="true" >}}           | <code>process.{{< region-param key="dd_site" >}}</code>                 |
-  | 프로파일링 |< region-param key="aws_private_link_profiling_service_name" code="true" >}}         | <code>intake.profile.{{< region-param key="dd_site" >}}</code>          |
-  | 트레이스 | {{< region-param key="aws_private_link_traces_service_name" code="true" >}}            | <code>trace.agent.< region-param key="dd_site" >}}</code>             |
-  | 데이터베이스 모니터링 | {{< region-param key="aws_private_link_dbm_service_name" code="true" >}}               | <code>dbm-metrics-intake</code><code>.{{< region-param key="dd_site" >}}</code>      |
-  | 원격 설정 | {{< region-param key="aws_private_link_remote_config_service_name" code="true" >}}     | <code>config.< region-param key="dd_site" >}}</code>                  |
-
-  AWS API , `DescribeVpcEndpointServices`, 또는 다음 명령을 사용하여 이 정보를 찾을 수도 있습니다. 
+  | 로그 (Agent HTTP 인테이크)  | {{< region-param key="aws_private_link_logs_agent_service_name" code="true" >}}        | <code>agent-http-intake.logs.{{< region-param key="dd_site" >}}</code> |
+  | 로그 (User HTTP 인테이크)   | {{< region-param key="aws_private_link_logs_user_service_name" code="true" >}}         | <code>http-intake.logs.{{< region-param key="dd_site" >}}</code>       |
+  | API                       | {{< region-param key="aws_private_link_api_service_name" code="true" >}}               | <code>api.{{< region-param key="dd_site" >}}</code>                    |
+  | 메트릭                  | {{< region-param key="aws_private_link_metrics_service_name" code="true" >}}           | <code>metrics.agent.{{< region-param key="dd_site" >}}</code>          |
+  | 컨테이너               | {{< region-param key="aws_private_link_containers_service_name" code="true" >}}        | <code>orchestrator.{{< region-param key="dd_site" >}}</code>           |
+  | 프로세스                   | {{< region-param key="aws_private_link_process_service_name" code="true" >}}           | <code>process.{{< region-param key="dd_site" >}}</code>                |
+  | 프로파일링                 | {{< region-param key="aws_private_link_profiling_service_name" code="true" >}}         | <code>intake.profile.{{< region-param key="dd_site" >}}</code>         |
+  | 트레이스                    | {{< region-param key="aws_private_link_traces_service_name" code="true" >}}            | <code>trace.agent.{{< region-param key="dd_site" >}}</code>            |
+  | 데이터베이스 모니터링       | {{< region-param key="aws_private_link_dbm_service_name" code="true" >}}               | <code>dbm-metrics-intake.{{< region-param key="dd_site" >}}</code>     |
+  | 원격 구성      | {{< region-param key="aws_private_link_remote_config_service_name" code="true" >}}     | <code>config.{{< region-param key="dd_site" >}}</code>                 |
+
+  AWS API인 `DescribeVpcEndpointServices`를 조사하거나 다음 명령을 사용하여 이 정보를 찾을 수도 있습니다.
 
   ```bash
-  AWS ec2 describe-vpc-endpoint-서비스 --서비스-names <서비스-name>``
+  aws ec2 describe-vpc-endpoint-services --service-names <service-name>`
   ```
 
-  예를 들어, {{< region-param key="aws_region" code="true" >}}에 대한 Datadog 메트릭 엔드포인트의 경우:
+  예를 들어, {{< region-param key="aws_region" code="true" >}}에 대한 Datadog 메트릭 엔드포인트의 경우 
 
-<div class="site-region-컨테이너">
+<div class="site-region-container">
   <div class="highlight">
-    <pre tabindex="0" class="chroma"><code class="language-bash" data-lang="bash"><spam class="line">aws ec2 describe-vpc-endpoint-services --service-names {{< region-param key="aws_private_link_metrics_service_name" >}} | jq '.ServiceDetails[0].PrivateDnsName'</span></code></pre>
+    <pre tabindex="0" class="chroma"><code class="language-bash" data-lang="bash"><span class="line">aws ec2 describe-vpc-endpoint-services --service-names {{< region-param key="aws_private_link_metrics_service_name" >}} | jq '.ServiceDetails[0].PrivateDnsName'</span></code></pre>
   </div>
 </div>
 
@@ -253,15 +283,20 @@ PHZ(프라이빗 호스팅 영역)가 연결된 VPC에는 몇 가지 설정이 
 [5]: https://docs.amazonaws.cn/en_us/Route53/latest/DeveloperGuide/hosted-zone-private-associate-vpcs-different-accounts.html
 [6]: https://docs.aws.amazon.com/Route53/latest/DeveloperGuide/hosted-zone-private-considerations.html#hosted-zone-private-considerations-vpc-settings
 [7]: /ko/agent/configuration/agent-commands/?tab=agentv6v7#restart-the-agent
-[8]: /ko/agent/configuration/agent-configuration-files/?tab=agentv6v7#agent-main-configuration-file
-[9]: https://docs.datadoghq.com/ko/agent/logs/?tab=tailexistingfiles#send-logs-over-https
+[8]: /ko/agent/configuration/agent-configuration-files/#agent-main-configuration-file
+[9]: /ko/agent/logs/?tab=tailexistingfiles#send-logs-over-https
 [10]: https://docs.aws.amazon.com/secretsmanager/latest/userguide/vpc-endpoint-overview.html
 {{% /tab %}}
 {{< /tabs >}}
 
+[11]: https://aws.amazon.com/privatelink/
+[12]: https://docs.aws.amazon.com/vpc/latest/peering/what-is-vpc-peering.html
+[13]: /ko/agent/configuration/agent-commands/#restart-the-agent
+[14]: /ko/help/
+[15]: /ko/agent/configuration/agent-configuration-files/#agent-main-configuration-file
+[16]: /ko/agent/logs/?tab=tailexistingfiles#send-logs-over-https
+[17]: https://docs.aws.amazon.com/secretsmanager/latest/userguide/vpc-endpoint-overview.html
 
-[1]: https://aws.amazon.com/privatelink/
-[2]: https://docs.aws.amazon.com/vpc/latest/peering/what-is-vpc-peering.html
 {{% /site-region %}}
 
 ## 참고 자료
diff --git a/content/ko/agent/logs/advanced_log_collection.md b/content/ko/agent/logs/advanced_log_collection.md
index 36ed7153e768f..77b589e256e02 100644
--- a/content/ko/agent/logs/advanced_log_collection.md
+++ b/content/ko/agent/logs/advanced_log_collection.md
@@ -463,8 +463,8 @@ spec:
 | 2020-10-27 05:10:49.657  | `\d{4}-\d{2}-\d{2}\s\d{2}:\d{2}:\d{2}\.\d{3}`     |
 | {"date": "2018-01-02"    | `\{"date": "\d{4}-\d{2}-\d{2}`                    |
 
-### Global automatic multi-line aggregation
-With Agent 7.37+, `auto_multi_line_detection` can be enabled, which allows the Agent to detect [common multi-line patterns][3] automatically for **all** log integrations it sets up. 
+### 글로벌 자동 다중 줄 집계
+에이전트 7.37+에서 `auto_multi_line_detection`을 사용할 수 있습니다. 이를 통해 에이전트에서 **모든** 로그 통합 설정에 대한 [일반적인 다중 줄 패턴][2]을 자동으로 탐지할 수 있습니다.
 
 
 {{< tabs >}}
@@ -480,7 +480,7 @@ logs_config:
 {{% /tab %}}
 {{% tab "Docker" %}}
 
-Use the environment variable `DD_LOGS_CONFIG_AUTO_MULTI_LINE_DETECTION` in the Datadog Agent container to configure a global automatic multi-line aggregation rule. For example:
+Datadog 에이전트 컨테이너에서 환경 변수 `DD_LOGS_CONFIG_AUTO_MULTI_LINE_DETECTION`를 사용해 글로벌 자동 다중 줄 집계 규칙을 구성할 수 있습니다. 다음 예를 참고하세요.
 
 ```shell
 DD_LOGS_CONFIG_AUTO_MULTI_LINE_DETECTION=true
@@ -490,7 +490,7 @@ DD_LOGS_CONFIG_AUTO_MULTI_LINE_DETECTION=true
 {{% tab "Kubernetes" %}}
 
 #### 연산자
-Use the `spec.override.nodeAgent.env` parameter in your Datadog Operator manifest to set the `DD_LOGS_CONFIG_AUTO_MULTI_LINE_DETECTION` environment variable to configure a global automatic multi-line aggregation rule. For example:
+Datadog Operator 매니페스트에서 `spec.override.nodeAgent.env` 파라미터를 사용해 `DD_LOGS_CONFIG_AUTO_MULTI_LINE_DETECTION` 환경 변수로 글로벌 자동 다중 선 집계 규칙을 구성할 수 있습니다. 다음 예를 참고하세요. 
 
 ```yaml
 spec:
@@ -502,7 +502,7 @@ spec:
 ```
 
 #### Helm
-Use the `datadog.logs.autoMultiLineDetection` option in the Helm chart to configure a global automatic multi-line aggregation rule. For example:
+Helm 차트에서 `datadog.logs.autoMultiLineDetection` 옵션을 사용해 글로벌 자동 다중 선 집계 규칙을 구성하세요. 다음 예를 참고하세요.
 
 ```yaml
 datadog:
@@ -515,13 +515,13 @@ datadog:
 {{% /tab %}}
 {{< /tabs >}}
 
-### Enable multi-line aggregation per integration
-Alternatively, you can enable or disable multi-line aggregation for an individual integration's log collection. Changing the multi-line aggregation for an integration overrides the global configuration.
+### 통합별 다중 선 집계 활성화
+또는 각 통합의 로그 수집의 다중 선 집계를 활성화하거나 비활성화할 수 있습니다. 통합의 다중 선 집계를 변경하면 글로벌 구성을 재정의합니다.
 
 {{< tabs >}}
 {{% tab "구성 파일" %}}
 
-In a host environment, enable `auto_multi_line_detection` with the [Custom log collection][1] method. For example:
+호스트 환경에서 [커스텀 로그 수집][1] 메서드로 `auto_multi_line_detection`를 활성화합니다. 다음 예를 참고하세요.
 
 [1]: https://docs.datadoghq.com/ko/agent/logs/?tab=tailfiles#custom-log-collection
 
@@ -536,7 +536,7 @@ logs:
 {{% /tab %}}
 {{% tab "Docker" %}}
 
-In a Docker environment, use the label `com.datadoghq.ad.logs` on your container to specify the log configuration. For example:
+Docker 환경인 경우, 컨테이너에서  레이블을 사용하여 `com.datadoghq.ad.logs`를 다음과 같이 지정합니다:
 
 ```yaml
  labels:
@@ -550,7 +550,7 @@ In a Docker environment, use the label `com.datadoghq.ad.logs` on your container
 
 {{% /tab %}}
 {{% tab "Kubernetes" %}}
-In a Kubernetes environment, use the annotation `ad.datadoghq.com/<CONTAINER_NAME>.logs` on your pod to specify the log configuration. For example:
+Kubernetes 환경에서 파드에 `ad.datadoghq.com/<CONTAINER_NAME>.logs` 주석을 사용해 로그 구성을 지정합니다. 다음 예를 참고하세요.
 
 ```yaml
 apiVersion: apps/v1
@@ -580,13 +580,13 @@ spec:
 {{% /tab %}}
 {{< /tabs >}}
 
-### Customize multi-line aggregation configuration
-Automatic multi-line detection uses a list of [common regular expressions][1] to attempt to match logs. If the built-in list is not sufficient, you can also add custom patterns and thresholds for detection.
+### 다중 선 집계 구성 사용자 지정
+자동 다중 줄 탐지는 [일반적인 정규식][1] 목록을 사용하여 로그 일치를 시도합니다. 빌트인 목록이 충분하지 않을 경우 커스텀 패턴과 임계값을 추가하여 탐지할 수도 있습니다.
 
 [1]:https://github.com/DataDog/datadog-agent/blob/a27c16c05da0cf7b09d5a5075ca568fdae1b4ee0/pkg/logs/internal/decoder/auto_multiline_handler.go#L187
 {{< tabs >}}
-{{% tab "Configuration file" %}}
-In a configuration file, add the `auto_multi_line_extra_patterns` to your `datadog.yaml`:
+{{% tab "구성 파일" %}}
+구성 파일에서 내 `datadog.yaml`에 `auto_multi_line_extra_patterns`을 추가합니다.
 ```yaml
 logs_config:
   auto_multi_line_detection: true
@@ -595,9 +595,9 @@ logs_config:
    - '[A-Za-z_]+ \d+, \d+ \d+:\d+:\d+ (AM|PM)'
 ```
 
-The `auto_multi_line_default_match_threshold` parameter determines how closely logs have to match the patterns in order for the auto multi-line aggregation to work.
+`auto_multi_line_default_match_threshold` 파라미터는 자동 다중 선 집계가 작동하기 위해 로그가 패턴과 일치해야 하는 정도를 결정합니다.
 
-If your multi-line logs aren't getting aggregated as you like, you can change the sensitivity of the matching by setting the `auto_multi_line_default_match_threshold` parameter. Add the `auto_multi_line_default_match_threshold` parameter to your configuration file with a value lower (to increase matches) or higher (to decrease matches) than the current threshold value. To find the current threshold value, run the [Agent `status` command][1].
+다중 선 로그 집계가 내가 원하는 대로 진행되지 않는 경우 `auto_multi_line_default_match_threshold` 파라미터를 설정해 일치 민감도를 변경할 수 있습니다. 구성 파일에 현재 임계값보다 더 적은 값(일치 값 증가)으로 `auto_multi_line_default_match_threshold` 파라미터를 추가하세요. 현재 임계값을 보려면 [에이전트 `status` 명령][1]을 실행하세요.
 
 ```yaml
 logs_config:
@@ -611,18 +611,18 @@ logs_config:
 [1]: https://docs.datadoghq.com/ko/agent/configuration/agent-commands/#agent-information
 {{% /tab %}}
 {{% tab "Docker" %}}
-In a containerized Agent, add the environment variable `DD_LOGS_CONFIG_AUTO_MULTI_LINE_EXTRA_PATTERNS`:
+컨테이너화된 에이전트에서 환경 변수 `DD_LOGS_CONFIG_AUTO_MULTI_LINE_EXTRA_PATTERNS`을 추가합니다.
 
 ```yaml
     environment:
       - DD_LOGS_CONFIG_AUTO_MULTI_LINE_DETECTION=true
       - DD_LOGS_CONFIG_AUTO_MULTI_LINE_EXTRA_PATTERNS=\d{4}-(0?[1-9]|1[012])-(0?[1-9]|[12][0-9]|3[01]) [A-Za-z_]+\s\d+,\s\d+\s\d+:\d+:\d+\s(AM|PM)
 ```
-**Note**: The Datadog Agent interprets spaces in the `DD_LOGS_CONFIG_AUTO_MULTI_LINE_EXTRA_PATTERNS` environment variable as separators between multiple patterns. In the following example, the two regex patterns are divided by a space, and `\s` in the second regex pattern matches spaces.
+**참고**: Datadog 에이전트는 `DD_LOGS_CONFIG_AUTO_MULTI_LINE_EXTRA_PATTERNS` 환경 변수에 있는 여러 패턴 중에서 띄어쓰기를 구분자로 인식합니다. 다음 예에서는 두 정규식 패턴이 띄어쓰기로 구분되어 있고, 두 번째 정규식 패턴의 `\s`이 띄어쓰기와 일치합니다.
 
-The `auto_multi_line_default_match_threshold` parameter determines how closely logs have to match the patterns in order for the auto multi-line aggregation to work.
+`auto_multi_line_default_match_threshold` 파라미터는 자동 다중 선 집계가 작동하기 위해 로그가 패턴과 일치해야 하는 정도를 결정합니다.
 
-If your multi-line logs aren't getting aggregated as you like, you can change the sensitivity of the matching by setting the `auto_multi_line_default_match_threshold` parameter. Add the `auto_multi_line_default_match_threshold` parameter to your configuration file with a value lower (to increase matches) or higher (to decrease matches) than the current threshold value. To find the current threshold value, run the [Agent `status` command][1].
+다중 선 로그 집계가 내가 원하는 대로 진행되지 않는 경우 `auto_multi_line_default_match_threshold` 파라미터를 설정해 일치 민감도를 변경할 수 있습니다. 구성 파일에 현재 임계값보다 더 적은 값(일치 값 증가)으로 `auto_multi_line_default_match_threshold` 파라미터를 추가하세요. 현재 임계값을 보려면 [에이전트 `status` 명령][1]을 실행하세요.
 
 ```yaml
     environment:
@@ -634,7 +634,7 @@ If your multi-line logs aren't getting aggregated as you like, you can change th
 [1]: https://docs.datadoghq.com/ko/agent/configuration/agent-commands/#agent-information
 {{% /tab %}}
 {{% tab "Kubernetes" %}}
-In Kubernetes, add the environment variable `DD_LOGS_CONFIG_AUTO_MULTI_LINE_EXTRA_PATTERNS`:
+Kubernetes에서 환경 변수 `DD_LOGS_CONFIG_AUTO_MULTI_LINE_EXTRA_PATTERNS`을 추가합니다.
 
 #### 연산자
 
@@ -651,16 +651,16 @@ spec:
 
 ```yaml
 datadog:
-  env: 
+  env:
     - name: DD_LOGS_CONFIG_AUTO_MULTI_LINE_EXTRA_PATTERNS
       value: \d{4}-(0?[1-9]|1[012])-(0?[1-9]|[12][0-9]|3[01]) [A-Za-z_]+\s\d+,\s\d+\s\d+:\d+:\d+\s(AM|PM)
 ```
-**Note**: The Datadog Agent interprets spaces in the `DD_LOGS_CONFIG_AUTO_MULTI_LINE_EXTRA_PATTERNS` environment variable as separators between multiple patterns. In the following example, the two regex patterns are divided by a space, and `\s` in the second regex pattern matches spaces.
+**참고**: Datadog 에이전트는 `DD_LOGS_CONFIG_AUTO_MULTI_LINE_EXTRA_PATTERNS` 환경 변수에 있는 여러 패턴 중에서 띄어쓰기를 구분자로 인식합니다. 다음 예에서는 두 정규식 패턴이 띄어쓰기로 구분되어 있고, 두 번째 정규식 패턴의 `\s`이 띄어쓰기와 일치합니다.
 
 
-The `auto_multi_line_default_match_threshold` parameter determines how closely logs have to match the patterns in order for the auto multi-line aggregation to work.
+`auto_multi_line_default_match_threshold` 파라미터는 자동 다중 선 집계가 작동하기 위해 로그가 패턴과 일치해야 하는 정도를 결정합니다.
 
-If your multi-line logs aren't getting aggregated as you like, you can change the sensitivity of the matching by setting the `auto_multi_line_default_match_threshold` parameter. Add the `auto_multi_line_default_match_threshold` parameter to your configuration file with a value lower (to increase matches) or higher (to decrease matches) than the current threshold value. To find the current threshold value, run the [Agent `status` command][1].
+다중 선 로그 집계가 내가 원하는 대로 진행되지 않는 경우 `auto_multi_line_default_match_threshold` 파라미터를 설정해 일치 민감도를 변경할 수 있습니다. 구성 파일에 현재 임계값보다 더 적은 값(일치 값 증가)으로 `auto_multi_line_default_match_threshold` 파라미터를 추가하세요. 현재 임계값을 보려면 [에이전트 `status` 명령][1]을 실행하세요.
 
 [1]: https://docs.datadoghq.com/ko/agent/configuration/agent-commands/#agent-information
 
@@ -681,7 +681,7 @@ spec:
 
 ```yaml
 datadog:
-  env: 
+  env:
     - name: DD_LOGS_CONFIG_AUTO_MULTI_LINE_EXTRA_PATTERNS
       value: \d{4}-(0?[1-9]|1[012])-(0?[1-9]|[12][0-9]|3[01]) [A-Za-z_]+\s\d+,\s\d+\s\d+:\d+:\d+\s(AM|PM)
     - name: DD_LOGS_CONFIG_AUTO_MULTI_LINE_DEFAULT_MATCH_THRESHOLD
@@ -692,9 +692,9 @@ datadog:
 {{% /tab %}}
 {{< /tabs >}}
 
-With multi-line aggregation enabled, the Agent first tries to detect a pattern in each new log file. This detection process takes at most 30 seconds or the first 500 logs, whichever comes first. During the initial detection process, the logs are sent as single lines.
+다중 줄 집계가 활성화되어 있으면 에이전트는 먼저 새 로그 파일에서 패턴을 감지합니다. 이 패턴 감지 과정은 최대 30초 또는 첫 500개 로그 중에서 먼저 완료 되는 쪽으로 선택되어 완료됩니다. 첫 감지 과정에서 로그는 단일 줄로 전송됩니다.
 
-After the detection threshold is met, all future logs for that source are aggregated with the best matching pattern, or as single lines if no pattern is found.
+감지 임계값에 도달하면 해당 소스의 향후 로그는 최적의 일치 패턴으로 집계됩니다. 일치하는 패턴이 없을 경우에는 단일 줄로 집계됩니다.
 
 **참고**: 회전된 로그의 이름 지정 패턴을 제어할 수 있는 경우 회전된 파일 이름이 이전 활성 파일과 같은 이름으로 변경되도록 하세요. 에이전트에서는 이전에 탐지된 패턴을 새 회전 파일에 재사용해 탐지를 재실행하는 것을 방지합니다.
 
@@ -746,16 +746,18 @@ logs:
 
 위 예시는 `C:\\MyApp\\MyLog.log`와 일치하고 `C:\\MyApp\\MyLog.20230101.log` 및 `C:\\MyApp\\MyLog.20230102.log`를 제외한 것입니다.
 
-**참고**: 사용 가능한 모든 파일 목록을 보려면 에이전트에서 디렉토리 읽기 및 실행 권한이 필요합니다.
-**참고2**: path 및 exclude_paths 값은 대소문자를 구분합니다.
+**참고**: 사용 가능한 모든 파일을 나열하려면 에이전트에서 디렉토리에 대한 읽기 및 실행 권한이 필요합니다.
+
+**참고**: 경로와 제외_경로 값은 모두 대소문자를 구분합니다.
 
-## 가장 최근에 수정한 파일을 먼저 추적
+### 가장 최근에 수정한 파일을 먼저 추적
 
-추적할 파일의 우선 순위를 정할 때 Datadog 에이전트에서는 디렉터리 내 파일 이름을 사전 역순서로 정렬합니다. 수정 시간을 기반으로 파일을 정렬하려면 구성 옵션 `logs_config.file_wildcard_selection_mode`를 `by_modification_time` 값으로 설정하세요.
+에이전트에는 동시에 추적할 수 있는 파일의 수를 제한합니다. 이 수는 `logs_config.open_files_limit` 파라미터로 정의합니다.
+기본적으로 이 한도보다 더 많은 파일이 와일드카드 패턴과 일치할 경우, 에이전트는 우선 사전 역순으로 파일 이름을 정열합니다. 타임스탬프나 숫자 순서로 파일 이름을 지은 경우 가장 최근 파일이 먼저 테일링되기 때문에 매우 효과적입니다.
 
-이 옵션은 일치하는 로그 파일의 총 개수가 `logs_config.open_files_limit`을 초과할 때 유용합니다.`by_modification_time`를 사용하면 정의된 디렉터리 경로에서 가장 최근에 업데이트한 파일을 먼저 추적합니다.
+그러나 로그 파일 이름이 이와 같은 패턴으로 지정되어 있지 않으면 기본값이 적절하지 않을 수 있습니다. 수정 시간별로 파일 우선순위를 정하고 싶을 경우 logs_config.file_wildcard_selection_mode를 _수정_시간별로 설정합니다. 이렇게 설정하면 에이전트가 파일을 수정 시간별로 정렬합니다. 항상 가장 최근에 수정한 파일을 먼저 테일링하고 가장 예전에 수정한 파일 테일링을 중지합니다.
 
-기본 동작을 복구하려면 구성 옵션 `logs_config.file_wildcard_selection_mode`를 `by_name` 값으로 설정하세요.
+기본값 동작으로 되돌리려면 `logs_config.file_wildcard_selection_mode` 입력을 제거하거나 `by_name`으로 명시적으로 설정하세요.
 
 이 기능을 사용하려면 에이전트 버전이 7.40.0 이상이어야 합니다.
 
diff --git a/content/ko/api/latest/rate-limits/_index.md b/content/ko/api/latest/rate-limits/_index.md
index 8e371d2d89051..de4418de1fbca 100644
--- a/content/ko/api/latest/rate-limits/_index.md
+++ b/content/ko/api/latest/rate-limits/_index.md
@@ -15,7 +15,7 @@ API 속도 제한 정책 관련:
 
 - Datadog은 데이터 포인트/메트릭 제출에 **제한을 두지 않습니다**(메트릭 제출 속도가 처리되는 방식은 [메트릭 섹션][2] 참조). 제한 발생은 사용자의 동의를 기반으로 [커스텀 메트릭][3] 수량에 따라 달라집니다.
 - 로그 전송을 위한 API에는 속도 제한이 없습니다.
-- 이벤트 제출에 대한 속도 제한은 조직당 시간당 `500,000` 이벤트입니다.
+- 이벤트 제출에 대한 속도 제한은 조직당 분당 `50,000` 이벤트입니다.
 - 엔드포인트에 대한 속도 제한은 다양하며 아래 헤더에서 자세한 내용을 확인하실 수 있습니다. 이러한 제한은 필요에 따라 연장할 수 있습니다.
 
 <div class="alert alert-warning">
@@ -28,8 +28,200 @@ API 속도 제한 정책 관련:
 | `X-RateLimit-Period`    | 재설정(캘린더 정렬)에 걸리는 시간(초). |
 | `X-RateLimit-Remaining` | 현재 기간 동안 남은 허용된 요청 수.  |
 | `X-RateLimit-Reset`     | 다음 재설정까지의 시간(초).                        |
-| `X-RateLimit-Name`      | 인상 요청에 대한 속도 제한 이름             |
+| `X-RateLimit-Name`      | 증가 요청에 대한 속도 제한의 이름            |
+
+### Datadog API 사용량 메트릭
+
+모든 Datadog API에는 지정된 기간 동안 사용 제한이 있습니다. API는 고유하고 별개의 속도 제한 버킷을 가질 수 있거나 사용되는 리소스에 따라 단일 버킷으로 그룹화될 수 있습니다. 예를 들어, 모니터 상태 API에는 인간 또는 자동화 스크립트가 분당 일정 횟수만 쿼리할 수 있도록 하는 속도 제한이 있습니다. 엔드포인트는 429 응답 코드와 재설정 기간이 만료될 때까지 백오프하라는 힌트와 함께 과도한 요청을 거부합니다. API 사용 메트릭을 통해 Datadog 사용자는 API 엔드포인트(메트릭, 로그 및 이벤트 제출 엔드포인트 제외)에 대한 API 속도 제한 사용을 셀프로 제공하고 감사할 수 있습니다. 이러한 메트릭은 허용 및 차단된 요청을 보여주며 다음과 같은 차원 및 사용 가능한 태그와 함께 제공됩니다.
+
+{{% site-region region="us" %}}[Datadog API 속도 제한 사용 대시보드](https://app.datadoghq.com/dash/integration/31668/datadog-api-rate-limit-usage){{% /site-region %}}
+{{% site-region region="eu1" %}}[Datadog API 속도 제한 사용 대시보드](https://app.datadoghq.eu/dash/integration/1386/datadog-api-rate-limit-usage){{% /site-region %}}
+{{% site-region region="us3" %}}[Datadog API 속도 제한 사용 대시보드](https://us3.datadoghq.com/dash/integration/2248/datadog-api-rate-limit-usage){{% /site-region %}}
+{{% site-region region="us5" %}}[Datadog API 속도 제한 사용 대시보드](https://us5.datadoghq.com/dash/integration/1421/datadog-api-rate-limit-usage){{% /site-region %}}
+{{% site-region region="ap1" %}}[Datadog API 속도 제한 사용 대시보드](https://ap1.datadoghq.com/dash/integration/2698/datadog-api-rate-limit-usage){{% /site-region %}}
+{{% site-region region="gov" %}}[Datadog API 속도 제한 사용 대시보드](https://app.ddog-gov.com/dash/integration/1330/datadog-api-rate-limit-usage){{% /site-region %}}
+
+#### 사용 가능한 메트릭
+
+<table>
+  <thead>
+    <th>차원</th>
+    <th>사용 메트릭</th>
+    <th>설명</th>
+    <th>사용 가능한 태그</th>
+  </thead>
+  <tr>
+    <td rowspan="2"><strong>조직</strong></td>
+    <td><code>datadog.apis.usage.per_org</code></td>
+    <td>특정 엔드포인트의 API 요청 수에 대한 조직 전체의 속도 제한</td>
+    <td>
+    <ul>
+      <li><code>app_key_id</code></li>
+      <li><code>child_org</code> (on parent only)</li>
+      <li><code>limit_count</code></li>
+      <li><code>limit_name</code></li>
+      <li><code>limit_period</code></li>
+      <li><code>rate_limit_status</code></li>
+      <li><code>user_uuid</code></li>
+    </ul>
+    </td>
+  </tr>
+  <tr>
+    <td><code>datadog.apis.usage.per_org_ratio</code></td>
+    <td>허용된 총 요청 수(<code>limit_count</code>)에 대한 사용 가능한 차원별 API 요청의 비율</td>
+    <td>
+    <ul>
+      <li><code>app_key_id</code></li>
+      <li><code>child_org</code> (on parent only)</li>
+      <li><code>limit_count</code></li>
+      <li><code>limit_name</code></li>
+      <li><code>limit_period</code></li>
+      <li><code>rate_limit_status</code></li>
+      <li><code>user_uuid</code></li>
+    </ul>
+    </td>
+  </tr>
+  <tr>
+    <td rowspan="2"><strong>사용자 (UUID)</strong></td>
+    <td><code>datadog.apis.usage.per_user</code></td>
+    <td>고유 사용자당 속도가 제한되는 특정 API 엔드포인트에 대한 API 요청 횟수</td>
+    <td>
+    <ul>
+      <li><code>app_key_id</code></li>
+      <li><code>child_org</code> (on parent only)</li>
+      <li><code>limit_count</code></li>
+      <li><code>limit_name</code></li>
+      <li><code>limit_period</code></li>
+      <li><code>rate_limit_status</code></li>
+      <li><code>user_uuid</code></li>
+    </ul>
+    </td>
+  </tr>
+  <tr>
+    <td><code>datadog.apis.usage.per_user_ratio</code></td>
+    <td>허용된 총 요청 수(<code>limit_count</code>)에 대한 사용 가능한 차원별 API 요청의 비율</td>
+    <td>
+    <ul>
+      <li><code>app_key_id</code><br /></li>
+      <li><code>child_org</code> (on parent only)</li>
+      <li><code>limit_count</code><br /></li>
+      <li><code>limit_name</code><br /></li>
+      <li><code>limit_period</code><br /></li>
+      <li><code>rate_limit_status</code><br /></li>
+      <li><code>user_uuid</code></li>
+    </ul>
+    </td>
+  </tr>
+  <tr>
+    <td rowspan="2"><strong>API 키</strong></td>
+    <td><code>datadog.apis.usage.per_api_key</code></td>
+    <td>사용된 고유 API 키당 속도가 제한된 특정 API 엔드포인트에 대해 수행된 API 요청 수</td>
+    <td>
+    <ul>
+      <li><code>app_key_id</code></li>
+      <li><code>child_org</code> (on parent only)</li>
+      <li><code>limit_count</code></li>
+      <li><code>limit_name</code></li>
+      <li><code>limit_period</code></li>
+      <li><code>rate_limit_status</code></li>
+      <li><code>user_uuid</code></li>
+    </ul>
+    </td>
+  </tr>
+  <tr>
+    <td><code>datadog.apis.usage.per_api_key_ratio</code></td>
+    <td>허용된 총 요청 수(<code>limit_count</code>)에 대한 사용 가능한 차원별 API 요청의 비율</td>
+    <td>
+    <ul>
+      <li><code>app_key_id</code></li>
+      <li><code>child_org</code> (on parent only)</li>
+      <li><code>limit_count</code></li>
+      <li><code>limit_name</code></li>
+      <li><code>limit_period</code></li>
+      <li><code>rate_limit_status</code></li>
+      <li><code>user_uuid</code></li>
+    </ul>
+    </td>
+  </tr>
+</table>
+
+
+#### 태그 키
+
+
+| 태그 이름            | 설명                                                                                                               |
+|---------------------|---------------------------------------------------------------------------------------------------------------------------|
+| `app_key_id`        | API 클라이언트가 사용하는 애플리케이션 키 ID. 웹 또는 모바일 사용자와 오픈 엔드포인트에 대해 `N/A`일 수 있습니다.                      |
+| `child_org`         | 상위 조직에서 확인할 때의 하위 조직 이름. 해당되지 않으면 `N/A`로 설정합니다. 이는 동일한 데이터 센터 내에서만 적용됩니다. |
+| `limit_count`       | 요청 기간 동안 각 속도 제한 이름에 대해 사용 가능한 요청 수.                                             |
+| `limit_name`        | 속도 제한의 이름. 다른 엔드포인트는 동일한 이름을 공유할 수 있습니다.                                                          |
+| `limit_period`      | 각 속도 제한 이름에 대한 사용 횟수가 재설정되기 전의 시간(초).                                           |
+| `rate_limit_status` | `passed`: 요청이 차단되지 않았습니다.<br />`blocked`: 속도 제한 위반으로 인해 요청이 차단되었습니다.                       |
+| `user_uuid`         | API 사용을 위한 사용자의 UUID.                                                                                         |
+
+#### 위젯에서 롤업
+
+일반적으로 메트릭 시각화는 sum(60s)를 사용하여 분 단위로 집계하여 분당 총 요청 수를 집계해야 합니다.
+
+비율 메트릭은 이미 해당 `limit_period`로 정규화되어 있습니다.
+
+##### 사용 사례
+
+속도 제한 이름별 요청
+: `limit_name`별 `datadog.apis.usage.per_org`, `datadog.apis.usage.per_user`, `datadog.apis.usage.per_api_key`의 합계를 그래프로 표시<br /><br />
+  **예시:** `default_zero(sum:datadog.apis.usage.per_org{*} by {limit_name}) + default_zero(sum:datadog.apis.usage.per_user{*} by {limit_name}) + default_zero(sum:datadog.apis.usage.per_api_key{*} by {limit_name})`
+
+속도 제한 이름으로 차단됨
+: `rate_limit_status:blocked`를 사용해 `limit_name`별 `datadog.apis.usage.per_org`, `datadog.apis.usage.per_user`, `datadog.apis.usage.per_api_key`의 합계를 그래프로 표시<br /><br />
+  **예시:** `default_zero(sum:datadog.apis.usage.per_org{rate_limit_status:blocked} by {limit_name}) + default_zero(sum:datadog.apis.usage.per_user{rate_limit_status:blocked} by {limit_name}) + default_zero(sum:datadog.apis.usage.per_api_key{rate_limit_status:blocked} by {limit_name})`
+
+사용자가 차단한 엔드포인트
+: `rate_limit_status:blocked` 및  `limit_name:example`을 사용해 `user_uuid`별 `datadog.apis.usage.per_org`, `datadog.apis.usage.per_user`, `datadog.apis.usage.per_api_key`의 합계를 그래프로 표시<br /><br />
+  **예시:** `default_zero(sum:datadog.apis.usage.per_org{rate_limit_status:blocked,limit_name:example} by {user_uuid}) + default_zero(sum:datadog.apis.usage.per_user{rate_limit_status:blocked,limit_name:example} by {user_uuid}) + default_zero(sum:datadog.apis.usage.per_api_key{rate_limit_status:blocked,limit_name:example} by {user_uuid})`
+
+앱 키 ID로 차단된 엔드포인트
+: `rate_limit_status:blocked` 및 `limit_name:example`을 사용해 `app_key_id`별 `datadog.apis.usage.per_org`, `datadog.apis.usage.per_user`, `datadog.apis.usage.per_api_key`의 합계를 그래프로 표시<br /><br />
+  **예시:** `default_zero(sum:datadog.apis.usage.per_org{rate_limit_status:blocked,limit_name:example} by {app_key_id}) + default_zero(sum:datadog.apis.usage.per_user{rate_limit_status:blocked,limit_name:example} by {app_key_id}) + default_zero(sum:datadog.apis.usage.per_api_key{rate_limit_status:blocked,limit_name:example} by {app_key_id})`
+
+속도 제한 이름별 사용된 속도 제한 비율
+: `limit_name`별 `datadog.apis.usage.per_org_ratio`, `datadog.apis.usage.per_user_ratio`, `datadog.apis.usage.per_api_key_ratio`의 합계를 그래프로 표시<br /><br />
+  **예시:** `default_zero(max:datadog.apis.usage.per_org_ratio{*} by {limit_name}) + default_zero(max:datadog.apis.usage.per_user_ratio{*} by {limit_name}) + default_zero(max:datadog.apis.usage.per_api_key_ratio{*} by {limit_name})`
+
+
+### 속도 제한 늘리기
+**Help** > **New Support Ticket**에서 Support 티켓을 생성하여 속도 제한 증가를 요청할 수 있습니다. 속도 제한 증가 요청을 받으면 Support Engineering 팀이 사례별로 요청을 검토하고 필요한 경우 내부 엔지니어링 리소스와 협력하여 속도 제한 증가 요청의 실행 여부를 확정합니다.
+
+    제목:
+        Request to increase rate limit on endpoint: X (엔드포인트: X에 대한 속도 제한 증가 요청)
+
+    세부 내용:
+        API 엔드포인트: X에 대한 속도 제한 증가를 요청하고 싶습니다.
+        사용 사례/쿼리 예시:
+            예제 페이로드가 포함된 cURL 또는 URL 형태의 예시 API 호출
+
+        속도 제한 증가 요청 사유:
+            예시 - Our organization uses this endpoint to right size a container before we deploy. This deployment takes place every X hours or up to Y times per day. (우리 조직은 배포 전 이 엔드포인트를 사용하여 컨테이너 크기를 조정합니다. 이 배포는 X시간마다 또는 하루에 최대 Y번까지 이루어집니다.)
+
+        원하는 속도 제한:
+            팁 - 원하는 특정 제한 또는 비율 증가를 제시하면 Support Engineering 팀과 내부 엔지니어링 팀이 신속하게 검토하는 데 도움이 됩니다.
+
+Datadog 지원팀이 사용 사례를 검토하고 승인한 후, 백그라운드에서 속도 제한 증가를 적용할 수 있습니다. Datadog의 SaaS 특성상 속도 제한 증가에 대한 최대 한도가 있다는 점을 유의해 주세요. Datadog 지원팀은 사용 사례 및 엔지니어링 권장 사항에 따라 속도 제한 증가를 거부할 권리가 있습니다.
+
+### 감사 로그
+API 제한 및 사용 메트릭은 사용 패턴과 차단된 요청에 대한 인사이트를 제공합니다. 추가 정보가 필요한 경우 Audit Trail에서 API 활동에 대해 자세히 확인해 보세요.
+
+Audit Trail을 사용해 다음과 같은 데이터를 확인할 수 있습니다.
+* **IP 주소 및 지리적 위치** – API 요청이 시작된 위치를 식별합니다.
+* **액터 유형** – 서비스 계정과 사용자 계정을 구분합니다.
+* **API vs. 앱 키 인증** – 요청이 API 키를 통해 이루어졌는지, 아니면 사용자가 직접 했는지 확인합니다.
+* **상관된 이벤트** – 구성 변경이나 보안 관련 작업 등 동시에 발생하는 다른 이벤트를 확인합니다.
+
+Audit Trail이 제공하는 API 사용 및 차단된 요청에 대한 컨텍스트는 속도 제한 문제를 해결하는데 도움이 됩니다. 또한 보안 및 규정 준수 목적으로 조직 전체에서 API 사용을 추적할 수 있습니다.
+
+API 활동을 더 자세히 확인하려면 **[Audit Trail][4]**을 사용하는 것이 좋습니다.
+
 
 [1]: /ko/help/
 [2]: /ko/api/v1/metrics/
-[3]: /ko/metrics/custom_metrics/
\ No newline at end of file
+[3]: /ko/metrics/custom_metrics/
+[4]: /ko/account_management/audit_trail/events/
\ No newline at end of file
diff --git a/content/ko/getting_started/integrations/_index.md b/content/ko/getting_started/integrations/_index.md
index 23b4611a974f6..7696fa4b9e8be 100644
--- a/content/ko/getting_started/integrations/_index.md
+++ b/content/ko/getting_started/integrations/_index.md
@@ -21,13 +21,13 @@ Datadog는 크게 3종류의 주요 통합 유형을 지원합니다.
 
 - **Agent 기반** 통합은 Datadog Agent와 함께 설치되며, `check`라고 하는 파이썬(Python) 클래스 메소드를 사용하여 수집하는 메트릭을 정의합니다.
 - **인증(크롤러) 기반** 통합은 [Datadog][2]에서 설정됩니다. 이때 API를 사용하여 메트릭을 가져오기 위한 자격 정보를 지정합니다. [Slack][3], [AWS][4], [Azure][5], [PagerDuty][6]를 비롯해 자주 사용되는 통합이 여기에 포함됩니다.
-- **라이브러리** 통합에서는 [Datadog API][7]를 사용하여 [Node.js][8]나 [Python][9]을 비롯해 애플리케이션 개발에 쓰인 언어로 애플리케이션을 모니터링할 수 있습니다.
+- **라이브러리** 통합은 [Datadog API][7]를 사용하여 [Node.js][8] 또는 [Python][9]과 같이 작성된 언어에 따라 애플리케이션을 모니터링할 수 있도록 합니다.
 
 고유한 인하우스 시스템에서 메트릭을 정의하고 Datadog로 메트릭을 전송하는 [커스텀 점검][10]을 구성할 수도 있습니다.
 
 ## 통합 설정하기
 
-Datadog Agent 패키지에는 [통합 코어][11]에 Datadog이 공식적으로 지원하는 통합이 포함되어 있습니다. 이러한 통합을 사용하려면 Datadog Agent를 다운로드하세요. 커뮤니티 기반 통합은 [통합 추가][12]에 있습니다. 이러한 통합을 설치하거나 관리하는 방법에 대한 자세한 내용은 [통합 관리 가이드][14]를 참조하세요.
+Datadog Agent 패키지에는 Datadog에서 공식적으로 지원하는 통합이 [integrations core][11]에 포함되어 있습니다. 이러한 통합을 사용하려면 Datadog Agent를 다운로드하세요. 커뮤니티 기반 통합은 [integrations extras][12]에 있습니다. 이러한 통합을 설치하거나 관리하는 방법에 대한 자세한 내용은 [통합 관리 가이드][14]를 참조하세요.
 
 ### 권한
 
@@ -73,7 +73,7 @@ logs:
       sourcecategory: http_web_access
 ```
 
-동일한 Agent 검사에서 여러 Apache 인스턴스를 모니터링하려면 `instances` 섹션에 인스턴스를 추가합니다.
+동일한 Agent 검사에서 여러 Apache 인스턴스를 모니터링하려면 `instances` 섹션에 추가 인스턴스를 추가하세요.
 
 ```yaml
 init_config:
@@ -123,11 +123,12 @@ Agent와 통합 설정을 검증하려면 [Agent의 `status` 하위 명령을 
 
 {{< img src="getting_started/integrations/ad_integrations_1.png" alt="자동 감지된 통합" >}}
 
-각 통합에는 세 가지 상태 유형 중 하나가 있습니다:
+각 통합에는 다음 세 가지 상태 유형 중 하나가 있습니다.
 
 - **Detected**: 호스트에서 기술이 실행되고 있지만 통합이 설치 또는 구성되지 않았으며 일부 메트릭만 수집되고 있습니다. 전체 범위를 포함하도록 통합을 설정하세요. 자동 감지된 기술을 실행 중인 호스트 목록을 찾으려면 통합 타일을 열고 **Hosts** 탭을 선택합니다.
-- **Installed**: 이 통합은 호스트에 설치 및 구성됩니다.
+- **Installed**: 이 통합은 호스트에 설치되고 구성됩니다.
 - **Available**: **Installed** 및 **Detected** 카테고리에 속하지 않는 모든 통합입니다.
+- **No Data Received**: 최근 24시간 동안 통합 메트릭이 감지되지 않았습니다.
 
 ## 보안 정책
 
diff --git a/content/ko/getting_started/synthetics/_index.md b/content/ko/getting_started/synthetics/_index.md
index 96e81d2493749..c680620926d3b 100644
--- a/content/ko/getting_started/synthetics/_index.md
+++ b/content/ko/getting_started/synthetics/_index.md
@@ -1,4 +1,7 @@
 ---
+algolia:
+  tags:
+  - synthetics
 further_reading:
 - link: https://learn.datadoghq.com/courses/intro-to-synthetic-tests
   tag: 학습 센터
@@ -9,15 +12,21 @@ further_reading:
 - link: /synthetics/multistep
   tag: 설명서
   text: 멀티스텝 API 테스트에 대해 자세히 알아보기
+- link: /synthetics/mobile_app_testing
+  tag: 설명서
+  text: 모바일 테스트에 대해 알아보기
 - link: /synthetics/browser_tests
   tag: 설명서
   text: 브라우저 테스트 알아보기
 - link: /synthetics/private_locations
   tag: 설명서
   text: 프라이빗 위치 자세히 알아보기
-- link: /synthetics/cicd_integrations
+- link: /continuous_testing/cicd_integrations
   tag: 설명서
   text: CI 파이프라인에서 신서틱 테스트 실행하는 방법 알아보기
+- link: https://dtdg.co/fe
+  tag: 기초 구축
+  text: 대화형 세션에 참여하여 synthetic 테스트 역량을 강화하세요.
 title: 신서틱(Synthetic) 모니터링 시작하기
 ---
 
@@ -29,11 +38,11 @@ title: 신서틱(Synthetic) 모니터링 시작하기
 
 ## 신서틱 테스트 유형
 
-Datadog는 **API 테스트**, **멀티스텝 API 테스트**, **브라우저 테스트**를 지원합니다.
+Datadog은 **API 테스트**, **다단계 API 테스트**, **브라우저 테스트**, **모바일 테스트**를 제공합니다.
 
-내부용 애플리케이션을 모니터링하려면 관리형 위치나 프라이빗 위치에서 테스트를 실행하세요. 신서틱 테스트는 직접 트리거하거나 스케줄에 맞추어 실행할 수 있습니다. CI/CD 파이프라인에서 바로 실행하기도 가능합니다.
+내부용 애플리케이션을 모니터링하려면 관리되는 위치 또는 프라이빗 위치에서 테스트를 실행하세요. 합성(Synthetic) 테스트는 수동으로, 일정에 따라 또는 [CI/CD 파이프라인에서 직접][7] 트리거할 수 있습니다.
 
-## 전제 조건
+## 사전 필수 조건
 
 계정이 없다면 [Datadog 계정][1]을 만드세요.
 
@@ -44,6 +53,7 @@ Datadog는 **API 테스트**, **멀티스텝 API 테스트**, **브라우저 테
 - [API 테스트를 생성][2]해 API 엔드포인트의 업타임을 모니터링하세요.
 - [멀티스텝 API 테스트를 생성][3]해 여러 HTTP 요청을 연결하고, API 수준에서 주요 작업 흐름을 모니터링하세요.
 - [브라우저 테스트를 생성][4]해 애플리케이션에서 수행하는 주요 비즈니스 트랜잭션을 테스트하세요.
+- Android 및 iOS 애플리케이션에서 주요 비즈니스 워크플로 테스트를 시작하려면 [모바일 테스트를 생성하세요][6].
 - [프라이빗 위치를 생성][5]해 모든 신서틱 테스트 유형을 활용하여 내부 애플리케이션을 모니터링하세요.
 
 ## 참고 자료
@@ -54,4 +64,6 @@ Datadog는 **API 테스트**, **멀티스텝 API 테스트**, **브라우저 테
 [2]: /ko/getting_started/synthetics/api_test/
 [3]: /ko/getting_started/synthetics/api_test/#create-a-multistep-api-test
 [4]: /ko/getting_started/synthetics/browser_test/
-[5]: /ko/getting_started/synthetics/private_location/
\ No newline at end of file
+[5]: /ko/getting_started/synthetics/private_location/
+[6]: /ko/getting_started/synthetics/mobile_app_testing/
+[7]: /ko/getting_started/continuous_testing/
\ No newline at end of file
diff --git a/content/ko/getting_started/tagging/_index.md b/content/ko/getting_started/tagging/_index.md
index 006367fde1be6..a408e62721ddf 100644
--- a/content/ko/getting_started/tagging/_index.md
+++ b/content/ko/getting_started/tagging/_index.md
@@ -30,7 +30,12 @@ title: 태그 시작하기
 
 태그는 Datadog 원격 측정(텔레메트리)에 범위를 정해주어 Datadog 시각화 기능을 통해 압축, 집계, 비교하는 데 도움이 됩니다. [태그를 사용][1]하면 여러 호스트의 집계된 성능을 관찰하고, 필요에 따라서는 특정 요소를 기준으로 설정 범위를 더 좁힐 수도 있습니다. 즉, 태그 설정(태깅)은 집계된 데이터 포인트를 관찰하는 방법입니다.
 
-태깅을 통해 Datadog의 다양한 데이터 유형을 바인딩하고 메트릭, 트레이스, 로그 사이에서 액션의 상관관계를 설정하거나 호출할 수 있습니다. 이러한 동작은 **전용** 태그 키로 실행합니다.
+태그는 두 부분으로 구성된 `key:value` 쌍입니다.
+
+- 태그 키는 식별자입니다. 태그 키는 각 리소스에 한 번만 존재할 수 있으며 대소문자를 구분합니다.
+- 태그 값은 키와 연관된 특정 데이터 또는 정보입니다. 태그 값은 리소스마다 고유하지 않으며 한 `key-value` 쌍의 여러 리소스에서 사용될 수 있습니다.
+
+태그는 Datadog에서 다양한 데이터 유형을 바인딩하여 메트릭, 트레이스 및 로그 간의 상관 관계와 호출을 허용합니다. 이는 **예약된** 태그 키로 수행됩니다.
 
 | 태그 키   | 가능한 동작                                                            |
 | --------- | --------------------------------------------------------------------- |
@@ -87,10 +92,15 @@ Datadog의 태깅 요건은 다음과 같습니다.
 | [DogStatsD][6]           | DogStatsD로 메트릭을 제출할 때 지정합니다.                          |
 
 더 자세한 정보는 [태그 할당][7] 가이드를 참조하세요.
+
 #### 통합 서비스 태깅
 
 Datadog에서는 태그를 할당할 때 통합 서비스 태깅을 사용하시길 모범 사례로 권장합니다. 통합 서비스 태깅은 표준 태그 3가지(`env`, `service`, `version`)를 사용하여 Datadog 원격 측정 데이터와 결합합니다. 사용자의 환경에서 통합형 태깅을 설정하는 방법을 자세히 알아보려면 [통합 서비스 태깅][8] 가이드를 참조하세요.
 
+### 태그 상속
+
+모든 메트릭, 로그, 트레이스 및 통합은 데이터가 Datadog에 수집됨에 따라 `host-tag` 상속 프로세스를 거칩니다. 데이터는 지정된 호스트 이름과 연관되므로 이러한 구성 요소는 해당 호스트와 연관된 모든 `host-level` 태그를 상속합니다. 이러한 태그는 클라우드 공급자 또는 Datadog Agent에서 제공되는 지정된 호스트의 [인프라스트럭처 목록][12]에서 볼 수 있습니다. 자세한 내용은 [새 호스트 또는 노드에서 누락된 `host-level` 태그][25]를 참조하세요.
+
 ## 사용법
 
 호스트와 [통합][9] 수준에서 [태그를 할당][7]한 후에는 이를 활용하여 메트릭, 트레이스, 로그를 필터링하고 그룹으로 묶을 수 있습니다. 태그는 Datadog 플랫폼의 다음 영역에서 사용됩니다.
@@ -142,4 +152,5 @@ Datadog에서는 태그를 할당할 때 통합 서비스 태깅을 사용하시
 [21]: /ko/getting_started/tagging/using_tags/?tab=manageslos#service-level-objectives
 [22]: /ko/getting_started/tagging/using_tags/#developers
 [23]: /ko/account_management/billing/usage_attribution/
-[24]: /ko/getting_started/tagging/using_tags/#ci-visibility
\ No newline at end of file
+[24]: /ko/getting_started/tagging/using_tags/#ci-visibility
+[25]: /ko/containers/kubernetes/log/?tab=datadogoperator#missing-host-level-tags-on-new-hosts-or-nodes
\ No newline at end of file
diff --git a/content/ko/integrations/amazon_dynamodb.md b/content/ko/integrations/amazon_dynamodb.md
index d2188af37466c..cee24b72e354d 100644
--- a/content/ko/integrations/amazon_dynamodb.md
+++ b/content/ko/integrations/amazon_dynamodb.md
@@ -1,31 +1,72 @@
 ---
 aliases:
 - /ko/integrations/awsdynamo/
+app_id: amazon-dynamodb
+app_uuid: dc7abf1f-b346-49bb-a02d-83a4bda1d493
+assets:
+  dashboards:
+    amazon-dynamodb: assets/dashboards/amazon_dynamodb_overview.json
+  integration:
+    auto_install: false
+    events:
+      creates_events: false
+    metrics:
+      check:
+      - aws.dynamodb.table_size
+      metadata_path: metadata.csv
+      prefix: aws.dynamodb
+    service_checks:
+      metadata_path: assets/service_checks.json
+    source_type_id: 96
+    source_type_name: Amazon DynamoDB
+  monitors:
+    DynamoDB Throttled Requests is High: assets/monitors/rec_mon_throttles.json
+    Read Consumed Capacity is High: assets/monitors/rec_mon_read_cap_high.json
+    Write Consumed Capacity is High: assets/monitors/rec_mon_write_cap_high.json
+author:
+  homepage: https://www.datadoghq.com
+  name: Datadog
+  sales_email: info@datadoghq.com
+  support_email: help@datadoghq.com
 categories:
-- cloud
-- data stores
 - aws
-- log collection
+- metrics
+- cloud
+custom_kind: 통합
 dependencies: []
 description: 표 크기, 읽기/쓰기 용량, 요청 대기 시간 등을 추적하세요.
+display_on_public_website: true
 doc_link: https://docs.datadoghq.com/integrations/amazon_dynamodb/
 draft: false
 git_integration_title: amazon_dynamodb
 has_logo: true
-integration_id: ''
+integration_id: amazon-dynamodb
 integration_title: Amazon DynamoDB
 integration_version: ''
 is_public: true
-custom_kind: integration
-manifest_version: '1.0'
+manifest_version: 2.0.0
 name: amazon_dynamodb
-public_title: Datadog-Amazon DynamoDB 통합
-short_description: 표 크기, 읽기/쓰기 용량, 요청 대기 시간 등을 추적하세요.
+public_title: Amazon DynamoDB
+short_description: 빠르고 유연한 NoSQL 데이터베이스 서비스인 Amazon DynamoDB
+supported_os: []
+tile:
+  changelog: CHANGELOG.md
+  classifier_tags:
+  - Category::AWS
+  - Category::Metrics
+  - Category::Cloud
+  - Offering::Integration
+  configuration: README.md#Setup
+  description: 빠르고 유연한 NoSQL 데이터베이스 서비스인 Amazon DynamoDB
+  media: []
+  overview: README.md#Overview
+  support: README.md#Support
+  title: Amazon DynamoDB
 version: '1.0'
 ---
 
-<!--  SOURCED FROM https://github.com/DataDog/dogweb -->
-{{< img src="integrations/amazon_dynamodb/dynamodb.png" alt="DynamoDB 기본 대시보드" popup="true">}}
+<!--  SOURCED FROM https://github.com/DataDog/integrations-internal-core -->
+![DynamoDB 기본 대시보드][1]
 
 ## 개요
 
@@ -35,39 +76,39 @@ Amazon DynamoDB는 AWS 포트폴리오의 일부인 완전관리형 NoSQL 데이
 
 ### 설치
 
-아직 설치하지 않으셨다면, [Amazon Web Services 통합을 먼저][1] 설치하시기 바랍니다.
+이미 하지 않은 경우 [Amazon Web Services 통합][2]을 설정합니다.
 
 ### 메트릭 수집
 
-1. [AWS 통합 페이지][2]에서 `Metric Collection` 탭에 `DynamoDB`가 활성화되어 있습니다.
-2. Amazon DynamoDB 메트릭를 수집하려면 [Datadog IAM 정책][3]에 이러한 권한을 추가합니다.
+1. [AWS 통합 페이지][3]에서 `Metric Collection` 탭에 `DynamoDB`가 활성화되어 있습니다.
+2. Amazon DynamoDB 메트릭를 수집하려면 [Datadog IAM 정책][4]에 이러한 권한을 추가합니다.
 
     - `dynamodb:ListTables`: 사용 가능한 DynamoDB 표를 목록화하는 데 사용됩니다.
-    - `dynamodb:DescribeTable`: 메트릭을 표 크기 또는 항목 개수로 추가할 수 있습니다.
+    - `dynamodb:DescribeTable`: 메트릭을 표 크기 또는 항목 개수로 추가할 수 있습니다.
     - `dynamodb:ListTagsOfResource`: DynamoDB 리소스에서 태그를 모두 수집하는 데 사용됩니다.
 
-    자세한 내용은 AWS 웹사이트의 [DynamoDB 정책][4]을 참조하세요.
+    자세한 내용은 AWS 웹사이트의 [DynamoDB 정책][5]을 참고하세요.
 
-3. [Datadog - Amazon DynamoDB 통합][5]을 설치합니다.
+3. [Datadog - Amazon DynamoDB 통합][6]을 설치합니다.
 
 ### 로그 수집
 
 #### 로깅 활성화
 
-AWS CloudTrail에서 [트레일을 생성][6]한 다음 기록을 작성할 S3 버킨을 선택합니다.
+AWS CloudTrail에서 [트레일을 생성][7]한 다음 로그를 작성할 S3 버킷을 선택합니다.
 
-#### Datadog에 로그 보내기
+#### Datadog로 로그 전송
 
-1. 아직 설정하지 않았다면 AWS 계정에서 [Datadog 포워더 람다 함수][7]를 설정하세요. 
+1. 아직 설정하지 않았다면 AWS 계정에서 [Datadog Forwarder Lambda 함수][8]를 설정하세요.
 2. 설정한 후에는 Datadog Forwarder Lambda 함수로 이동하세요. Function Overview 섹션에서 **Add Trigger**를 클릭합니다.
 3. 트리거 설정에 대해 **S3** 트리거를 선택합니다.
 4. Amazon DynamoDB가 포함된 S3 버킷을 선택합니다.
 5. 이벤트 유형을 `All object create events`로 남겨둡니다.
 6. **Add**를 클릭해 Lambda에 트리거를 추가합니다.
 
-[로그 탐색기][8]로 이동해 로그를 살펴보기 시작합니다.
+ [Log Explorer][9]로 이동해 로그를 탐색합니다.
 
-AWS 서비스 로그 수집에 대한 자세한 내용은 , [Datadog 람다 함수][9]에 포함된 AWS 서비스 로그 전송]를 참조하세요.
+AWS 서비스 로그 수집에 대한 자세한 정보는 [Datadog Lambda 함수를 사용해 AWS 서비스 로그 전송][10]을 참고하세요.
 
 ## 수집한 데이터
 
@@ -75,7 +116,7 @@ AWS 서비스 로그 수집에 대한 자세한 내용은 , [Datadog 람다 함
 {{< get-metrics-from-git "amazon_dynamodb" >}}
 
 
-AWS로부터 받은 호스트 이름, 보안 그룹 및 그 외의 모든 메트릭은 AWS 콘솔에 표시되는 태그와 동일한 태그에 배정됩니다.
+AWS에서 검색된 각 메트릭에는 호스트 이름, 보안 그룹 등을 포함하되 이에 국한되지 않고 AWS 콘솔에 표시되는 동일한 태그가 할당됩니다.
 
 ### 이벤트
 
@@ -87,16 +128,17 @@ Amazon DynamoDB 통합은 서비스 점검을 포함하지 않습니다.
 
 ## 트러블슈팅
 
-도움이 필요하신가요? [Datadog 고객 지원팀][12]에 문의해 주세요.
-
-[1]: https://docs.datadoghq.com/ko/integrations/amazon_web_services/
-[2]: https://app.datadoghq.com/integrations/amazon-web-services
-[3]: https://docs.datadoghq.com/ko/integrations/amazon_web_services/#installation
-[4]: https://docs.aws.amazon.com/amazondynamodb/latest/developerguide/authentication-and-access-control.html
-[5]: https://app.datadoghq.com/integrations/amazon-dynamodb
-[6]: https://docs.aws.amazon.com/awscloudtrail/latest/userguide/cloudtrail-create-and-update-a-trail.html
-[7]: https://docs.datadoghq.com/ko/logs/guide/forwarder/
-[8]: https://app.datadoghq.com/logs
-[9]: https://docs.datadoghq.com/ko/logs/guide/send-aws-services-logs-with-the-datadog-lambda-function/
-[10]: https://github.com/DataDog/dogweb/blob/prod/integration/amazon_dynamodb/amazon_dynamodb_metadata.csv
-[11]: https://docs.datadoghq.com/ko/help/
\ No newline at end of file
+도움이 필요하신가요? [Datadog 고객 지원팀][12]에 문의하세요.
+
+[1]: images/dynamodb.png
+[2]: https://docs.datadoghq.com/ko/integrations/amazon_web_services/
+[3]: https://app.datadoghq.com/integrations/amazon-web-services
+[4]: https://docs.datadoghq.com/ko/integrations/amazon_web_services/#installation
+[5]: https://docs.aws.amazon.com/amazondynamodb/latest/developerguide/authentication-and-access-control.html
+[6]: https://app.datadoghq.com/integrations/amazon-dynamodb
+[7]: https://docs.aws.amazon.com/awscloudtrail/latest/userguide/cloudtrail-create-and-update-a-trail.html
+[8]: https://docs.datadoghq.com/ko/logs/guide/forwarder/
+[9]: https://app.datadoghq.com/logs
+[10]: https://docs.datadoghq.com/ko/logs/guide/send-aws-services-logs-with-the-datadog-lambda-function/
+[11]: https://github.com/DataDog/dogweb/blob/prod/integration/amazon_dynamodb/amazon_dynamodb_metadata.csv
+[12]: https://docs.datadoghq.com/ko/help/
\ No newline at end of file
diff --git a/content/ko/integrations/avi_vantage.md b/content/ko/integrations/avi_vantage.md
index 4d88888c9cb14..77bd8581180bc 100644
--- a/content/ko/integrations/avi_vantage.md
+++ b/content/ko/integrations/avi_vantage.md
@@ -23,7 +23,7 @@ assets:
     source_type_id: 10189
     source_type_name: Avi Vantage
   monitors:
-    Avi Vantage - Error Rate Monitor: assets/monitors/error_rate_monitor.json
+    Virtual service has a high number of errors: assets/monitors/error_rate_monitor.json
 author:
   homepage: https://www.datadoghq.com
   name: Datadog
@@ -40,7 +40,7 @@ draft: false
 git_integration_title: avi_vantage
 integration_id: avi-vantage
 integration_title: Avi Vantage
-integration_version: 4.2.1
+integration_version: 5.3.0
 is_public: true
 manifest_version: 2.0.0
 name: avi_vantage
@@ -53,11 +53,12 @@ supported_os:
 tile:
   changelog: CHANGELOG.md
   classifier_tags:
-  - "\b카테고리::클라우드"
+  - Category::Cloud
   - Category::Network
   - Supported OS::Linux
   - Supported OS::Windows
   - Supported OS::macOS
+  - 제공::통합
   configuration: README.md#Setup
   description: Avi Vantage 인스턴스의 상태와 성능을 모니터링하세요.
   media: []
@@ -75,24 +76,24 @@ tile:
 
 ## 설정
 
-호스트에서 실행 중인 에이전트의 경우 다음 지침에 따라 설치하고 구성하세요. 컨테이너화된 환경의 경우 [자동탐지 통합 템플릿][2]에 다음 지침을 적용하는 방법이 안내되어 있습니다.
+아래 지침을 따라 호스트에서 실행되는 에이전트에 대해 이 점검을 설치하고 설정하세요. 컨테이너화된 환경의 경우 이러한 지침을 적용하는 데 가이드가 필요하면 [오토파일럿 통합 템플릿][3]을 참조하세요.
 
 ### 설치
 
 Avi Vantage 검사는 [Datadog Agent][3] 패키지에 포함되어 있습니다.
 서버에 추가 설치가 필요하지 않습니다.
 
-### 설정
+### 구성
 
 1. Agent의 설정 디렉터리 루트에 있는 `conf.d/` 폴더에서 `avi_vantage.d/conf.yaml` 파일을 편집하여 avi_vantage 성능 데이터를 수집할 수 있습니다. 사용 가능한 모든 설정 옵션은 [샘플 avi_vantage.d/conf.yaml][4]을 참조하세요.
 
-2. [에이전트를 재시작합니다][5].
+2. [Agent를 재시작합니다][5].
 
 ### 검증
 
 [Agent의 상태 하위 명령을 실행하고][6] Checks 섹션에서 `avi_vantage`를 찾으세요.
 
-## 수집한 데이터
+## 수집한 데이터
 
 ### 메트릭
 {{< get-metrics-from-git "avi_vantage" >}}
diff --git a/content/ko/integrations/azure_sql_managed_instance.md b/content/ko/integrations/azure_sql_managed_instance.md
index 1fe1c46480e1e..f780cfd098469 100644
--- a/content/ko/integrations/azure_sql_managed_instance.md
+++ b/content/ko/integrations/azure_sql_managed_instance.md
@@ -1,56 +1,103 @@
 ---
+app_id: azure-sql-managed-instance
+app_uuid: 877e3fb4-8192-4f54-942d-0d11363ab525
+assets:
+  dashboards:
+    azure-sql-managed-instance-overview: assets/dashboards/azure_sql_managed_instance_overview.json
+  integration:
+    auto_install: true
+    events:
+      creates_events: false
+    metrics:
+      check:
+      - azure.sql_managedinstances.count
+      metadata_path: metadata.csv
+      prefix: azure.sql_managedinstances
+    service_checks:
+      metadata_path: assets/service_checks.json
+    source_type_id: 39934830
+    source_type_name: Azure SQL 관리 인스턴스
+  monitors:
+    Azure SQL Managed Instance CPU Utilization: assets/monitors/azure_sql_managed_instance_cpu_utilization.json
+author:
+  homepage: https://www.datadoghq.com
+  name: Datadog
+  sales_email: info@datadoghq.com
+  support_email: help@datadoghq.com
 categories:
-- cloud
 - azure
+- 메트릭
+custom_kind: integration
 dependencies: []
-description: Azure SQL Managed Instance의 핵심 메트릭 추적하기
-doc_link: https://docs.datadoghq.com/integrations/azure_sql_managed_instance/
+display_on_public_website: true
 draft: false
 git_integration_title: azure_sql_managed_instance
-has_logo: true
 integration_id: azure-sql-managed-instance
-integration_title: Microsoft Azure SQL Managed Instance
+integration_title: Azure SQL 관리 인스턴스
 integration_version: ''
 is_public: true
-custom_kind: 통합
-manifest_version: '1.0'
+manifest_version: 2.0.0
 name: azure_sql_managed_instance
-public_title: Datadog-Microsoft Azure SQL Managed Instance 통합
-short_description: Azure SQL Managed Instance의 핵심 메트릭 추적하기
-version: '1.0'
+public_title: Azure SQL 관리 인스턴스
+short_description: SQL 관리 인스턴스 통합을 사용해 SQL 관리 인스턴스 데이터베이스의 사용 및 활동을 추적할 수 있습니다.
+supported_os: []
+tile:
+  changelog: CHANGELOG.md
+  classifier_tags:
+  - Category::Azure
+  - Category::Metrics
+  - Submitted Data Type::Metrics
+  - Offering::Integration
+  configuration: README.md#Installation
+  description: SQL 관리 인스턴스 통합을 사용해 SQL 관리 인스턴스 데이터베이스의 사용 및 활동을 추적할 수 있습니다.
+  media: []
+  overview: README.md#Overview
+  support: README.md#Support
+  title: Azure SQL 관리 인스턴스
 ---
 
-<!--  SOURCED FROM https://github.com/DataDog/dogweb -->
-## 개요
+<!--  SOURCED FROM https://github.com/DataDog/integrations-internal-core -->
+
 
-Azure SQL Managed Instance는 규모 조정이 가능한 클라우드 데이터베이스 서비스입니다. 이 서비스는 폭넓은 SQL Server 엔진 호환성에 완전관리형 PaaS(Platform as a service)의 이점을 더했습니다.
+## 개요
 
-Datadog Azure 통합을 사용해 SQL Managed Instance 메트릭을 수집할 수 있습니다.
+Azure SQL 관리 인스턴스는 엔터프라이즈 SQL 서버 데이터 엔진의 완전관리형 버전입니다. SQL 관리 인스턴스 통합을 사용해 SQL 관리 인스턴스 데이터베이스의 사용 및 활동을 추적할 수 있습니다.
 
 ## 설정
+
 ### 설치
 
 아직 설정하지 않았다면, 먼저 [Microsoft Azure 통합][1]을 설정하세요. 그 외 다른 설치 단계는 없습니다.
 
-## 수집한 데이터
+## 수집한 데이터
+
 ### 메트릭
 {{< get-metrics-from-git "azure_sql_managed_instance" >}}
 
 
+### 서비스 점검
+
+Azure SQL 관리 인스턴스에는 서비스 점검이 포함되어 있지 않습니다.
+
 ### 이벤트
-Azure SQL Managed Instance 통합에는 이벤트가 포함되어 있지 않습니다.
 
-### 서비스 검사
-Azure SQL Managed Instance 통합에는 서비스 점검이 포함되어 있지 않습니다.
+Azure SQL 관리 인스턴스에는 이벤트가 포함되지 않습니다.
 
 ## 트러블슈팅
+
 도움이 필요하신가요? [Datadog 지원팀][3]에 문의하세요.
 
 ## 참고 자료
 
-- [https://www.datadoghq.com/blog/migrate-sql-workloads-to-azure-with-datadog/][4]
+기타 유용한 문서, 링크 및 기사:
+
+- [Datadog 데이터베이스 모니터링으로 SQL 서버 성능 최적화][4]
+- [데이터베이스 모니터링 설명서][5]
+- [데이터베이스 모니터링 권장 사항을 통해 데이터베이스 호스트 및 쿼리 성능 향상][6]
 
 [1]: https://docs.datadoghq.com/ko/integrations/azure/
-[2]: https://github.com/DataDog/dogweb/blob/prod/integration/azure_sql_managed_instance/azure_sql_managed_instance_metadata.csv
+[2]: https://app.datadoghq.com/account/settings/agent/latest
 [3]: https://docs.datadoghq.com/ko/help/
-[4]: https://www.datadoghq.com/blog/migrate-sql-workloads-to-azure-with-datadog/
\ No newline at end of file
+[4]: https://www.datadoghq.com/blog/optimize-sql-server-performance-with-datadog/
+[5]: https://docs.datadoghq.com/ko/database_monitoring/
+[6]: https://www.datadoghq.com/blog/database-monitoring-recommendations/
\ No newline at end of file
diff --git a/content/ko/integrations/cassandra.md b/content/ko/integrations/cassandra.md
index 8284c746c6c8a..eda2de762fb01 100644
--- a/content/ko/integrations/cassandra.md
+++ b/content/ko/integrations/cassandra.md
@@ -24,8 +24,6 @@ assets:
       metadata_path: assets/service_checks.json
     source_type_id: 33
     source_type_name: Cassandra
-  logs:
-    source: cassandra
   saved_views:
     cassandra_processes: assets/saved_views/cassandra_processes.json
 author:
@@ -37,6 +35,7 @@ categories:
 - caching
 - data stores
 - log collection
+custom_kind: 통합
 dependencies:
 - https://github.com/DataDog/integrations-core/blob/master/cassandra/README.md
 display_on_public_website: true
@@ -44,9 +43,8 @@ draft: false
 git_integration_title: cassandra
 integration_id: cassandra
 integration_title: Cassandra
-integration_version: 1.18.0
+integration_version: 3.0.0
 is_public: true
-custom_kind: integration
 manifest_version: 2.0.0
 name: cassandra
 public_title: Cassandra
@@ -60,14 +58,22 @@ tile:
   classifier_tags:
   - Category::Caching
   - Category::Data Stores
-  - Category::로그 수집
+  - Category::Log Collection
   - Supported OS::Linux
   - Supported OS::Windows
   - Supported OS::macOS
+  - Offering::Integration
   configuration: README.md#Setup
   description: 클러스터 성능, 용량, 전반적인 상태 등을 추적하세요.
   media: []
   overview: README.md#Overview
+  resources:
+  - resource_type: 블로그
+    url: https://www.datadoghq.com/blog/how-to-monitor-cassandra-performance-metrics
+  - resource_type: 블로그
+    url: https://www.datadoghq.com/blog/how-to-collect-cassandra-metrics
+  - resource_type: 블로그
+    url: https://www.datadoghq.com/blog/monitoring-cassandra-with-datadog
   support: README.md#Support
   title: Cassandra
 ---
@@ -92,21 +98,21 @@ Cassandra 점검은 [Datadog 에이전트][2] 패키지에 포함되어 있으
 
 **참고**: 이 점검에는 인스턴트당 350개 메트릭 제한이 적용됩니다. 반환되는 메트릭의 수는 [상태 페이지][3]에 나와 있습니다. 아래 설정을 편집하여 관심 있는 메트릭을 지정할 수 있습니다. 메트릭을 커스터마이즈하는 방법을 알아보려면 상세한 지침을 [JMX 설명서][4]를 참조하세요. 더 많은 메트릭을 모니터링해야 한다면 [Datadog 지원팀][5]에 문의해 주세요.
 
-### 설정
+### 구성
 
 ##### 메트릭 수집
 
-1. `cassandra.d/conf.yaml` 파일의 기본 설정은 [Cassandra 메트릭](#metrics) 수집을 활성화합니다. 사용 가능한 모든 설정 옵션은 [sample cassandra.d/conf.yaml][6]을 참조하세요.
+1. `cassandra.d/conf.yaml` 파일의 기본 설정은 [Cassandra 메트릭](#metrics) 수집을 활성화합니다. 사용 가능한 모든 설정 옵션은 [샘플 cassandra.d/conf.yaml][6]을 참조하세요.
 
-2. [ Agent를 다시 시작][7]합니다.
+2. [Agent를 다시 시작][7]합니다.
 
 ##### 로그 수집
 
-_에이전트 버전 > 6.0 이상 사용 가능_
+_Agent 버전 6.0 이상에서 사용 가능_
 
 컨테이너화된 환경의 경우 [쿠버네티스(Kubernetes) 로그 수집][8] 또는 [도커(Docker) 로그 수집][9] 페이지의 지침을 따르세요.
 
-1. Datadog 에이전트에서 로그 수집은 기본적으로 사용하지 않도록 설정되어 있습니다. `datadog.yaml` 파일에서 로그 수집을 사용하도록 설정합니다.
+1. Datadog 에이전트에서 로그 수집은 기본적으로 사용하지 않도록 설정되어 있습니다. `datadog.yaml`파일에서 로그 수집을 사용하도록 설정합니다.
 
    ```yaml
    logs_enabled: true
@@ -127,17 +133,17 @@ _에이전트 버전 > 6.0 이상 사용 가능_
               pattern: '[A-Z]+ +\[[^\]]+\] +\d{4}-\d{2}-\d{2}'
    ```
 
-    `path` 및 `service` 파라미터 값을 변경하고 환경에 맞게 설정하세요. 사용 가능한 모든 설정 옵션은 [sample cassandra.d/conf.yaml][6]을 참조하세요.
+    `path` 및 `service` 파라미터 값을 변경하고 환경에 맞게 설정하세요. 사용 가능한 모든 설정 옵션은 [샘플 cassandra.d/conf.yaml][6]을 참조하세요.
 
    스택트레이스가 적절하게 단일 로그로 집계되었는지 확인하려면 [멀티라인 프로세싱 규칙][10]을 추가할 수 있습니다.
 
-3. [ Agent를 다시 시작][7]합니다.
+3. [에이전트를 다시 시작][7]합니다.
 
 ### 검증
 
 [에이전트 상태 하위 명령을 실행하고][3] 점검 섹션 아래에서 `cassandra`를 찾습니다.
 
-## 수집한 데이터
+## 수집한 데이터
 
 ### 메트릭
 {{< get-metrics-from-git "cassandra" >}}
@@ -147,7 +153,7 @@ _에이전트 버전 > 6.0 이상 사용 가능_
 
 Cassandra 점검은 이벤트를 포함하지 않습니다.
 
-### 서비스 검사
+### 서비스 점검
 {{< get-service-checks-from-git "cassandra" >}}
 
 
@@ -171,7 +177,7 @@ Cassandra 점검은 이벤트를 포함하지 않습니다.
 
 ## 개요
 
-이 점검은 [jmx 통합][15]을 통해 사용할 수 없는 Cassandra 클러스터에 대한 메트릭을 수집합니다. `nodetool` 유틸리티를 사용해 수집하세요.
+이 점검은 [jmx 통합][15]을 통해 사용할 수 없는 Cassandra 클러스터에 대한 메트릭을 수집합니다. `nodetool` 유틸리티를 사용해 수집하세요.
 
 ## 설정
 
@@ -188,7 +194,7 @@ Cassandra Nodetool 점검은 [Datadog 에이전트][2] 패키지에 포함되어
 
 #### 호스트
 
-1. [에이전트 설정 디렉터리][16] 루트에 있는 `conf.d/` 폴더에서 `cassandra_nodetool.d/conf.yaml` 파일을 편집하세요. 사용 가능한 모든 설정 옵션은 [sample cassandra_nodetool.d/conf.yaml][17]을 참조하세요.
+1. [에이전트 설정 디렉터리][16] 루트에 있는 `conf.d/` 폴더에서 `cassandra_nodetool.d/conf.yaml` 파일을 편집하세요. 사용 가능한 모든 설정 옵션은 [샘플 cassandra_nodetool.d/conf.yaml][17]을 참조하세요.
 
    ```yaml
    init_config:
@@ -203,16 +209,16 @@ Cassandra Nodetool 점검은 [Datadog 에이전트][2] 패키지에 포함되어
          - "<KEYSPACE_2>"
    ```
 
-2. [ Agent를 다시 시작][7]합니다.
+2. [Agent를 다시 시작][7]합니다.
 
 #### 로그 수집
 
 Cassandra 통합이 Cassandra Nodetool 로그를 수집합니다. [Cassandra 로그 수집 지침][18]을 참조하세요. 
 
 <!-- xxz tab xxx -->
-<!-- xxx tab "컨테이너화된 환경" xxx -->
+<!-- xxx tab "Containerized" xxx -->
 
-#### 컨테이너화된 환경
+#### 컨테이너화
 
 컨테이너화된 환경의 경우 포드에서 공식 [프로모테우스 엑스포터][19]를 사용하세요. 그런 다음 에이전트의 자동탐지를 사용해 포드를 찾고 엔드포인트를 쿼리하세요.
 
@@ -223,7 +229,7 @@ Cassandra 통합이 Cassandra Nodetool 로그를 수집합니다. [Cassandra 로
 
 [에이전트의 `status` 하위 명령을 실행하고][3] 점검 섹션 아래에서 `cassandra_nodetool`를 찾습니다.
 
-## 수집한 데이터
+## 수집한 데이터
 
 ### 메트릭
 {{< get-metrics-from-git "cassandra_nodetool" >}}
@@ -233,7 +239,7 @@ Cassandra 통합이 Cassandra Nodetool 로그를 수집합니다. [Cassandra 로
 
 Cassandra_nodetool 점검은 이벤트를 포함하지 않습니다.
 
-### 서비스 검사
+### 서비스 점검
 {{< get-service-checks-from-git "cassandra_nodetool" >}}
 
 
@@ -248,7 +254,7 @@ Cassandra_nodetool 점검은 이벤트를 포함하지 않습니다.
 - [Datadog를 사용한 Cassandra 모니터링][13]
 
 
-[1]: https://raw.githubusercontent.com/DataDog/integrations-core/master/cassandra/images/cassandra_dashboard.png
+[1]: https://raw.githubusercontent.com/DataDog/integrations-core/master/cassandra/images/cassandra_dashboard_2.png
 [2]: https://app.datadoghq.com/account/settings/agent/latest
 [3]: https://docs.datadoghq.com/ko/agent/guide/agent-commands/#agent-status-and-information
 [4]: https://docs.datadoghq.com/ko/integrations/java/
@@ -261,7 +267,7 @@ Cassandra_nodetool 점검은 이벤트를 포함하지 않습니다.
 [11]: https://www.datadoghq.com/blog/how-to-monitor-cassandra-performance-metrics
 [12]: https://www.datadoghq.com/blog/how-to-collect-cassandra-metrics
 [13]: https://www.datadoghq.com/blog/monitoring-cassandra-with-datadog
-[14]: https://raw.githubusercontent.com/DataDog/integrations-core/master/cassandra_nodetool/images/cassandra_dashboard.png
+[14]: https://raw.githubusercontent.com/DataDog/integrations-core/master/cassandra_nodetool/images/cassandra_dashboard_2.png
 [15]: https://github.com/DataDog/integrations-core/tree/master/cassandra
 [16]: https://docs.datadoghq.com/ko/agent/guide/agent-configuration-files/#agent-configuration-directory
 [17]: https://github.com/DataDog/integrations-core/blob/master/cassandra_nodetool/datadog_checks/cassandra_nodetool/data/conf.yaml.example
diff --git a/content/ko/integrations/catchpoint.md b/content/ko/integrations/catchpoint.md
index 4191f3b99d0d6..a51bfd0f81413 100644
--- a/content/ko/integrations/catchpoint.md
+++ b/content/ko/integrations/catchpoint.md
@@ -26,6 +26,8 @@ categories:
 - metrics
 - issue tracking
 - network
+- event management
+custom_kind: 통합
 dependencies: []
 display_on_public_website: true
 draft: false
@@ -34,7 +36,6 @@ integration_id: catchpoint
 integration_title: Catchpoint
 integration_version: ''
 is_public: true
-custom_kind: integration
 manifest_version: 2.0.0
 name: catchpoint
 public_title: Catchpoint
@@ -46,8 +47,10 @@ tile:
   - Category::Metrics
   - Category::Issue Tracking
   - Category::Network
+  - Category::Event Management
+  - Offering::Integration
   configuration: README.md#Setup
-  description: Datadog 이벤트 스트림에 Catchpoint 알림을 발송하세요.
+  description: Datadog 이벤트 스트림으로 Catchpoint 알림 전송하기
   media: []
   overview: README.md#Overview
   support: README.md#Support
@@ -69,7 +72,7 @@ Catchpoint 통합을 통해 다음 작업을 실행할 수 있습니다.
 
 ### 설치
 
-설치할 필요가 없습니다.
+설치가 필요하지 않습니다.
 
 ### 설정
 
@@ -77,7 +80,7 @@ Catchpoint 통합을 통해 다음 작업을 실행할 수 있습니다.
 
 1. 알림 API에서 활성화를 선택합니다.
 
-   {{< img src="integrations/catchpoint/catchpoint_configuration.png" alt="Catchpoint 이벤트" popup="true">}}
+   ![catchpoint 이벤트][1]
 
 2. Datadog 엔드포인트 URL을 입력합니다.
 
@@ -85,12 +88,12 @@ Catchpoint 통합을 통해 다음 작업을 실행할 수 있습니다.
     https://app.datadoghq.com/api/v1/events?api_key=<YOUR_DATADOG_API_KEY>
     ```
 
-   기존 Datadog API 키를 선택하거나 [통합 타일의 **설정** 탭][1]에서 API 키를 생성합니다.
+    기존 Datadog API 키를 선택하거나 [통합 타일의 **설정** 탭][2]에서 API 키를 생성합니다.
 
 3. 상태를 활성으로 설정합니다.
 4. 형식에 대한 템플릿을 선택합니다.
 5. 새로운 템플릿을 추가합니다.
-6. 템플릿 이름(예: `DataDog`)을 입력하고 형식을 JSON으로 설정합니다.
+6. `DataDog`와 같은 템플릿 이름을 입력하고 Format을 JSON으로 설정합니다.
 7. 다음 JSON 템플릿을 사용하여 저장합니다.
 
    ```json
@@ -106,9 +109,9 @@ Catchpoint 통합을 통해 다음 작업을 실행할 수 있습니다.
    }
    ```
 
-Catchpoint는 Datadog의 [이벤트 탐색기][2]에 직접 알림을 전송합니다.
+Catchpoint는 Datadog의 [이벤트 탐색기][3]에 직접 알림을 전송합니다.
 
-{{< img src="integrations/catchpoint/catchpoint_event.png" alt="catchpoint 이벤트" popup="true">}}
+![catchpoint 이벤트][4]
 
 ### 메트릭 수집
 
@@ -821,7 +824,7 @@ Datadog에서 Catchpoint 메트릭을 수신하려면 Catchpoint 포털에서 Te
 }
 ```
 
-## 수집한 데이터
+## 수집한 데이터
 
 ### 메트릭
 {{< get-metrics-from-git "catchpoint" >}}
@@ -829,18 +832,20 @@ Datadog에서 Catchpoint 메트릭을 수신하려면 Catchpoint 포털에서 Te
 
 ### 이벤트
 
-Catchpoint 이벤트가 [Catchpoint 대시보드][4]의 이벤트 스트림 위젯에 표시됩니다.
+Catchpoint 이벤트가 [Catchpoint 대시보드][6]의 이벤트 스트림 위젯에 표시됩니다.
 
-### 서비스 검사
+### 서비스 점검
 
-Catchpoint 통합에는 서비스 검사가 포함되어 있지 않습니다.
+Catchpoint 통합에는 서비스 점검이 포함되어 있지 않습니다.
 
 ## 트러블슈팅
 
-도움이 필요하신가요? [Datadog 지원팀][5]에 문의하세요.
+도움이 필요하신가요? [Datadog 지원팀][7]에 문의하세요.
 
-[1]: https://app.datadoghq.com/integrations/catchpoint
-[2]: https://docs.datadoghq.com/ko/service_management/events/
-[3]: https://github.com/DataDog/dogweb/blob/prod/integration/catchpoint/catchpoint_metadata.csv
-[4]: https://app.datadoghq.com/dash/integration/32054/catchpoint-dashboard
-[5]: https://docs.datadoghq.com/ko/help/
\ No newline at end of file
+[1]: images/configuration.png
+[2]: https://app.datadoghq.com/integrations/catchpoint
+[3]: https://docs.datadoghq.com/ko/service_management/events/
+[4]: images/screenshot.png
+[5]: https://github.com/DataDog/dogweb/blob/prod/integration/catchpoint/catchpoint_metadata.csv
+[6]: https://app.datadoghq.com/dash/integration/32054/catchpoint-dashboard
+[7]: https://docs.datadoghq.com/ko/help/
\ No newline at end of file
diff --git a/content/ko/integrations/cert_manager.md b/content/ko/integrations/cert_manager.md
index 772a66a178f9c..1e0264e7e3f92 100644
--- a/content/ko/integrations/cert_manager.md
+++ b/content/ko/integrations/cert_manager.md
@@ -26,7 +26,8 @@ author:
 categories:
 - 보안
 - 설정 및 배포
-- cog-2
+- ㅊ
+custom_kind: integration
 dependencies:
 - https://github.com/DataDog/integrations-core/blob/master/cert_manager/README.md
 display_on_public_website: true
@@ -34,9 +35,8 @@ draft: false
 git_integration_title: cert_manager
 integration_id: cert-manager
 integration_title: cert-manager
-integration_version: 4.1.0
+integration_version: 5.3.0
 is_public: true
-custom_kind: 통합
 manifest_version: 2.0.0
 name: cert_manager
 public_title: cert-manager
@@ -54,6 +54,7 @@ tile:
   - Category::Security
   - Category::Configuration & Deployment
   - Category::Containers
+  - 제공::통합
   configuration: README.md#Setup
   description: Datadog를 사용해 모든 cert-manager 메트릭을 추적하세요.
   media: []
@@ -80,17 +81,17 @@ tile:
 cert_manager 점검은 [Datadog 에이전트][3] 패키지에 포함되어 있습니다.
 서버에서 추가 설치가 필요하지 않습니다.
 
-### 설정
+### 구성
 
 1. 에이전트의 설정 디렉터리 루트에 있는 `conf.d/` 폴더에서 `cert_manager.d/conf.yaml` 파일을 편집하여 cert_manager 성능 데이터를 수집하기 시작합니다. 사용 가능한 모든 설정 옵션은 [샘플 cert_manager.d/conf.yaml][4]을 참조하세요.
 
-2. [에이전트를 재시작합니다][5].
+2. [Agent를 재시작합니다][5].
 
 ### 검증
 
 [에이전트의 상태 하위 명령을 실행하고][6] 점검 섹션에서 `cert_manager`를 찾습니다.
 
-## 수집한 데이터
+## 수집한 데이터
 
 ### 메트릭
 {{< get-metrics-from-git "cert_manager" >}}
@@ -100,7 +101,7 @@ cert_manager 점검은 [Datadog 에이전트][3] 패키지에 포함되어 있
 
 cert_manager 통합은 이벤트를 포함하지 않습니다.
 
-### 서비스 검사
+### 서비스 점검
 {{< get-service-checks-from-git "cert_manager" >}}
 
 
diff --git a/content/ko/integrations/gearmand.md b/content/ko/integrations/gearmand.md
index 63f2f99c80f4e..3c3f19aa36c1c 100644
--- a/content/ko/integrations/gearmand.md
+++ b/content/ko/integrations/gearmand.md
@@ -38,7 +38,7 @@ draft: false
 git_integration_title: gearmand
 integration_id: gearman
 integration_title: Gearman
-integration_version: 3.1.0
+integration_version: 5.0.0
 is_public: true
 manifest_version: 2.0.0
 name: gearmand
diff --git a/content/ko/integrations/google_app_engine.md b/content/ko/integrations/google_app_engine.md
index 4b0da5cc3e65c..5ee52e2c5a4ee 100644
--- a/content/ko/integrations/google_app_engine.md
+++ b/content/ko/integrations/google_app_engine.md
@@ -1,27 +1,65 @@
 ---
+app_id: google-app-engine
+app_uuid: 873be5df-897f-450d-856d-99cea1ffae03
+assets:
+  dashboards:
+    gcp_appengine: assets/dashboards/gcp_appengine.json
+  integration:
+    auto_install: true
+    events:
+      creates_events: false
+    metrics:
+      check:
+      - gcp.gae.memcache.hit_ratio
+      - gcp.gae.http.server.response_latencies.avg
+      - gcp.gae.system.cpu.usage
+      - gcp.gae.flex.instance.connections.current
+      metadata_path: metadata.csv
+      prefix: gcp.gae
+    service_checks:
+      metadata_path: assets/service_checks.json
+    source_type_id: 87
+    source_type_name: Google 앱 엔진
+author:
+  homepage: https://www.datadoghq.com
+  name: Datadog
+  sales_email: info@datadoghq.com
+  support_email: help@datadoghq.com
 categories:
 - cloud
 - configuration & deployment
 - google cloud
 custom_kind: 통합
 dependencies: []
-description: 프로젝트에 관한 메트릭을 수집하고 프로젝트 버전 간에 비교합니다.
-doc_link: https://docs.datadoghq.com/integrations/google_app_engine/
+display_on_public_website: true
 draft: false
 git_integration_title: google_app_engine
-has_logo: true
 integration_id: google-app-engine
 integration_title: Google 앱 엔진
 integration_version: ''
 is_public: true
-manifest_version: '1.0'
+manifest_version: 2.0.0
 name: google_app_engine
-public_title: Datadog-Google 앱 엔진 통합
-short_description: 프로젝트에 관한 메트릭을 수집하고 프로젝트 버전 간에 비교합니다.
-version: '1.0'
+public_title: Google 앱 엔진
+short_description: "Google App Engine: Google의 Platform as a Service \n클라우드에서 실행되는\
+  \ 앱 모니터링"
+supported_os: []
+tile:
+  changelog: CHANGELOG.md
+  classifier_tags:
+  - Category::Cloud
+  - Category::설정 및 배포
+  - Category::Google Cloud
+  - Offering::Integration
+  configuration: README.md#Setup
+  description: "Google App Engine: Google의 Platform as a Service \n클라우드에서 실행되는 앱 모니터링"
+  media: []
+  overview: README.md#Overview
+  support: README.md#Support
+  title: Google 앱 엔진
 ---
 
-<!--  SOURCED FROM https://github.com/DataDog/dogweb -->
+<!--  SOURCED FROM https://github.com/DataDog/integrations-internal-core -->
 ## 개요
 
 프로젝트에 Google 앱 엔진 통합을 설치합니다.
diff --git a/content/ko/integrations/google_cloud_audit_logs.md b/content/ko/integrations/google_cloud_audit_logs.md
index ec1f7a849e763..06ed92502e304 100644
--- a/content/ko/integrations/google_cloud_audit_logs.md
+++ b/content/ko/integrations/google_cloud_audit_logs.md
@@ -1,4 +1,22 @@
 ---
+app_id: google-cloud-audit-logs
+app_uuid: cadf465e-c3fa-4c62-8998-39e7149c2225
+assets:
+  dashboards:
+    gcp_audit_logs: assets/dashboards/gcp_audit_logs.json
+  integration:
+    auto_install: true
+    events:
+      creates_events: false
+    service_checks:
+      metadata_path: assets/service_checks.json
+    source_type_id: 702
+    source_type_name: Google Cloud Audit Logs
+author:
+  homepage: https://www.datadoghq.com
+  name: Datadog
+  sales_email: info@datadoghq.com
+  support_email: help@datadoghq.com
 categories:
 - cloud
 - google cloud
@@ -7,22 +25,38 @@ categories:
 custom_kind: 통합
 dependencies: []
 description: 감사 로그 대시보드를 확인합니다.
+display_on_public_website: true
 doc_link: ''
 draft: false
 git_integration_title: google_cloud_audit_logs
 has_logo: true
 integration_id: google-cloud-audit-logs
-integration_title: Datadog Google 감사 로그 대시보드
+integration_title: Google Cloud Audit Logs
 integration_version: ''
 is_public: true
-manifest_version: '1.0'
+manifest_version: 2.0.0
 name: google_cloud_audit_logs
-public_title: Datadog Google 감사 로그 대시보드 통합
-short_description: 감사 로그 대시보드를 확인합니다.
+public_title: Google Cloud Audit Logs
+short_description: GCP 감사 로그가 Datadog로 전송될 때 자동으로 활성화되는 GCP 보안의 사전 설정 대시보드
+supported_os: []
+tile:
+  changelog: CHANGELOG.md
+  classifier_tags:
+  - Category::Cloud
+  - Category::Google Cloud
+  - Category::Log Collection
+  - Category::Security
+  - Offering::Integration
+  configuration: README.md#Setup
+  description: GCP 감사 로그가 Datadog로 전송될 때 자동으로 활성화되는 GCP 보안의 사전 설정 대시보드
+  media: []
+  overview: README.md#Overview
+  support: README.md#Support
+  title: Google Cloud Audit Logs
 version: '1.0'
 ---
 
-<!--  SOURCED FROM https://github.com/DataDog/dogweb -->
+<!--  SOURCED FROM https://github.com/DataDog/integrations-internal-core -->
 ## 개요
 
 GCP 감사 로그를 모니터링하여 리소스에 접근하는 사용자, 접근 방법, 접근 허용 여부를 더욱 잘 파악할 수 있습니다.
@@ -33,10 +67,29 @@ GCP 감사 로그를 모니터링하여 리소스에 접근하는 사용자, 접
 * **데이터 액세스 감사 로그**: 리소스당 [별도로 활성화][1]되는 데이터 액세스 감사 로그에는 리소스의 설정 또는 메타데이터를 읽는 API 호출과 사용자가 제공한 리소스 데이터를 생성, 수정 또는 읽는 사용자 기반 API 호출이 포함됩니다. 데이터 액세스 감사 로그는 공개적으로 공유되는 리소스에 대한 데이터 액세스 작업을 기록하지 않습니다.
 * **정책 거부 감사 로그**: 기본적으로 생성되는 클라우드 로깅은 보안 정책 위반으로 인해 Google Cloud 서비스가 사용자 또는 [서비스 계정][2]의 액세스를 거부할 때 정책 거부 감사 로그를 기록합니다.
 
+## 설정
+
+### 설치
 Google 클라우드 플랫폼 통합 페이지의 [로그 수집 지침][3]을 사용하여 Pub/Sub 토픽을 통해 해당 로그를 전달할 수 있습니다.
 
 자세한 내용을 확인하려면 [감사 로그 이해하기][4] 또는 [GCP 감사 로그 모니터링 모범 사례][5]를 참조하세요.
 
+## 수집한 데이터
+
+### 메트릭
+
+Google Cloud Audit Logs 통합에는 이벤트가 포함되지 않습니다.
+
+### 이벤트
+
+Google Cloud Audit Logs 통합에는 이벤트가 포함되지 않습니다.
+
+### 서비스 점검
+
+Google Cloud Audit Logs 통합에는 서비스 점검이 포함되지 않습니다.
+
+## 트러블슈팅
+
 도움이 필요하신가요? [Datadog 지원팀][6]에 문의하세요.
 
 [1]: https://cloud.google.com/logging/docs/audit/configure-data-access
diff --git a/content/ko/integrations/google_cloud_bigtable.md b/content/ko/integrations/google_cloud_bigtable.md
index 1de479759e0b9..eda62c8ebaa3a 100644
--- a/content/ko/integrations/google_cloud_bigtable.md
+++ b/content/ko/integrations/google_cloud_bigtable.md
@@ -1,4 +1,24 @@
 ---
+app_id: google-cloud-bigtable
+app_uuid: 6450fe6b-bd5b-4957-9974-3e2615ff0d19
+assets:
+  integration:
+    auto_install: true
+    events:
+      creates_events: false
+    metrics:
+      check: gcp.bigtable.cluster.cpu_load
+      metadata_path: metadata.csv
+      prefix: gcp.bigtable.
+    service_checks:
+      metadata_path: assets/service_checks.json
+    source_type_id: 263
+    source_type_name: Google Cloud Bigtable
+author:
+  homepage: https://www.datadoghq.com
+  name: Datadog
+  sales_email: info@datadoghq.com
+  support_email: help@datadoghq.com
 categories:
 - cloud
 - google cloud
@@ -7,22 +27,40 @@ categories:
 custom_kind: 통합
 dependencies: []
 description: 주요 Google Bigtable 메트릭을 추적합니다.
+display_on_public_website: true
 doc_link: https://docs.datadoghq.com/integrations/google_cloud_bigtable/
 draft: false
 git_integration_title: google_cloud_bigtable
 has_logo: true
 integration_id: google-cloud-bigtable
-integration_title: Google Bigtable
+integration_title: Google Cloud Bigtable
 integration_version: ''
 is_public: true
-manifest_version: '1.0'
+manifest_version: 2.0.0
 name: google_cloud_bigtable
-public_title: Datadog-Google Bigtable 통합
-short_description: 주요 Google Bigtable 메트릭을 추적합니다.
+public_title: Google Cloud Bigtable
+short_description: 검색, 분석, 지도, Gmail과 같은 Google 서비스를 구동하는 Google의 NoSQL Big Data 데이터베이스
+  서비스
+supported_os: []
+tile:
+  changelog: CHANGELOG.md
+  classifier_tags:
+  - Category::Cloud
+  - Category::Google Cloud
+  - Category::Data Stores
+  - Category::Log Collection
+  - Offering::Integration
+  configuration: README.md#Setup
+  description: 검색, 분석, 지도, Gmail과 같은 Google 서비스를 구동하는 Google의 NoSQL Big Data 데이터베이스
+    서비스
+  media: []
+  overview: README.md#Overview
+  support: README.md#Support
+  title: Google Cloud Bigtable
 version: '1.0'
 ---
 
-<!--  SOURCED FROM https://github.com/DataDog/dogweb -->
+<!--  SOURCED FROM https://github.com/DataDog/integrations-internal-core -->
 ## 개요
 
 Bigtable은 Google의 NoSQL 빅데이터 데이터베이스 서비스입니다. 검색, 애널리틱스, 지도, Gmail 등 많은 주요 Google 서비스를 제공하는 데 사용되는 동일한 데이터베이스입니다.
diff --git a/content/ko/integrations/google_cloud_composer.md b/content/ko/integrations/google_cloud_composer.md
index 82547a35455c5..4dc2c7436d78d 100644
--- a/content/ko/integrations/google_cloud_composer.md
+++ b/content/ko/integrations/google_cloud_composer.md
@@ -1,4 +1,24 @@
 ---
+app_id: google-cloud-composer
+app_uuid: 59f5f810-7282-4b41-bb10-80d6e8839a73
+assets:
+  integration:
+    auto_install: true
+    events:
+      creates_events: false
+    metrics:
+      check: gcp.composer.environment.api.request_count
+      metadata_path: metadata.csv
+      prefix: gcp.composer.
+    service_checks:
+      metadata_path: assets/service_checks.json
+    source_type_id: 264
+    source_type_name: Google Cloud Composer
+author:
+  homepage: https://www.datadoghq.com
+  name: Datadog
+  sales_email: info@datadoghq.com
+  support_email: help@datadoghq.com
 categories:
 - cloud
 - 설정 및 배포
@@ -7,6 +27,7 @@ categories:
 custom_kind: 통합
 dependencies: []
 description: 주요 Google Cloud Composer 메트릭을 추적합니다.
+display_on_public_website: true
 doc_link: https://docs.datadoghq.com/integrations/google_cloud_composer/
 draft: false
 git_integration_title: google_cloud_composer
@@ -15,14 +36,29 @@ integration_id: google-cloud-composer
 integration_title: Google Cloud Composer
 integration_version: ''
 is_public: true
-manifest_version: '1.0'
+manifest_version: 2.0.0
 name: google_cloud_composer
-public_title: Datadog-Google Cloud Composer 통합
-short_description: 주요 Google Cloud Composer 메트릭을 추적합니다.
+public_title: Google Cloud Composer
+short_description: 클라우드와 온프레미스 데이터 센터 전체의 파이프라인을 모니터링하고 일정을 예약해 주는 서비스
+supported_os: []
+tile:
+  changelog: CHANGELOG.md
+  classifier_tags:
+  - Category::Cloud
+  - 카테고리::설정 및 배포
+  - Category::Google Cloud
+  - Category::Log Collection
+  - Offering::Integration
+  configuration: README.md#Setup
+  description: 클라우드와 온프레미스 데이터 센터 전체의 파이프라인을 모니터링하고 일정을 예약해 주는 서비스
+  media: []
+  overview: README.md#Overview
+  support: README.md#Support
+  title: Google Cloud Composer
 version: '1.0'
 ---
 
-<!--  SOURCED FROM https://github.com/DataDog/dogweb -->
+<!--  SOURCED FROM https://github.com/DataDog/integrations-internal-core -->
 ## 개요
 
 Google Cloud Composer는 클라우드 및 온프레미스 데이터센터 전반에 걸쳐 파이프라인을 작성, 예약 및 모니터링할 수 있도록 도와드리는 완전관리형 워크플로우 오케스트레이션 서비스입니다.
diff --git a/content/ko/integrations/google_cloud_filestore.md b/content/ko/integrations/google_cloud_filestore.md
index 61487e2224076..61dbad1455fa6 100644
--- a/content/ko/integrations/google_cloud_filestore.md
+++ b/content/ko/integrations/google_cloud_filestore.md
@@ -1,4 +1,24 @@
 ---
+app_id: google-cloud-filestore
+app_uuid: 3bc2c185-ddc3-4ba7-be31-22e926a6834c
+assets:
+  integration:
+    auto_install: true
+    events:
+      creates_events: false
+    metrics:
+      check: gcp.file.nfs.server.free_bytes
+      metadata_path: metadata.csv
+      prefix: gcp.file.
+    service_checks:
+      metadata_path: assets/service_checks.json
+    source_type_id: 267
+    source_type_name: Google Cloud Filestore
+author:
+  homepage: https://www.datadoghq.com
+  name: Datadog
+  sales_email: info@datadoghq.com
+  support_email: help@datadoghq.com
 categories:
 - cloud
 - 데이터 스토어
@@ -7,6 +27,7 @@ categories:
 custom_kind: 통합
 dependencies: []
 description: 주요 Google Cloud Filestore 메트릭을 추적합니다.
+display_on_public_website: true
 doc_link: https://docs.datadoghq.com/integrations/google_cloud_filestore/
 draft: false
 git_integration_title: google_cloud_filestore
@@ -15,14 +36,29 @@ integration_id: google-cloud-filestore
 integration_title: Google Cloud Filestore
 integration_version: ''
 is_public: true
-manifest_version: '1.0'
+manifest_version: 2.0.0
 name: google_cloud_filestore
-public_title: Datadog-Google Cloud Filestore 통합
-short_description: 주요 Google Cloud Filestore 메트릭을 추적합니다.
+public_title: Google Cloud Filestore
+short_description: 파일 시스템 인터페이스가 필요한 애플리케이션에 공유 파일 시스템을 제공하는 관리 서비스
+supported_os: []
+tile:
+  changelog: CHANGELOG.md
+  classifier_tags:
+  - Category::Cloud
+  - Category::Data Stores
+  - Category::Google Cloud
+  - Category::Log Collection
+  - Offering::Integration
+  configuration: README.md#Setup
+  description: 파일 시스템 인터페이스가 필요한 애플리케이션에 공유 파일 시스템을 제공하는 관리 서비스
+  media: []
+  overview: README.md#Overview
+  support: README.md#Support
+  title: Google Cloud Filestore
 version: '1.0'
 ---
 
-<!--  SOURCED FROM https://github.com/DataDog/dogweb -->
+<!--  SOURCED FROM https://github.com/DataDog/integrations-internal-core -->
 ## 개요
 
 Google Cloud Filestore는 파일 시스템 인터페이스 및 데이터용 공유 파일 시스템이 필요한 애플리케이션을 위한 관리형 파일 스토리지 서비스입니다.
diff --git a/content/ko/integrations/google_cloud_firebase.md b/content/ko/integrations/google_cloud_firebase.md
index ec9ade5aa0e82..86d13016024f3 100644
--- a/content/ko/integrations/google_cloud_firebase.md
+++ b/content/ko/integrations/google_cloud_firebase.md
@@ -1,4 +1,24 @@
 ---
+app_id: google-cloud-firebase
+app_uuid: d7f5267d-56e4-4148-aabb-bec98207c35a
+assets:
+  integration:
+    auto_install: false
+    events:
+      creates_events: false
+    metrics:
+      check: gcp.firebasedatabase.io.utilization
+      metadata_path: metadata.csv
+      prefix: gcp.
+    service_checks:
+      metadata_path: assets/service_checks.json
+    source_type_id: 189
+    source_type_name: Google Cloud Firebase
+author:
+  homepage: https://www.datadoghq.com
+  name: Datadog
+  sales_email: info@datadoghq.com
+  support_email: help@datadoghq.com
 categories:
 - cloud
 - google cloud
@@ -7,6 +27,7 @@ categories:
 custom_kind: 통합
 dependencies: []
 description: Firebase 서비스로 인한 네트워크 및 데이터 저장소 사용량을 추적합니다.
+display_on_public_website: true
 doc_link: https://docs.datadoghq.com/integrations/google_cloud_firebase/
 draft: false
 git_integration_title: google_cloud_firebase
@@ -15,14 +36,29 @@ integration_id: google-cloud-firebase
 integration_title: Google Cloud Firebase
 integration_version: ''
 is_public: true
-manifest_version: '1.0'
+manifest_version: 2.0.0
 name: google_cloud_firebase
-public_title: Datadog-Google Cloud Firebase 통합
-short_description: Firebase 서비스로 인한 네트워크 및 데이터 저장소 사용량을 추적합니다.
+public_title: Google Cloud Firebase
+short_description: Firebase는 앱을 빠르게 개발할 수 있도록 도와주는 모바일 플랫폼입니다.
+supported_os: []
+tile:
+  changelog: CHANGELOG.md
+  classifier_tags:
+  - Category::Cloud
+  - Category::Google Cloud
+  - Category::Log Collection
+  - Category::Mobile
+  - Offering::Integration
+  configuration: README.md#Setup
+  description: Firebase는 앱을 빠르게 개발할 수 있도록 도와주는 모바일 플랫폼입니다.
+  media: []
+  overview: README.md#Overview
+  support: README.md#Support
+  title: Google Cloud Firebase
 version: '1.0'
 ---
 
-<!--  SOURCED FROM https://github.com/DataDog/dogweb -->
+<!--  SOURCED FROM https://github.com/DataDog/integrations-internal-core -->
 ## 개요
 
 Firebase는 고품질 앱을 빠르게 개발하고, 사용자 기반을 늘리고, 더 많은 수익을 창출할 수 있도록 도와드리는 모바일 플랫폼입니다.
diff --git a/content/ko/integrations/google_cloud_ml.md b/content/ko/integrations/google_cloud_ml.md
index 65dcbe7a5dd92..a7e82cbb0d6bb 100644
--- a/content/ko/integrations/google_cloud_ml.md
+++ b/content/ko/integrations/google_cloud_ml.md
@@ -1,4 +1,24 @@
 ---
+app_id: google-cloud-ml
+app_uuid: ed0cf686-2653-4082-bf00-1ad5d1dcd379
+assets:
+  integration:
+    auto_install: false
+    events:
+      creates_events: false
+    metrics:
+      check: gcp.ml.training.cpu.utilization
+      metadata_path: metadata.csv
+      prefix: gcp.ml.
+    service_checks:
+      metadata_path: assets/service_checks.json
+    source_type_id: 195
+    source_type_name: Google Cloud ML
+author:
+  homepage: https://www.datadoghq.com
+  name: Datadog
+  sales_email: info@datadoghq.com
+  support_email: help@datadoghq.com
 categories:
 - cloud
 - google cloud
@@ -7,6 +27,7 @@ categories:
 custom_kind: 통합
 dependencies: []
 description: Google Cloud 기계 학습의 주요 메트릭을 추적합니다.
+display_on_public_website: true
 doc_link: https://docs.datadoghq.com/integrations/google_cloud_ml/
 draft: false
 further_reading:
@@ -16,17 +37,35 @@ further_reading:
 git_integration_title: google_cloud_ml
 has_logo: true
 integration_id: google-cloud-ml
-integration_title: Google Machine Learning
+integration_title: Google Cloud ML
 integration_version: ''
 is_public: true
-manifest_version: '1.0'
+manifest_version: 2.0.0
 name: google_cloud_ml
-public_title: Datadog-Google Machine Learning 통합
-short_description: Google Cloud 기계 학습의 주요 메트릭을 추적합니다.
+public_title: Google Cloud ML
+short_description: 어떤 규모나 유형의 데이터에도 적합한 머신 러닝 모델을 쉽게 구축하도록 도와주는 관리 서비스
+supported_os: []
+tile:
+  changelog: CHANGELOG.md
+  classifier_tags:
+  - Category::Cloud
+  - Category::Google Cloud
+  - Category::Log Collection
+  - Category:AI/ML
+  - Offering::Integration
+  configuration: README.md#Setup
+  description: 어떤 규모나 유형의 데이터에도 적합한 머신 러닝 모델을 쉽게 구축하도록 도와주는 관리 서비스
+  media: []
+  overview: README.md#Overview
+  resources:
+  - resource_type: blog
+    url: https://www.datadoghq.com/blog/ml-model-monitoring-in-production-best-practices/
+  support: README.md#Support
+  title: Google Cloud ML
 version: '1.0'
 ---
 
-<!--  SOURCED FROM https://github.com/DataDog/dogweb -->
+<!--  SOURCED FROM https://github.com/DataDog/integrations-internal-core -->
 ## 개요
 
 Google Cloud 기계 학습은 모든 유형의 데이터에서 규모와 상관없이 동작하는 기계 학습 모델을 쉽게 구축할 수 있도록 도와드리는 관리형 서비스입니다.
diff --git a/content/ko/integrations/guide/prometheus-metrics.md b/content/ko/integrations/guide/prometheus-metrics.md
new file mode 100644
index 0000000000000..fbe3f3f12c48f
--- /dev/null
+++ b/content/ko/integrations/guide/prometheus-metrics.md
@@ -0,0 +1,115 @@
+---
+aliases:
+- /ko/integrations/faq/how-to-collect-metrics-with-sql-stored-procedure/
+further_reading:
+- link: /integrations/openmetrics/
+  tag: 설명서
+  text: OpenMetrics 통합에 대해 알아보기
+- link: /agent/kubernetes/prometheus/
+  tag: 설명서
+  text: 쿠버네티스 Prometheus 및 OpenMetrics 메트릭 수집
+title: 프로메테우스 메트릭을 데이터독 메트릭에 매핑하기
+---
+
+## 개요
+
+이 페이지는 Prometheus 또는 OpenMetrics 점검 메트릭이 기존 Datadog 메트릭 유형에 매핑되는 방식을 소개합니다.
+
+## Prometheus 및 OpenMetrics 메트릭 유형
+
+* `counter`: 단조롭게 증가하는 단일 카운터로 표시되는 누적 메트릭. 값은 증가하거나 0으로 재설정됩니다.
+* `gauge`: 임의로 증가하거나 감소할 수 있는 단일 숫자 값을 나타내는 메트릭.
+* `histogram`: 관찰 결과를 샘플링하고 구성 가능한 버킷에서 계산하며 관찰된 모든 값의 합계도 제공합니다.
+* `summary`: `histogram`과 유사하게 관찰값을 샘플링하고, 관찰된 모든 값의 합계를 제공하며 슬라이딩 시간 창에 걸쳐 구성 가능한 양을 계산합니다.
+
+## Prometheus/OpenMetrics 메트릭이 Datadog 메트릭에 매핑되는 방식
+
+자세한 내용은 [OpenMetrics 메트릭 유형][2] 및 [Datadog 메트릭 유형][3]을 참조하세요.
+
+{{< tabs >}}
+{{% tab "최신 버전" %}}
+
+
+| 메트릭 종류 | OpenMetrics | Datadog | 
+| --- | --- | --- |
+| [counter][110] | `counter` | `count` |
+| [gauge][111] | `gauge` | `gauge` |
+| [histogram][112] | `_count`, `_sum`, `_bucket` | `_count`, `_sum` 히스토그램의 `_bucket`값은 Datadog의 `count` 유형에 매핑되며, 각각 `.count`, `.sum`, `.bucket`이라는 접미사가 포함됩니다. |
+| [summary][113] | `_count`, `_sum`, `_created` | `_count` 및 `_sum` 값은 Datadog의 `count` 유형에 매핑되며 각각 `.count`, `.sum`이라는 접미사가 이름에 포함됩니다. 분위수 샘플은 `.quantile` 접미사가 포함된 `gauge` 유형의 메트릭에 매핑됩니다. | 
+
+### Histogram
+
+[Prometheus/OpenMetrics `histogram`][104]의 경우 히스토그램의 `_count`, `_sum`, `_bucket` 값은 각각 Datadog의 `count` 유형에 매핑되며 이름에 `.count`, `.sum`, `.bucket`이라는 접미사가 이름에 포함됩니다.
+
+`histogram_buckets_as_distributions` 파라미터가 `true`면 `_bucket` 샘플은 Datadog `distribution`으로 집계됩니다. [Datadog 분포 메트릭][108]은 [DDSketch 알고리즘][109]을 기반으로 하며 분위수와 같은 보다 고급 통계 집계를 허용합니다. 자세한 내용은 Datadog 엔지니어링 블로그 [OpenMetrics 및 분포 메트릭에 대한 게시물][105]을 참조하세요.
+
+`collect_counters_with_distributions`를 사용하면 `_count` 및 `_sum`의 값을 분포와 함께 `count`로 보낼 수 있습니다.
+
+
+### 요약
+
+[Prometheus/OpenMetrics `summary`][107]의 경우 `_count` 및 `_sum` 값은 Datadog의 `count` 유형에 매핑되고 각각 이름에 `.count` 및 `.sum` 접미사가 포함됩니다. 분위수 샘플은 `.quantile` 접미사가 있는 `gauge` 유형의 메트릭에 매핑됩니다.
+
+[101]: https://prometheus.io/docs/concepts/metric_types/#gauge
+[102]: https://prometheus.io/docs/concepts/metric_types/#counter
+[103]: /ko/metrics/custom_metrics/agent_metrics_submission/?tab=count#monotonic_count
+[104]: https://prometheus.io/docs/concepts/metric_types/#histogram
+[105]: https://www.datadoghq.com/blog/whats-next-monitoring-kubernetes/#distribution-metrics
+[107]: https://prometheus.io/docs/concepts/metric_types/#counter
+[108]: /ko/metrics/distributions/
+[109]: https://www.datadoghq.com/blog/engineering/computing-accurate-percentiles-with-ddsketch/
+[110]: https://prometheus.io/docs/concepts/metric_types/#gauge
+[111]: https://prometheus.io/docs/concepts/metric_types/#counter
+[112]: /ko/integrations/guide/prometheus-metrics/?tab=latestversion#histogram
+[113]: /ko/integrations/guide/prometheus-metrics/?tab=latestversion#summary
+
+{{% /tab %}}
+{{% tab "레거시 버전" %}}
+### Counter
+
+기본적으로 [Prometheus/OpenMetrics `counter`][101]는 Datadog의 `count`에 매핑됩니다.
+
+그러나 `send_monotonic_counter` 파라미터가 `false`인 경우, 이 메트릭은 `gauge`로 전송됩니다.
+
+### 게이지
+
+[Prometheus/OpenMetrics `gauge`][103]는 Datadog의 `gauge`에 매핑됩니다.
+
+### Histogram
+
+[Prometheus/OpenMetrics `histogram`][104]의 경우 히스토그램의 `_count` 및 `_sum` 값은 각각 Datadog의 `gauge` 유형에 매핑되고 이름에 `.count` 및 `.sum` 접미사가 포함됩니다.
+
+`send_histograms_buckets` 파라미터가 `true`인 경우 `_bucket` 샘플은 `.bucket`이라는 접미사와 함께 Datadog에 전송되며, 기본적으로 Datadog의 `gauge`에 매핑됩니다.
+
+`send_distribution_counts_as_monotonic` 파라미터를 `true`로 설정하면 `_count` 및 `_bucket` 메트릭이 대신 `count` 유형으로 전송됩니다. `send_distribution_sums_as_monotonic`을 설정하면 `_sum` 메트릭에 대해 동일하게 적용됩니다.
+
+`send_distribution_buckets` 파라미터가 `true`면 `_bucket` 샘플은 Datadog `distribution`으로 집계됩니다. [Datadog 분포 메트릭][108]은 [DDSketch 알고리즘][107]을 기반으로 하며 분위수와 같은 보다 고급 통계 집계를 허용합니다. 자세한 내용은 Datadog 엔지니어링 블로그 [OpenMetrics 및 분포 메트릭에 대한 게시물][106]를 참조하세요.
+
+
+### 요약
+
+[Prometheus/OpenMetrics `summary`][105]의 경우 `_count`및 `_sum` 값은 기본적으로 Datadog의 `gauge` 유형에 매핑되고 각각 이름에 `.count` 및 `.sum` 접미사가 포함됩니다. 분위수 샘플은 `.quantile` 접미사가 있는 `gauge` 유형의 메트릭에 매핑됩니다.
+
+`send_distribution_counts_as_monotonic` 파라미터를 `true`로 설정하면 `_count` 및 `_sum` 메트릭은 대신 `count` 유형으로 전송됩니다. `send_distribution_sums_as_monotonic`을 설정하면 `_sum` 메트릭에 대해 동일하게 적용됩니다.
+
+[101]: https://prometheus.io/docs/concepts/metric_types/#counter
+[102]: /ko/metrics/custom_metrics/agent_metrics_submission/?tab=count#monotonic_count
+[103]: https://prometheus.io/docs/concepts/metric_types/#gauge
+[104]: https://prometheus.io/docs/concepts/metric_types/#histogram
+[105]: https://prometheus.io/docs/concepts/metric_types/#summary
+[106]: https://www.datadoghq.com/blog/whats-next-monitoring-kubernetes/#distribution-metrics
+[107]: https://www.datadoghq.com/blog/engineering/computing-accurate-percentiles-with-ddsketch/
+[108]: /ko/metrics/distributions/
+
+{{% /tab %}}
+{{< /tabs >}}
+
+<div class="alert alert-info">모든 <code>count</code> 메트릭은 Agent에 의해 <em>monotonic counts</em>로 처리되며, 이는 Agent가 실제로 연속적인 원시 값 간의 차이를 전송한다는 것을 의미합니다. 자세한 내용은 <a href="/metrics/custom_metrics/agent_metrics_submission/?tab=count#monotonic_count">메트릭 제출: 커스텀 Agent 점검</a>에서 확인하세요.</div>
+
+## 참고 자료
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: /ko/agent/kubernetes/prometheus/
+[2]: https://github.com/OpenObservability/OpenMetrics/blob/main/specification/OpenMetrics.md#metric-types
+[3]: /ko/metrics/types/
\ No newline at end of file
diff --git a/content/ko/integrations/ignite.md b/content/ko/integrations/ignite.md
index 4a6e480f9fd36..133cdf63a422d 100644
--- a/content/ko/integrations/ignite.md
+++ b/content/ko/integrations/ignite.md
@@ -36,7 +36,7 @@ draft: false
 git_integration_title: ignite
 integration_id: ignite
 integration_title: ignite
-integration_version: 2.4.0
+integration_version: 3.1.0
 is_public: true
 manifest_version: 2.0.0
 name: ignite
diff --git a/content/ko/integrations/powerdns_recursor.md b/content/ko/integrations/powerdns_recursor.md
new file mode 100644
index 0000000000000..3f937759f2baf
--- /dev/null
+++ b/content/ko/integrations/powerdns_recursor.md
@@ -0,0 +1,238 @@
+---
+app_id: powerdns
+app_uuid: 44e491e1-f7c3-447a-b597-e740196479e0
+assets:
+  dashboards:
+    powerdns: assets/dashboards/powerdns_dashboard.json
+  integration:
+    auto_install: true
+    configuration:
+      spec: assets/configuration/spec.yaml
+    events:
+      creates_events: false
+    metrics:
+      check: powerdns.recursor.questions
+      metadata_path: metadata.csv
+      prefix: powerdns.
+    process_signatures:
+    - pdns_server
+    - systemctl start pdns@
+    service_checks:
+      metadata_path: assets/service_checks.json
+    source_type_id: 144
+    source_type_name: PowerDNS Recursor
+  saved_views:
+    powerdns_processes: assets/saved_views/powerdns_processes.json
+author:
+  homepage: https://www.datadoghq.com
+  name: Datadog
+  sales_email: info@datadoghq.com
+  support_email: help@datadoghq.com
+categories:
+- caching
+- log collection
+- network
+custom_kind: 통합
+dependencies:
+- https://github.com/DataDog/integrations-core/blob/master/powerdns_recursor/README.md
+display_on_public_website: true
+draft: false
+git_integration_title: powerdns_recursor
+integration_id: powerdns
+integration_title: Power DNS Recursor
+integration_version: 4.1.0
+is_public: true
+manifest_version: 2.0.0
+name: powerdns_recursor
+public_title: Power DNS Recursor
+short_description: PowerDNS Recursor를 오가는 비정상적인 트래픽을 모니터링하세요.
+supported_os:
+- linux
+- windows
+- macos
+tile:
+  changelog: CHANGELOG.md
+  classifier_tags:
+  - Category::Caching
+  - Category::Log Collection
+  - Category::Network
+  - Supported OS::Linux
+  - Supported OS::Windows
+  - Supported OS::macOS
+  - Offering::Integration
+  configuration: README.md#Setup
+  description: PowerDNS Recursor를 오가는 비정상적인 트래픽을 모니터링하세요.
+  media: []
+  overview: README.md#Overview
+  support: README.md#Support
+  title: Power DNS Recursor
+---
+
+<!--  SOURCED FROM https://github.com/DataDog/integrations-core -->
+
+
+## 개요
+
+PowerDNS Recursor의 성능을 추적하고 비정상적인 트래픽을 모니터링하세요. 이 Agent 점검은 다음을 포함하여 Recursor에서 다양한 메트릭을 수집합니다.
+
+- 쿼리 답변 시간-1밀리초 미만, 10밀리초, 100밀리초, 1초 또는 1초보다 긴 응답이 몇 개인지 확인합니다.
+- 쿼리 시간 초과.
+- 캐시 히트 및 미스.
+- 유형별 답변률: SRVFAIL, NXDOMAIN, NOERROR.
+- 무시되거나 드롭된 패킷.
+
+이외에 다수가 있습니다.
+
+## 설정
+
+### 설치
+
+PowerDNS Recursor 점검은 [Datadog Agent][1] 패키지에 포함되어 있으므로 다른 것을 설치할 필요가 없습니다.
+
+### 구성
+
+#### PowerDNS 준비
+
+이 점검은 PowerDNS Recursor의 통계 API를 사용하여 성능 통계를 수집합니다. 4.1 이전의 pdns_recursor 버전은 기본적으로 통계 API를 활성화하지 않습니다. 이전 버전을 실행 중인 경우 다음을 recursor 구성 파일에 추가하여 활성화합니다(예: `/etc/powerdns/recursor.conf`).
+
+```conf
+webserver=yes
+api-key=changeme             # v4.0 이상만 사용 가능
+webserver-readonly=yes       # 기본값 no
+#webserver-port=8081         # 기본값 8082
+#webserver-address=0.0.0.0   # 기본값 127.0.0.1
+```
+
+pdns_recursor 3.x를 실행하는 경우 다음 옵션 이름 앞에 `experimental-`을 추가합니다 (예: `experimental-webserver=yes`).
+
+pdns_recursor 4.1 이상이라면 `api-key`를 설정하기만 하면 됩니다.
+
+통계 API를 활성화하려면 recursor를 다시 시작합니다.
+
+{{< tabs >}}
+{{% tab "Host" %}}
+
+#### 호스트
+
+호스트에서 실행 중인 에이전트에 대해 이 점검을 구성하려면:
+
+1. [Agent 구성 디렉토리][1] 루트의 `conf.d/` 폴더에 있는 `powerdns_recursor.d/conf.yaml` 파일을 편집합니다. 사용 가능한 모든 구성 옵션은 [샘플 powerdns_recursor.d/conf.yaml][2]을 참조하세요:
+
+   ```yaml
+   init_config:
+
+   instances:
+     ## @param host - string - required
+     ## Host running the recursor.
+     #
+     - host: 127.0.0.1
+
+       ## @param port - integer - required
+       ## Recursor web server port.
+       #
+       port: 8082
+
+       ## @param api_key - string - required
+       ## Recursor web server api key.
+       #
+       api_key: "<POWERDNS_API_KEY>"
+
+       ## @param version - integer - required - default: 3
+       ## Version 3 or 4 of PowerDNS Recursor to connect to.
+       ## The PowerDNS Recursor in v4 has a production ready web server that allows for
+       ## statistics gathering. In version 3.x the server was marked as experimental.
+       ##
+       ## As the server was marked as experimental in version 3 many of the metrics have
+       ## changed names and the API structure (paths) have also changed. With these changes
+       ## there has been a need to separate the two concerns. The check now has a key value
+       ## version: which if set to version 4 queries with the correct API path on the
+       ## non-experimental web server.
+       ##
+       ## https://doc.powerdns.com/md/httpapi/api_spec/#url-apiv1serversserver95idstatistics
+       #
+       version: 3
+   ```
+
+2. [에이전트를 재시작][3]하세요.
+
+##### 로그 수집
+
+1. Datadog Agent에서는 로그 수집이 기본적으로 비활성화되어 있습니다. `datadog.yaml` 파일에서 활성화해야 합니다.
+
+   ```yaml
+   logs_enabled: true
+   ```
+
+2. 다음을 실행해 `systemd-journal` 그룹에 `dd-agent` 사용자를 추가하세요.
+   ```text
+   usermod -a -G systemd-journal dd-agent
+   ```
+
+3. PowerDNS Recursor 로그 수집을 시작하려면 이 구성 블록을 `powerdns_recursor.d/conf.yaml` 파일에 추가하세요.
+
+   ```yaml
+   logs:
+     - type: journald
+       source: powerdns
+   ```
+
+    사용 가능한 모든 구성 옵션은 [샘플 powerdns_recursor.d/conf.yaml][2]을 참조하세요.
+
+4. [에이전트를 재시작][3]하세요.
+
+[1]: https://docs.datadoghq.com/ko/agent/guide/agent-configuration-files/#agent-configuration-directory
+[2]: https://github.com/DataDog/integrations-core/blob/master/powerdns_recursor/datadog_checks/powerdns_recursor/data/conf.yaml.example
+[3]: https://docs.datadoghq.com/ko/agent/guide/agent-commands/#start-stop-and-restart-the-agent
+{{% /tab %}}
+{{% tab "컨테이너화" %}}
+
+#### 컨테이너화
+
+컨테이너화된 환경의 경우 [자동탐지 통합 템플릿][1]에 다음 파라미터를 적용하는 방법이 안내되어 있습니다.
+
+| 파라미터            | 값                                                                            |
+| -------------------- | -------------------------------------------------------------------------------- |
+| `<INTEGRATION_NAME>` | `powerdns_recursor`                                                              |
+| `<INIT_CONFIG>`      | 비어 있음 또는 `{}`                                                                    |
+| `<INSTANCE_CONFIG>`  | `{"host":"%%host%%", "port":8082, "api_key":"<POWERDNS_API_KEY>", "version": 3}` |
+
+##### 로그 수집
+
+Datadog Agent에서 로그 수집은 기본값으로 비활성화되어 있습니다. 이를 활성화하려면 [쿠버네티스(Kubernetes) 로그 수집][2]을 참조하세요.
+
+| 파라미터      | 값                                     |
+|----------------|-------------------------------------------|
+| `<LOG_CONFIG>` | `{"source": "powerdns"}`                  |
+
+[1]: https://docs.datadoghq.com/ko/agent/kubernetes/integrations/
+[2]: https://docs.datadoghq.com/ko/agent/kubernetes/log/
+{{% /tab %}}
+{{< /tabs >}}
+
+### 검증
+
+[Agent의 `status` 하위 명령을 실행][2]하고 Checks 섹션에서 `powerdns_recursor`를 찾습니다.
+
+## 수집한 데이터
+
+### 메트릭
+{{< get-metrics-from-git "powerdns_recursor" >}}
+
+
+### 이벤트
+
+PowerDNS Recursor 점검은 이벤트를 포함하지 않습니다.
+
+### 서비스 점검
+{{< get-service-checks-from-git "powerdns_recursor" >}}
+
+
+## 트러블슈팅
+
+도움이 필요하신가요? [Datadog 지원팀][3]에 문의하세요.
+
+
+
+[1]: https://app.datadoghq.com/account/settings/agent/latest
+[2]: https://docs.datadoghq.com/ko/agent/guide/agent-commands/#agent-status-and-information
+[3]: https://docs.datadoghq.com/ko/help/
\ No newline at end of file
diff --git a/content/ko/integrations/presto.md b/content/ko/integrations/presto.md
new file mode 100644
index 0000000000000..d95bb08e5918d
--- /dev/null
+++ b/content/ko/integrations/presto.md
@@ -0,0 +1,157 @@
+---
+app_id: presto
+app_uuid: b725cadc-d041-4199-8b86-c714ee9a318f
+assets:
+  dashboards:
+    Presto Overview: assets/dashboards/overview.json
+  integration:
+    auto_install: true
+    configuration:
+      spec: assets/configuration/spec.yaml
+    events:
+      creates_events: false
+    metrics:
+      check: presto.failure_detector.active_count
+      metadata_path: metadata.csv
+      prefix: presto.
+    service_checks:
+      metadata_path: assets/service_checks.json
+    source_type_id: 10057
+    source_type_name: Presto
+  saved_views:
+    4xx_errors: assets/saved_views/4xx_errors.json
+    5xx_errors: assets/saved_views/5xx_errors.json
+    error_patterns: assets/saved_views/error_patterns.json
+    response_time_overview: assets/saved_views/response_time.json
+    status_code_overview: assets/saved_views/status_code_overview.json
+author:
+  homepage: https://www.datadoghq.com
+  name: Datadog
+  sales_email: info@datadoghq.com
+  support_email: help@datadoghq.com
+categories:
+- 데이터 스토어
+- 로그 수집
+custom_kind: integration
+dependencies:
+- https://github.com/DataDog/integrations-core/blob/master/presto/README.md
+display_on_public_website: true
+draft: false
+git_integration_title: presto
+integration_id: presto
+integration_title: Presto
+integration_version: 3.1.0
+is_public: true
+manifest_version: 2.0.0
+name: presto
+public_title: Presto
+short_description: PrestoSQL 클러스터의 성능 및 사용 통계를 수집하고 그 외 여러 기능을 제공합니다.
+supported_os:
+- 리눅스
+- macos
+- windows
+tile:
+  changelog: CHANGELOG.md
+  classifier_tags:
+  - Supported OS::Linux
+  - Supported OS::macOS
+  - Supported OS::Windows
+  - 카테고리::데이터 저장
+  - Category::Log Collection
+  - 제공::통합
+  configuration: README.md#Setup
+  description: PrestoSQL 클러스터의 성능 및 사용 통계를 수집하고 그 외 여러 기능을 제공합니다.
+  media: []
+  overview: README.md#Overview
+  support: README.md#Support
+  title: Presto
+---
+
+<!--  SOURCED FROM https://github.com/DataDog/integrations-core -->
+
+
+## 개요
+
+이 점검은 다음과 같은 [Presto][1] 메트릭을 수집합니다.
+
+- 전반적인 활동 메트릭: 완료/실패한 쿼리, 데이터 입력/출력 크기, 실행 시간.
+- 성능 메트릭: 클러스터 메모리, 입력 CPU, 실행 CPU 시간.
+
+## 설정
+
+아래 지침을 따라 호스트에서 실행되는 에이전트에 대해 이 점검을 설치하고 설정하세요. 컨테이너화된 환경의 경우 이러한 지침을 적용하는 데 가이드가 필요하면 [오토파일럿 통합 템플릿][3]을 참조하세요.
+
+### 설치
+
+Presto 점검은 [Datadog Agent][3] 패키지에 포함되어 있습니다.
+서버에 추가 설치가 필요하지 않습니다. 사용 및 성능 메트릭을 수집하려는 각 Coordinator 및 Worker 노드에 Agent 를 설치합니다.
+
+### 구성
+
+1. Agent의 구성 디렉토리 루트에 있는 `conf.d/` 폴더에서 `presto.d/conf.yaml` 파일을 편집하여 Presto 성능 데이터 수집을 시작합니다. 사용 가능한 모든 구성 옵션은 [샘플 presto.d/conf.yaml][4]을 참조하세요.
+
+    이 점검에는 인스턴스당 350개의 메트릭이 제한됩니다. 반환된 메트릭의 수는 [상태 페이지][5]에 표시됩니다. 아래 구성을 편집하여 관심 있는 메트릭을 지정할 수 있습니다. 수집할 메트릭을 커스터마이징하려면 [JMX 점검 설명서][6]에서 자세한 지침을 확인해 보세요. 더 많은 메트릭을 모니터링해야 하는 경우 [Datadog 지원팀][7]에 문의하세요.
+
+2. [Agent를 재시작합니다][8].
+
+#### 메트릭 수집
+
+Presto 메트릭 수집을 활성화하려면 `presto.d/conf.yaml` 파일의 기본 구성을 사용합니다. 사용 가능한 모든 구성 옵션은 샘플 [presto.d/conf.yaml][4]을 참조하세요.
+
+#### 로그 수집
+
+_Agent 버전 6.0 이상에서 사용 가능_
+
+1. Datadog Agent에서 로그 수집은 기본적으로 비활성화되어 있으므로 `datadog.yaml` 파일에서 활성화합니다.
+
+   ```yaml
+   logs_enabled: true
+   ```
+
+2. Presto 로그 수집을 시작하려면 `presto.d/conf.yaml` 파일에 이 구성 블록을 추가합니다.
+
+   ```yaml
+   logs:
+     - type: file
+       path: /var/log/presto/*.log
+       source: presto
+       service: "<SERVICE_NAME>"
+   ```
+
+    `path` 및 `service` 파라미터 값을 변경하고 환경에 맞게 구성합니다. 사용 가능한 모든 구성 옵션은 샘플 [presto.d/conf.yaml][4]을 참조하세요.
+
+3. [Agent를 재시작합니다][8].
+
+### 검증
+
+[Agent의 상태 하위 명령을 실행][5]하고 Checks 섹션에서 `presto`를 찾습니다.
+
+## 수집한 데이터
+
+### 메트릭
+{{< get-metrics-from-git "presto" >}}
+
+
+### 이벤트
+
+Presto는 이벤트를 포함하지 않습니다.
+
+### 서비스 점검
+{{< get-service-checks-from-git "presto" >}}
+
+
+## 트러블슈팅
+
+도움이 필요하신가요? [Datadog 지원팀][7]에 문의하세요.
+
+
+[1]: https://docs.datadoghq.com/ko/integrations/presto/
+[2]: https://docs.datadoghq.com/ko/agent/kubernetes/integrations/
+[3]: https://app.datadoghq.com/account/settings/agent/latest
+[4]: https://github.com/DataDog/integrations-core/blob/master/presto/datadog_checks/presto/data/conf.yaml.example
+[5]: https://docs.datadoghq.com/ko/agent/guide/agent-commands/#agent-status-and-information
+[6]: https://docs.datadoghq.com/ko/integrations/java/
+[7]: https://docs.datadoghq.com/ko/help/
+[8]: https://docs.datadoghq.com/ko/agent/guide/agent-commands/#start-stop-and-restart-the-agent
+[9]: https://github.com/DataDog/integrations-core/blob/master/presto/metadata.csv
+[10]: https://github.com/DataDog/integrations-core/blob/master/presto/assets/service_checks.json
\ No newline at end of file
diff --git a/content/ko/integrations/process.md b/content/ko/integrations/process.md
new file mode 100644
index 0000000000000..36e743a07364a
--- /dev/null
+++ b/content/ko/integrations/process.md
@@ -0,0 +1,161 @@
+---
+app_id: 시스템
+app_uuid: 43bff15c-c943-4153-a0dc-25bb557ac763
+assets:
+  integration:
+    configuration:
+      spec: assets/configuration/spec.yaml
+    events:
+      creates_events: false
+    metrics:
+      check: system.processes.cpu.pct
+      metadata_path: metadata.csv
+      prefix: 시스템.
+    service_checks:
+      metadata_path: assets/service_checks.json
+    source_type_name: Process
+author:
+  homepage: https://www.datadoghq.com
+  name: Datadog
+  sales_email: info@datadoghq.com
+  support_email: help@datadoghq.com
+categories:
+- os & system
+custom_kind: 통합
+dependencies:
+- https://github.com/DataDog/integrations-core/blob/master/process/README.md
+display_on_public_website: true
+draft: false
+git_integration_title: process
+integration_id: 시스템
+integration_title: Processes
+integration_version: 5.0.0
+is_public: true
+manifest_version: 2.0.0
+name: process
+public_title: Processes
+short_description: 메트릭을 캡처하고 실행 중인 프로세스의 상태를 모니터링합니다.
+supported_os:
+- linux
+- macos
+- windows
+tile:
+  changelog: CHANGELOG.md
+  classifier_tags:
+  - Supported OS::Linux
+  - Supported OS::macOS
+  - Supported OS::Windows
+  - Category::OS & 시스템
+  - Offering::Integration
+  configuration: README.md#Setup
+  description: 메트릭을 캡처하고 실행 중인 프로세스의 상태를 모니터링합니다.
+  media: []
+  overview: README.md#Overview
+  resources:
+  - resource_type: 블로그
+    url: https://www.datadoghq.com/blog/process-check-monitoring
+  support: README.md#Support
+  title: Processes
+---
+
+<!--  SOURCED FROM https://github.com/DataDog/integrations-core -->
+
+
+## 개요
+
+Process 점검으로 다음을 수행할 수 있습니다.
+- 호스트에서 실행 중인 특정 프로세스에 대한 리소스 사용 메트릭을 수집합니다. 예를 들어 CPU, 메모리, I/O 및 스레드 수입니다.
+- [Process Monitors][1]를 사용하여 특정 프로세스의 인스턴스가 실행되어야 하는 개수에 대한 임계값을 구성하고 임계값에 도달하지 못할 때 경고를 받습니다(아래 **Service Checks** 참조).
+
+## 설정
+
+### 설치
+
+Process 점검은 [Datadog Agent][2] 패키지에 포함되어 있으므로 서버에 다른 것을 설치할 필요가 없습니다.
+
+### 구성
+
+많은 점검과 달리 Process 점검은 기본적으로 유용한 것을 모니터링하지 않습니다. 따라서 모니터링하려는 프로세스를 구성해야 합니다.
+
+표준화된 기본 구성은 없지만 SSH/SSHD 프로세스를 모니터링하는 예시 `process.d/conf.yaml`는 다음과 같습니다. 사용 가능한 모든 구성 옵션은 [샘플 process.d/conf.yaml][3]을 참조하세요.
+
+```yaml
+init_config:
+instances:
+  - name: ssh
+    search_string:
+      - ssh
+      - sshd
+```
+
+**참고**: 구성을 변경한 후에는 [Agent를 다시 시작][4]해야 합니다.
+
+일부 프로세스 메트릭을 검색하려면 Datadog 컬렉터를 모니터링된 프로세스 사용자로 실행하거나 권한이 있는 액세스로 실행해야 합니다. Unix 플랫폼의 `open_file_descriptors` 메트릭의 경우 추가 구성 옵션이 있습니다. `conf.yaml` 파일에서 `try_sudo`를 `true`로 설정하면 Process 점검에서 `sudo`를 사용하여 `open_file_descriptors` 메트릭을 수집할 수 있습니다. 이 구성 옵션을 사용하려면 `/etc/sudoers`에서 적절한 sudoers 규칙을 설정해야 합니다.
+
+```shell
+dd-agent ALL=NOPASSWD: /bin/ls /proc/*/fd/
+```
+
+### 검증
+
+[Agent의 상태 하위 명령을 실행][5]하고 Checks 섹션에서 `process`를 찾습니다.
+
+### 메트릭 참고 사항
+
+다음 메트릭은 Linux 또는 macOS에서 사용할 수 없습니다.
+- Agent가 읽는 파일(`/proc//io`)을 프로세스 소유자만 읽을 수 있기 때문에 Linux나 macOS에서는 Process I/O 메트릭을 사용할 수 없습니다. 자세한 내용은 [Agent FAQ를 참조하세요][6].
+
+다음 메트릭은 Windows에서 사용할 수 없습니다.
+- `system.cpu.iowait`
+- `system.processes.mem.page_faults.minor_faults`
+- `system.processes.mem.page_faults.children_minor_faults`
+- `system.processes.mem.page_faults.major_faults`
+- `system.processes.mem.page_faults.children_major_faults`
+- `system.processes.mem.real`
+
+**참고**: [WMI 점검][7]을 사용하여 Windows에서 페이지 오류 메트릭을 수집합니다.
+
+**참고**: Windows의 v6.11+에서 Agent는 `Local System` 대신 `ddagentuser`로 실행됩니다. [이것][8] 때문에 다른 사용자 계정으로 실행되는 프로세스의 전체 명령줄과 다른 사용자의 프로세스 사용자에 대한 액세스 권한이 없습니다.  이로 인해 점검의 다음 옵션이 작동하지 않습니다.
+- `exact_match`를 `false`로 설정 시
+- 특정 사용자에게 속한 프로세스를 선택하게 해주는 `user`
+
+모든 메트릭은 `instance`당 process.yaml에서 구성되고 `process_name:<instance_name>` 태그가 지정됩니다.
+
+이 점검에서 보낸 `system.processes.cpu.pct` 메트릭은 30초 이상 지속되는 프로세스에 대해서만 정확합니다. 수명이 짧은 프로세스에 대한 값은 정확하지 않을 수 있습니다.
+
+전체 메트릭 목록은 [메트릭 섹션](#metrics)을 참조하세요.
+
+## 수집한 데이터
+
+### 메트릭
+{{< get-metrics-from-git "process" >}}
+
+
+### 이벤트
+
+Process 점검은 이벤트를 포함하지 않습니다.
+
+### 서비스 점검
+{{< get-service-checks-from-git "process" >}}
+
+
+## 트러블슈팅
+
+도움이 필요하신가요? [Datadog 고객 지원팀][11]에 문의하세요.
+
+## 참고 자료
+
+Datadog으로 프로세스 리소스 사용을 모니터링하는 방법은 [관련 블로그 포스트][12]에서 확인해 보세요.
+
+[1]: https://docs.datadoghq.com/ko/monitors/create/types/process_check/?tab=checkalert
+[2]: https://app.datadoghq.com/account/settings/agent/latest
+[3]: https://github.com/DataDog/integrations-core/blob/master/process/datadog_checks/process/data/conf.yaml.example
+[4]: https://docs.datadoghq.com/ko/agent/guide/agent-commands/#start-stop-and-restart-the-agent
+[5]: https://docs.datadoghq.com/ko/agent/guide/agent-commands/#agent-status-and-information
+[6]: https://docs.datadoghq.com/ko/agent/faq/why-don-t-i-see-the-system-processes-open-file-descriptors-metric/
+[7]: https://docs.datadoghq.com/ko/integrations/wmi_check/
+[8]: https://docs.datadoghq.com/ko/agent/guide/windows-agent-ddagent-user/#process-check
+[9]: https://github.com/DataDog/integrations-core/blob/master/process/metadata.csv
+[10]: https://github.com/DataDog/integrations-core/blob/master/process/assets/service_checks.json
+[11]: https://docs.datadoghq.com/ko/help/
+[12]: https://www.datadoghq.com/blog/process-check-monitoring
\ No newline at end of file
diff --git a/content/ko/integrations/prometheus.md b/content/ko/integrations/prometheus.md
new file mode 100644
index 0000000000000..1ee0ec20e142f
--- /dev/null
+++ b/content/ko/integrations/prometheus.md
@@ -0,0 +1,175 @@
+---
+app_id: prometheus
+app_uuid: b978d452-7008-49d0-bb87-62d8639b2205
+assets:
+  integration:
+    auto_install: true
+    configuration:
+      spec: assets/configuration/spec.yaml
+    events:
+      creates_events: false
+    service_checks:
+      metadata_path: assets/service_checks.json
+    source_type_id: 10013
+    source_type_name: Prometheus
+author:
+  homepage: https://www.datadoghq.com
+  name: Datadog
+  sales_email: info@datadoghq.com
+  support_email: help@datadoghq.com
+categories:
+- metrics
+- event management
+custom_kind: 통합
+dependencies:
+- https://github.com/DataDog/integrations-core/blob/master/prometheus/README.md
+display_on_public_website: true
+draft: false
+git_integration_title: prometheus
+integration_id: prometheus
+integration_title: Prometheus (레거시)
+integration_version: 5.0.0
+is_public: true
+manifest_version: 2.0.0
+name: prometheus
+public_title: Prometheus (레거시)
+short_description: Prometheus는 시계열 메트릭 데이터를 위한 오픈소스 모니터링 시스템입니다.
+supported_os:
+- linux
+- windows
+- macos
+tile:
+  changelog: CHANGELOG.md
+  classifier_tags:
+  - Supported OS::Linux
+  - Supported OS::Windows
+  - Category::Metrics
+  - Category::Event Management
+  - Supported OS::macOS
+  - Offering::Integration
+  configuration: README.md#Setup
+  description: Prometheus는 시계열 메트릭 데이터를 위한 오픈소스 모니터링 시스템입니다.
+  media: []
+  overview: README.md#Overview
+  resources:
+  - resource_type: blog
+    url: https://www.datadoghq.com/blog/monitor-prometheus-metrics
+  - resource_type: 문서
+    url: https://docs.datadoghq.com/agent/prometheus/
+  - resource_type: 문서
+    url: https://docs.datadoghq.com/developers/prometheus/
+  support: README.md#Support
+  title: Prometheus (legacy)
+---
+
+<!--  SOURCED FROM https://github.com/DataDog/integrations-core -->
+
+
+## 개요
+
+Prometheus를 연결해 다음을 수행할 수 있습니다.
+- Prometheus 엔드포인트에서 커스텀 메트릭 추출
+- Datadog 이벤트 스트림에서 Prometheus Alertmanager 경고 확인
+
+**참고**: Datadog은 더 효율적이고 Prometheus 텍스트 형식을 완벽하게 지원하는 [OpenMetrics 점검][1] 사용을 권장합니다. 메트릭 엔드포인트가 텍스트 형식을 지원하지 않는 경우에만 Prometheus 점검을 사용하세요.
+
+<div class="alert alert-warning">
+이 통합을 통해 검색된 모든 메트릭은 <a href="https://docs.datadoghq.com/developers/metrics/custom_metrics">커스텀 메트릭</a>으로 지정됩니다.
+</div>
+
+**Prometheus 점검을 구성하는 방법은 [Prometheus 메트릭 수집 시작하기][2]에서 확인하세요.**
+
+## 설정
+
+아래 지침을 따라 호스트에서 실행되는 에이전트에 대해 이 점검을 설치하고 설정하세요. 컨테이너화된 환경의 경우 이러한 지침을 적용하는 데 가이드가 필요하면 [자동탐지 통합 템플릿][3]을 참조하세요.
+
+### 설치
+
+Prometheus 점검은 [Datadog Agent][4] 6.1.0 버전부터 패키지로 제공됩니다.
+
+### 구성
+
+OpenMetrics/Prometheus 엔드포인트를 노출하는 애플리케이션에서 메트릭을 검색하려면 `prometheus.d/conf.yaml` 파일을 편집하세요.
+
+각 인스턴스는 최소한 다음으로 구성됩니다.
+
+| 설정          | 설명                                                                                                         |
+| ---------------- | ------------------------------------------------------------------------------------------------------------------- |
+| `prometheus_url` | 메트릭 경로를 가리키는 URL(**참고:** 고유해야 함)                                                    |
+| `namespace`      | 이 네임스페이스는 메트릭 이름 충돌을 방지하기 위해 모든 메트릭에 추가됩니다                                        |
+| `metrics`        | `- <METRIC_NAME>` 또는 `- <METRIC_NAME>: <RENAME_METRIC>` 양식에서 커스텀 메트릭으로 검색할 메트릭 목록 |
+
+메트릭을 나열할 때 `- <METRIC_NAME>*`과 같이 `*` 와일드카드를 사용하여 일치하는 모든 메트릭을 검색할 수 있습니다. **참고:** 와일드카드 사용 시 많은 커스텀 메트릭을 전송할 수 있으므로 주의하세요.
+
+더 많은 고급 설정(ssl, 레이블 결합, 커스텀 태그 등)은 [샘플 prometheus.d/conf.yaml][5]에서 확인할 수 있습니다.
+
+이 통합의 특성상 Datadog에 많은 수의 커스텀 메트릭을 제출할 수 있습니다. 사용자는 구성 오류 또는 입력 변경에 대해 전송되는 메트릭의 최대 수를 제어할 수 있습니다. 점검에서 기본 메트릭 한도는 2000개입니다. 이 한도를 늘리려면`prometheus.d/conf.yaml` 파일에서 `max_returned_metrics` 옵션을 설정하세요.
+
+`send_monotonic_counter: True`이면 Agent는 해당 값의 델타를 보내고 앱 내 유형은 count로 설정됩니다(이것은 기본 동작입니다). `send_monotonic_counter: False`이면 Agent는 원시적이고 단조롭게 증가하는 값을 보내고 앱 내 유형은 gauge로 설정됩니다.
+
+### 검증
+
+[Agent의 `status` 하위 명령을 실행][6]하고 Checks 섹션에서 `prometheus`를 찾습니다.
+
+## 수집한 데이터
+
+### 메트릭
+
+Prometheus 점검을 통해 수집된 모든 메트릭은 커스텀 메트릭으로 Datadog에 전달됩니다.
+
+참고: `<HISTOGRAM_METRIC_NAME>` Prometheus 히스토그램 메트릭에 대한 버킷 데이터는 버킷 이름을 포함한 `upper_bound` 태그와 함께 Datadog 내의 `<HISTOGRAM_METRIC_NAME>.count` 메트릭에 저장됩니다. `+Inf` 버킷에 액세스하려면 `upper_bound:none`을 사용합니다.
+
+### 이벤트
+
+Prometheus Alertmanager 경고는 웹훅 구성에 따라 자동으로 Datadog 이벤트 스트림으로 전송됩니다.
+
+### 서비스 점검
+
+Prometheus 점검은 서비스 점검을 포함하지 않습니다.
+
+## Prometheus Alertmanager
+이벤트 스트림에서 Prometheus Alertmanager 경고을 보내세요. 기본적으로 Alertmanager는 구성된 웹훅에 모든 경고를 동시에 보냅니다. Datadog에서 경고를 보려면 Alertmanager 인스턴스를 구성하여 한 번에 하나씩 경고를 보내야 합니다. `route`에서 그룹별 파라미터를 추가하여 경고 규칙의 실제 이름으로 경고를 그룹화할 수 있습니다.
+
+### 설정
+1. Alertmanager 구성 파일, `alertmanager.yml`을 편집하여 다음을 포함합니다.
+```
+receivers:
+- name: datadog
+  webhook_configs: 
+  - send_resolved: true
+    url: https://app.datadoghq.com/intake/webhook/prometheus?api_key=<DATADOG_API_KEY>
+route:
+  group_by: ['alertname']
+  group_wait: 10s
+  group_interval: 5m
+  receiver: datadog
+  repeat_interval: 3h
+```
+
+**참고**: 이 엔드포인트는 페이로드에서 한 번에 하나의 이벤트만 허용합니다.
+
+2. Prometheus와 Alertmanager 서비스를 다시 시작합니다.
+```
+sudo systemctl restart prometheus.service alertmanager.service
+```
+
+## 트러블슈팅
+
+도움이 필요하신가요? [Datadog 지원팀][7]에 문의하세요.
+
+## 참고 자료
+
+- [Datadog Agent 6에 대한 Prometheus 지원 소개][8]
+- [Prometheus 점검 구성하기][9]
+- [커스텀 Prometheus 점검 작성하기][10]
+
+[1]: https://docs.datadoghq.com/ko/integrations/openmetrics/
+[2]: https://docs.datadoghq.com/ko/getting_started/integrations/prometheus/
+[3]: https://docs.datadoghq.com/ko/getting_started/integrations/prometheus?tab=docker#configuration
+[4]: https://app.datadoghq.com/account/settings/agent/latest
+[5]: https://github.com/DataDog/integrations-core/blob/master/prometheus/datadog_checks/prometheus/data/conf.yaml.example
+[6]: https://docs.datadoghq.com/ko/agent/guide/agent-commands/#agent-status-and-information
+[7]: https://docs.datadoghq.com/ko/help/
+[8]: https://www.datadoghq.com/blog/monitor-prometheus-metrics
+[9]: https://docs.datadoghq.com/ko/agent/prometheus/
+[10]: https://docs.datadoghq.com/ko/developers/prometheus/
\ No newline at end of file
diff --git a/content/ko/integrations/rabbitmq.md b/content/ko/integrations/rabbitmq.md
new file mode 100644
index 0000000000000..ee4138f081b36
--- /dev/null
+++ b/content/ko/integrations/rabbitmq.md
@@ -0,0 +1,303 @@
+---
+app_id: rabbitmq
+app_uuid: a10b582b-71ef-4773-b7b8-b7751c724620
+assets:
+  dashboards:
+    rabbitmq: assets/dashboards/rabbitmq_dashboard.json
+    rabbitmq_screenboard: assets/dashboards/rabbitmq_screenboard_dashboard.json
+  integration:
+    auto_install: true
+    configuration:
+      spec: assets/configuration/spec.yaml
+    events:
+      creates_events: true
+    metrics:
+      check: rabbitmq.queue.messages
+      metadata_path: metadata.csv
+      prefix: rabbitmq.
+    process_signatures:
+    - rabbitmq
+    - rabbitmq-server
+    service_checks:
+      metadata_path: assets/service_checks.json
+    source_type_id: 51
+    source_type_name: RabbitMQ
+  monitors:
+    Disk space is low: assets/monitors/disk_usage_prometheus.json
+    Level of disk usage is too high for host: assets/monitors/disk_usage.json
+    Messages are ready in RabbitMQ queue: assets/monitors/message_ready.json
+    Messages unacknowledged rate is higher than usual: assets/monitors/message_unacknowledge_rate_anomaly.json
+    RabbitMQ queue has 0 consumers: assets/monitors/consumers_at_zero.json
+    Unacknowledged Messages are higher than usual: assets/monitors/message_unack_prometheus.json
+  saved_views:
+    pid_overview: assets/saved_views/status_overview.json
+    rabbitmq_pattern: assets/saved_views/rabbitmq_pattern.json
+    rabbitmq_processes: assets/saved_views/rabbitmq_processes.json
+author:
+  homepage: https://www.datadoghq.com
+  name: Datadog
+  sales_email: info@datadoghq.com
+  support_email: help@datadoghq.com
+categories:
+- log collection
+- message queues
+custom_kind: 통합
+dependencies:
+- https://github.com/DataDog/integrations-core/blob/master/rabbitmq/README.md
+display_on_public_website: true
+draft: false
+git_integration_title: rabbitmq
+integration_id: rabbitmq
+integration_title: RabbitMQ
+integration_version: 7.1.0
+is_public: true
+manifest_version: 2.0.0
+name: rabbitmq
+public_title: RabbitMQ
+short_description: 대기열 크기, 소비자 수, 확인되지 않은 메시지 등을 추적하세요.
+supported_os:
+- linux
+- windows
+- macos
+tile:
+  changelog: CHANGELOG.md
+  classifier_tags:
+  - Category::Log Collection
+  - Category::메시지 큐
+  - Supported OS::Linux
+  - Supported OS::Windows
+  - Supported OS::macOS
+  - Offering::Integration
+  - Product::데이터 스트림 모니터링
+  configuration: README.md#Setup
+  description: 대기열 크기, 소비자 수, 확인되지 않은 메시지 등을 추적하세요.
+  media: []
+  overview: README.md#Overview
+  resources:
+  - resource_type: blog
+    url: https://www.datadoghq.com/blog/rabbitmq-monitoring
+  - resource_type: blog
+    url: https://www.datadoghq.com/blog/rabbitmq-monitoring-tools
+  - resource_type: blog
+    url: https://www.datadoghq.com/blog/monitoring-rabbitmq-performance-with-datadog
+  support: README.md#Support
+  title: RabbitMQ
+---
+
+<!--  SOURCED FROM https://github.com/DataDog/integrations-core -->
+
+
+![RabbitMQ 대시보드][1]
+
+## 개요
+
+이 점검은 Datadog Agent를 통해 [RabbitMQ][2]를 모니터링하며, 다음을 수행할 수 있습니다.
+
+- 대기열 기반 통계를 추적합니다: 대기열 크기, 소비자 수, 확인되지 않은 메시지, 재전송된 메시지 등.
+- 노드 기반 통계를 추적합니다: 대기 프로세스, 사용된 소켓, 사용된 파일 설명자 등.
+- 가상 호스트의 활성 여부와 연결 수를 모니터링합니다.
+
+## 설정
+
+### 설치
+
+RabbitMQ 점검은 [Datadog Agent][3] 패키지에 포함되어 있으므로 서버에 추가로 설치할 필요가 없습니다.
+
+### 설정
+
+RabbitMQ는 [RabbitMQ Management Plugin][4] 및 [RabbitMQ Prometheus Plugin][5] 두 가지 방법으로 메트릭을 노출합니다. Datadog 통합은 두 버전을 모두 지원합니다. 사용하려는 버전에 해당하는 파일의 구성 지침을 따르세요. Datadog 통합에는 대시보드와 모니터 제목으로 레이블이 지정된 각 버전에 대한 기본 대시보드와 모니터도 함께 제공됩니다.
+
+#### RabbitMQ 준비
+
+##### [RabbitMQ Prometheus Plugin][5].
+
+*RabbitMQ v3.8부터 [RabbitMQ Prometheus Plugin][5]이 기본적으로 활성화됩니다.*
+
+*RabbitMQ의 Prometheus Plugin 버전은 Datadog Agent의 Python 3 지원이 필요하므로 Agent v6 이상에서만 사용할 수 있습니다. 통합의 Prometheus Plugin 버전을 구성하기 전에 Agent가 업데이트되었는지 확인하세요.*
+
+인스턴스 구성에서 `prometheus_plugin` 섹션을 구성합니다. `prometheus_plugin` 옵션을 사용할 때 Management Plugin과 관련된 설정은 무시됩니다.
+
+ ```yaml
+ instances:
+   - prometheus_plugin:
+       url: http://<HOST>:15692
+ ```
+
+ 이를 통해 하나의 RabbitMQ 노드에서 [`/metrics` 엔드포인트][6] 스크래핑이 가능해집니다. Datadog은 [`/metrics/detailed` 엔드포인트][7]에서도 데이터를 수집할 수 있습니다.
+
+ ```yaml
+ instances:
+   - prometheus_plugin:
+       url: http://<HOST>:15692
+       unaggregated_endpoint: detailed?family=queue_coarse_metrics
+ ```
+ 이를 통해 [`/metrics/detailed` 엔드포인트][7] 스크래핑으로 queue coarse metrics를 수집할 수 있습니다.
+
+##### [RabbitMQ Management Plugin][4].
+
+플러그인을 활성화합니다. 그러면 Agent 사용자는 최소한 `monitoring` 태그와 다음 필수 권한이 ​​필요합니다.
+
+| 권한 | 명령어            |
+| ---------- | ------------------ |
+| **conf**   | `^aliveness-test$` |
+| **write**  | `^amq\.default$`   |
+| **read**   | `.*`               |
+
+다음 명령을 사용하여 기본 가상 호스트에 대한 Agent 사용자를 생성합니다.
+
+```text
+rabbitmqctl add_user datadog <SECRET>
+rabbitmqctl set_permissions  -p / datadog "^aliveness-test$" "^amq\.default$" ".*"
+rabbitmqctl set_user_tags datadog monitoring
+```
+
+여기에서 `/`는 기본 호스트를 나타냅니다. 이를 지정된 가상 호스트 이름으로 설정하세요. 자세한 내용은 [RabbitMQ 설명서][8]를 참조하세요.
+
+{{< tabs >}}
+{{% tab "호스트" %}}
+
+#### 호스트
+
+호스트에서 실행 중인 에이전트에 이 점검을 구성하는 방법:
+
+##### 메트릭 수집
+
+1. [Agent 구성 디렉토리][1]의 루트에 있는`conf.d/`  폴더에서 `rabbitmq.d/conf.yaml` 파일을 편집하여 RabbitMQ 메트릭 수집을 시작하세요. 사용 가능한 모든 구성 옵션은 [샘플 rabbitmq.d/conf.yaml][2]을 참조하세요.
+
+    **참고**: Agent는 기본적으로 모든 대기열, 가상호스트 및 노드를 확인하지만 목록이나 정규 표현식을 제공하여 이를 제한할 수 있습니다. [rabbitmq.d/conf.yaml][2]에서 예시를 확인하세요.
+
+2. [에이전트를 다시 시작합니다][3].
+
+##### 로그 수집
+
+_에이전트 버전 > 6.0에서 사용 가능_
+
+1. 기본 로그 파일 위치를 수정하려면 `RABBITMQ_LOGS` 환경 변수를 설정하거나 다음을 RabbitMQ 구성 파일(`/etc/rabbitmq/rabbitmq.conf`)에 추가하세요.
+
+   ```conf
+     log.dir = /var/log/rabbit
+     log.file = rabbit.log
+   ```
+
+2. 로그 수집은 Datadog 에이전트에서 기본적으로 비활성화되어 있습니다. `datadog.yaml` 파일에서 활성화합니다.
+
+   ```yaml
+   logs_enabled: true
+   ```
+
+3. `rabbitmq.d/conf.yaml` 파일의 `logs` 섹션을 수정하여  RabbitMQ 로그 수집을 시작하세요.
+
+   ```yaml
+   logs:
+     - type: file
+       path: /var/log/rabbit/*.log
+       source: rabbitmq
+       service: myservice
+       log_processing_rules:
+         - type: multi_line
+           name: logs_starts_with_equal_sign
+           pattern: "="
+   ```
+
+4. [에이전트를 다시 시작합니다][3].
+
+[1]: https://docs.datadoghq.com/ko/agent/guide/agent-configuration-files/#agent-configuration-directory
+[2]: https://github.com/DataDog/integrations-core/blob/master/rabbitmq/datadog_checks/rabbitmq/data/conf.yaml.example
+[3]: https://docs.datadoghq.com/ko/agent/guide/agent-commands/#start-stop-and-restart-the-agent
+{{% /tab %}}
+{{% tab "컨테이너화된 환경" %}}
+
+#### 컨테이너화된 환경
+
+Datadog의 [Docker 컨테이너 자동탐지][1]를 활용할 수 있습니다. RabbitMQ 관련 설정에 대한 예제 구성은 `auto_conf.yaml`에서 확인하세요.
+
+Kubernetes와 같은 컨테이너 환경에서 아래와 같은 파라미터를 적용하려면 [자동탐지 통합 템플릿][2]을 참조하세요.
+
+##### 메트릭 수집
+
+| 파라미터            | 값                                        |
+| -------------------- | -------------------------------------------- |
+| `<INTEGRATION_NAME>` | `rabbitmq`                                   |
+| `<INIT_CONFIG>`      | 비어 있음 또는 `{}`                                |
+| `<INSTANCE_CONFIG>`  | `{"prometheus_plugin": {"url": "http://%%host%%:15692"}}` |
+
+##### 로그 수집
+
+_Agent v6.0 이상에서 사용 가능_
+
+Datadog 에이전트에서 기본적으로 로그 수집이 비활성화되어 있습니다. 활성화하려면 [쿠버네티스 로그 수집]을 확인하세요.
+
+| 파라미터      | 값                                                                                                                                               |
+| -------------- | --------------------------------------------------------------------------------------------------------------------------------------------------- |
+| `<LOG_CONFIG>` | `{"source": "rabbitmq", "service": "rabbitmq", "log_processing_rules": [{"type":"multi_line","name":"logs_starts_with_equal_sign", "pattern": "="}]}` |
+
+[1]: https://docs.datadoghq.com/ko/containers/docker/integrations/?tab=dockeradv2
+[2]: https://docs.datadoghq.com/ko/agent/kubernetes/integrations/
+[3]: https://docs.datadoghq.com/ko/agent/kubernetes/log/
+{{% /tab %}}
+{{< /tabs >}}
+
+### 검증
+
+[Agent의 상태 하위 명령을 실행][9]하고 Checks 섹션에서 `rabbitmq`를 찾습니다.
+
+## 수집한 데이터
+
+### 메트릭
+{{< get-metrics-from-git "rabbitmq" >}}
+
+
+### 이벤트
+
+### 서비스 점검
+{{< get-service-checks-from-git "rabbitmq" >}}
+
+
+## 트러블슈팅
+
+### Prometheus Plugin으로 마이그레이션
+
+Prometheus 플러그인은 Management Plugin과는 다른 메트릭 세트를 노출합니다.
+Management에서 Prometheus Plugin으로 마이그레이션할 때 주의해야 할 사항은 다음과 같습니다.
+
+- [이 표][10]에서 메트릭을 찾아보세요. 메트릭 설명에 `[OpenMetricsV2]` 태그가 포함되어 있으면 Prometheus Plugin에서 사용할 수 있습니다. Management Plugin에서만 사용할 수 있는 메트릭에는 설명에 태그가 없습니다.
+- Management Plugin 메트릭을 사용하는 대시보드와 모니터는 작동하지 않습니다. *OpenMetrics Version*으로 표시된 대시보드와 모니터로 전환하세요.
+- 기본 구성은 집계된 메트릭을 수집합니다. 즉, 예를 들어 대기열로 태그된 메트릭이 없습니다. `prometheus_plugin.unaggregated_endpoint` 옵션을 구성하여 집계 없이 메트릭을 가져오세요.
+- `rabbitmq.status` 서비스 점검은 `rabbitmq.openmetrics.health`로 교체되었습니다. Prometheus Plugin에는 `rabbitmq.aliveness` 서비스 점검과 동일한 기능이 없습니다.
+
+Prometheus Plugin은 일부 태그를 변경합니다. 아래 표는 보다 일반적인 태그에 대한 변경 사항을 설명합니다.
+
+| 관리          | 프로메테우스(Prometheus)                               |
+|:--------------------|:-----------------------------------------|
+| `queue_name`        | `queue`                                  |
+| `rabbitmq_vhost`    | `vhost`, `exchange_vhost`, `queue_vhost` |
+| `rabbitmq_exchange` | `exchange`                               |
+
+자세한 내용은 [태그 패밀리별 RabbitMQ 대기열 태그 지정][11]을 참조하세요.
+
+도움이 필요하신가요? [Datadog 고객 지원팀][12]에 문의하세요.
+
+## 참고 자료
+
+기타 유용한 문서, 링크 및 기사:
+
+- [RabbitMQ 모니터링을 위한 주요 메트릭][13]
+- [RabbitMQ 모니터링 도구를 사용한 메트릭 수집][14]
+- [Datadog으로 RabbitMQ 성능 모니터링][15]
+
+
+[1]: https://raw.githubusercontent.com/DataDog/integrations-core/master/rabbitmq/images/rabbitmq_dashboard.png
+[2]: https://www.rabbitmq.com
+[3]: https://app.datadoghq.com/account/settings/agent/latest
+[4]: https://www.rabbitmq.com/management.html
+[5]: https://www.rabbitmq.com/prometheus.html
+[6]: https://www.rabbitmq.com/prometheus.html#default-endpoint
+[7]: https://www.rabbitmq.com/prometheus.html#detailed-endpoint
+[8]: https://www.rabbitmq.com/rabbitmqctl.8.html#set_permissions
+[9]: https://docs.datadoghq.com/ko/agent/guide/agent-commands/#agent-status-and-information
+[10]: https://docs.datadoghq.com/ko/integrations/rabbitmq/?tab=host#metrics
+[11]: https://docs.datadoghq.com/ko/integrations/faq/tagging-rabbitmq-queues-by-tag-family/
+[12]: https://docs.datadoghq.com/ko/help/
+[13]: https://www.datadoghq.com/blog/rabbitmq-monitoring
+[14]: https://www.datadoghq.com/blog/rabbitmq-monitoring-tools
+[15]: https://www.datadoghq.com/blog/monitoring-rabbitmq-performance-with-datadog
\ No newline at end of file
diff --git a/content/ko/integrations/riak_repl.md b/content/ko/integrations/riak_repl.md
new file mode 100644
index 0000000000000..73e45a8a83a60
--- /dev/null
+++ b/content/ko/integrations/riak_repl.md
@@ -0,0 +1,118 @@
+---
+app_id: riak-repl
+app_uuid: bbba11cf-2ea1-4a8b-904c-eb3b55ed169a
+assets:
+  integration:
+    auto_install: true
+    configuration: {}
+    events:
+      creates_events: false
+    metrics:
+      check: riak_repl.server_bytes_sent
+      metadata_path: metadata.csv
+      prefix: riak_repl.
+    service_checks:
+      metadata_path: assets/service_checks.json
+    source_type_id: 10168
+    source_type_name: Riak MDC Replication
+author:
+  homepage: https://github.com/DataDog/integrations-extras
+  name: 커뮤니티
+  sales_email: britt.treece@gmail.com
+  support_email: britt.treece@gmail.com
+categories:
+- 데이터 스토어
+custom_kind: integration
+dependencies:
+- https://github.com/DataDog/integrations-extras/blob/master/riak_repl/README.md
+display_on_public_website: true
+draft: false
+git_integration_title: riak_repl
+integration_id: riak-repl
+integration_title: Riak MDC 복제
+integration_version: 1.0.1
+is_public: true
+manifest_version: 2.0.0
+name: riak_repl
+public_title: Riak MDC 복제
+short_description: 복제 성능, 용량 및 상태를 추적하세요.
+supported_os:
+- 리눅스
+- macos
+- windows
+tile:
+  changelog: CHANGELOG.md
+  classifier_tags:
+  - Supported OS::Linux
+  - Supported OS::macOS
+  - Supported OS::Windows
+  - 카테고리::데이터 저장
+  - 제공::통합
+  configuration: README.md#Setup
+  description: 복제 성능, 용량 및 상태를 추적하세요.
+  media: []
+  overview: README.md#Overview
+  support: README.md#Support
+  title: Riak MDC 복제
+---
+
+<!--  SOURCED FROM https://github.com/DataDog/integrations-extras -->
+
+
+## 개요
+
+이 점검은 Riak 복제 [riak-repl][1]를 모니터링합니다.
+
+## 설정
+
+Riak-Repl 점검은 [Datadog 에이전트][2] 패키지에 포함되어 있지 않으므로 설치해야 합니다.
+
+### 설치
+
+에이전트 v7.21+/v6.21+의 경우 아래 지침을 따라 호스트에 Riak-Repl 점검을 설치하세요. [커뮤니티 통합][3]을 사용하여 도커(Docker) 에이전트 또는 이전 버전의 에이전트를 설치합니다.
+
+1. 다음 명령어를 실행해 에이전트 통합을 설치하세요.
+
+   ```shell
+   datadog-agent integration install -t datadog-riak_repl==<INTEGRATION_VERSION>
+   ```
+
+2. 통합을 코어 [통합][4]과 유사하게 설정하세요.
+
+### 구성
+
+1. 에이전트의 설정 디렉터리 루트에 있는 `conf.d/` 폴더에서 `riak_repl.d/conf.yaml` 파일을 편집하여 riak_repl 성능 데이터 수집을 시작합니다. 사용 가능한 모든 설정 옵션은 [샘플 riak_repl.d/conf.yaml][5]을  참조하세요.
+
+2. [에이전트 재시작][6]
+
+### 검증
+
+[에이전트 상태 하위 명령][7]을 실행하고 점검 섹션 아래에서 `riak_repl`을 찾습니다. 
+
+## 수집한 데이터
+
+### 메트릭
+{{< get-metrics-from-git "riak_repl" >}}
+
+
+### 서비스 점검
+
+Riak-Repl 통합은 서비스 점검을 포함하지 않습니다.
+
+### 이벤트
+
+Riak-Repl 통합은 이벤트를 포함하지 않습니다.
+
+## 트러블슈팅
+
+도움이 필요하신가요? [Datadog 지원팀][9]에 문의하세요.
+
+[1]: https://docs.datadoghq.com/ko/integrations/riak_repl/
+[2]: https://app.datadoghq.com/account/settings/agent/latest
+[3]: https://docs.datadoghq.com/ko/agent/guide/use-community-integrations/
+[4]: https://docs.datadoghq.com/ko/getting_started/integrations/
+[5]: https://github.com/DataDog/integrations-extras/blob/master/riak_repl/datadog_checks/riak_repl/data/conf.yaml.example
+[6]: https://docs.datadoghq.com/ko/agent/faq/agent-commands/#start-stop-restart-the-agent
+[7]: https://docs.datadoghq.com/ko/agent/guide/agent-commands/#service-status
+[8]: https://github.com/DataDog/integrations-extras/blob/master/riak_repl/metadata.csv
+[9]: https://docs.datadoghq.com/ko/help/
\ No newline at end of file
diff --git a/content/ko/integrations/rsyslog.md b/content/ko/integrations/rsyslog.md
new file mode 100644
index 0000000000000..ade93ef1a52d6
--- /dev/null
+++ b/content/ko/integrations/rsyslog.md
@@ -0,0 +1,459 @@
+---
+aliases:
+- /ko/logs/log_collection/rsyslog
+categories:
+- 로그 수집
+custom_kind: integration
+dependencies:
+- https://github.com/DataDog/documentation/blob/master/content/en/integrations/rsyslog.md
+description: Rsyslog를 설정하여 호스트, 컨테이너 및 서비스에서 로그를 수집하세요.
+doc_link: /integrations/rsyslog/
+further_reading:
+- link: https://www.datadoghq.com/architecture/using-rsyslog-to-send-logs-to-datadog/
+  tag: 아키텍처 센터
+  text: Rsyslog를 사용해 Datadog에 로그 전송하기
+has_logo: true
+integration_id: rsyslog
+integration_title: rsyslog
+is_public: true
+name: rsyslog
+public_title: Datadog-Rsyslog 통합
+short_description: Rsyslog를 설정하여 호스트, 컨테이너 및 서비스에서 로그를 수집하세요.
+supported_os:
+- 리눅스
+title: Rsyslog
+---
+
+## 개요
+
+Rsyslog를 설정하여 호스트, 컨테이너 및 서비스에서 로그를 수집하세요.
+
+## 설정
+
+### 로그 수집
+
+#### Rsyslog 버전 8 이상
+<div class="alert alert-info"><a href="https://www.rsyslog.com/doc/configuration/modules/imfile.html#mode">8.1.5 버전부터 </a> Rsyslog에서는 <code>inotify</code> 모드를 권장합니다. 이전에는 <code>imfile</code>이 폴링 모드를 사용했으며 해당 모드는 <code>inotify</code> 모드보다 더 리소스 집약적이므로 더 느릴 수 있었습니다. </div>
+
+{{< tabs >}}
+
+{{% tab "Ubuntu and Debian" %}}
+
+1. 특정 로그 파일을 모니터링하려면 `imfile` 모듈을 활성화합니다. `imfile` 모듈을 추가하려면  `rsyslog.conf`에 다음을 추가합니다.
+
+    ```conf
+    module(load="imfile" PollingInterval="10") #needs to be done just once
+    ```
+
+2. `/etc/rsyslog.d/datadog.conf` 파일을 생성합니다.
+
+{{< site-region region="us,eu" >}}
+
+3. `/etc/rsyslog.d/datadog.conf`에서 다음 설정을 추가하고  `<site_url>`을 **{{< region-param key="dd_site" >}}**로 대체합니다. `<API_KEY>`는 Datadog API 키로 대체합니다. 모니터링하려는 각 로그 파일에 대해 별도의 `input` 라인을 포함해야 합니다.
+
+   ```conf
+   ## For each file to send
+   input(type="imfile" ruleset="infiles" Tag="<APP_NAME_OF_FILE1>" File="<PATH_TO_FILE1>")
+
+   ## Set the Datadog Format to send the logs
+   $template DatadogFormat,"<DATADOG_API_KEY> <%pri%>%protocol-version% %timestamp:::date-rfc3339% %HOSTNAME% %app-name% - - - %msg%\n"
+
+   ruleset(name="infiles") {
+   action(type="omfwd" protocol="tcp" target="intake.logs.<site_url>" port="10514" template="DatadogFormat")
+   }
+   ```
+
+{{< /site-region >}}
+
+{{< site-region region="us3,us5,ap1,gov" >}}
+
+3. `/etc/rsyslog.d/datadog.conf`에서 다음 설정을 추가합니다. `<site_url>`을 **{{< region-param key="dd_site" >}}**로, `<API_KEY>` 를 Datadog API 키로 대체합니다. 모니터링하려는 각 로그 파일에 대해 별도의 `input` 라인을 포함해야 합니다.
+
+   ```conf
+   ## For each file to send
+   input(type="imfile" ruleset="infiles" Tag="<TAGS>" File="<PATH_TO_FILE1>")
+
+   ## Set the Datadog Format to send the logs
+   template(name="test_template" type="list") { constant(value="{") property(name="msg" outname="message" format="jsonfr") constant(value="}")}
+
+   # include the omhttp module
+   module(load="omhttp")
+
+   ruleset(name="infiles") {
+      action(type="omhttp" server="http-intake.logs.<site_url>" serverport="443" restpath="api/v2/logs" template="test_template" httpheaders=["DD-API-KEY: <API_KEY>", "Content-Type: application/json"])
+   }
+   ```
+{{< /site-region >}}
+
+4. Rsyslog를 다시 시작합니다. 새로운 로그가 Datadog 계정으로 바로 포워딩됩니다.
+   ```shell
+   sudo systemctl restart rsyslog
+   ```
+
+5. 로그를 호스트 메트릭과 태그에 연결합니다.
+
+   로그가 Datadog 계정의 동일한 호스트에 있는 메트릭과 태그와 연결되도록 해야 합니다. `rsyslog.conf`에서 `HOSTNAME`을 설정하여 호스트명을 Datadog 메트릭과 일치시킵니다.
+   - `datadog.conf` 또는 `datadog.yaml`에서 호스트명을 지정한 경우 `rsyslog.conf`의 `%HOSTNAME%` 값을 교체하여 호스트명와 일치시킵니다.
+   - `datadog.conf` 또는 `datadog.yaml`에서 호스트명을 지정하지 않은 경우 아무 것도 변경하지 않아도 됩니다.
+
+6. Datadog에서 로그를 최대한 활용하려면 로그에 대한 소스를 설정합니다.
+   - [Datadog 에이전트][1]에 로그를 포워딩하는 경우 에이전트 설정 파일에서 소스를 설정할 수 있습니다.
+   - Datadog 에이전트에 로그를 포워딩하지 않는 경우 `/etc/rsyslog.d/`에서 각 소스에 대한 별도의 설정 파일을 생성할 수 있습니다.
+
+     소스를 설정하려면 다음 형식을 사용합니다(여러 소스가 있는 경우 각 파일 형식의 이름 변경).
+
+     ```conf
+     $template DatadogFormat,"<DATADOG_API_KEY> <%pri%>%protocol-version% %timestamp:::date-rfc3339% %HOSTNAME% %app-name% - - [metas ddsource=\"<MY_SOURCE_NAME>\"] %msg%\n"
+     ```
+
+     `ddtags` 속성을 사용해 커스텀 태그를 추가할 수도 있습니다.
+
+     ```conf
+     $template DatadogFormat,"<DATADOG_API_KEY> <%pri%>%protocol-version% %timestamp:::date-rfc3339% %HOSTNAME% %app-name% - - [metas ddsource=\"<MY_SOURCE_NAME>\" ddtags=\"env:dev,<KEY:VALUE>\"] %msg%\n"
+     ```
+
+7. (선택 사항) Datadog에서는 일정 기간의 비활성 상태 이후 비활성 연결을 차단합니다 Rsyslog 일부 버전은 필요 시 재연결을 할 수 없습니다. 이러한 문제를 방지하려면 시간 표시기를 사용하여 연결이 중단되지 않도록 하세요.
+
+   1. Rsyslog 설정 파일에 다음 라인을 추가합니다.
+
+      ```conf
+      $ModLoad immark
+      $MarkMessagePeriod 20
+      ```
+
+   2. Rsyslog 서비스를 다시 시작합니다.
+
+      ```shell
+      sudo systemctl restart rsyslog
+      ```
+
+{{% site-region region="us" %}}
+8. (선택 사항) TLS 암호화를 Rsyslog에서 Datadog 계정으로 전송된 로그에 추가합니다.
+   1. `rsyslog-gnutls` 및 `ca-certificates` 패키지를 설치합니다.
+      ```shell
+      sudo apt-get install rsyslog-gnutls ca-certificates
+      ```
+   2. `/etc/rsyslog.d/datadog.conf` 파일 아래에 다음 라인을 추가합니다.
+      ```conf
+      ## Define the destination for the logs
+      $DefaultNetstreamDriverCAFile /etc/ssl/certs/ca-certificates.crt
+      ruleset(name="infiles") {
+          action(type="omfwd" protocol="tcp" target="intake.logs.datadoghq.com" port="10516" template="DatadogFormat" StreamDriver="gtls" StreamDriverMode="1" StreamDriverAuthMode="x509/name" StreamDriverPermittedPeers="*.logs.datadoghq.com" )
+      }
+      ```
+   3. Rsyslog 서비스를 다시 시작합니다.
+
+      ```shell
+      sudo systemctl restart rsyslog
+      ```
+{{% /site-region %}}
+{{% site-region region="eu" %}}
+
+8. (선택 사항) Rsyslog에서 Datadog 계정으로 전송된 로그에 TLS 암호화를 추가합니다.
+   1. `rsyslog-gnutls` 및 `ca-certificates` 패키지를 설치합니다.
+      ```shell
+      sudo apt-get install rsyslog-gnutls ca-certificates
+      ```
+
+   2. `/etc/rsyslog.d/datadog.conf` 파일 아래에 다음 줄을 추가합니다.
+      ```conf
+      ## Define the destination for the logs
+      $DefaultNetstreamDriverCAFile /etc/ssl/certs/ca-certificates.crt
+      ruleset(name="infiles") {
+          action(type="omfwd" protocol="tcp" target="tcp-intake.logs.datadoghq.eu" port="443" template="DatadogFormat" StreamDriver="gtls" StreamDriverMode="1" StreamDriverAuthMode="x509/name" StreamDriverPermittedPeers="*.logs.datadoghq.eu" )
+      }
+       ```
+   3. Rsyslog 서비스를 다시 시작합니다.
+
+      ```shell
+      sudo systemctl restart rsyslog
+      ```
+{{% /site-region %}}
+
+[1]: /ko/agent/logs/
+{{% /tab %}}
+
+{{% tab "Amazon Linux, CentOS, and Red Hat" %}}
+1. `imfile` 모듈을 활성화하여 특정 로그 파일을 모니터링합니다. `imfile` 모듈을 추가하려면 다음을  `rsyslog.conf`에 추가합니다.
+
+    ```conf
+    module(load="imfile" PollingInterval="10") #needs to be done just once
+    ```
+
+2. `/etc/rsyslog.d/datadog.conf` 파일을 생성합니다.
+
+{{< site-region region="us,eu" >}}
+
+3. `/etc/rsyslog.d/datadog.conf`에서 다음 설정을 추가합니다. `<site_url>`을 **{{< region-param key="dd_site" >}}**로, `<API_KEY>`를 Datadog API 키로 대체합니다. 모니터링하려는 각 로그 파일에 대해 별도의 `input` 라인을 포함해야 합니다.
+
+   ```conf
+   ## For each file to send
+   input(type="imfile" ruleset="infiles" Tag="<APP_NAME_OF_FILE1>" File="<PATH_TO_FILE1>")
+
+   ## Set the Datadog Format to send the logs
+   $template DatadogFormat,"<DATADOG_API_KEY> <%pri%>%protocol-version% %timestamp:::date-rfc3339% %HOSTNAME% %app-name% - - - %msg%\n"
+
+   ruleset(name="infiles") {
+   action(type="omfwd" protocol="tcp" target="intake.logs.<site_url>" port="10514" template="DatadogFormat")
+   }
+   ```
+
+{{< /site-region >}}
+
+{{< site-region region="us3,us5,ap1,gov" >}}
+
+3. `/etc/rsyslog.d/datadog.conf`에서 다음 설정을 추가합니다. `<site_url>`을 **{{< region-param key="dd_site" >}}**로, `<API_KEY>`를 Datadog API 키로 대체합니다. 모니터링하려는 각 로그 파일에 대해 별도의 `input` 라인을 포함해야 합니다.
+
+   ```conf
+   ## For each file to send
+   input(type="imfile" ruleset="infiles" Tag="<TAGS>" File="<PATH_TO_FILE1>")
+
+   ## Set the Datadog Format to send the logs
+   template(name="test_template" type="list") { constant(value="{") property(name="msg" outname="message" format="jsonfr") constant(value="}")}
+
+   # include the omhttp module
+   module(load="omhttp")
+
+   ruleset(name="infiles") {
+      action(type="omhttp" server="http-intake.logs.<site_url>" serverport="443" restpath="api/v2/logs" template="test_template" httpheaders=["DD-API-KEY: <API_KEY>", "Content-Type: application/json"])
+   }
+   ```
+{{< /site-region >}}
+
+4. Rsyslog를 다시 시작합니다. 새로운 로그가 Datadog 계정으로 바로 포워딩됩니다.
+   ```shell
+   sudo systemctl restart rsyslog
+   ```
+
+5. 로그를 호스트 메트릭과 태그에 연결합니다.
+
+   로그가 Datadog 계정의 동일한 호스트에 있는 메트릭과 태그와 연결되도록 해야 합니다. `rsyslog.conf`에서 `HOSTNAME`을 설정하여 호스트명을 Datadog 메트릭과 일치시킵니다.
+   - `datadog.conf` 또는 `datadog.yaml`에서 호스트명을 지정한 경우 `rsyslog.conf`의 `%HOSTNAME%` 값을 교체하여 호스트명와 일치시킵니다.
+   - `datadog.conf` 또는 `datadog.yaml`에서 호스트명을 지정하지 않은 경우 아무 것도 변경하지 않아도 됩니다.
+
+6. Datadog에서 로그를 최대한 활용하려면 로그에 대한 소스를 설정합니다.
+   - [Datadog 에이전트][1]에 로그를 포워딩하는 경우 에이전트 설정 파일에서 소스를 설정할 수 있습니다.
+   - Datadog 에이전트에 로그를 포워딩하지 않는 경우 `/etc/rsyslog.d/`에서 각 소스에 대한 별도의 설정 파일을 생성할 수 있습니다.
+
+     소스를 설정하려면 다음 형식을 사용합니다(여러 소스가 있는 경우 각 파일 형식의 이름 변경).
+
+     ```conf
+     $template DatadogFormat,"<DATADOG_API_KEY> <%pri%>%protocol-version% %timestamp:::date-rfc3339% %HOSTNAME% %app-name% - - [metas ddsource=\"<MY_SOURCE_NAME>\"] %msg%\n"
+     ```
+
+     `ddtags` 속성을 사용해 커스텀 태그를 추가할 수도 있습니다.
+
+     ```conf
+     $template DatadogFormat,"<DATADOG_API_KEY> <%pri%>%protocol-version% %timestamp:::date-rfc3339% %HOSTNAME% %app-name% - - [metas ddsource=\"<MY_SOURCE_NAME>\" ddtags=\"env:dev,<KEY:VALUE>\"] %msg%\n"
+     ```
+
+7. (선택 사항) Datadog에서는 일정 기간의 비활성 상태 이후 비활성 연결을 차단합니다 Rsyslog 일부 버전은 필요 시 재연결을 할 수 없습니다. 이러한 문제를 방지하려면 시간 표시기를 사용하여 연결이 중단되지 않도록 하세요.
+
+   1. Rsyslog 설정 파일에 다음 두 라인을 추가합니다.
+
+      ```conf
+      $ModLoad immark
+      $MarkMessagePeriod 20
+      ```
+
+   2. Rsyslog 서비스를 다시 시작합니다.
+
+      ```shell
+      sudo systemctl restart rsyslog
+      ```
+
+{{% site-region region="us" %}}
+8. (선택 사항) Rsyslog에서 Datadog 계정으로 전송된 로그에 TLS 암호화를 추가합니다.
+   1. `rsyslog-gnutls` 및 `ca-certificates` 패키지를 설치합니다.
+      ```shell
+      sudo yum install rsyslog-gnutls ca-certificates
+      ```
+   2. `/etc/rsyslog.d/datadog.conf` 파일 아래에 다음 줄을 추가합니다.
+      ```conf
+      ## Define the destination for the logs
+      $DefaultNetstreamDriverCAFile /etc/pki/ca-trust/extracted/pem/tls-ca-bundle.pem
+      ruleset(name="infiles") {
+          action(type="omfwd" protocol="tcp" target="intake.logs.datadoghq.com" port="10516" template="DatadogFormat" StreamDriver="gtls" StreamDriverMode="1" StreamDriverAuthMode="x509/name" StreamDriverPermittedPeers="*.logs.datadoghq.com" )
+      }
+      ```
+   3. Rsyslog 서비스를 다시 시작합니다.
+
+      ```shell
+      sudo systemctl restart rsyslog
+      ```
+{{% /site-region %}}
+
+{{% site-region region="eu" %}}
+
+8. (선택 사항) Rsyslog에서 Datadog 계정으로 전송된 로그에 TLS 암호화를 추가합니다.
+   1. `rsyslog-gnutls` 및 `ca-certificates` 패키지를 설치합니다.
+      ```shell
+      sudo yum install rsyslog-gnutls ca-certificates
+      ```
+
+   2. `/etc/rsyslog.d/datadog.conf` 파일 아래에 다음 줄을 추가합니다.
+      ```conf
+      ## Define the destination for the logs
+      $DefaultNetstreamDriverCAFile /etc/pki/ca-trust/extracted/pem/tls-ca-bundle.pem
+      ruleset(name="infiles") {
+          action(type="omfwd" protocol="tcp" target="tcp-intake.logs.datadoghq.eu" port="443" template="DatadogFormat" StreamDriver="gtls" StreamDriverMode="1" StreamDriverAuthMode="x509/name" StreamDriverPermittedPeers="*.logs.datadoghq.eu" )
+      }
+       ```
+   3. Rsyslog 서비스를 다시 시작합니다.
+
+      ```shell
+      sudo systemctl restart rsyslog
+      ```
+{{% /site-region %}}
+
+[1]: /ko/agent/logs/
+{{% /tab %}}
+
+{{% tab "Fedora" %}}
+1. `imfile` 모듈을 활성화하여 특정 로그 파일을 모니터링합니다. `imfile` 모듈을 추가하려면 다음을  `rsyslog.conf`에 추가합니다.
+
+    ```conf
+    module(load="imfile" PollingInterval="10") #needs to be done just once
+    ```
+
+2. `/etc/rsyslog.d/datadog.conf` 파일을 생성합니다.
+
+
+{{< site-region region="us,eu" >}}
+
+3. `/etc/rsyslog.d/datadog.conf`에서 다음 설정을 추가합니다. `<site_url>`을 **{{< region-param key="dd_site" >}}**로, `<API_KEY>`를 Datadog API 키로 대체합니다. 모니터링하려는 각 로그 파일에 대해 별도의 `input` 라인을 포함해야 합니다.
+
+   ```conf
+   ## For each file to send
+   input(type="imfile" ruleset="infiles" Tag="<APP_NAME_OF_FILE1>" File="<PATH_TO_FILE1>")
+
+   ## Set the Datadog Format to send the logs
+   $template DatadogFormat,"<DATADOG_API_KEY> <%pri%>%protocol-version% %timestamp:::date-rfc3339% %HOSTNAME% %app-name% - - - %msg%\n"
+
+   ruleset(name="infiles") {
+   action(type="omfwd" protocol="tcp" target="intake.logs.<site_url>" port="10514" template="DatadogFormat")
+   }
+   ```
+
+{{< /site-region >}}
+
+{{< site-region region="us3,us5,ap1,gov" >}}
+
+3. `/etc/rsyslog.d/datadog.conf`에서 다음 설정을 추가합니다. `<site_url>`을 **{{< region-param key="dd_site" >}}**로, `<API_KEY>`를 Datadog API 키로 대체합니다. 모니터링하려는 각 로그 파일에 대해 별도의 `input` 라인을 포함해야 합니다.
+
+   ```conf
+   ## For each file to send
+   input(type="imfile" ruleset="infiles" Tag="<TAGS>" File="<PATH_TO_FILE1>")
+
+   ## Set the Datadog Format to send the logs
+   template(name="test_template" type="list") { constant(value="{") property(name="msg" outname="message" format="jsonfr") constant(value="}")}
+
+   # include the omhttp module
+   module(load="omhttp")
+
+   ruleset(name="infiles") {
+      action(type="omhttp" server="http-intake.logs.<site_url>" serverport="443" restpath="api/v2/logs" template="test_template" httpheaders=["DD-API-KEY: <API_KEY>", "Content-Type: application/json"])
+   }
+   ```
+{{< /site-region >}}
+
+4. Rsyslog를 다시 시작합니다. 새로운 로그가 Datadog 계정으로 바로 포워딩됩니다.
+   ```shell
+   sudo systemctl restart rsyslog
+   ```
+
+5. 로그를 호스트 메트릭과 태그에 연결합니다.
+
+   로그가 Datadog 계정의 동일한 호스트에 있는 메트릭과 태그와 연결되도록 해야 합니다. `rsyslog.conf`에서 `HOSTNAME`을 설정하여 호스트명을 Datadog 메트릭과 일치시킵니다.
+   - `datadog.conf` 또는 `datadog.yaml`에서 호스트명을 지정한 경우 `rsyslog.conf`의 `%HOSTNAME%` 값을 교체하여 호스트명와 일치시킵니다.
+   - `datadog.conf` 또는 `datadog.yaml`에서 호스트명을 지정하지 않은 경우 아무 것도 변경하지 않아도 됩니다.
+
+6. Datadog에서 로그를 최대한 활용하려면 로그에 대한 소스를 설정합니다.
+   - [Datadog 에이전트][1]에 로그를 포워딩하는 경우 에이전트 설정 파일에서 소스를 설정할 수 있습니다.
+   - Datadog 에이전트에 로그를 포워딩하지 않는 경우 `/etc/rsyslog.d/`에서 각 소스에 대한 별도의 설정 파일을 생성할 수 있습니다.
+
+     소스를 설정하려면 다음 형식을 사용합니다(여러 소스가 있는 경우 각 파일 형식의 이름 변경).
+
+     ```conf
+     $template DatadogFormat,"<DATADOG_API_KEY> <%pri%>%protocol-version% %timestamp:::date-rfc3339% %HOSTNAME% %app-name% - - [metas ddsource=\"<MY_SOURCE_NAME>\"] %msg%\n"
+     ```
+
+     `ddtags` 속성을 사용해 커스텀 태그를 추가할 수도 있습니다.
+
+     ```conf
+     $template DatadogFormat,"<DATADOG_API_KEY> <%pri%>%protocol-version% %timestamp:::date-rfc3339% %HOSTNAME% %app-name% - - [metas ddsource=\"<MY_SOURCE_NAME>\" ddtags=\"env:dev,<KEY:VALUE>\"] %msg%\n"
+     ```
+
+7. (선택 사항) Datadog에서는 일정 기간의 비활성 상태 이후 비활성 연결을 차단합니다 Rsyslog 일부 버전은 필요 시 재연결을 할 수 없습니다. 이러한 문제를 방지하려면 시간 표시기를 사용하여 연결이 중단되지 않도록 하세요.
+
+   1. Rsyslog 설정 파일에 다음 두 라인을 추가합니다.
+
+      ```conf
+      $ModLoad immark
+      $MarkMessagePeriod 20
+      ```
+
+   2. Rsyslog 서비스를 다시 시작합니다.
+
+      ```shell
+      sudo systemctl restart rsyslog
+      ```
+
+{{% site-region region="us" %}}
+8. (선택 사항) Rsyslog에서 Datadog 계정으로 전송된 로그에 TLS 암호화를 추가합니다.
+   1. `rsyslog-gnutls` 및 `ca-certificates` 패키지를 설치합니다.
+      ```shell
+      sudo dnf install rsyslog-gnutls ca-certificates
+      ```
+   2. `/etc/rsyslog.d/datadog.conf` 파일 아래에 다음 줄을 추가합니다.
+      ```conf
+      ## Define the destination for the logs
+      $DefaultNetstreamDriverCAFile /etc/pki/ca-trust/extracted/pem/tls-ca-bundle.pem
+      ruleset(name="infiles") {
+          action(type="omfwd" protocol="tcp" target="intake.logs.datadoghq.com" port="10516" template="DatadogFormat" StreamDriver="gtls" StreamDriverMode="1" StreamDriverAuthMode="x509/name" StreamDriverPermittedPeers="*.logs.datadoghq.com" )
+      }
+      ```
+   3. Rsyslog 서비스를 다시 시작합니다.
+
+      ```shell
+      sudo systemctl restart rsyslog
+      ```
+{{% /site-region %}}
+
+{{% site-region region="eu" %}}
+
+8. (선택 사항) Rsyslog에서 Datadog 계정으로 전송된 로그에 TLS 암호화를 추가합니다.
+   1. `rsyslog-gnutls` 및 `ca-certificates` 패키지를 설치합니다.
+      ```shell
+      sudo dnf install rsyslog-gnutls ca-certificates
+      ```
+
+   2. `/etc/rsyslog.d/datadog.conf` 파일 아래에 다음 줄을 추가합니다.
+      ```conf
+      ## Define the destination for the logs
+      $DefaultNetstreamDriverCAFile /etc/pki/ca-trust/extracted/pem/tls-ca-bundle.pem
+      ruleset(name="infiles") {
+          action(type="omfwd" protocol="tcp" target="tcp-intake.logs.datadoghq.eu" port="443" template="DatadogFormat" StreamDriver="gtls" StreamDriverMode="1" StreamDriverAuthMode="x509/name" StreamDriverPermittedPeers="*.logs.datadoghq.eu" )
+      }
+       ```
+   3. Rsyslog 서비스를 다시 시작합니다.
+
+      ```shell
+      sudo systemctl restart rsyslog
+      ```
+{{% /site-region %}}
+
+[1]: /ko/agent/logs/
+{{% /tab %}}
+
+{{< /tabs >}}
+
+## 트러블슈팅
+
+도움이 필요하신가요? [Datadog 고객지원][1]에 연락하세요.
+
+## 참고 자료
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: /ko/help/
\ No newline at end of file
diff --git a/content/ko/logs/explorer/search_syntax.md b/content/ko/logs/explorer/search_syntax.md
new file mode 100644
index 0000000000000..08d19e9d493ec
--- /dev/null
+++ b/content/ko/logs/explorer/search_syntax.md
@@ -0,0 +1,222 @@
+---
+aliases:
+- /ko/logs/search-syntax
+- /ko/logs/search_syntax/
+description: 모든 로그를 검색하세요.
+further_reading:
+- link: /logs/explorer/#visualize
+  tag: 설명서
+  text: 로그를 시각화하는 방법 알아보기
+- link: /logs/explorer/#patterns
+  tag: 설명서
+  text: 로그 내 패턴 감지
+- link: /logs/log_configuration/processors
+  tag: 설명서
+  text: 로그 처리하는 방법 배우기
+- link: /logs/explorer/saved_views/
+  tag: 설명서
+  text: 저장된 보기에 대해 알아보기
+- link: /logs/explorer/calculated_fields/expression_language
+  tag: 설명서
+  text: 계산된 필드 표현식 언어 알아보기
+title: 검색 구문 로그
+---
+
+## 개요
+
+쿼리 필터는 용어와 연산자로 구성되어 있습니다.
+
+용어에는 다음과 같은 두 가지 유형이 있습니다.
+
+* **단일 용어**는 `test` 또는 `hello` 과 같은 하나의 단어입니다.
+
+* **시퀀스**는 `"hello dolly"`와 같이 큰 따옴표로 묶인 단어의 그룹입니다.
+
+복잡한 쿼리로 여러 용어를 결합하려면, 대소문자를 구분해 다음 부울 연산자를 사용할 수 있습니다.
+
+|              |                                                                                                        |                              |
+|--------------|--------------------------------------------------------------------------------------------------------|------------------------------|
+| **연산자** | **설명**                                                                                        | **예시**                  |
+| `AND`        | **Intersection**: 모든 용어가 선택한 이벤트에 존재합니다(추가된 것이 없으면 AND가 기본적으로 적용됨). | 인증 AND 실패   |
+| `OR`         | **Union** 용어 중 하나가 선택한 이벤트에 포함되어 있습니다.                                             | 인증 OR 비밀번호   |
+| `-`          | **예외**: 다음 용어가 이벤트에 존재하지 않습니다(개별 원본 텍스트 검색에 적용됨).                                                  | 인증 AND -비밀번호 |
+
+## 전문 검색 
+
+<div class="alert alert-warning">전체 텍스트 검색 기능은 로그 관리에서만 사용할 수 있으며 모니터, 대시보드, 노트북 쿼리에서 작동합니다. 전체 텍스트 검색 구문은 인덱스 필터, 아카이브 필터, 로그 파이프라인 필터, 재수화 필터를 정의하는 데 사용할 수 없으며 라이브 테일에서도 사용할 수 없습니다. </div>
+
+`*:search_term` 구문을 사용하여 로그 메시지를 포함하는 모든 로그 속성에서 전체 텍스트 검색을 실행할 수 있습니다.
+
+### 단일 검색어 예시
+
+| 검색 구문 | 검색 유형 | 설명                                               |
+| ------------- | ----------- | --------------------------------------------------------- |
+| `*:hello`     | 전체 텍스트   | 모든 로그 속성에서 정확히 `hello` 문자열을 검색합니다. |
+| `hello`       | 무료 텍스트   | 로그 메시지에서 정확히 `hello` 문자열만 검색합니다.       |
+
+### 와일드카드를 사용한 검색어 예시
+
+| 검색 구문 | 검색 유형 | 설명                                                                                 |
+| ------------- | ----------- | ------------------------------------------------------------------------------------------- |
+| `*:hello`     | 전체 텍스트   | 모든 로그 속성에서 정확히 `hello` 문자열을 검색합니다.                                   |
+| `*:hello*`    | 전체 텍스트   | 전체 로그 속성에서 `hello`로 시작하는 문자열을 검색합니다. 예를 들어 `hello_world`가 있을 수 있습니다.  |
+
+### 정확히 일치하는 여러 검색어 예시
+
+| 검색 구문       | 검색 유형 | 설명                                                                                        |
+| ------------------- | ----------- |--------------------------------------------------------------------------------------------------- |
+| `*:"hello world"`   | 전체 텍스트   | 모든 로그 속성에서 정확히 `hello world` 문자열을 검색합니다.                                    |
+| `hello world`       | 프리 텍스트   | 로그 메시지에서만 `hello` 및 `world` 단어를 검색합니다. 예로 `hello beautiful world`가 있습니다.  |
+
+## 특수 문자 및 공백 이스케이프
+
+`+`, `-`, `=`, `&&`, `||`, `>`, `<`, `!`, `(`, `)`, `{`, `}`, `[`, `]`, `^`, `"`, `“`, `”`, `~`, `*`, `?`, `:`, `\`, `#`와 같은 특수 문자와 공백은 `\` 문자로 이스케이프 처리해야 합니다. 
+`/`는 특수 문자로 간주되지 않으므로 이스케이프 처리할 필요가 없습니다.
+
+로그 메시지에서는 특수 문자를 검색할 수 없습니다. 특수 문자가 속성 내에 있는 경우에만 검색할 수 있습니다.
+
+특수 문자를 검색하려면, [Grok 파서][1]가 포함된 속성으로 파싱한 다음 해당 속성을 포함하는 로그를 검색합니다.
+
+
+## 속성 검색
+
+특정 속성의 검색 에 `@`를 추가하여 검색 중인 속성을 지정합니다.
+
+예를 들어, 속성 이름이 **URL**이고 **URL** 값을 필터링하려면 `www.datadoghq.com` 을 입력합니다:
+
+```
+@url:www.datadoghq.com
+```
+
+
+**참고**:
+
+1. 속성의 검색 및 태그 에 패싯을 정의할 필요는 **없습니다**.
+
+2. 속성 검색은 대소문자를 구분합니다. 대소문자를 구분하지 않는 결과를 얻으려면 [전체 텍스트 검색](#전체 텍스트-검색)를 사용하세요. 또 다른 옵션은 대소문자를 구분하지 않는 결과를 얻으려면 `lowercase` 필터를 Grok 파서와 함께 사용하고 파싱 동안 대소문자를 구분하지 않는 결과를 얻으려면 검색 을 사용하는 것입니다.
+
+3. 특수 문자가 포함된 속성 값을 검색하려면 이스케이프 또는 큰따옴표를 사용해야 합니다.
+    - 예를 들어 값이 `hello:world` 값을 포함하는 `my_attribute` 속성의 경우 `@my_attribute:hello\:world` 또는 `@my_attribute:"hello:world"`를 사용하여 검색합니다.
+    - 단일 특수 문자나 공백을 찾으려면 `?` 와일드카드를 사용합니다. 예를 들어 `hello world` 값이 포함된 `my_attribute` 속성의 경우 `@my_attribute:hello?world`를 사용해 검색합니다.
+
+예:
+
+| 검색 쿼리                                                         | 설명                                                                                                                                                         |
+|----------------------------------------------------------------------|---------------------------------------------------------------------------------------------------------------------------------------------------------------------|
+| `@http.url_details.path:"/api/v1/test"`                              | `http.url_details.path` 속성에서 `/api/v1/test`와 일치하는 모든 로그를 검색합니다.                                                                               |
+| `@http.url:/api\-v1/*`                                             | `/api-v1/`로 시작하는 `http.url` 속성의 값을 포함하는 모든 로그를 검색합니다.                                                                             |
+| `@http.status_code:[200 TO 299] @http.url_details.path:/api\-v1/*` | `http.status_code` 값이 200에서 299 사이이고 `/api-v1/`로 시작하는 `http.url_details.path` 속성 값을 포함하는 모든 로그를 검색합니다. |
+| `-@http.status_code:*`                                                | `http.status_code` 속성이 포함되지 않은 모든 로그 검색 |
+
+### 검색 CIDR 표기법 사용
+클래스 없는 도메인 간 라우팅(CIDR)은 사용자가 다양한 IP 주소(CIDR 블록으로도 명명)를 간결하게 정의할 수 있는 표기법입니다. CIDR은 네트워크 (예: VPC) 또는 서브네트워크(예: VPC 내의 공용/비공용 서브넷)를 정의하는 데 가장 일반적으로 사용됩니다.
+
+사용자는 CIDR 표기법을 통해 로그에서 속성을 쿼리하는 데 `CIDR()` 함수를 사용할 수 있습니다. `CIDR()` 함수는 로그을 필터링할 파라미터로 로그 속성에 전달되어야 하며 이후 하나 이상의 CIDR 블록을 사용해야 합니다.
+
+#### 예시
+- `CIDR(@network.client.ip,13.0.0.0/8)`은 13.0.0.0/8 CIDR 블록에 속하는 `network.client.ip` 필드의 IP 주소를 포함하는 로그를 검색하고 필터링합니다.
+- `CIDR(@network.ip.list,13.0.0.0/8, 15.0.0.0/8)`은 배열 속성 `network.ip.list`에 13.0.0.0/8 또는 15.0.0.0/8 CIDR 블록에 속하는 IP 주소가 있는 로그를 검색하고 필터링합니다.
+- `source:pan.firewall evt.name:reject CIDR(@network.client.ip, 13.0.0.0/8)`은 출발지가 13.0.0.0/8 서브넷인 팔로 알토 방화벽의 거부 이벤트를 검색하고 필터링합니다.
+- `source:vpc NOT(CIDR(@network.client.ip, 13.0.0.0/8)) CIDR(@network.destination.ip, 15.0.0.0/8)`은 출발지 서브넷이 13.0.0.0/8이 아니며 목적지 서브넷이 15.0.0.0/8로 지정된 모든 VPC 로그를 표시합니다. 이는 서브넷 간 환경의 네트워크 트래픽을 분석하는 데 사용할 수 있습니다.
+
+`CIDR()` 함수는 IPv4 및 IPv6 CIDR 표기법을 모두 지원하며 대시보드, 로그 모니터 및 로그 설정의 로그 탐색기, 라이브 테일, 로그 위젯에서 작동합니다.
+
+## 와일드카드
+
+와일드카드를 프리 텍스트 검색과 함께 사용할 수 있습니다. 그러나 로그 탐색기의 `content` 열에 있는 텍스트인 로그 메시지에 있는 용어만 검색합니다. 로그 속성에서 값을 검색하려면 [전체 텍스트 검색](#full-text-search)을 참조하세요.
+
+### 멀티 문자 와일드카드
+
+로그 메시지(로그 탐색기의 `content` 열)에서 복수 문자에 대한 와일드카드 검색을 수행하려면 다음과 같이 `*` 기호를 사용합니다.
+
+* `service:web*`은 `web`으로 시작하는 서비스가 포함된 모든 로그 메시지를 찾습니다.
+* `web*`은 `web`으로 시작되는 모든 로그 메시지를 찾습니다.
+* `*web`은 `web`으로 끝나는 모든 로그 메시지를 찾습니다.
+
+**참고**: 와일드카드는 큰따옴표 밖에서만 와일드카드로 작동합니다. 예를 들어 `"*test*"`는 메시지에 `*test*` 문자열이 있는 로그를 찾습니다. `*test*` 는 메시지 내에서 그 위치와 관계없이 test 문자열이 있는 로그를 찾습니다.
+
+와일드카드 검색은 이 구문을 포함하는 태그 및 속성(패싯 처리/처리 안 됨) 내에서 작동합니다. 이 쿼리는 `mongo` 문자열로 끝나는 모든 서비스를 반환합니다.
+<p> </p>
+<p></p>
+
+```
+service:*mongo
+```
+
+와일드카드는 로그 속성의 일부가 아닌 로그의 일반 텍스트를 검색하는 데에도 사용할 수 있습니다. 예를 들어 이 쿼리는 `NETWORK` 문자열을 포함하는 콘텐츠(메시지)가 있는 모든 로그를 반환합니다.
+
+```
+*NETWORK*
+```
+
+그러나 이 검색어는 로그 메시지의 일부가 아니거나 로그 속성에 포함되지 않은 경우 `NETWORK` 문자열을 포함하는 로그를 반환하지 않습니다. 
+
+### 와일드카드 검색
+
+특수 문자를 포함하거나 이스케이핑 또는 따옴표를 필요로 하는 속성 또는 태그 값을 검색하는 경우, `?` 와일드카드를 사용해 단일 특수 문자나 공백을 찾습니다. 예를 들어 `hello world` 값이 포함된 `my_attribute` 속성을 검색하려면 `@my_attribute:hello?world`를 사용합니다. 
+<p> </p>
+
+## 숫자 값
+
+숫자 속성을 검색하려면 먼저 [패싯으로 추가][2]합니다. 그런 다음 숫자 연산자(`<`,`>`, `<=`, 또는 `>=`)를 사용하여 숫자 패싯을 검색합니다.
+예를 들어 다음을 사용해 응답 시간이 100ms 이상인 로그 을 모두 검색합니다.
+<p> </p>
+
+```
+@http.response_time:>100
+```
+
+특정 범위 내의 숫자 속성을 검색할 수 있습니다. 예를 들어 다음을 사용하여 4xx 오류 모두를 검색합니다.
+
+```
+@http.status_code:[400 TO 499]
+```
+
+## 태그
+
+로그는 [호스트][3] 및 [통합][4]에서 태그를 상속합니다. 검색에서 패싯으로도 사용할 수 있습니다.
+
+* `test`는 문자열 "test"를 검색합니다.
+* `env:(prod OR test)`는 `env:prod` 태그 또는 `env:test` 태그를 포함하는 모든 로그와 일치합니다.
+* `(env:prod AND -version:beta)`는 `env:prod` 태그를 포함하고 `version:beta` 태그를 포함하지 않는 모든 로그와 일치합니다.
+
+태그가 [태그 모범 사례][5]를 따르지 않고 `key:value` 구문을 사용하지 않는 경우 이 검색 쿼리를 사용하세요.
+
+* `tags:<MY_TAG>`
+
+## 배열
+
+아래 예제에서 패싯의 `Peter` 값을 클릭하면 `users.names` 속성이 포함된 로그가 모두 반환되며, 그 값은 `Peter` 또는 `Peter`가 포함된 배열입니다.
+
+{{< img src="logs/explorer/search/array_search.png" alt="배열 및 패싯" style="width:80%;">}}
+
+**참고**: 검색은 동등한 구문을 통해 패싯이 아닌 배열 속성에서도 사용할 수 있습니다.
+
+다음 예시에서 윈도우즈(Windows)에 대한 클라우드와치(CloudWatch) 로그는 `@Event.EventData.Data` 아래에 JSON 객체 배열을 포함합니다. JSON 객체 배열에서는 패싯을 만들 수 없지만 다음 구문을 사용하여 검색할 수 있습니다.
+
+* `@Event.EventData.Data.Name:ObjectServer`는 `Name` 키와 `ObjectServer` 값을 포함하는 모든 로그와 일치합니다.
+
+{{< img src="logs/explorer/search/facetless_query_json_arrray2.png" alt="JSON 객체 배열에서 패싯리스 쿼리" style="width:80%;">}}
+<p> </p>
+
+## 계산된 필드
+
+계산된 필드는 로그 속성과 같이 기능하며, 검색, 집계, 시각화 및 기타 계산된 필드 정의에 사용할 수 있습니다. `#` 접두사를 사용하여 계산된 필드 이름을 참조합니다.
+
+{{< img src="logs/explorer/calculated_fields/calculated_field.png" alt="로그 탐색기에서 결과 필터링에 사용되는 계산된 필드인 request_duration" style="width:100%;" >}}
+
+## 저장된 검색
+
+[저장된 보기][6]에는 검색 쿼리 , 열, 시간대 및 패싯이 포함됩니다.
+
+## 참고 자료
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: /ko/logs/log_configuration/parsing
+[2]: /ko/logs/explorer/facets/
+[3]: /ko/infrastructure/
+[4]: /ko/integrations/#cat-log-collection
+[5]: /ko/getting_started/tagging/#tags-best-practices
+[6]: /ko/logs/explorer/saved_views/
+[7]: /ko/logs/explorer/facets/#facet-panel
\ No newline at end of file
diff --git a/content/ko/monitors/guide/_index.md b/content/ko/monitors/guide/_index.md
index 8477db4055503..6bc7b8324e5c8 100644
--- a/content/ko/monitors/guide/_index.md
+++ b/content/ko/monitors/guide/_index.md
@@ -1,30 +1,50 @@
 ---
 cascade:
   algolia:
-    category: 지침
+    category: 가이드
     rank: 20
-    subcategory: 모니터링 지침
+    subcategory: 모니터 가이드
 disable_toc: true
 private: true
-title: 모니터링 지침
+title: 모니터 가이드
 ---
 
-{{< whatsnext desc="Alerts, Downtimes, and Messages:" >}}
-    {{< nextlink href="monitors/guide/troubleshooting-monitor-alerts" >}}모니터 알림 트러블슈팅{{< /nextlink >}}
-    {{< nextlink href="monitors/guide/template-variable-evaluation" >}}템플릿 변수 평가{{< /nextlink >}}
-    {{< nextlink href="monitors/guide/monitor-for-value-within-a-range" >}}모니터링 범위{{< /nextlink >}}
-    {{< nextlink href="/monitors/guide/scoping_downtimes" >}}다운타임 범위{{< /nextlink >}}
-    {{< nextlink href="monitors/guide/alert-on-no-change-in-value" >}}값 변경 없을 시 알림{{< /nextlink >}}
-    {{< nextlink href="monitors/guide/create-cluster-alert" >}}메트릭 모니터에 대한 클러스터 알림 생성{{< /nextlink >}}
+{{< whatsnext desc="시작하기:" >}}
+    {{< nextlink href="monitors/guide/monitor_best_practices" >}}모니터 모범 사례{{< /nextlink >}}
+    {{< nextlink href="monitors/guide/how-to-set-up-rbac-for-monitors" >}}모니터에 RBAC를 설정하는 방법{{< /nextlink >}}
+    {{< nextlink href="monitors/guide/monitor_aggregators" >}}모니터 애그리게이터{{< /nextlink >}}
+    {{< nextlink href="monitors/guide/history_and_evaluation_graphs" >}}모니터 기록 및 평가 그래프{{< /nextlink >}}
+    {{< nextlink href="monitors/guide/why-did-my-monitor-settings-change-not-take-effect" >}}모니터 설정 변경이 적용되지 않음{{< /nextlink >}}
+    {{< nextlink href="monitors/guide/recovery-thresholds" >}}복구 임계값{{< /nextlink >}}
+    {{< nextlink href="monitors/guide/alert_aggregation" >}}경고 집계{{< /nextlink >}}
+    {{< nextlink href="monitors/guide/notification-message-best-practices" >}}알림 메시지 모범 사례{{< /nextlink >}}
+
+{{< /whatsnext >}}
+
+{{< whatsnext desc="튜토리얼:" >}}
+    {{< nextlink href="monitors/guide/create-cluster-alert" >}}메트릭 모니터에 대한 클러스터 경고 생성{{< /nextlink >}}
     {{< nextlink href="monitors/guide/create-monitor-dependencies" >}}모니터 종속성 생성{{< /nextlink >}}
-    {{< nextlink href="monitors/guide/export-monitor-alerts-to-csv" >}}CSV로 모니터 알림 내보내기{{< /nextlink >}}
-    {{< nextlink href="monitors/guide/set-up-an-alert-for-when-a-specific-tag-stops-reporting" >}}특정 태그 보고 중단 시 알림 설정{{< /nextlink >}}
-    {{< nextlink href="monitors/guide/recovery-thresholds" >}}복원 임계값{{< /nextlink >}}
-    {{< nextlink href="monitors/guide/adjusting-no-data-alerts-for-metric-monitors" >}}메트릭 모니터를 위한 "데이터 없음" 알림{{< /nextlink >}}
-    {{< nextlink href="monitors/guide/prevent-alerts-from-monitors-that-were-in-downtime" >}}다운타임 모니터에서 알림 방지{{< /nextlink >}}
-    {{< nextlink href="monitors/guide/reduce-alert-flapping" >}}알림 플래핑 감소{{< /nextlink >}}
-    {{< nextlink href="monitors/guide/monitoring-sparse-metrics" >}}희귀 메트릭 모니터링{{< /nextlink >}}
-    {{< nextlink href="monitors/guide/best-practices-for-live-process-monitoring" >}}라이브 프로세스 모니터링 모범 사례{{< /nextlink >}}
+    {{< nextlink href="synthetics/guide/synthetic-test-monitors" >}}합성(Synthetic ) 테스트에서 모니터를 만드는 방법{{< /nextlink >}}
+    {{< nextlink href="monitors/guide/reduce-alert-flapping" >}}경고 플래핑 감소{{< /nextlink >}}
+    {{< nextlink href="monitors/guide/troubleshooting-monitor-alerts" >}}모니터 경고 문제 해결{{< /nextlink >}}
+{{< /whatsnext >}}
+
+{{< whatsnext desc="모니터 구성:" >}}
+    {{< nextlink href="monitors/guide/best-practices-for-live-process-monitoring" >}}실시간 프로세스 모니터링모범 사례{{< /nextlink >}}
+    {{< nextlink href="monitors/guide/non_static_thresholds" >}}비정적 임계값을 모니터링하는 방법{{< /nextlink >}}
+    {{< nextlink href="monitors/guide/anomaly-monitor" >}}이상치 모니터{{< /nextlink >}}
+    {{< nextlink href="monitors/guide/monitoring-sparse-metrics" >}}희소 메트릭 모니터링{{< /nextlink >}}
+    {{< nextlink href="monitors/guide/monitor-arithmetic-and-sparse-metrics" >}}산술 및 희소 메트릭 모니터링{{< /nextlink >}}
+    {{< nextlink href="monitors/guide/monitoring-available-disk-space" >}}사용 가능한 디스크 공간 모니터링{{< /nextlink >}}
+    {{< nextlink href="monitors/guide/adjusting-no-data-alerts-for-metric-monitors" >}}메트릭 모니터에 대한 "No Data" 경고 조정{{< /nextlink >}}
+    {{< nextlink href="monitors/guide/how-to-update-anomaly-monitor-timezone" >}}로컬 시간대를 고려하여 이상 탐지 모니터를 업데이트하는 방법{{< /nextlink >}}
+    {{< nextlink href="/monitors/guide/custom_schedules" >}}모니터 평가 빈도를 맞춤 설정하기 위한 사용자 정 일정 추가{{< /nextlink >}}
+    {{< nextlink href="monitors/guide/as-count-in-monitor-evaluations" >}}모니터 평가에서의 as_count(){{< /nextlink >}}
+{{< /whatsnext >}}
+
+{{< whatsnext desc="다운타임:" >}}
+    {{< nextlink href="/monitors/guide/scoping_downtimes" >}}다운타임 범위 설정{{< /nextlink >}}
+    {{< nextlink href="monitors/guide/prevent-alerts-from-monitors-that-were-in-downtime" >}}다운타임 상태인 모니터로부터의 경고 방지{{< /nextlink >}}
 {{< /whatsnext >}}
 
 {{< whatsnext desc="API:" >}}
@@ -32,27 +52,11 @@ title: 모니터링 지침
     {{< nextlink href="monitors/guide/on_missing_data" >}}누락된 데이터 구성으로 마이그레이션하기{{< /nextlink >}}
 {{< /whatsnext >}}
 
-{{< whatsnext desc="일반 가이드:" >}}
-    {{< nextlink href="monitors/guide/monitor_best_practices" >}}모니터 모범 사례{{< /nextlink >}}
-    {{< nextlink href="monitors/guide/how-to-set-up-rbac-for-monitors" >}}모니터를 위한 RBAC 설정 방법{{< /nextlink >}}
-    {{< nextlink href="synthetics/guide/synthetic-test-monitors" >}}신서틱 테스트에서 모니터 생성 방법{{< /nextlink >}}
-    {{< nextlink href="monitors/guide/non_static_thresholds" >}}비고정 임계값 모니터 방법{{< /nextlink >}}
-    {{< nextlink href="monitors/guide/anomaly-monitor" >}}이상 모니터{{< /nextlink >}}
-    {{< nextlink href="monitors/guide/monitor-ephemeral-servers-for-reboots" >}}재부팅을 위한 짧은 수명의 서버 모니터링 {{< /nextlink >}}
-    {{< nextlink href="monitors/guide/how-to-update-anomaly-monitor-timezone" >}}현지 표준 시간대 이상 감지 모니터 업데이트 방법{{< /nextlink >}}
-    {{< nextlink href="monitors/guide/history_and_evaluation_graphs" >}}모니터 기록 및 평가 그래프{{< /nextlink >}}
-    {{< nextlink href="monitors/guide/why-did-my-monitor-settings-change-not-take-effect" >}}효과 없는 모니터 설정 변경 사항{{< /nextlink >}}
-    {{< nextlink href="monitors/guide/integrate-monitors-with-statuspage" >}}상태 페이지와의 모니터 통합{{< /nextlink >}}
-    {{< nextlink href="monitors/guide/github_gating" >}}GitHub Actions Deployments with Datadog 모니터를 통해 GitHub 작업 배포 관리{{< /nextlink >}}
-    {{< nextlink href="monitors/guide/monitoring-available-disk-space" >}}사용 가능한 디스크 공간 모니터링{{< /nextlink >}}
-{{< nextlink href="monitors/guide/on_missing_data" >}}누락된 데이터 구성으로 마이그레이션하기{{< /nextlink >}}
-{{< nextlink href="monitors/guide/composite_use_cases" >}}복합 모니터 사용 사례{{< /nextlink >}}
-  {{< nextlink href="monitors/guide/notification-message-best-practices" >}}알림 메시지 모범 사례{{< /nextlink>}}
-{{< /whatsnext >}}
-
-{{< whatsnext desc="쿼리:" >}}
-    {{< nextlink href="/monitors/guide/custom_schedules" >}}사용자 맞춤 스케줄을 추가하여 모니터링 평가 빈도 커스터마이징{{< /nextlink >}}
-    {{< nextlink href="monitors/guide/monitor-arithmetic-and-sparse-metrics" >}}산술 및 희소 메트릭 모니터링{{< /nextlink >}}
-    {{< nextlink href="monitors/guide/as-count-in-monitor-evaluations" >}}as_count() 모니터링 평가{{< /nextlink >}}
-    {{< nextlink href="monitors/guide/monitor_aggregators" >}}집계자(aggregator) 모니터링{{< /nextlink >}}
+{{< whatsnext desc="특정 사용 사례:" >}}
+    {{< nextlink href="monitors/guide/alert-on-no-change-in-value" >}}값 변경 없음에 대한 알림{{< /nextlink >}}
+    {{< nextlink href="monitors/guide/monitor-for-value-within-a-range" >}}모니터링 범위{{< /nextlink >}}
+    {{< nextlink href="monitors/guide/set-up-an-alert-for-when-a-specific-tag-stops-reporting" >}}특정 태그가 보고를 중지할 때 알림 설정{{< /nextlink >}}
+    {{< nextlink href="monitors/guide/monitor-ephemeral-servers-for-reboots" >}}재부팅을 위한 모니터 임시 서버{{< /nextlink >}}
+    {{< nextlink href="monitors/guide/integrate-monitors-with-statuspage" >}}Statuspage로 모니터 통합{{< /nextlink >}}
+    {{< nextlink href="monitors/guide/github_gating" >}}Datadog 모니터를 사용하여 GitHub Actions 배포 게이팅{{< /nextlink >}}
 {{< /whatsnext >}}
\ No newline at end of file
diff --git a/content/ko/real_user_monitoring/browser/collecting_browser_errors.md b/content/ko/real_user_monitoring/browser/collecting_browser_errors.md
index 3e035ce2e0da9..671e780ea2671 100644
--- a/content/ko/real_user_monitoring/browser/collecting_browser_errors.md
+++ b/content/ko/real_user_monitoring/browser/collecting_browser_errors.md
@@ -36,6 +36,7 @@ title: Collecting Browser Errors
 | `error.type`    | 문자열 | 오류 유형(또는 경우에 따라 오류 코드).                     |
 | `error.message` | 문자열 | 이벤트를 설명하는 간결하고 사람이 읽을 수 있는 한 줄 메시지. |
 | `error.stack`   | 문자열 | 스택 트레이스 또는 오류에 대한 보완 정보.     |
+| `error.causes` | [어레이][12] | 추가 컨텍스트를 제공하는 선택 사항 목록입니다. 이 속성은 별도로 오류를 표시하기 위해 사용되고 서식을 향상합니다. 자세한 정보는 [MDN 설명서][13]를 참고하세요. |
 
 ### 소스 오류
 
@@ -56,7 +57,7 @@ addError(
 );
 {{< /code-block >}}
 
-**참고**: [오류 추적][4]은 `custom`, `source`, `report`, `network` 또는 `console`로 설정된 소스를 전송하는 오류 및 스택 트레이스가 포함된 오류를 처리합니다.
+**참고**: [오류 추적][4]은 `custom`, `source` 또는 `report`, 또는 `console`로 설정된 소스를 전송하는 오류 및 스택 트레이스가 포함된 오류를 처리합니다. 오류 추적은 다른 소스(예: `network`) 또는 브라우저 확장 프로그램으로 전송된 오류는 처리하지 않습니다.
 
 {{< tabs >}}
 {{% tab "NPM" %}}
@@ -254,4 +255,6 @@ class ErrorBoundary extends React.Component {
 [8]: https://developer.mozilla.org/en-US/docs/Web/API/GlobalEventHandlers/onerror#notes
 [9]: https://developer.mozilla.org/en-US/docs/Web/HTML/Attributes/crossorigin
 [10]: https://developer.mozilla.org/en-US/docs/Web/HTTP/Headers/Access-Control-Allow-Origin
-[11]: /ko/real_user_monitoring/guide/upload-javascript-source-maps/?tab=webpackjs
\ No newline at end of file
+[11]: /ko/real_user_monitoring/guide/upload-javascript-source-maps/?tab=webpackjs
+[12]: https://github.com/DataDog/rum-events-format/blob/69147431d689b3e59bff87e15bb0088a9bb319a9/lib/esm/generated/rum.d.ts#L185-L203
+[13]: https://developer.mozilla.org/en-US/docs/Web/JavaScript/Reference/Global_Objects/Error/cause
\ No newline at end of file
diff --git a/content/ko/real_user_monitoring/guide/browser-sdk-upgrade.md b/content/ko/real_user_monitoring/guide/browser-sdk-upgrade.md
index 732f5ce574de7..386e7de02d6fc 100644
--- a/content/ko/real_user_monitoring/guide/browser-sdk-upgrade.md
+++ b/content/ko/real_user_monitoring/guide/browser-sdk-upgrade.md
@@ -11,26 +11,91 @@ title: RUM 브라우저 SDK 업그레이드
 
 ## 개요
 
-주요 버전의 브라우저 RUM과 브라우저 로그 SDK 간에 마이그레이션하려면 이 가이드를 따르세요. 기능에 대한 자세한 내용은 [SDK 설명서][26]를 참조하세요.
+본 지침에 따라 브라우저 RUM 주요 버전과 브라우저 로그 SDK 간에 마이그레이션하세요. [SDK 문서][26]에서 해당 기능 및 성능에 대한 자세한 내용을 참조하세요.
+
+## v5에서 v6으로
+
+v6의 주요한 개선점은 번들 규모 축소입니다. IE11 지원을 제거하고 지연 로딩을 활용하여 RUM 번들 규모가 10% 축소되었고 로그 번들은 9% 축소되었습니다.
+또 향후 개선에 대비하기 위해 초기화 파라미터 일부를 변경했습니다.
+
+SDK를 업그레이드할 때 아래 단절적 변경 사항에 유의하세요.
+
+### 단절적 변경 사항
+
+#### 브라우저 지원
+
+IE11 및 기타 오래된 브라우저 지원이 중단되었습니다. 이제 브라우저가 최소 ES2018을 지원해야 합니다. 구 브라우저에서 Datadog를 사용하려면 Browser SDK v5 이하 버전을 사용하시기 바랍니다.
+
+#### tracecontext 전파기를 사용할 때 tracestate 헤더 추가
+
+이제 기본 `tracecontext` 전파기에서 새 `tracestate` 헤더를 보내는데, 여기에는 더 나은 트레이스 속성을 허용하는 메타데이터가 추가되어 있습니다. 이 전파기를 사용할 경우 기존 `traceparent` 헤더와 더불어 추적하는 모든 엔드포인트에 새 헤더를 허용해야 합니다.
+
+```
+Access-Control-Allow-Headers: traceparent, tracestate
+```
+
+#### 강력한 `site` 옵션 사용 가능
+
+이제 `site` 옵션에 더 강력한 유형 정의를 사용할 수 있습니다. TypeScript를 사용할 경우 표준 값 이외의 값을 사용하면 오류가 생길 수 있습니다. 비표준 URL에 RUM 데이터를 전송할 때 [프록시][27]를 사용할 것을 추천합니다.
+
+#### 활동 추적, 리소스, 장기 작업이 기본적으로 활성화됨
+
+이제 사용자 소통, 리소스, 장기 작업을 기본값으로 추적합니다. 이 변화는 요금에 영향을 미치지 않습니다. 이 기능을 비활성화하려면 `trackUserInteractions`, `trackResources`, `trackLongTasks`, [초기화 파라미터][28]를 `false`로 설정합니다.
+
+#### 긴 애니메이션 프레임을 긴 작업으로 수집
+
+이제 지원하는 브라우저에서 긴 작업 대신 [긴 애니메이션 프레임][35]이 수집됩니다. RUM Explorer에서 이벤트 유형은 `long_task`로 표시되지만 긴 애니메이션 프레임 정보를 포함합니다.
+
+#### 쿠키 만료일 연장
+
+익명의 사용자 추적을 지원하기 위해 세션 쿠키(`_dd_s`) 만료일이 1년으로 연장되었습니다. 이 옵션을 비활성화하려면 `trackAnonymousUser` [초기화 파라미터][28]를 `false`로 설정하세요.
+
+#### useCrossSiteSessionCookie 초기화 파라미터 제거됨
+
+`useCrossSiteSessionCookie`가 사용 중지되어 이제 지원되지 않습니다. 대신 `usePartitionedCrossSiteSessionCookie` [초기화 파라미터][28]를 사용하세요.
+
+#### 지연 로드 세션 재생
+
+이제 세션 재생 모듈은 [역동적 가져오기][3]를 사용해 지연 로딩됩니다. 이는 세션 재생으로 샘플된 세션의 모듈만 로딩하기 때문에 다른 번들 규모가 축소됩니다.
+
+**NPM을 통해 SDK를 사용하는 경우** 번들러가 동적 가져오기를 지원하는지 확인하세요. 대부분의 현대 번들러는 기본적으로 이 기능을 지원하지만 구성을 변경해야 하는 일부 번들러가 있을 수 있습니다. 지침을 보려면 번들러의 설명서를 참고하세요([Webpack][31], [Esbuild][32], [Rollup][33], [Parcel][34]).
+
+**CDN을 통해 SDK를 사용하는 경우**에는 단절적 변경이 없습니다. 그러나 메인 스크립트 로딩(예: `datadog-rum.js`) 외에도 SDK가 필요할 때 동적으로 추가 청크를 로딩합니다(예: `recorder-d7628536637b074ddc3b-datadog-rum.js`).
+
+#### 샘플되지 않은 트레이스에 트레이스 컨텍스트를 삽입하지 않음
+
+브라우저 SDK에서 트레이스가 샘플링되지 않을 때 백엔드 서비스 샘플링 결정이 적용되도록 하기 위해 `traceContextInjection` 초기화 파라미터의 기본값이 `sampled`로 업데이트되었습니다.
+
+**참고**: `traceSampleRate`을 100%로 사용하는 중인 경우(기본값) 이 변경 사항이 영향을 미치지 않습니다.
+
+
+
+### 향후 단절적 변경
+
+#### Datadog 수집 요청 압축 활성화
+
+이후 주요 버전에서 Datadog 수집 요청 압축이 기본적으로 활성화됩니다.
+Datadog에서는 `compressIntakeRequests` [초기화 파라미터][28]를 사용해 이 압축을 활성화할 것을 권고합니다.
+압축은 Worker 스레드에서 진행되기 때문에 Content Security Policy를 구성해야 합니다. 자세한 정보는 [CSP 가이드라인][18]을 참고하세요.
 
 ## v4에서 v5로
 
-V5에는 다음과 같은 변경 사항이 추가되었습니다:
+V5에는 다음과 같은 변경 사항이 도입되었습니다.
 
-- 세션 재생을 위한 새로운 설정 및 개인 정보 보호 기본 설정
+- 세션 리플레이를 위한 새로운 설정 및 개인정보 보호 기본값
 - 좌절 신호 자동 수집
 - 업데이트된 성능 메트릭
 - 업데이트된 SDK 파라미터 및 API
 
-SDK를 업그레이드할 때 다음 변경 사항을 참고하세요. 변경 사항은 영향을 받는 영역별로 그룹화됩니다.
+SDK를 업그레이드할 때 하단의 주요 변경 사항에 유의합니다. 변경 사항은 영향 영역별로 그룹화됩니다.
 
 ### 일반
 
 #### SDK 초기화 파라미터
 
-** 조치 사항**: 더 이상 사용되지 않는 파라미터를 v5의 새로운 동등한 파라미터로 교체합니다. 이전 파라미터 이름은 더 이상 v5에서 사용할 수 없습니다.
+**취해야 할 조치**: v5에서 지원 중단 파라미터를 새로운 관련 파라미터로 교체합니다. 기존 파라미터 이름은 더 이상 v5에서 사용할 수 없습니다.
 
-| 더 이상 사용하지 않는 파라미터 이름 (v4 또는 이전) | 새 파라미터 이름 (v5) |
+| 지원 중단 파라미터 이름(v4 이하) | 신규 파라미터 이름 (v5) |
 |-------------------------------------------|-------------------------|
 | proxyUrl | proxy |
 | sampleRate | sessionSampleRate |
@@ -42,9 +107,9 @@ SDK를 업그레이드할 때 다음 변경 사항을 참고하세요. 변경 
 
 #### 공개 API
 
-**조치 사항**: 더 이상 사용하지 않는 API를 새로운 동등한 API로 교체합니다. 기존 API는 버전 5에서 더 이상 사용할 수 없습니다.
+**취해야 할 조치**: 지원 중단 API를 새로운 관련 API로 교체합니다. 기존 API는 더 이상 v5에서 사용할 수 없습니다.
 
-| 사용하지 않는 파라미터 이름 (버전 4 이상) | 새 파라미터 이름 (v5) |
+| 지원 중단 파라미터 이름(v4 이하) | 신규 파라미터 이름 (v5) |
 |-------------------------------------------|-------------------------|
 | DD_RUM.removeUser | [DD_RUM.clearUser][7] |
 | DD_RUM.addRumGlobalContext | [DD_RUM.setGlobalContextProperty][8] |
@@ -58,10 +123,10 @@ SDK를 업그레이드할 때 다음 변경 사항을 참고하세요. 변경 
 | logger.addContext | [logger.setContextProperty][14] |
 | logger.removeContext | [logger.removeContextProperty][15] |
 
-#### 인테이크 도메인
-버전 5는 이전 버전과 다른 인테이크 도메인으로 데이터를 전송합니다.
+#### 수집 도메인
+V5는 기존 버전과 다른 수집 도메인으로 데이터를 전송합니다.
 
-** 조치 사항**: [콘텐트 보안 정책(CSP)][18] `connect-src` 항목을 업데이트하여 새 도메인을 사용합니다.
+**취해야 할 조치**: 새 도메인을 사용하려면 [콘텐츠 보안 정책 (CSP)][18] `connect-src` 항목을 업데이트하세요.
 
 | Datadog 사이트 | 도메인 |
 |--------------|--------|
@@ -73,9 +138,9 @@ SDK를 업그레이드할 때 다음 변경 사항을 참고하세요. 변경 
 | AP1 | `connect-src https://browser-intake-ap1-datadoghq.com` |
 
 #### 신뢰할 수 있는 이벤트
-부정확하거나 불법적인 데이터 수집을 피하기 위해 v5는 사용자 작업에 의해 생성된 이벤트만 수신하고 스크립트에 의해 생성된 이벤트는 무시합니다. 자세한 내용은 [신뢰할 수 있는 이벤트][19]를 참조하세요.
+부정확하거나 불법적인 데이터 수집을 방지하기 위해, v5는 사용자 작업으로 생성된 이벤트만 수신하고 스크립트로 생성된 이벤트는 무시합니다. 자세한 내용을 확인하려면  [신뢰할 수 있는 이벤트][19]를 참조하세요.
 
-**조치 사항**: 프로그램 이벤트에 의존하고 SDK에서 이벤트를 고려하도록 하려면 아래와 같이 `__ddIsTrusted` 속성을 추가하세요.
+**취해야 할 조치**: 프로그래밍 방식 이벤트를 사용하고 있고 SDK에서 이를 고려하도록 하려면 다음과 같이 `__ddIsTrusted` 속성을 추가하세요.
 
 ```javascript
 const click = new Event('click')
@@ -83,84 +148,84 @@ click.__ddIsTrusted = true
 document.dispatchEvent(click)
 ```
 
-** 조치 사항**: 자동화된 UI 테스트 환경과 같이 계획된 이벤트에 크게 의존하는 경우 `allowUntrustedEvents: true` 설정을 통해 신뢰할 수 없는 모든 이벤트를 허용할 수 있습니다.
+**취해야 할 조치**: 예를 들어, 자동화된 UI 테스트 환경에서와 같이 프로그래밍 방식 이벤트에 크게 의존한다면 `allowUntrustedEvents: true`을 설정하여 신뢰할 수 없는 모든 이벤트를 허용할 수 있습니다.
 
 #### `beforeSend` 반환 유형
-`beforeSend` 콜백 함수는 부울 값을 반환해야 합니다:
+`beforeSend` 콜백 함수는 다음과 같이 불리언 값을 반환해야 합니다.
 
 ```javascript
 beforeSend(event: any, context?: any) => boolean
 ```
 
-구현이 변경되지 않았습니다. 값이 반환되지 않으면 이벤트가 폐기되지 않습니다.
+구현이 변경되지 않았습니다. 값이 반환되지 않으면 이벤트는 삭제되지 않습니다.
 
-**조치 사항**: `beforeSend`가 이벤트를 유지하려면 `true`를, 버리려면 `false`를 반환해야 합니다. 이를 통해 관련 TypeScript 컴파일 오류가 해결됩니다.
+**취해야 할 조치**: `beforeSend`이 `true`을 반환하여 이벤트를 유지하고 `false`을 폐기하는지 확인합니다. 이렇게 하면 관련된 TypeScript 컴파일 오류가 해결됩니다.
 
-### 세션 재생
+### 세션 리플레이
 
-#### 세션 재생 마스킹
+#### 세션 리플레이 마스킹
 
-기본 세션 재생 마스킹 설정 `defaultPrivacyLevel`이 `mask-user-input`에서 `mask`로 변경되었습니다. 이렇게 하면 기본적으로 세션 재생 녹화의 모든 데이터가 숨겨져 개인 정보를 보호할 수 있습니다. 자세한 내용은 [세션 재생 브라우저 개인 정보 보호 옵션][20]을 참조하세요.
+기본 세션 리플레이 마스킹 설정 `defaultPrivacyLevel`이 `mask-user-input`에서 `mask`로 변경되었습니다. 해당 방법을 통해 기본값으로 세션 리플레이 녹화본의 모든 민감한 데이터를 숨겨서 녹화본의 개인 정보 민감도를 경감합니다. 자세한 내용을 확인하려면 [세션 리플레이 브라우저 개인정보 보호 옵션][20]을 참조하세요.
 
-**조치 사항**: 세션 재생에서 중요하지 않은 HTML 내용이나 사용자가 입력한 텍스트와 같이 마스킹되지 않은 데이터를 보려면 `defaultPrivacyLevel`을 `mask-user-input` 또는 `allow`로 설정합니다.
+**취해야 할 조치**: 세션 리플레이에서 민감한 정보가 아닌 HTML 콘텐츠나 사용자가 입력한 텍스트 등 마스킹되지 않은 데이터를 더 확인하려면 `defaultPrivacyLevel`를 `mask-user-input` 또는 `allow`로 설정합니다.
 
-#### 세션 재생을 위해 샘플링된 세션의 자동 녹화
-[`sessionReplaySampleRate`][21]을 사용하여 세션 재생을 위해 샘플링된 세션은 세션 시작 시 자동으로 기록됩니다. 즉, 녹음을 캡처하기 위해 [`startSessionReplayRecording()`][22] 메서드를 호출할 필요가 없습니다. 즉, 실수로 녹음 내용을 놓치는 일이 없습니다.
+#### 세션 리플레이용으로 샘플링된 세션의 자동 레코딩
+[`sessionReplaySampleRate`][21]을 사용하여 세션 리플레이용으로 샘플링된 세션은 세션 시작 시 자동으로 녹화됩니다. 즉, 레코딩 캡처를 위해 [`startSessionReplayRecording()`][22] 메서드를 호출하지 않아도 되므로 실수로 녹화를 놓치는 일이 없게 됩니다.
 
-**조치 사항**: 이전 녹화 동작을 계속 사용하고 녹화 시작을 사용자에 맞게 설정하려면 `startSessionReplayRecordingManually`을 `true`로 설정합니다.
+**취해야 할 조치**: 기존 레코딩 작업을 계속 사용하고 레코딩 시작 시 이를 사용자 지정하려면 `startSessionReplayRecordingManually`을 `true`로 설정합니다.
 
-#### 세션이 녹화를 캡처하는 경우에만 세션 재생 비용을 지불합니다.
+#### 세션에서 레코딩을 캡처할 때만 세션 리플레이 비용을 지불합니다.
 이전 SDK 버전에서는 샘플링 메커니즘을 통해 세션이 세션 재생 세션으로 결정됩니다. v5에서는 세션 중에 녹음이 캡처된 경우에만 세션이 세션 재생 세션으로 계산됩니다. 이렇게 하면 세션 재생 사용량을 더 쉽게 추적할 수 있습니다.
 
-**별다른 조치 필요 없음**: 이 동작은 v5에서 자동으로 적용됩니다.
+**조치 필요 없음**: 본 작업은 v5에서 자동으로 적용됩니다.
 
-#### 기본 세션 재생 샘플링 속도
-v5에서 기본값`sessionReplaySampleRate`은 100이 아니라 0입니다. 샘플링 속도를 포함하지 않으면 재생이 녹화되지 않습니다.
+#### 기본 세션 리플레이 샘플링 속도
+v5에서 기본값 `sessionReplaySampleRate`은 100이 아니라 0입니다. 샘플링 속도를 포함시키지 않으면 리플레이가 녹화되지 않습니다.
 
-**조치 사항**: 세션 재생을 사용하려면 샘플링 속도를 `sessionReplaySampleRate: 100`와 함께 명시적으로 설정합니다(또는 다른 샘플링 속도).
+**취해야 할 조치**: 세션 리플레이를 사용하려면 `sessionReplaySampleRate: 100`(또는 다른 샘플링 속도)로 샘플링 속도를 명시적으로 설정합니다.
 
 ### RUM
 
-### APM 통합
+### 애플리케이션 성능 모니터링(APM) 통합
 
-OpenTelemetry의 지원 및 사용을 활성화하기 위해 기본 전파자 유형이 `datadog`과 더불어 `tracecontext`도 포함하도록 변경되었습니다.
+OpenTelemetry의 지원 및 사용을 촉진할 목적으로, 기본 전파자 유형이 `datadog` 외에도 `tracecontext`를 포함하도록 변경되었습니다.
 
-**조치 사항**: `allowedTracingUrls` 초기화 파라미터에 원하는 전파자를 아직 지정하지 않은 경우, `traceparent` 헤더도 허용하도록 서버 Access-Control-Allow-Headers를 설정합니다. 자세한 내용은 [RUM 및 트레이스 연결][25]를 참조하세요.
+**취해야 할 조치**: `allowedTracingUrls` 초기화 파라미터에서 원하는 전파자를 아직 지정하지 않은 경우 `traceparent` 헤더도 허용하도록 서버 Access-Control-Allow-Headers를 설정합니다. 자세한 내용을 확인하려면 [RUM과 트레이스 연결하기][25]를 참조하세요.
 
-### 세션 플랜 필드
+### 세션 계획 필드
 
-세션 재생 변경 사항과 관련하여 `session.plan` 필드는 세션 이벤트에 대해서만 사용할 수 있습니다.
+세션 리플레이 변경 사항과 관련하여 `session.plan` 필드는 세션 이벤트에만 사용할 수 있습니다.
 
-**조치 사항**: 저장한 모니터 또는 대시보드 쿼리를 업데이트하여 비세션 이벤트에 대한 `session.plan` 필드를 제외합니다.
+**취해야 할 조치**: 저장한 모니터링 또는 대시보드 쿼리를 업데이트하여 비세션 이벤트에 관한 `session.plan` 필드를 제외합니다.
 
-#### 좌절 신호는 자동으로 수집
-좌절 신호를 포함한 모든 사용자 상호 작용을 수집하도록 `trackUserInteractions: true`로 설정하기만 하면 됩니다. 더 이상 `trackFrustrations` 파라미터를 따로 설정할 필요가 없습니다.
+#### 좌절 신호가 자동 수집됩니다.
+`trackUserInteractions: true`만 설정하면 좌절 신호를 포함한 모든 사용자 상호작용 데이터를 수집할 수 있습니다. 더 이상 `trackFrustrations` 파라미터를 별도로 설정하지 않아도 됩니다.
 
-**조치 사항**: 좌절 신호를 추적하려면 `trackUserInteractions: true`를 설정하세요. `trackFrustrations` 파라미터를 제거할 수 있습니다.
+**취해야 할 조치**: 좌절 신호를 추적하려면 `trackUserInteractions: true`을 설정합니다. `trackFrustrations` 파라미터를 삭제할 수 있습니다.
 
-#### 동결된 페이지에 대한 리소스 기간이 생략됨
-리소스 수집은 페이지가 백그라운드로 이동하여 연장된 리소스 기간을 생략합니다. 예를 들어, 페이지가 로드되는 동안 사용자가 별도의 탭을 클릭하는 경우입니다.
+#### 정지된 페이지의 리소스 지속 시간은 생략됩니다.
+리소스 수집 기능은 페이지가 백그라운드로 이동하여 연장된 리소스 지속 시간을 생략합니다(예: 사용자가 페이지 로드 중 별도의 탭을 클릭하는 경우).
 
-**별다른 조치 필요 없음**: 이 동작은 v5에서 자동으로 적용됩니다.
+**조치 필요 없음**: 본 작업은 v5에서 자동으로 적용됩니다.
 
-#### 리소스 및 긴 작업 추적
-`replaySampleRate` 또는 `premiumSampleRate`(둘 다 사용되지 않음) 대신 `sessionReplaySampleRate`를 사용할 때는 리소스 및 긴 작업을 명시적으로 설정해야 합니다.
+#### 리소스 및 장기 작업 추적
+`replaySampleRate` 또는 `premiumSampleRate`(모두 사용 중단됨) 대신 `sessionReplaySampleRate`을 사용하는 경우, 리소스 및 장기 작업을 명시적으로 설정해야 합니다.
 
-** 조치 사항**: 이러한 이벤트를 수집하려면 `trackResources` 및 `trackLongTasks`가 `true`로 설정되어 있는지 확인합니다.
+**취해야 할 조치**: 해당 이벤트를 수집하려면 `trackResources` 및 `trackLongTasks`이 `true`로 설정되어 있는지 확인합니다.
 
-#### 리소스 메서드 이름은 대문자임
-대소문자(POST vs post)에 따라 동일한 메서드 이름에 대해 다른 값을 가지는 것을 방지하기 위해 메서드 이름은 대문자로 일관되게 전송됩니다.
+#### 리소스 메서드 이름은 대문자
+대소문자에 따라 동일한 메소드 이름에 다른 값이 표시되는 현상(예: POST vs post)을 방지하기 위해 이제부터 메소드 이름을 일관되게 대문자로 전송합니다.
 
-**조치 사항**: 모니터 또는 대시보드 쿼리를 업데이트하여 `resource.method` 필드를 대문자 값으로 사용합니다.
+**취해야 할 조치**: 모니터링 또는 대시보드 쿼리를 업데이트하여 `resource.method` 필드에 대문자 값을 사용하세요.
 
-#### `beforeSend` 액션 이벤트
-`beforeSend` API를 통해 수집된 이벤트의 상황 정보에 액세스할 수 있습니다([RUM 데이터 강화 및 제어][23] 참조).
+#### `beforeSend` 작업 이벤트
+`beforeSend` API로 수집한 이벤트의 컨텍스트 정보에 액세스할 수 있습니다([RUM 데이터 보강 및 제어][23] 참조).
 
-좌절 신호의 도입으로 액션 이벤트는 여러 DOM 이벤트와 연관될 수 있습니다.
+좌절 신호가 삽입될 경우 이벤트 작업은 여러 DOM 이벤트와 연관될 수 있습니다.
 
-이 업데이트와 함께 `context.event` 속성은 `context.events` 속성을 위해 제거되었습니다.
+해당 업데이트와 함께 `context.event` 속성은 `context.events` 속성을 위해 삭제되었습니다.
 
-** 조치 사항**: `context.event` 대신 `context.events`를 사용할 `beforeSend` 코드를 업데이트합니다.
+**취해야 할 조치**: `context.event` 대신 `context.events`을 사용하도록 `beforeSend` 코드를 업데이트합니다.
 
 ```javascript
 beforeSend: (event, context) => {
@@ -172,68 +237,68 @@ beforeSend: (event, context) => {
 }
 ```
 
-#### 포그라운드 기간에서의 `beforeSend`
-`view.in_foreground_periods` 속성은 SDK가 전송하는 것이 아니라 백엔드에서 직접 생성됩니다.
+#### `beforeSend` 포어그라운드 기간
+`view.in_foreground_periods` 속성은 SDK에서 전송하지 않고 백엔드에서 직접 컴퓨팅됩니다.
 
-** 조치 사항**: `beforeSend` 코드에서 `view.in_foreground_periods`를 제거합니다. 특정 사용 사례에 대해 이 속성에 의존하는 경우 [지원팀][24]에 문의하여 도움을 받으세요.
+**취해야 할 조치**: `beforeSend` 코드에서 `view.in_foreground_periods` 를 삭제하세요. 특정 사용 케이스에서 해당 속성을 사용하고 있다면 [지원 팀][24]에 문의하여 도움을 받으세요.
 
 #### `beforeSend` 성능 항목
-`beforeSend` 컨텍스트 `performanceEntry` 속성이 JSON 표현에서 업데이트되어 성능 항목 개체를 직접 포함합니다.
+`beforeSend` 컨텍스트 `performanceEntry` 속성은 성능 항목 오브젝트를 직접 포함하도록 JSON 표현에서 업데이트되었습니다.
 
-내보낸 `PerformanceEntryRepresentation` 유형이 표준 `PerformanceEntry` 유형을 위해 제거되었습니다.
+내보낸 `PerformanceEntryRepresentation` 유형은 표준 `PerformanceEntry` 유형을 위해 삭제되었습니다.
 
-**조치 사항**: `beforeSend` 코드에서 `PerformanceEntryRepresentation` 유형 대신 `PerformanceEntry` 유형을 직접 사용하세요.
+**취해야 할 조치**: `beforeSend` 코드에서 `PerformanceEntryRepresentation` 유형 대신 `PerformanceEntry` 유형을 직접 사용합니다.
 
 ### 로그
-#### 콘솔 오류 접두사 제거
-로그 메시지의 "`console error:`" 접두사가 제거되었습니다. 이 정보는 `origin` 속성에서 확인할 수 있습니다.
+#### 콘솔 오류 접두어 삭제
+로그 메시지의 "`console error:`" 접두어가 삭제되었습니다. 본 정보는 `origin` 속성에서 확인할 수 있습니다.
 
-**조치 사항**: `@origin:console`을 대신 사용하기 위해 `"console error:"` 접두사를 사용하여 모니터 또는 대시보드 쿼리를 업데이트합니다.
+**취해야 할 조치**: `"console error:"` 접두어를 사용하는 모니터링 또는 대시보드 쿼리를 업데이트하여 해당 접두어 대신 `@origin:console`를 사용합니다.
 
-#### `error.origin` 제거
+#### `error.origin` 삭제
 
-모든 로그에 `origin` 속성이 도입된 이후 `error.origin`가 중복되어 제거되었습니다.
+모든 로그에 `origin` 속성이 도입된 이후, `error.origin`은 중복되므로 삭제되었습니다.
 
-** 조치 사항**: `origin`을 대신 사용하기 위해 `error.origin`를 사용하여 모니터 또는 대시보드 쿼리를 업데이트하세요.
+**취해야 할 조치**: `error.origin`를 사용하는 모니터링 또는 대시보드 쿼리를 업데이트하여 대신 `origin`를 사용합니다.
 
-#### 주요 로거 분리
-SDK는 런타임 오류나 네트워크, 보고서 또는 콘솔 로그를 수집할 때 기본 로거(`DD_LOGS.logger`)에 특정한 컨텍스트를 추가하지 않으며 해당 로거에 설정된 수준이나 핸들러를 사용하지 않습니다.
+#### 메인 로거 분리
+SDK가 런타임 오류 또는 네트워크, 보고서 또는 콘솔 로그를 수집할 때, 메인 로거(`DD_LOGS.logger`)에 특정 컨텍스트를 추가하지 않으며 해당 로거에 설정된 수준 또는 핸들러를 사용하지 않습니다.
 
-**조치 사항**: 로거가 아닌 로그를 제외하기 위해 메인 로거 레벨에 의존했다면, 전용 초기화 파라미터를 대신 사용하세요.
+**취해야 할 조치**: 메인 로거 레벨에 기반하여 비로거 로그를 제외했다면 대신 전용 초기화 파라미터를 사용합니다.
 
-**조치 사항**: 메인 로거 컨텍스트에 의존하여 로거가 아닌 로그에 컨텍스트를 추가했다면 글로벌 컨텍스트를 대신 사용하세요.
+**취해야 할 조치**: 메인 로거 컨텍스트에 기반하여 비로거 로그 컨텍스트를 추가했다면 대신 전역 컨텍스트를 사용합니다.
 
 ## v3에서 v4로
 
-v4 버전을 사용하는 RUM 및 로그 브라우저 SDK에 몇 가지 변경 사항이 추가되었습니다.
+v4 버전에서는 RUM 및 로그 브라우저 SDK에 몇 가지 주요 변경 사항이 적용되었습니다.
 
 ### 변경 사항
 
-#### 인테이크 URL
+#### 수집 URL
 
-RUM 브라우저 SDK 데이터가 전송되는 URL이 변경되었습니다. [컨텍스트 보안 정책이 최신 버전][1]인지 확인하세요.
+RUM 브라우저 SDK 데이터가 전송되는 URL이 변경되었습니다. [콘텐츠 보안 정책이 최신]인지 확인하세요[1].
 
-#### 최소 Typescript 버전 지원
+#### Typescript 지원 최소 버전
 
-RUM 브라우저 SDK v4는 v3.8.2 이전 버전의 TypeScript와 호환되지 않습니다. TypeScript를 사용하는 경우 버전이 v3.8.2 이상이어야 합니다.
+RUM 브라우저 SDK v4는 v3.8.2 이전 버전 TypeScript와 호환되지 않습니다. TypeScript를 사용하는 경우 버전이 최소 v3.8.2 이상인지 확인하세요.
 
 #### 태그 구문
 
-`version`, `env` 및 `service` 초기화 파라미터는 Datadog에 태그로 전송됩니다. RUM 브라우저 SDK는 태그가 여러 개 생성되지 않도록 정리하고, 해당 값이 태그 요구 사항 구문에 맞지 않을 경우 경고를 출력합니다.
+`version`, `env`, `service` 초기화 파라미터는 Datadog에 태그로 전송됩니다. RUM 브라우저 SDK는 여러 개의 태그가 생성되지 않도록 가볍게 보안 처리(sanitize)하고, 해당 값이 태그 요구 사항 구문을 충족하지 않으면 경고를 출력합니다.
 
-#### 엄격한 초기화 파라미터 입력
+#### 더 엄격한 초기화 파라미터 유형화
 
-초기화 파라미터를 나타내는 TypeScript 유형은 더 엄격하며 이전에 허용된 지원되지 않는 파라미터를 거부할 수 있습니다. 유형 확인 오류가 발생하면 지원되는 초기화 파라미터를 제공하고 있는지 확인하세요.
+초기화 파라미터를 나타내는 TypeScript 유형이 더 엄격해졌습니다. 기존에는 승인되었으나 지원되지 않는 파라미터를 거부할 수도 있습니다. 유형 검사 오류가 발생하면 지원되는 초기화 파라미터를 제공하는지 확인하세요.
 
-#### 개인 정보 옵션 우선 순위
+#### 개인정보 보호 옵션 우선순위
 
-동일한 요소에 여러 개의 개인 정보 보호 옵션이 지정되어 있는 경우 Datadog은 민감한 데이터가 예기치 않게 유출되지 않도록 가장 제한적인 옵션을 적용합니다. 예를 들어, 동일한 요소에 `dd-privacy-allow` 및 `dd-privacy-hidden` 클래스가 모두 지정되어 있는 경우 허용하는 대신 숨깁니다.
+동일 요소에 여러 개인정보 보호 옵션이 지정된 경우, Datadog은 예기치 않은 민감한 데이터 유출을 방지하기 위해 가장 제한적인 옵션을 적용합니다. 예를 들어, 동일 요소에 `dd-privacy-allow` 및 `dd-privacy-hidden` 클래스가 모두 지정되어 있다면 허용되지 않고 대신 숨겨집니다.
 
-#### 액션 이름 생성
+#### 작업 이름 컴퓨팅
 
-액션 이름을 생성할 때 RUM 브라우저 SDK는 `data-dd-action-name` 속성이 있는 하위 요소의 텍스트를 내부 텍스트에서 제거합니다.
+작업 이름을 컴퓨팅할 때 RUM 브라우저 SDK는 `data-dd-action-name` 속성이 있는 자식 요소의 텍스트를 내부 텍스트에서 삭제합니다.
 
-예를 들어, 이전에 생성된 액션 이름이 `Container sensitive data`인 다음 `container` 요소의 경우 버전 4에서 생성된 작업 이름은 `Container`입니다:
+예를 들어, 다음 `container` 요소의 경우 이전에는 컴퓨팅 작업 이름이 `Container sensitive data`이었으나, v4에서는 컴퓨팅된 작업 이름이 `Container`입니다.
 ```html
 <div id="container">
   Container
@@ -241,35 +306,35 @@ RUM 브라우저 SDK v4는 v3.8.2 이전 버전의 TypeScript와 호환되지 
 </div>
 ```
 
-### 제거
+### 삭제
 
 #### XHR `_datadog_xhr` 필드
 
-RUM 브라우저 SDK는 이전에 내부 상태를 나타내는 `XMLHttpRequest` 개체에 대한 `_datadog_xhr` 속성을 사용했습니다. 이 속성은 외부에서 사용할 목적이 없으므로 교체 없이 제거되었습니다.
+RUM 브라우저 SDK는 기존에 내부 상태를 나타내는 `XMLHttpRequest` 오브젝트의 `_datadog_xhr` 속성을 사용했습니다. 해당 속성은 외부 사용 용도가 아니었기에 대체되지 않고 삭제되었습니다.
 
 #### `proxyHost` 초기화 파라미터
 
-`proxyHost` 초기화 파라미터가 제거되었습니다. 대신 `proxyUrl` 초기화 파라미터를 사용하세요.
+`proxyHost` 초기화 파라미터가 삭제되었습니다. 대신 `proxyUrl` 초기화 파라미터를 사용하세요.
 
-#### 개인 정보 보호 옵션 지원
+#### 개인정보 보호 옵션 지원
 
-개인 정보 보호 옵션 `input-ignored` 및 `input-masked`은 더 이상 유효하지 않습니다. 대신 `mask-user-input` 개인 정보 보호 옵션을 사용하세요.
+`input-ignored` 및 `input-masked` 개인정보 보호 옵션은 더 이상 유효하지 않습니다. 대신 `mask-user-input` 개인정보 옵션을 사용하세요.
 
-구체적으로 다음을 변경합니다:
+구체적으로는 다음으로 교체되었습니다.
 
-* `dd-privacy-input-ignored` 및 `dd-privacy-input-masked` 클래스 이름을 `dd-privacy-mask-user-input`로 변경
+* `dd-privacy-mask-user-input`가 있는 `dd-privacy-input-ignored` 및 `dd-privacy-input-masked` 클래스 이름
 * `dd-privacy="input-masked"` 및 `dd-privacy="input-ignored"` 속성 값을 `dd-privacy="mask-user-input"`으로 변경
 
 ## v2에서 v3로
 
-브라우저 SDK v3에서는 [세션 재생][2]을 소개합니다. 이번 주요 버전 업데이트를 통해 RUM 및 로그 브라우저 SDK에 몇 가지 변경 사항이 추가되었습니다.
+브라우저 SDK v3에는 [세션 리플레이][2]가 도입되었습니다. 이번 주요 버전 업데이트로 RUM 및 로그 브라우저 SDK에 몇 가지 주요 변경 사항이 적용되었습니다.
 
 ### 변경 사항
 #### RUM 오류
 
-RUM 브라우저 SDK는 실패한 XHR 및 Fetch 호출에 대해 더 이상 [RUM 오류][3]를 발생시키지 않습니다. 실패한 네트워크 요청은 상태 코드 특성을 포함하는 [RUM 리소스][4]로 계속 수집됩니다.
+RUM 브라우저 SDK는 더 이상 실패한 XHR 및 Fetch 호출에 대해 [RUM 오류][3]를 생성하지 않습니다. 이러한 실패한 네트워크 요청은 상태 코드 속성이 포함된 [RUM 리소스][4]로 수집됩니다.
 
-실패한 네트워크 요청을 RUM 오류로 계속 확인하려면 Datadog에서는 [beforeSend API][5]를 사용하여 리소스를 가로채서 `status_code` 속성을 확인한 후 [addError API][6]를 사용하여 수동으로 오류를 보낼 것을 권장합니다.
+실패한 네트워크 요청을 계속 RUM 오류로 확인하려면 Datadog [beforeSend API][5]로 리소스를 인터셉트하여 `status_code` 속성을 확인한 후 [addError API][6]로 해당 오류를 수동 전송할 것을 권장합니다.
 
 ```javascript
 beforeSend: (event) => {
@@ -281,26 +346,26 @@ beforeSend: (event) => {
 
 #### RUM 오류 소스 속성
 
-RUM 브라우저 SDK에서는 더 이상 [addError API][6]를 통해 수집된 오류의 소스를 지정할 수 없습니다. 이 API로 수집된 모든 오류의 소스 속성은 `custom`으로 설정됩니다. [addError API][6]는 오류에 대한 추가 컨텍스트를 전달하는 데 사용되는 두 번째 파라미터로 컨텍스트 개체를 허용합니다.
+RUM 브라우저 SDK에서 [addError API][6]로 수집한 오류의 소스를 더 이상 지정할 수 없습니다. 해당 API로 수집한 모든 오류는 소스 속성이 `custom`로 설정됩니다. [addError API][6]는 두 번째 파라미터로 컨텍스트 오브젝트를 허용하며, 이는 오류에 대한 추가 컨텍스트를 전달하는 데 사용합니다.
 
-### 제거
+### 삭제
 #### RUM API
 
-| 이전 API       | 새로운 API   |
+| 기존 API       | 신규 API   |
 | ------------- | --------- |
 | addUserAction | addAction |
 
 #### 초기화 옵션
 
-| 이전 옵션        | 새로운 옵션 |
+| 기존 옵션        | 신규 옵션 |
 | ------------------ | ----------- |
 | publicApiKey       | clientToken |
-| datacenter         | site        |
+| 데이터센터         | site        |
 | resourceSampleRate | NONE        |
 
 #### TypeScript 유형
 
-| 이전 유형                    | 새로운 유형                    |
+| 기존 유형                    | 신규 유형                    |
 | ---------------------------- | ---------------------------- |
 | RumUserConfiguration         | RumInitConfiguration         |
 | RumRecorderUserConfiguration | RumRecorderInitConfiguration |
@@ -329,10 +394,19 @@ RUM 브라우저 SDK에서는 더 이상 [addError API][6]를 통해 수집된 
 [17]: /ko/api/latest/rum/
 [18]: /ko/integrations/content_security_policy_logs/?tab=firefox#use-csp-with-real-user-monitoring-and-session-replay
 [19]: https://developer.mozilla.org/en-US/docs/Web/API/Event/isTrusted
-[20]: /ko/real_user_monitoring/session_replay/privacy_options/#configuration
+[20]: /ko/real_user_monitoring/session_replay/browser/privacy_options/#configuration
 [21]: /ko/real_user_monitoring/guide/sampling-browser-plans/#setup
-[22]: /ko/real_user_monitoring/session_replay/#usage
+[22]: /ko/real_user_monitoring/session_replay/browser/#usage
 [23]: /ko/real_user_monitoring/browser/advanced_configuration/?tab=npm#enrich-and-control-rum-data
 [24]: /ko/help/
 [26]: /ko/real_user_monitoring/browser/
-[25]: /ko/real_user_monitoring/connect_rum_and_traces#opentelemetry-support
\ No newline at end of file
+[25]: /ko/real_user_monitoring/correlate_with_other_telemetry/apm#opentelemetry-support
+[27]: /ko/real_user_monitoring/guide/proxy-rum-data
+[28]: /ko/real_user_monitoring/browser/setup/#initialization-parameters
+[29]: /ko/real_user_monitoring/correlate_with_other_telemetry/apm?tab=browserrum#:~:text=configure%20the%20traceContextInjection
+[30]: https://developer.mozilla.org/en-US/docs/Web/JavaScript/Reference/Operators/import
+[31]: https://webpack.js.org/guides/code-splitting/#dynamic-imports
+[32]: https://esbuild.github.io/api/#splitting
+[33]: https://rollupjs.org/tutorial/#code-splitting
+[34]: https://parceljs.org/features/code-splitting
+[35]: https://developer.chrome.com/docs/web-platform/long-animation-frames#long-frames-api
\ No newline at end of file
diff --git a/content/ko/real_user_monitoring/platform/_index.md b/content/ko/real_user_monitoring/platform/_index.md
index 56a80d0dbcfd2..29bb7d1a628c5 100644
--- a/content/ko/real_user_monitoring/platform/_index.md
+++ b/content/ko/real_user_monitoring/platform/_index.md
@@ -26,10 +26,6 @@ RUM 애플리케이션에 대한 데이터 수집을 시작하면 Datadog 플랫
 
 {{< img src="real_user_monitoring/generate_metrics/generate_metric_example.png" alt="RUM 기반 커스텀 메트릭 생성" width="80%" >}}
 
-## RUM과 트레이스 연결 
-[RUM 및 트레이스를 연결][4]하여 프런트엔드 요청을 해당 백엔드 트레이스에 연결하고 스택의 모든 위치에서 문제를 찾아냅니다.
-
-{{< img src="real_user_monitoring/connect_rum_and_traces/rum_trace_tab.png" alt="RUM 및 트레이스" style="width:100%;">}}
 
 ## 참고 자료
 
@@ -37,5 +33,4 @@ RUM 애플리케이션에 대한 데이터 수집을 시작하면 Datadog 플랫
 
 [1]: /ko/real_user_monitoring/platform/dashboards
 [2]: /ko/monitors/types/real_user_monitoring/
-[3]: /ko/real_user_monitoring/platform/generate_metrics
-[4]: /ko/real_user_monitoring/platform/connect_rum_and_traces
\ No newline at end of file
+[3]: /ko/real_user_monitoring/platform/generate_metrics
\ No newline at end of file
diff --git a/content/ko/real_user_monitoring/session_replay/heatmaps.md b/content/ko/real_user_monitoring/session_replay/heatmaps.md
new file mode 100644
index 0000000000000..5984f43cc9633
--- /dev/null
+++ b/content/ko/real_user_monitoring/session_replay/heatmaps.md
@@ -0,0 +1,138 @@
+---
+aliases:
+- /ko/real_user_monitoring/heatmaps
+description: 히트맵은 사용자가 웹사이트에서 클릭한 부분을 가시화합니다.
+further_reading:
+- link: /real_user_monitoring/session_replay/browser/
+  tag: 설명서
+  text: 브라우저 세션 재생
+- link: /real_user_monitoring/session_replay/mobile/
+  tag: 설명서
+  text: 모바일 세션 재생
+- link: https://www.datadoghq.com/blog/visualize-behavior-datadog-scrollmaps/
+  tag: 블로그
+  text: Datadog 히트맵에서 Scrollmaps를 사용해 페이지의 사용자 인터페이스 가시화
+title: 히트맵
+---
+
+{{< img src="real_user_monitoring/heatmaps/heatmap_v2.png" alt="히트맵 기능 개요" style="width:100%;">}}
+
+히트맵은 사용자의 상호 작용을 세션 재생 데이터와 오버레이한 결과를 가시화한 것입니다. RUM(Real User Monitoring)에는 세 가지 종류의 히트맵이 있습니다.
+
+- **Click maps:** 사용자가 페이지와 어떻게 상호 작용(클릭)하는지를 확인할 수 있습니다.
+- **Top Elements:** 페이지에서 가장 상호 작용이 많았던 상위 10개 요소를 봅니다.
+- **Scroll maps:** 페이지의 평균 폴드를 포함해 사용자가 페이지 스크롤을 어디까지 하는지 확인합니다. 평균 폴드란 사용자가 스크롤하지 않아도 보이는 화면의 하단 끝을 의미합니다.
+
+히트맵을 사용하면 복잡한 데이터를 한 번에 정리하여 사용자 경험을 최적화할 인사이트를 얻을 수 있습니다.
+
+## 사전 필수 조건
+
+히트맵 시작하는 방법:
+
+1. SDK 버전 인증:
+  - 클릭 맵을 사용하려면 SDK 최신 버전(v4.40.0 이상)이 있어야 합니다.
+  - 스크롤 맵은 v4.50.0 이상이어야 합니다.
+2. [세션 재생][1]을 활성화합니다.
+3. SDK 초기화 단계에 `trackUserInteractions: true`를 설정해 추적 활동을 활성화합니다(클릭맵에 필요).
+
+## 시작하기
+
+[**Digital Experience > Real User Monitoring > Session Replay > Heatmaps**][2]로 이동합니다. 내 애플리케이션을 선택하고 확인합니다.
+
+[Real User Monitoring 랜딩 페이지][3]의 [애플리케이션 선택기][4]에서 내 애플리케이션을 선택하고 볼 수 있습니다. 맵 유형 아래에서 보고 싶은 맵 유형을 선택하세요. Top Elements, Click Maps, 또는 Scroll Map 중에서 선택할 수 있습니다. 옵션을 하나 클릭하면 특정 보기의 [히트맵 페이지][2]로 이동합니다.
+
+{{< img src="real_user_monitoring/heatmaps/rum-heatmaps-getting-started.png" alt="애플리케이션을 선택해 히트맵 보기" style="width:100%;" >}}
+
+ 상단에 있는 **View Name** 및 **Application** 선택기를 사용해 보기를 변환할 수 있습니다. 상세한 필터를 추가(예: 특정 지리)하려면 왼쪽에 있는 패널에서 필터를 추가하세요.
+
+{{< img src="real_user_monitoring/heatmaps/heatmaps-filters-v2.png" alt="애플리케이션 선택기와 세션 재생을 활성화한 옵션을 선택하여 히트맵 보기" style="width:100%;">}}
+
+## 클릭 맵
+
+클릭 맵을 선택하면 세션에서 사용자 클릭 활동을 집계하여 현재 화면에서 가장 상호 작용이 많았던 활동을 맵에 블롭으로 가시화합니다.
+
+{{< img src="real_user_monitoring/heatmaps/heatmap_v3.png" alt="웹사이트에 오버레이된 클릭맵 데이터" style="width:100%;">}}
+
+각 클릭 맵에서 다음과 같은 분석 결과도 볼 수 있습니다.
+
+- 다른 방문 페이지 중에서 해당 페이지가 차지하는 순위
+- 해당 페이지의 고유한 사용자 수
+- 해당 페이지의 차질 신호
+
+아래 패널은 해당 페이지에서 발생한 모든 활동을 빈도 순으로 정열한 것입니다. 활동 하나를 클릭하면 해당 상호 작용에 관해 더 자세히 이해할 수 있습니다. 다음 예시를 참고하세요.
+
+- 사용자가 활동을 한 횟수와 해당 페이지의 상위 활동 전체 분석에서 차지하는 순위
+- 해당 활동에서 차질 신호가 있었는지 여부(예: 사용자가 답답해서 해당 버튼을 반복적으로 클릭했는지 여부) 및 관련 차질 신호 확인 가능
+
+{{< img src="real_user_monitoring/heatmaps/actions.jpeg" alt="예시 활동과 해당 활동으로 얻을 수 있는 정보" style="width:60%;">}}
+
+## 상위 요소
+
+상위 요소는 해당 보기에서 클릭 활동을 집계해 가장 상호 작용이 많았던 요소와 그 순위를 보여줍니다. 맵 순위 옆에 해당 활동 이름이 표시됩니다.
+
+{{< img src="real_user_monitoring/heatmaps/top-elements-v3.png" alt="페이지에서 클릭이 가장 많았던 요소 순위" style="width:100%;">}}
+
+패널에 있는 활동 이름 하나를 클릭하면 해당 활동이 맵에 강조 표시 됩니다.
+
+## 스크롤 맵
+
+스크롤 맵은 페이지의 스크롤 활동을 집계하여 표시합니다. 스크롤 맵을 사용해 페이지의 평균 폴드가 페이지 어느 부분인지 알 수 있고, 사용자가 어디까지 스크롤하는지 알 수 있습니다. 스크롤 맵에 있는 파란색 창을 드래그하여 보고 싶은 페이지 깊이를 조정할 수 있습니다.
+
+{{< img src="real_user_monitoring/heatmaps/scrollmaps-v3.png" alt="샘플 이커머스 애플리케이션의 침구류 페이지의 스크롤 맵" style="width:100%;">}}
+
+스크롤 맵 왼쪽 패널에는 상세한 인사이트와 쿼리 결과의 바로가기 링크(예: 사용자가 특정 백분율 이상으로 스크롤한 보기 목록 링크)가 있습니다. 인사이트 패널 아래에는 페이지 미니맵과 함께 상세한 스크롤 데이터를 표시하는 분산 그래프가 있습니다. 이 데이터를 이용해 사용자가 페이지를 벗어나게 만드는 지점을 파악할 수 있습니다.
+
+{{< img src="real_user_monitoring/heatmaps/scrollmaps-insights-panel.png" alt="스크롤 데이터 인사이트의 쿼리 스크린샷" style="width:50%;">}}
+
+## 배경
+
+배경은 세션 재생의 스냅샷입니다. 각 히트맵은 해당 세션에서 가장 많이 트리거된 20개의 배경을 가져옵니다. 배경을 변경할 시, 변경한 배경에 따라 다른 결과를 보여줍니다. **Choose Background** 버튼을 사용해 내 히트맵의 특정 배경을 선택할 수 있습니다.
+
+히트맵의 배경 목록을 수정할 수 없습니다.
+
+## 다음 단계
+
+히트맵을 분석한 후에는 관련 데이터를 탐색해 사용자 활동을 이해하는 것입니다. [Analytics 탐색기][4]를 피벗하거나 관련 [세션 재생][1]을 시청하여 사용자의 전체 세션에서 사용자 활동을 직접 눈으로 확인할 수 있습니다.
+
+## 트러블슈팅
+
+### 특정 보기의 히트맵을 확인했는데, 다른 페이지를 보여줍니다.
+
+히트맵은 RUM 보기 이름 기반입니다. RUM 애플리케이션이 구성된 방법에 따라 여러 페이지를 동일한 보기 이름으로 그룹화하거나 특정 보기 이름으로 시작할 수 있습니다.
+
+### 선택한 보기가 초기 콘텐츠가 아닙니다.
+
+히트맵은 세션 재생 데이터로 생성됩니다. Datadog의 지능형 알고리듬이 초기 페이지 상태와 가장 일치하는 최근 세션을 선택합니다. 그러나 올바른 재생 세션을 찾지 못하는 경우도 발생할 수 있습니다. 히트맵의 [배경](#backgrounds)을 전환하려면 **Choose Background** 버튼을 사용해 페이지의 여러 상태를 탐색하고 내가 원하는 것을 선택하세요.
+
+{{< img src="real_user_monitoring/heatmaps/heatmaps-background-selector.mp4" alt="Choose Background 버튼으로 다른 배경 선택" video=true >}}
+
+### 히트맵 측면의 활동 목록에 히트맵에 표시되지 않는 요소의 아이콘이 있습니다.
+
+{{< img src="real_user_monitoring/heatmaps/heatmaps-hidden-elements.png" alt="히트맵 활동 목록의 숨겨진 요소" style="width:60%;">}}
+
+아이콘의 툴팁에 **element is not visible**이라고 표시됩니다. 이는 요소가 해당 페이지의 일반 활동이지만 히트맵의 배경에 표시되지 않는다는 뜻입니다. 해당 요소를 보려면 오른쪽 하단 모서리에 있는 **Choose Background**를 클릭하여 히트맵의 배경을 해당 요소가 있는 배경으로 전환합니다.
+
+### 히트맵을 생성하려는데 "No Replay Data" 상태가 나타납니다.
+
+이는 Datadog에서 현재 검색 필터와 일치하면서 히트맵 배경으로 사용할 세션 재생을 찾을 수 없다는 뜻입니다. [브라우저 SDK][6]로 세션을 기록하기 시작했다면 세션 재생을 보는 데 몇 분 정도 걸릴 수 있습니다.
+
+### 히트맵을 생성하려는데 "Not enough data to generate a heatmap" 상태가 나타납니다.
+
+이는 Datadog에서 현재 선택된 재생과 일치하는 사용자 활동을 찾을 수 없다는 뜻입니다. 이와 같은 현상은 다음과 같은 이유로 발생할 수 있습니다.
+
+- 애플리케이션이 최신 SDK 버전(4.20.0 이상)이 아닌 경우
+- 최근에 페이지가 상당 부분 변경되었을 경우
+
+### 페이지의 사용자 정보가 비워져 있을 경우
+
+사용자 정보 수집은 기본값이 아닙니다. 히트맵은 세션 데이터에서 이용할 수 있는 사용자 정보를 사용해 동작과 관련된 인사이트를 표시합니다.
+
+## 참고 자료
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: /ko/real_user_monitoring/session_replay/
+[2]: https://app.datadoghq.com/rum/heatmap/
+[3]: https://app.datadoghq.com/rum/performance-monitoring
+[4]: /ko/real_user_monitoring/explorer/#view-by-application
+[5]: https://app.datadoghq.com/rum/sessions
+[6]: https://github.com/DataDog/browser-sdk/blob/main/packages/rum/package.json
\ No newline at end of file
diff --git a/content/ko/serverless/guide/_index.md b/content/ko/serverless/guide/_index.md
index 3d93635fc397c..a34b80461d792 100644
--- a/content/ko/serverless/guide/_index.md
+++ b/content/ko/serverless/guide/_index.md
@@ -19,8 +19,9 @@ title: 서버리스 모니터링 지침
     {{< nextlink href="/serverless/guide/opentelemetry" >}}서버리스 및 OpenTelemetry{{< /nextlink >}}
 {{< /whatsnext >}}
 
-{{< whatsnext desc="Azure App Service and Container Apps" >}}
-    {{< nextlink href="/serverless/guide/azure_app_service_linux_containers_serverless_init" >}}서버리스 init Linux 컨테이너로 Azure 앱 서비스 계측{{< /nextlink >}}
+{{< whatsnext desc="Azure App Service 및 Container Apps" >}}
+    {{< nextlink href="/serverless/guide/azure_app_service_linux_containers_serverless_init" >}}serverless-init로 Azure App Service 계측 - Linux 컨테이너{{< /nextlink >}}
+    {{< nextlink href="/serverless/guide/aca_serverless_init" >}}serverless-init로 Azure Container Apps 계측{{< /nextlink >}}
 {{< /whatsnext >}}
 
 ## Datadog Forwarder를 사용해 설치
diff --git a/content/ko/service_management/on-call/_index.md b/content/ko/service_management/on-call/_index.md
new file mode 100644
index 0000000000000..d8ef456648c13
--- /dev/null
+++ b/content/ko/service_management/on-call/_index.md
@@ -0,0 +1,59 @@
+---
+cascade:
+  algolia:
+    rank: 70
+further_reading:
+- link: https://www.datadoghq.com/blog/datadog-on-call/
+  tag: 블로그
+  text: Datadog On-Call로 온콜 경험을 강화하세요
+title: 온콜
+---
+
+{{< site-region region="gov" >}}
+<div class="alert alert-warning">On-Call은 선택한 <a href="/getting_started/site">Datadog 사이트</a> ({{< region-param key="dd_site_name" >}})에서 지원되지 않습니다.</div>
+{{< /site-region >}}
+
+Datadog On-Call은 모니터링, 페이징, 인시던트 대응을 하나의 플랫폼에 통합합니다.
+
+{{< img src="service_management/oncall/oncall_overview.png" alt="페이지가 라우팅되는 방식에 대한 개요. 모니터, 인시던트, 보안 신호 또는 API 호출에서 페이지는 팀(예: 'payments-team')으로 전송된 다음 처리 규칙(예: 우선순위 기반)으로 전송되고 에스컬레이션 정책으로 전송됩니다. 그곳에서 스케줄로 전송되거나 사용자에게 직접 전송될 수 있습니다." style="width:100%;" >}}
+
+## 개념
+
+- **페이지**는 모니터, 인시던트 또는 보안 신호와 같이 알림을 받을 사항을 나타냅니다. 하나의 페이지는 `Triggered`, `Acknowledged`, `Resolved` 중 하나의 상태를 갖습니다.
+- **팀**은 전문성과 운영 역할에 따라 특정 유형의 페이지를 처리하도록 Datadog 내에서 구성된 그룹입니다.
+- **처리 규칙**을 사용하면 팀은 특정 유형의 수신 이벤트에 대한 응답을 세밀하게 조정할 수 있습니다. 이러한 규칙은 페이지의 긴급성 수준을 설정하고 이벤트의 메타데이터에 따라 페이지를 다른 에스컬레이션 정책으로 라우팅할 수 있습니다.
+- **에스컬레이션 정책**은 팀 내부 또는 팀 간에 페이지가 어떻게 에스컬레이션되는지 결정합니다.
+- **스케줄**은 특정 팀원이 페이지에 응답하기 위해 대기하는 시간표를 설정합니다.
+
+## 작동 방식
+
+**팀**은 Datadog On-Call의 중앙 조직 단위입니다. Datadog에서 알림이 트리거되면 지정된 On-Call 팀에 **페이지**가 전송됩니다.
+
+{{< img src="service_management/oncall/notification_page.png" alt="On-Call 팀을 언급하는 알림." style="width:80%;" >}}
+
+각 팀은 **에스컬레이션 정책**과 **스케줄**을 가지고 있습니다. 에스컬레이션 정책은 다음 스크린샷에서  _Checkout Operations - Interrupt Handler_, _Primary_,  _Secondary_와 같이 페이지가 다양한 스케줄로 전송되는 방식을 정의합니다. 각 팀은 또한 페이지를 다른 에스컬레이션 정책으로 라우팅하기 위한 **처리 규칙**을 구성할 수 있습니다.
+
+{{< img src="service_management/oncall/escalation_policy.png" alt="에스컬레이션 정책 샘플" style="width:80%;" >}}
+
+스케줄은 팀원들이 페이지에 응답하도록 배정되는 특정 시간을 정의하며, 다양한 시간대와 교대 근무에 따른 팀원의 근무 가능 시간을 구성하고 관리합니다.
+
+{{< img src="service_management/oncall/schedule.png" alt="일본, 유럽, 미국 근무 시간에 따른 배정을 보여주는 샘플 스케줄." style="width:80%;" >}}
+
+## Datadog On-Call 시작하기
+
+On-Call을 시작하려면 [On-Call 팀을 구성][1]하고 모든 팀 구성원이 [On-Call 프로필 설정][2]을 구성하여 알림을 받을 수 있는 상태인지 확인합니다.
+
+{{< whatsnext desc="이 섹션은 다음 주제를 포함하고 있습니다.">}}
+  {{< nextlink href="/service_management/on-call/teams">}}<u>팀 온보딩하기</u>: 새로운 On-Call 팀을 생성하거나 기존 Datadog 팀을 On-Call에 추가하거나 PagerDuty 또는 Opsgenie에서 팀을 가져옵니다.{{< /nextlink >}}
+  {{< nextlink href="/service_management/on-call/pages">}}<u>페이지 보내기</u>: 모니터, 인시던트, 보안 신호 등을 통해 팀에 페이지를 보내거나 Datadog, Slack, Microsoft Teams 또는 Datadog API를 통해 수동으로 페이지를 보냅니다. {{< /nextlink >}}
+  {{< nextlink href="/service_management/on-call/escalation_policies">}}<u>에스컬레이션 정책</u>: 페이지가 다양한 스케줄로 전송되는 방법에 대한 단계를 정의합니다. {{< /nextlink >}}
+  {{< nextlink href="/service_management/on-call/schedules">}}<u>스케줄</u>: 팀원의 온콜 로테이션에 대한 일정을 정의합니다.{{< /nextlink >}}
+  {{< nextlink href="/service_management/on-call/profile_settings">}}<u>프로필 설정</u>: 필요한 때에 효과적인 페이지를 받을 수 있도록 연락 방법과 알림 기본 설정을 구성합니다.{{< /nextlink >}}
+{{< /whatsnext >}}
+
+## 참고 자료
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: /ko/service_management/on-call/teams
+[2]: /ko/service_management/on-call/profile_settings
\ No newline at end of file
diff --git a/content/ko/service_management/on-call/escalation_policies.md b/content/ko/service_management/on-call/escalation_policies.md
new file mode 100644
index 0000000000000..d232b497d77db
--- /dev/null
+++ b/content/ko/service_management/on-call/escalation_policies.md
@@ -0,0 +1,73 @@
+---
+further_reading:
+- link: /service_management/on-call/
+  tag: 문서
+  text: Datadog On-Call
+title: 에스컬레이션 정책
+---
+
+{{< site-region region="gov" >}}
+<div class="alert alert-warning">On-Call은 선택한 <a href="/getting_started/site">Datadog 사이트</a> ({{< region-param key="dd_site_name" >}})에서 지원되지 않습니다.</div>
+{{< /site-region >}}
+
+Datadog On-Call에서 에스컬레이션 정책은 페이지가 즉시 처리되도록 보장합니다. 페이지는 설정된 시간 내에 확인되지 않으면 미리 정의된 단계를 통해 에스컬레이션됩니다.
+
+Datadog은 [팀을 On-Call에 온보딩][1]할 때 기본 에스컬레이션 정책을 생성합니다.
+
+## 새 에스컬레이션 정책 만들기
+{{< img src="service_management/oncall/escalation_policy_2.png" alt="에스컬레이션 정책 샘플." style="width:100%;" >}}
+
+1. [**On-Call** > **Escalation Policies**][2]로 이동합니다.
+1. [**+ New Escalation Policy**][3]를 선택합니다.
+1. 에스컬레이션 정책에 대한 **Name**을 입력합니다. (예: _Payment's Escalation Policy_)
+1. 이 에스컬레이션 정책을 소유한 **Teams**를 선택합니다.
+1. 이제 정책을 생성합니다. 이 에스컬레이션 정책이 호출될 때 누가 또는 무엇이 페이지를 수신해야 하는지 결정합니다. 이후의 각 에스컬레이션 단계에 대해 누구에게 알릴지 선택합니다. 각 단계는 개별 사용자, 전체 팀 및/또는 스케줄에 따라 당직 중인 사람에게 알릴 수 있습니다.
+   예를 들어, 이 페이지가 트리거되면 일정에 따라 현재 당직 중인 사람, 즉 John Doe에게 전송됩니다.
+   {{< img src="service_management/oncall/escalation_policy_2_steps.png" alt="'Page is triggered' 이후 두 단계를 보여주는 에스컬레이션 정책. 각 단계에는 'Notify' 입력 상자와 'If the page is not acknowledged after N minutes, escalate.'가 있습니다. 첫 번째 단계는 Primary라는 스케줄에 알리도록 구성되고, 5분 후에도 페이지가 확인되지 않으면 에스컬레이션합니다. 두 번째 단계는 Jane Doe라는 담당자에게 알리도록 구성됩니다." style="width:100%;" >}}
+1. 수신자 중 한 명이 페이지를 확인할 때까지 기다리는 시간을 분 단위로 구성합니다. 시간 내에 아무도 페이지를 확인하지 않으면 페이지가 에스컬레이션됩니다. 이 예에서 기본 온콜 담당자인 John Doe가 5분 이내에 페이지를 확인하지 않으면 페이지가 Jane Doe에게 전송됩니다.
+1. 아무도 페이지를 확인하지 않을 경우 이러한 단계를 몇 번 반복해야 하는지 구성합니다.
+1. Datadog이 모든 규칙과 반복을 실행한 후 페이지 상태를 자동으로 **Resolved**로 업데이트할지 여부를 선택합니다.
+
+## 에스컬레이션 정책 타겟
+에스컬레이션 정책의 각 단계에서 개별 사용자, 전체 팀 또는 일정에 따라 온콜 담당자에게 알림을 보낼 수 있습니다.
+
+### 일정
+{{< img src="service_management/oncall/escalation_policy_notify_schedule.png" alt="스케줄을 알리는 샘플 에스컬레이션 정책 단계." style="width:100%;" >}}
+
+에스컬레이션 정책은 미리 정의된 스케줄에 따라 온콜 담당자에게 알릴 수 있습니다. 시스템은 스케줄을 확인하고 인시던트에 대해 신속하게 대응할 수 있는 사람이나 그룹에 알립니다. 스케줄을 사용하면 다음과 같은 경우에 유용합니다.
+
+- 24시간 연중무휴로 대응할 수 있도록 다양한 시간대에 걸쳐 온콜 담당자게 알림을 라우팅할 수 있습니다.
+- 각 교대 근무자가 서로 다른 수준의 긴급성 업무를 처리하는 계층형 지원이 가능합니다.
+- 교대로 당직 근무를 하는 팀을 위한 동적 알림을 통해 적절한 담당자에게 페이지가 전달되도록 보장합니다.
+
+지정된 스케줄에 온콜 담당자가 없을 경우, 해당 에스컬레이션 단계는 자연스럽게 건너뛰며 프로세스는 지연이나 중단 없이 계속 진행됩니다. UI에서 에스컬레이션이 생략되었음을 나타냅니다.
+
+{{< img src="service_management/oncall/escalation_policy_schedule_skipped.png" alt="온콜 담당자가 없어 에스컬레이션이 생략된 것을 나타내는 샘플 에스컬레이션 정책." style="width:100%;" >}}
+
+### 사용자
+{{< img src="service_management/oncall/escalation_policy_notify_user.png" alt="에스컬레이션 정책에서 사용자를 지정하는 샘플 에스컬레이션 정책." style="width:100%;" >}}
+
+특정 사용자를 에스컬레이션 정책에 포함시켜 페이지가 발생할 경우 항상 알림을 받도록 할 수 있습니다. 사용자를 직접 페이징하는 일반적인 사용 사례는 다음과 같습니다.
+
+- 전문 지식이 필요한 심각도가 높은 인시던트의 경우 수석 엔지니어에게 알립니다.
+- 고객과 관련된 사고가 발생한 경우 제품 관리자나 책임자에게 알립니다.
+- 주 담당자가 부재중인 경우 알림을 백업 담당자에게 전달합니다.
+
+### Teams
+{{< img src="service_management/oncall/escalation_policy_notify_team.png" alt="전체 팀에 알리는 샘플 에스컬레이션 정책." style="width:100%;" >}}
+
+전체 팀을 페이징하는 일반적인 사용 사례는 다음과 같습니다.
+
+- 여러 시스템에 영향을 미치고 다양한 팀 구성원이 해결해야 하는 인시던트가 발생했을 때.
+- 인프라스트럭처 관련 인시던트에 대해 DevOps 팀에 보고할 때.
+- 엔지니어링 또는 보안 팀 소속 모든 팀원들에게 심각도가 높은 중단에 대해 알려야 할 때.
+
+## 한계
+
+- 최대 에스컬레이션 단계: 10
+- 에스컬레이션 단계당 알림 대상(개인, 팀 또는 스케줄)의 최대 수: 10
+- 다음 단계로 에스컬레이션하기까지의 최소 시간: 1분
+
+[1]: /ko/service_management/on-call/teams
+[2]: https://app.datadoghq.com/on-call/escalation-policies
+[3]: https://app.datadoghq.com/on-call/escalation-policies/create
\ No newline at end of file
diff --git a/content/ko/service_management/on-call/guides/_index.md b/content/ko/service_management/on-call/guides/_index.md
new file mode 100644
index 0000000000000..5846ec27118f3
--- /dev/null
+++ b/content/ko/service_management/on-call/guides/_index.md
@@ -0,0 +1,9 @@
+---
+disable_toc: true
+private: false
+title: On-Call 가이드
+---
+
+{{< whatsnext desc="일반 가이드:">}}
+    {{< nextlink href="/service_management/on-call/guides/configure-mobile-device-for-on-call" >}}Datadog On-Call 사용을 위한 모바일 기기 설정{{< /nextlink >}}
+{{< /whatsnext >}}
\ No newline at end of file
diff --git a/content/ko/service_management/on-call/guides/configure-mobile-device-for-on-call.md b/content/ko/service_management/on-call/guides/configure-mobile-device-for-on-call.md
new file mode 100644
index 0000000000000..671e4f9939d91
--- /dev/null
+++ b/content/ko/service_management/on-call/guides/configure-mobile-device-for-on-call.md
@@ -0,0 +1,125 @@
+---
+further_reading:
+- link: https://docs.datadoghq.com/service_management/on-call/
+  tag: 설명서
+  text: On-Call 설명서
+title: Datadog On-Call을 위한 모바일 기기 설정
+---
+
+온콜 중에는 인시던트에 효과적으로 대응할 수 있도록 신뢰할 수 있고 시기적절한 알림이 필요합니다. 이 가이드를 통해 Datadog On-Call의 성능을 최적화하기 위한 모바일 기기 구성 방법을 알아보세요.
+
+1. [Datadog 모바일 앱][1]을 설치합니다.
+2. [푸시 알림 설정](#set-up-push-notifications): 기기가 Datadog 모바일 앱에서 알림을 받을 수 있도록 설정합니다.
+3. [무음 및 방해 금지 모드 무시](#circumvent-mute-and-do-not-disturb-mode): 기기가 방해 금지 모드에 있는 동안 푸시 알림, 음성통화 및 SMS를 받습니다.
+
+## 푸시 알림 설정
+<div class="alert alert-info">
+Datadog 모바일 앱에 처음 로그인하면 온보딩 플로우를 통해 알림 및 권한을 설정합니다.
+</div>
+
+기본적으로 모바일 앱은 알림을 보낼 수 없습니다. On-Call 이벤트에 대한 푸시 알림을 받으려면 다음과 같이 설정하세요.
+
+{{< tabs >}}
+{{% tab "iOS" %}}
+
+1. Datadog 모바일 앱에서 **Account** > **Settings** > **Notifications**로 이동합니다.
+
+   {{< img src="service_management/oncall/app_settings_iOS.png" alt="Datadog 모바일 앱의 iOS 버전에서 알림 설정을 찾습니다." style="width:35%;" >}}
+
+2. **Enable Notifications** 토글을 활성화합니다. 처음으로 알림을 활성화하는 경우 권한 프롬프트가 열립니다. 권한을 부여한 다음 **Enable Notifications**을 다시 터치하여 iOS 시스템 설정으로 이동합니다.
+
+   {{< img src="service_management/oncall/system_notifications_settings_iOS.png" alt="iOS 기기의 시스템 알림 설정을 구성합니다." style="width:100%;" >}}
+
+3. iOS 시스템 설정에서 **Allow Notifications** 토글을 활성화해야 합니다. **Sound** 및 **Badges** 토글도 활성화하면 더욱 유용합니다.
+
+모바일 앱에 반드시 필요한 권한을 부여해 주세요.
+{{% /tab %}}
+
+{{% tab "Android" %}}
+1. Datadog 모바일 앱에서 **Account** > **Settings** > **Notifications**로 이동합니다.
+
+   {{< img src="service_management/oncall/app_settings_android.png" alt="Datadog 모바일 앱의 Android 버전에서 알림 설정을 찾습니다." style="width:35%;" >}}
+
+2. **Notifications**를 탭하여 시스템 설정으로 이동하여 원하는 앱 알림을 구성합니다.
+
+   {{< img src="service_management/oncall/system_notifications_settings_android.png" alt="Android 기기의 시스템 알림 설정을 구성합니다." style="width:100%;" >}}
+
+3. Android 시스템 설정에서 **Allow notifications** 토글을 활성화합니다. **Allow sound and vibration**도 활성화하면 더욱 유용합니다.
+
+{{% /tab %}}
+{{< /tabs >}}
+
+### 커스텀 사운드
+iOS와 Android 모두에서 기본 시스템 알림 사운드를 재정의할 수 있는 옵션이 있습니다. 긴급도가 높은 알림의 경우 시스템 사운드와 볼륨 설정을 조정하는 것이 좋습니다. 이렇게 하면 알림을 인식하기 쉬울 뿐 아니라 주의를 끌기에도 효과적입니다. Datadog 앱에는 커스텀 사운드가 미리 로드되어 있습니다.
+
+## 음소거 및 방해 금지 모드 무시
+Datadog 모바일 앱에서 제공하는 푸시 알림과 음성통화, SMS와 같은 전화 알림에 대해 기기의 시스템 볼륨과 방해 금지 모드를 재정의할 수 있습니다.
+
+### 푸시 알림
+{{< tabs >}}
+{{% tab "iOS" %}}
+
+{{< img src="service_management/oncall/override_dnd_push_iOS.png" alt="iOS 기기의 시스템 볼륨과 방해 금지 모드를 무시합니다." style="width:100%;" >}}
+
+1. Datadog 모바일 앱에서 **Account** > **Settings** > **Notifications**로 이동합니다.
+
+2. **Enable Critical Alerts** 토글을 활성화합니다.
+
+Critical alerts는 음소거와 방해 금지를 무시합니다. Critical alerts를 활성화하면 시스템은 장치의 음소거 또는 방해 금지 설정과 관계없이 Critical alerts 사운드를 재생합니다.
+
+모바일 앱에 반드시 필요한 권한을 부여해 주세요.
+
+{{% /tab %}}
+{{% tab "Android" %}}
+
+{{< img src="service_management/oncall/override_dnd_push_android.png" alt="Android 기기의 시스템 볼륨과 방해 금지 모드를 무시합니다." style="width:100%;" >}}
+
+1. Datadog 모바일 앱에서 **Account** > **Settings** > **Notifications**로 이동합니다.
+
+2. **Override system volume** 토글을 활성화합니다. 그러면 시스템 설정으로 이동합니다. Datadog 모바일 앱 줄에 해당 토글이 활성화되어 있는지 확인합니다.
+
+<div class="alert alert-danger">
+Android에서 Datadog 모바일 앱이 Work 프로필 내에서 사용되면 시스템 볼륨이나 방해 금지 설정을 무시할 수 없습니다. 이를 해결하려면 개인 프로필에 Datadog 모바일 앱을 설치하세요.
+</div>
+
+{{% /tab %}}
+{{< /tabs >}}
+
+### 전화 채널(음성통화 및 SMS)
+
+Datadog은 안정성을 위해 순환하는 전화번호 세트를 사용하여 사용자에게 연락합니다. 모바일 기기가 Datadog On-Call에서 걸려오는 전화와 메시지를 인식하도록 돕기 위해 디지털 연락처 카드를 만들 수 있습니다. 이 카드는 Datadog의 최신 전화번호로 자동으로 업데이트됩니다. 시스템 설정에서 이 연락처에 특별한 권한을 할당하여 방해 금지 모드 무시 등 향상된 기능을 사용할 수 있습니다.
+
+{{< tabs >}}
+{{% tab "iOS" %}}
+
+{{< img src="service_management/oncall/override_dnd_telephony_iOS.png" alt="iOS 기기의 방해 금지 모드를 무시하고 SMS 및 음성통화를 인식할 수 있도록 합니다" style="width:100%;" >}}
+
+1. Datadog 모바일 앱에서 **Account** > **Settings** > **Notifications**로 이동합니다.
+
+2. **Enable Automatic Contact Card Sync** 토글을 활성화하면 "Datadog On-Call"이라는 연락처가 생성되고, Datadog의 최신 전화 번호로 정기적으로 업데이트됩니다.
+
+3. 연락처가 생성되면 iOS 시스템 설정을 열고 **Focus** > **Do Not Disturb**로 이동합니다.
+
+4. **People**에서 Datadog On-Call 연락처의 알림을 허용합니다. Datadog 푸시 애플리케이션에 대한 Critical alerts를 활성화한 경우 Datadog 모바일 앱도 **Apps**에 표시됩니다.
+{{% /tab %}}
+
+{{% tab "Android" %}}
+
+{{< img src="service_management/oncall/override_dnd_telephony_android.png" alt="Android 기기의 방해 금지 모드를 무시하고 SMS 및 음성통화를 인식할 수 있도록 합니다" style="width:100%;" >}}
+
+1. Datadog 모바일 앱에서 **Account** > **Settings** > **Notifications**로 이동합니다.
+
+2. **Phone & SMS**에서 **Automatic Contact Card Sync**를 활성화합니다. 이렇게 하면 Datadog의 최신 전화번호로 정기적으로 업데이트되는 "Datadog On-Call"이라는 연락처가 생성됩니다.
+
+3. 생성된 연락처는 즐겨찾기에 추가합니다.
+
+4. Android 시스템 설정을 열고 **Sound & vibration** > **Do Not Disturb**에서 Datadog On-Call 연락처에 대한 예외를 생성합니다.
+
+{{% /tab %}}
+{{< /tabs >}}
+
+<div class="alert alert-info">
+<a href="https://datadog-on-call.s3.amazonaws.com/datadog-on-call.vcf">Datadog On-Call 연락처 카드의 현재 버전을 다운로드하세요</a>. <strong>참고</strong>: 연락처 카드는 언제든지 변경될 수 있습니다.
+</div>
+
+[1]: /ko/service_management/mobile/?tab=ios
\ No newline at end of file
diff --git a/content/ko/service_management/on-call/pages.md b/content/ko/service_management/on-call/pages.md
new file mode 100644
index 0000000000000..371fe0384a2db
--- /dev/null
+++ b/content/ko/service_management/on-call/pages.md
@@ -0,0 +1,53 @@
+---
+further_reading:
+- link: /service_management/on-call/
+  tag: 문서
+  text: Datadog On-Call
+title: 페이지 전송
+---
+
+{{< site-region region="gov" >}}
+<div class="alert alert-warning">On-Call은 선택한 <a href="/getting_started/site">Datadog 사이트</a> ({{< region-param key="dd_site_name" >}})에서 지원되지 않습니다.</div>
+{{< /site-region >}}
+
+페이지는 팀으로 전송되고 이후 해당 팀의 에스컬레이션 정책 및 스케줄을 통해 라우팅됩니다. 팀의 [Datadog On-Call 온보딩][1]이 끝나면 페이징을 시작할 수 있습니다.
+
+### 알림에서 페이지 전송
+팀 핸들 앞에 `oncall-`을 붙인 후 멘션하여 페이지를 보낼 수 있습니다. 예를 들어, Checkout Operations 팀(`@checkout-operations`)에 페이지를 보내려면 `@oncall-checkout-operations`을 멘션합니다.
+
+{{< img src="service_management/oncall/notification_page.png" alt="On-Call 팀을 언급하는 알림." style="width:80%;" >}}
+
+@-핸들이 지원되는 모니터, 인시던트 관리, 보안 감지 규칙, 이벤트 관리 등 어디에서든 On-Call 팀에 페이지를 보낼 수 있습니다.
+
+#### 모니터 및 동적 긴급 상황
+
+모니터 알림을 통해 페이지를 보내고 팀의 처리 규칙이 동적 긴급성을 사용하는 경우:
+- WARN 임계값을 넘으면 페이지 긴급도가 `low`로 설정됩니다.
+- ALERT 임계값을 넘으면 페이지 긴급도가 `high`로 설정됩니다.
+
+### 수동으로 페이지 전송
+
+Datadog 플랫폼에서 직접 페이지를 수동으로 보낼 수도 있고, Slack 또는 Microsoft Teams와 같은 도구를 통해 보낼 수도 있습니다.
+
+#### Datadog에서 전송
+
+1. [**On-Call** > **Teams**][2]로 이동합니다.
+1. 페이지를 만들고 싶은 팀을 찾은 후 **Page**를 선택합니다.
+   {{< img src="service_management/oncall/manual_page.png" alt="Checkout Operations 팀을 보여주는 On-Call 팀 목록. 세 개의 버튼(Schedules, Escalation Policies, Page)이 표시됩니다." style="width:80%;" >}}
+1. **Page title**을 입력합니다. **Tags**를 선택하고 **Description** 필드에 컨텍스트를 추가할 수도 있습니다. 그런 다음 **Page**를 선택합니다.
+
+Datadog을 통해 수동으로 팀을 페이징하면 항상 `high` 긴급 페이지가 생성됩니다.
+
+#### Slack에서 전송
+1. Datadog 앱을 설치합니다.
+1. `/datadog page` 또는 `/dd page`를 입력합니다.
+1. 페이지를 보낼 팀을 선택합니다.
+
+Slack에서 수동으로 팀을 페이징하면 항상 `high` 긴급 페이지가 생성됩니다.
+
+## 참고 자료
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: /ko/service_management/on-call/teams
+[2]: https://app.datadoghq.com/on-call/teams
\ No newline at end of file
diff --git a/content/ko/service_management/on-call/processing_rules.md b/content/ko/service_management/on-call/processing_rules.md
new file mode 100644
index 0000000000000..c4c5ee35986d7
--- /dev/null
+++ b/content/ko/service_management/on-call/processing_rules.md
@@ -0,0 +1,43 @@
+---
+further_reading:
+- link: /service_management/on-call/
+  tag: 설명서
+  text: Datadog On-Call
+title: 처리 규칙
+---
+
+{{< site-region region="gov" >}}
+<div class="alert alert-warning">On-Call은 선택한 <a href="/getting_started/site">Datadog 사이트</a> ({{< region-param key="dd_site_name" >}})에서 지원되지 않습니다.</div>
+{{< /site-region >}}
+
+## 개요
+
+On-call 처리 규칙을 사용하면 팀은 다양한 유형의 수신 이벤트에 대한 대응 전략을 맞춤 설정할 수 있습니다. 이를 통해 팀은 이벤트의 메타데이터를 기반으로 에스컬레이션 정책에 이벤트와 긴급도 수준을 추가할 수 있습니다. 긴급도가 낮은 페이지는 에스컬레이션 프로세스를 트리거하지 않습니다.
+
+Datadog은 [팀을 On-Call에 온보딩][1]할 때 기본 처리 규칙을 생성합니다.
+
+## 팀의 처리 규칙 보기
+
+On-Call 팀의 처리 규칙을 보려면 [팀 목록][2]에서 팀 이름을 클릭하세요.
+
+## 쿼리 구문
+
+처리 규칙은 Datadog의 일반적인 쿼리 구문을 따릅니다. 지원되는 속성은 다음과 같습니다.
+
+* `tags`: 수신 알림에 설정된 태그. 예: `tags.env:prod`.
+* `groups`: 수신 알림이 특정 모니터 그룹과 관련이 있는지 확인. 예: `groups:"service:checkout-service"`.
+* `priority`: 모니터의 우선 순위 필드 값. 가능한 값은 1부터 5까지. 예: `priority:(1 OR 2)`.
+* `alert_status`: 모니터 상태 값. 가능한 값은 `error`, `warn`, `success`. 예: `alert_status:(error OR warn)`.
+
+특정 필터를 적용하지 않으려면 `*`을 사용하세요.
+
+## 순서
+
+처리 규칙의 순서가 중요합니다. 시스템은 위에서 아래로 이동하여 첫 번째 일치 규칙에서 멈춥니다. 들어오는 알림과 일치하는 쿼리나 시간 필터가 없으면 기본 처리 규칙이 사용됩니다.
+
+## 참고 자료
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: /ko/service_management/on-call/teams
+[2]: https://app.datadoghq.com/on-call/teams
\ No newline at end of file
diff --git a/content/ko/service_management/on-call/profile_settings.md b/content/ko/service_management/on-call/profile_settings.md
new file mode 100644
index 0000000000000..ed6629fb7b067
--- /dev/null
+++ b/content/ko/service_management/on-call/profile_settings.md
@@ -0,0 +1,73 @@
+---
+further_reading:
+- link: /service_management/on-call/
+  tag: 문서
+  text: Datadog On-Call
+title: 프로필 설정
+---
+
+<div class="alert alert-info">
+모바일 기기에서 Datadog On-Call을 사용하려면 <a href="/mobile#installing">Datadog 모바일 앱</a>을 설치하세요.
+</div>
+
+{{< site-region region="gov" >}}
+<div class="alert alert-warning">On-Call은 선택한 <a href="/getting_started/site">Datadog 사이트</a> ({{< region-param key="dd_site_name" >}})에서 지원되지 않습니다.</div>
+{{< /site-region >}}
+
+On-Call 페이지를 받으려면 먼저 [프로필 설정을 구성][1]해야 합니다. 프로필에는 연락 방법, 해당 방법 테스트 및 알림 기본 설정에 대한 설정이 포함됩니다. 이를 통해 적시에 효과적인 페이지를 받을 수 있습니다.
+
+## On-Call 프로필 설정하기
+
+[My On-Call Profile][1]로 이동하여 설정하세요.
+
+### 연락 방법
+{{< img src="service_management/oncall/contact_methods.png" alt="On-Call 프로필 설정에서 연락 방법을 추가합니다. 전화번호, 이메일, 모바일 기기가 구성되었습니다. 전화번호는 hover 상태이며 'Test Call' 및 'Test SMS' 옵션이 표시됩니다." style="width:100%;" >}}
+   - 이메일이나 전화번호를 수동으로 추가합니다. 그런 다음 SMS로 연락할 수 있도록 동의를 구하는 화면에서 동의하면 전화번호 옆에 녹색 배지가 나타납니다. 이는 아래 SMS 알림 환경 설정에 사용할 수 있음을 나타냅니다.
+   - 기기에 Datadog [모바일 앱][2]이 설치되어 있는 경우 기기가 자동으로 이 목록에 나타납니다. 모바일 앱의 설정에서 알림을 받을 수 있는 상태인지 확인하세요. 
+   - 각 연락 방법을 테스트해 보는 것이 좋습니다. 테스트 옵션을 보려면 연락 방법 위에 마우스를 올려놓으세요.
+
+#### 지원되는 연락 방법
+- [Datadog 모바일 앱][3]을 통한 푸시 알림
+- 이메일(HTML 또는 텍스트 형식)
+- SMS
+- 음성통화
+
+**방해 금지 모드 무시**를 포함한 모바일 기기 설정 방법을 자세히 알아려보려면 [Datadog On-Call을 위한 모바일 기기 설정][4]을 참조하세요.
+
+### 알림 설정
+알림 설정을 사용하면 상황의 긴급성에 따라 **사용자**가 On-Call 페이지에 대한 알림을 받는 방법과 시기를 조정할 수 있습니다. 낮은 긴급성과 높은 긴급성에 대한 기본 설정을 구성하면 페이지의 긴급성에 따라 알림이 효과적으로 작동하고 방해가 되지 않도록 할 수 있습니다. 페이지의 긴급성은 [처리 규칙][5]에서 결정됩니다.
+
+시스템은 [에스컬레이션 정책][6]에 정의된 대로 담당자가 페이지를 확인하거나 다음 온콜 담당자에게 페이지가 에스컬레이션될 때까지 구성된 알림 설정을 순차적으로 시도합니다.
+
+#### 긴급도가 높은 알림
+{{< img src="service_management/oncall/high_urgency_notification_preferences.png" alt="On-Call 프로필 설정에서 긴급도가 높은 알림 설정: 'When a high urgency Page is triggered'를 설정하여 중요한 페이지에 신속하게 대응할 수 있도록 해당 전화번호에 즉시 알림을 보냅니다." style="width:100%;" >}}
+
+즉각적인 대응과 에스컬레이션을 위해 긴급도가 높은 페이지(P1 모니터 경고, SEV-1 보안 위협, SEV-1 인시던트 등)를 구성하세요.
+
+예를 들어, On-Call을 구성하여 푸시 알림으로 시작하고 1분 후에 전화하며, 2분 후에도 확인하지 않으면 후속 푸시 알림을 보낼 수 있습니다.
+
+##### 긴급도가 높은 케이스에 대한 모범 사례
+- 긴급도가 높은 페이지에 대한 기본 알림 방법으로 즉각적인 푸시 알림과 음성통화를 사용합니다.
+- 신속한 확인을 위해 팔로업 간격을 짧게 유지합니다.
+- 비상 상황에서 대응 누락을 방지하기 위해 에스컬레이션 정책을 신중하게 계획합니다.
+
+#### 긴급도가 낮은 알림
+{{< img src="service_management/oncall/low_urgency_notification_preferences.png" alt="On-Call 프로필 설정에서 긴급도가 낮은 알림 설정: 'When a low urgency Page is triggered'를 설정하여 즉시 이메일로 알림을 보내지만 에스컬레이션하지 않습니다." style="width:100%;" >}}
+
+긴급도가 낮은 페이지(논블로킹 이슈, 정보 신호 등)를 구성하여 방해를 최소화하면서 정보는 계속 받을 수 있도록 설정합니다. 예를 들어, 이메일을 통해 본인만 받도록 선택할 수 있습니다.
+
+### 기타 알림
+{{< img src="service_management/oncall/settings_shift_reminder.png" alt="On-Call 프로필 설정에서 교대 알림을 구성합니다. 교대 알림은 교대가 시작되기 10분 전에 전화번호로 알림을 보내도록 구성됩니다." style="width:100%;" >}}
+
+On-Call 근무가 시작되기 전에 **Other Notifications**에서 **Shift reminder**를 받도록 선택할 수 있습니다.
+
+## 참고 자료
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: https://app.datadoghq.com/on-call/profile
+[2]: /ko/service_management/mobile/?tab=ios
+[3]: /ko/mobile
+[4]: /ko/service_management/on-call/guides/configure-mobile-device-for-on-call
+[5]: /ko/service_management/on-call/processing_rules
+[6]: /ko/service_management/on-call/escalation_policies
\ No newline at end of file
diff --git a/content/ko/service_management/on-call/schedules.md b/content/ko/service_management/on-call/schedules.md
new file mode 100644
index 0000000000000..bb841762376a1
--- /dev/null
+++ b/content/ko/service_management/on-call/schedules.md
@@ -0,0 +1,98 @@
+---
+further_reading:
+- link: /service_management/on-call/
+  tag: 문서
+  text: Datadog On-Call
+title: 스케줄
+---
+
+{{< site-region region="gov" >}}
+<div class="alert alert-warning">On-Call은 선택한 <a href="/getting_started/site">Datadog 사이트</a> ({{< region-param key="dd_site_name" >}})에서 지원되지 않습니다.</div>
+{{< /site-region >}}
+
+Datadog On-Call에서 스케줄은 팀원들이 페이지에 응답하도록 배정되는 특정 시간을 정의하며, 다양한 시간대와 교대 근무에 따른 팀원의 근무 가능 시간을 구성하고 관리합니다.
+
+### 개념
+
+On-Call 스케줄은 레이어별로 구성되며, 각 레이어는 일주일 중 다른 시간이나 특정한 책임을 맡습니다.
+
+다음 예시 스케줄을 살펴보세요.
+
+{{< img src="service_management/oncall/schedule.png" alt="일본, 유럽, 미국 업무 시간에 따른 배정을 보여주는 샘플 스케줄." style="width:100%;" >}}
+
+4개의 레이어가 있습니다.
+- **JP 업무 시간**: DM이라는 이름의 담당자가 매일 시작되는 일본 업무 시간(UTC 기준)을 담당합니다. 월요일부터 금요일까지 매일 반복됩니다.
+- **EU 업무 시간**: 다음으로 DB는 유럽 업무 시간을 처리합니다. 월요일부터 금요일까지 매일 반복됩니다.
+- **US 업무 시간**: 마지막으로, BS는 매일 미국 업무 종료 시간(UTC 기준)에 온콜을 담당합니다. 월요일부터 금요일까지 매일 반복됩니다.
+- **Overrides**: Overrides는 임시 교대 조정 및 휴일과 같은 스케줄 수정을 반영합니다. 자세한 내용은 [Overrides](#overrides)를 참조하세요.
+
+**최종 일정**은 모든 레이어로 구성됩니다. 하위 레이어가 상위 레이어보다 우선합니다.
+
+### 스케줄 생성하기
+
+1. [**On-Call** > **Schedules**][1]로 이동합니다.
+1. [**+ New Schedule**][2]을 선택합니다.
+1. **Name**을 입력하고 사용하려는 **Schedule Time Zone**을 선택한 후 이 스케줄을 사용할 **Teams**를 선택합니다.
+1. 레이어 추가:
+   - **Starts**: 일정이 적용되는 날짜와 시간입니다. 이 날짜와 시간 이전에는 근무 시간이 나타나지 않습니다.
+   - **Shift length**: 각 교대 근무 시간의 길이(사실상 일정이 반복되는 경우)입니다. 옵션은 다음과 같습니다:
+      - _1일_ (24시간)
+      - _1주일_ (168시간)
+      - _커스텀_
+   - **Handoff Time**: 교대 근무가 다음 사람으로 바뀌는 날짜와 시간입니다.
+   - **End time**: 이 레이어에 대해 더 이상 교대 근무가 예약되지 않는 날짜와 시간입니다.
+   - **Conditions**: 각 교대 근무에 적용되는 시간 조건. 이를 통해 온콜 교대 근무의 시간대를 제한할 수 있습니다. 예: 월요일부터 금요일, 오전 9시부터 오후 5시까지.
+   - **Members**: 온콜 담당자 목록. 목록에 추가된 순서대로 교대 근무를 합니다.
+1. **생성**을 선택합니다.
+
+### 에스컬레이션 정책 내에서 스케줄 확인하기
+지정된 스케줄에 온콜 담당자에게 페이지를 보내려면 에스컬레이션 정책 내에서 스케줄을 확인하면 됩니다. 에스컬레이션 정책을 만들거나 편집할 때 에스컬레이션 단계의 **Notify** 드롭다운 메뉴를 사용하여 원하는 스케줄을 검색하고 선택합니다. 에스컬레이션 정책은 페이지가 트리거될 때 온콜 담당자에게 페이지를 보냅니다.
+
+### Overrides {#overrides}
+Overrides는 예정된 온콜 교대 근무에 대한 수정 내용을 반영합니다. 임시 근무 조정 및 휴일과 같은 변경 사항을 적용할 수 있습니다.
+
+{{< img src="service_management/oncall/schedule_override.png" alt="스케줄을 편집할 때 근무 시간이 선택됩니다. Override 버튼이 있는 대화 상자가 나타납니다." style="width:100%;" >}}
+
+교대 근무를 완전히 또는 부분적으로 수정하려면 해당 교대 근무를 선택하고 **Override**를 클릭합니다.
+
+#### Slack 또는 Microsoft Teams에서 수정 요청
+
+On-Call 로테이션에 속해있지만 부재중일 경우 Slack 또는 Microsoft Teams에서 수정을 요청할 수 있습니다. `/dd override`를 입력하고 수정할 기간을 선택한 다음 설명을 추가합니다. 그러면 채널에 요청이 전송됩니다.
+
+{{< img src="service_management/oncall/schedule_override_request.png" alt="Slack에서 Datadog Staging의 메시지는 다음과 같습니다. '@Daljeet has an override request. Schedule: [Primary] Payments & Transactions (payments-transactions). Start: Today, 1:00PM. End: Today, 3:00 PM. Duration: 2h. Note: Doctor's appointment. 수정을 위해 쿠키를 제공합니다.' 메시지 끝에 'Take it'이라는 버튼이 나타납니다." style="width:80%;" >}}
+
+다른 팀원이 **Take it**을 선택하여 요청자의 근무 일정을 수정할 수 있습니다.
+
+### 스케줄 내보내기
+
+Export Shifts 기능을 사용하면 `.webcal` 링크를 사용하여 온콜 스케줄을 원하는 캘린더 앱(예: Google Calendar, Apple Calendar, Outlook)에 통합할 수 있습니다. 여러 로테이션에 참여하든, 교대 근무 외에 개인 시간을 계획하든, 팀 가시성을 높이려는 것이든, 이 기능을 사용하면 항상 최신 버전의 온콜 스케줄을 확인할 수 있습니다.
+
+#### 스케줄 내보내기 및 동기화
+1. `.webcal` 링크를 생성하려면 계정에서 [**On-Call** > **Schedules**][1] 섹션으로 이동합니다.
+2. **Export My Shifts**를 선택하면 링크가 자동으로 생성됩니다.
+3. **Copy Link**를 클릭합니다.
+4. 링크를 복사한 후 캘린더 앱에서 사용하세요. 예를 들어:
+    - Google Calendar: [Google의 가이드를 확인하세요('Use a link to add a public calendar'아래).][3]
+    - Outlook: [캘린더 구독을 위한 Microsoft 가이드를 확인하세요.][4]
+    - Apple Calendar: [Mac 또는 iPhone에서 캘린더를 구독하는 방법을 알아보세요.][5]
+
+온콜 스케줄이 변경되면 자동으로 연결된 캘린더에 반영되어 항상 정확한 일정을 파악할 수 있습니다. 새 링크를 생성한 후 이전에 공유한 링크에 대한 액세스를 취소하면 이전 URL이 무효화됩니다.
+
+대부분의 캘린더 앱은 알림을 지원합니다. 즉, 교대 근무가 시작되기 전에 알림을 받을 수 있는 기능이 활성화되어 있지만 [Datadog On-Call 프로필 설정][6]에서 SMS, 푸시 알림 및 이메일을 통해 교대 근무 알림을 구성할 수도 있습니다.
+
+#### 스케줄 내보내기 트러블슈팅
+
+On-Call 스케줄 피드를 Google Calendar로 내보낼 때 문제가 발생하는 경우(예: "URL을 가져올 수 없음") 또는 Outlook("캘린더를 가져올 수 없음. 다시 시도하세요"), URL을 통해 캘린더를 처음 구독할 때 다음 방법을 시도해 보세요.
+
+- URL의 첫 부분 `webcal://`를 `http://` 또는 `https://`로 변경합니다. 예를 들어 `webcal://<your_personal_link>`를 `http://<your_personal_link>`로 변경합니다.
+
+## 참고 자료
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: https://app.datadoghq.com/on-call/schedules
+[2]: https://app.datadoghq.com/on-call/schedules/create
+[3]: https://support.google.com/calendar/answer/37100?hl=en&co=GENIE.Platform%3DDesktop
+[4]: https://support.microsoft.com/en-us/office/import-or-subscribe-to-a-calendar-in-outlook-com-or-outlook-on-the-web-cff1429c-5af6-41ec-a5b4-74f2c278e98c
+[5]: https://support.apple.com/en-us/102301
+[6]: /ko/service_management/on-call/profile_settings/
\ No newline at end of file
diff --git a/content/ko/service_management/on-call/teams.md b/content/ko/service_management/on-call/teams.md
new file mode 100644
index 0000000000000..a174995e8ea21
--- /dev/null
+++ b/content/ko/service_management/on-call/teams.md
@@ -0,0 +1,61 @@
+---
+further_reading:
+- link: /service_management/on-call/
+  tag: 문서
+  text: Datadog On-Call
+title: 팀 온보딩
+---
+
+{{< site-region region="gov" >}}
+<div class="alert alert-warning">On-Call은 선택한 <a href="/getting_started/site">Datadog 사이트</a> ({{< region-param key="dd_site_name" >}})에서 지원되지 않습니다.</div>
+{{< /site-region >}}
+
+팀은 [Datadog On-Call][2]의 중앙 조직 단위입니다. 페이지는 팀으로 전송되고 팀의 스케줄이나 에스컬레이션 정책은 페이지를 적절한 팀원에게 라우팅합니다.
+
+On-Call Teams는 [Datadog Teams][1]의 확장입니다. On-Call Teams는 [Teams][3] 개요 페이지에 온콜 업무를 수행하지 않는 팀과 함께 나열되어 있습니다. Datadog은 가능한 한 On-Call 구성에 기존 팀을 사용할 것을 권장합니다. 이렇게 하면 On-Call 팀을 쉽게 찾을 수 있습니다.
+
+### 새로운 팀이나 기존 팀 온보딩
+
+1. [**On-Call** > **Teams**][4]에서 **Set Up Team**을 선택합니다.
+1. 새로운 팀을 만들거나, 기존 Datadog 팀을 선택하거나, PagerDuty 또는 Opsgenie에서 팀 구성을 가져옵니다.
+  {{< tabs >}}
+  {{% tab "새로운 팀" %}}
+  - **Team Name**: 팀 이름을 입력합니다. 조직에서 이미 널리 사용되는 경우가 아니라면 약어를 사용하지 않는 것이 좋습니다.
+  - **Handle**: Datadog 플랫폼 전체에서 팀을 페이징하는 데 사용되는 핸들입니다. 언제든지 팀의 핸들을 변경할 수 있습니다.
+  - **Members**: 온콜을 수행하지 않는 사람을 포함한 모든 팀원을 추가합니다.
+  - **Description**: 팀의 책임에 대한 설명을 작성합니다. 예: _저희 팀은 [주요 책임]을 담당합니다. [주요 목표 또는 활동]을 수행하며 [운영 시간 또는 조건]으로 운영됩니다._
+  {{% /tab %}}
+  {{% tab "기존 팀" %}}
+  드롭다운 메뉴에서 기존 Datadog 팀을 선택합니다.
+  {{% /tab %}}
+  {{< /tabs >}}
+1. 기본 에스컬레이션 정책을 추가합니다.
+   {{< img src="service_management/oncall/escalation_policy_blank.png" alt="새로운 에스컬레이션 정책 설정 뷰. 제안받은 세 가지 스케줄을 알립니다." style="width:80%;" >}}
+   - Datadog은 팀에 대한 _Interrupt Handler_, _Primary_, _Secondary_ 스케줄을 자동으로 제안합니다. 다음 단계에서 이러한 스케줄을 정의할 수 있습니다.
+   - 다른 팀이 소유한 기존 스케줄에 알림을 보낼 수도 있습니다.
+
+   자세한 내용은 [에스컬레이션 정책][5]을 참조하세요.
+1. 이전 단계에서 만든 스케줄을 정의합니다.
+   {{< img src="service_management/oncall/schedule_blank.png" alt="새 스케줄 설정 뷰." style="width:80%;" >}}
+   - **Schedule Time Zone**: 스케줄을 운영할 시간대를 선택하세요. 인수인계 시간 등 다른 설정은 이 선택에 따라 적용됩니다.
+   - **Schedule Rotations**: 원하는 로테이션을 추가하세요.
+   자세한 내용은 [스케줄][6]을 참조하세요.
+
+### 다음 단계
+
+모니터, 인시던트 또는 기타 리소스를 구성하여 On-Call 팀에 페이지를 보내세요. 자세한 내용은 [페이지 보내기][7]를 참조하세요.
+
+On-Call 팀원이 [프로필 설정][8]을 설정했는지 확인하세요.
+
+## 참고 자료
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: /ko/account_management/teams/
+[2]: /ko/service_management/on-call/
+[3]: https://app.datadoghq.com/organization-settings/teams
+[4]: https://app.datadoghq.com/on-call/
+[5]: /ko/service_management/on-call/escalation_policies
+[6]: /ko/service_management/on-call/schedules
+[7]: /ko/service_management/on-call/pages
+[8]: /ko/service_management/on-call/profile_settings
\ No newline at end of file
diff --git a/content/ko/tracing/guide/configure_an_apdex_for_your_traces_with_datadog_apm.md b/content/ko/tracing/guide/configure_an_apdex_for_your_traces_with_datadog_apm.md
index 67582408ba21f..7bcccc50824f7 100644
--- a/content/ko/tracing/guide/configure_an_apdex_for_your_traces_with_datadog_apm.md
+++ b/content/ko/tracing/guide/configure_an_apdex_for_your_traces_with_datadog_apm.md
@@ -34,27 +34,33 @@ $$\bo\text"Apdex"=({\bo\text"Satisfied"\text" requests" + {{\bo\text"Tolerated"\
 
 웹 애플리케이션 또는 서비스 애플리케이션 성능지표(Apdex)를 시각화하려면:
 
-1. [서비스 카탈로그][3]에서 웹 서비스를 클릭합니다. 오른쪽 상단 그래프에서 레이턴시 대신 애플리케이션 성능지표(Apdex)를 선택합니다. 해당 옵션이 표시되지 않으면 다음과 같이 웹 서비스를 클릭했는지 확인합니다.
+1. [Software Catalog][3]에서 웹 서비스에 마우스 커서를 올리고 **Service Page**를 선택합니다.
 
-   {{< img src="tracing/faq/apdex_selection.png" alt="애플리케이션 성능지표(Apdex) 섹션" >}}
+1. **Latency** 그래프 제목을 클릭해 드롭다운 메뉴를 열고 **Apdex**를 선택합니다.
 
-2. 위젯 왼쪽 상단의 연필 아이콘을 사용하여 애플리케이션 성능지표(Apdex)(이 아이콘이 표시되려면 관리자여야 함)를 설정합니다.
+   **참고**: Apdex 옵션은 웹 서비스에서만 사용할 수 있습니다.
 
-   {{< img src="tracing/faq/apdex_edit.png" alt="애플리케이션 성능지표(Apdex) 편집" >}}
+   {{< img src="tracing/faq/apdex_selection_2.png" alt="Apdex 옵션을 보여주는 Latency 그래프 드롭다운 메뉴" >}}
 
-3. 요청 분포를 시각화하려면 임계값을 직접 입력합니다.
+1. 위젯 왼쪽 상단에 있는 연필 아이콘을 사용해 Apdex 구성을 편집할 수 있습니다.
 
-   {{< img src="tracing/faq/apdex_update.png" alt="애플리케이션 성능지표(Apdex) 업데이트" >}}
+   **참고**: 관리자에게만 이 아이콘이 보입니다.
 
-4. 위젯을 저장하여 시간에 따라 애플리케이션 성능지표(Apdex)가 변화하는 모습을 추적합니다.
+   {{< img src="tracing/faq/apdex_edit.png" alt="Apdex 그래프 위에 있는 연필 아이콘, 선택하여 허용 가능 상한 값 편집 가능" >}}
 
-   {{< img src="tracing/faq/apm_save.png" alt="애플리케이션 성능지표(Apdex) 저장" >}}
+1. 상한 값을 입력해 요청 분포를 시각화합니다.
 
-## 서비스 카탈로그에 애플리케이션 성능지표(Apdex) 표시하기
+   {{< img src="tracing/faq/apdex_update.png" alt="Apdex 구성 편집 화면, 허용 가능 상한 값을 설정할 수 있는 텍스트 박스를 나타냄" >}}
 
-[서비스 카탈로그][2]에 애플리케이션 성능지표(Apdex) 점수를 표시하려면 페이지 오른쪽 상단의 설정 메뉴에서 해당 점수를 선택합니다.
+1. 위젯을 저장하여 시간에 따라 애플리케이션 Apdex가 변화하는 모습을 추적합니다.
 
-{{< img src="tracing/faq/apdex_service_list.png" alt="Apdex 서비스 카탈로그" >}}
+   {{< img src="tracing/faq/apm_save.png" alt="구성 변경 사항을 저장한 후 Apdex 그래프" >}}
+
+## Software Catalog에서 Apdex 표시
+
+[Software Catalog][2]에서 Apdex 점수를 표시하려면 페이지 오른쪽 상단의 설정 메뉴에서 선택합니다.
+
+{{< img src="tracing/faq/apdex_service_list.png" alt="Apdex Software Catalog" >}}
 
 [1]: https://www.apdex.org/
 [2]: https://app.datadoghq.com/services
diff --git a/data/partials/platforms.es.yaml b/data/partials/platforms.es.yaml
index b5f0fd1b64188..05d8e36965507 100644
--- a/data/partials/platforms.es.yaml
+++ b/data/partials/platforms.es.yaml
@@ -156,4 +156,4 @@ platforms:
 - category: fuente
   image: platform_fromsource.png
   link: agent/basic_agent_usage/source/
-  name: fuente
+  name: fuente
\ No newline at end of file
diff --git a/layouts/shortcodes/observability_pipelines/processors/filter_syntax.es.md b/layouts/shortcodes/observability_pipelines/processors/filter_syntax.es.md
new file mode 100644
index 0000000000000..104de8b18bf3e
--- /dev/null
+++ b/layouts/shortcodes/observability_pipelines/processors/filter_syntax.es.md
@@ -0,0 +1,19 @@
+#### Sintaxis de las consultas de filtro
+
+Cada procesador tiene una consulta de filtro correspondiente en sus campos. Los procesadores sólo procesan los logs que coinciden con su consulta de filtro. Y en todos los procesadores, excepto el procesador de filtro, los logs que no coinciden con la consulta se envían al siguiente paso de la cadena. Para el procesador de filtro, los logs que no coinciden con la consulta se descartan.
+
+Para cualquier atributo, etiqueta (tag) o par `key:value` que no sea un [atributo reservado][4001], la consulta debe empezar por `@`. Por el contrario, para filtrar atributos reservados, no es necesario añadir `@` delante de la consulta de filtro.
+
+Por ejemplo, para filtrar y descartar logs `status:info`, tu filtro puede definirse como `NOT (status:info)`. Para filtrar y descartar `system-status:info`, el filtro debe ser `NOT (@system-status:info)`.
+
+Ejemplos de consulta de filtro:
+- `NOT (status:debug)`: Esto filtra sólo los logs que no tienen el estado `DEBUG`.
+- `status:ok service:flask-web-app`: Esto filtra todos los logs con el estado `OK` de tu servicio`flask-web-app`.
+    - Esta consulta también se puede escribir como: `status:ok AND service:flask-web-app`.
+- `host:COMP-A9JNGYK OR host:COMP-J58KAS`: Esta consulta de filtro sólo coincide con los logs de hosts etiquetados.
+- `@user.status:inactive`: Esto filtra los logs con el estado `inactive` anidado bajo el atributo `user`.
+
+Las consultas ejecutadas en el worker de Observability Pipelines distinguen entre mayúsculas y minúsculas. Obtén más información sobre cómo escribir consultas de filtro con la [sintaxis de búsqueda de logs de Datadog][4002].
+
+[4001]: /es/logs/log_configuration/attributes_naming_convention/#reserved-attributes
+[4002]: /es/logs/explorer/search_syntax/