From 57c31c77722cd97522943eb683cc1eaf8e85a2d6 Mon Sep 17 00:00:00 2001 From: "webops-guacbot[bot]" <214537265+webops-guacbot[bot]@users.noreply.github.com> Date: Tue, 17 Mar 2026 15:04:07 +0000 Subject: [PATCH 1/3] Translated file updates --- .../es/data_streams/setup/language/java.md | 143 ++++++ content/es/feature_flags/client/javascript.md | 207 ++++++++ .../incident_settings/information.md | 88 ++++ .../setup_and_configuration/information.md | 92 ++++ .../integrations/jira.md | 59 +++ content/es/integrations/hudi.md | 183 +++---- content/es/integrations/hyperv.md | 120 ++--- content/es/integrations/imperva.md | 113 +++++ content/es/integrations/infiniband.md | 296 +++++++++++ content/es/integrations/iocs-dmi4apm.md | 63 +++ content/es/integrations/iocs-dsi.md | 294 +++++++++++ .../evaluations/evaluation_compatibility.md | 10 +- .../destinations/http_client.md | 8 +- .../browser/setup/server/java.md | 161 ++++++ .../impossible_travel.md | 38 ++ .../google_cloud_run/functions/java.md | 121 +++++ .../incident_settings/information.md | 86 ++++ content/es/tests/setup/javascript.md | 246 +++++---- .../connect_logs_and_traces/java.md | 128 ++++- .../inferred_entity_remapping_rules.md | 68 +++ .../trace_collection/library_config/java.md | 479 ++++++++++++------ .../backend/capturing_handled_errors/ruby.md | 54 ++ content/ja/integrations/amazon-bedrock.md | 259 ++++++++++ content/ja/integrations/amazon-cloudhsm.md | 98 ++++ content/ja/integrations/gatling_enterprise.md | 144 ++++++ content/ja/integrations/oci_goldengate.md | 116 +++++ .../combining_otel_and_datadog_metrics.md | 75 +++ 27 files changed, 3276 insertions(+), 473 deletions(-) create mode 100644 content/es/data_streams/setup/language/java.md create mode 100644 content/es/feature_flags/client/javascript.md create mode 100644 content/es/incident_response/incident_management/incident_settings/information.md create mode 100644 content/es/incident_response/incident_management/setup_and_configuration/information.md create mode 100644 content/es/incident_response/incident_management/setup_and_configuration/integrations/jira.md create mode 100644 content/es/integrations/imperva.md create mode 100644 content/es/integrations/infiniband.md create mode 100644 content/es/integrations/iocs-dmi4apm.md create mode 100644 content/es/integrations/iocs-dsi.md create mode 100644 content/es/real_user_monitoring/application_monitoring/browser/setup/server/java.md create mode 100644 content/es/security/cloud_siem/detect_and_monitor/custom_detection_rules/impossible_travel.md create mode 100644 content/es/serverless/google_cloud_run/functions/java.md create mode 100644 content/es/service_management/incident_management/incident_settings/information.md create mode 100644 content/es/tracing/services/inferred_entity_remapping_rules.md create mode 100644 content/ja/error_tracking/backend/capturing_handled_errors/ruby.md create mode 100644 content/ja/integrations/amazon-bedrock.md create mode 100644 content/ja/integrations/amazon-cloudhsm.md create mode 100644 content/ja/integrations/gatling_enterprise.md create mode 100644 content/ja/integrations/oci_goldengate.md create mode 100644 content/ja/opentelemetry/guide/combining_otel_and_datadog_metrics.md diff --git a/content/es/data_streams/setup/language/java.md b/content/es/data_streams/setup/language/java.md new file mode 100644 index 00000000000..3519132f653 --- /dev/null +++ b/content/es/data_streams/setup/language/java.md @@ -0,0 +1,143 @@ +--- +aliases: +- /es/data_streams/java +further_reading: +- link: /integrations/kafka/ + tag: Documentación + text: Integración de Kafka +- link: /tracing/software_catalog/ + tag: Documentación + text: Catálogo de software +- link: https://www.datadoghq.com/blog/confluent-connector-dsm-autodiscovery/ + tag: Blog + text: Descubre automáticamente los conectores de Confluent Cloud y monitoriza fácilmente + el rendimiento en Data Streams Monitoring +title: Configurar Data Streams Monitoring para Java +--- + +### Requisitos previos + +* [Datadog Agent v7.34.0 o posterior][10] + +### Bibliotecas compatibles + +| Tecnología | Biblioteca | Versión mínima del rastreador | Versión recomendada del rastreador | +|----------------|-------------------------------------------------------------------------------------------------------------------------------|---------------------------------------------------------------------------------|-------------------------------------------------------------------------------------| +| Kafka | [kafka-clients](https://mvnrepository.com/artifact/org.apache.kafka/kafka-clients) (La generación de retardos no se admite para la v3.7*) | {{< dsm-tracer-version lang="java" lib="kafka-clients" type="minimal" >}} | {{< dsm-tracer-version lang="java" lib="kafka-clients" type="recommended" >}} | +| RabbitMQ | [amqp-client](https://mvnrepository.com/artifact/com.rabbitmq/amqp-client) | {{< dsm-tracer-version lang="java" lib="amqp-client" type="minimal" >}} | {{< dsm-tracer-version lang="java" lib="amqp-client" type="recommended" >}} | +| Amazon SQS | [aws-java-sdk-sqs (v1)](https://mvnrepository.com/artifact/com.amazonaws/aws-java-sdk-sqs) | {{< dsm-tracer-version lang="java" lib="aws-java-sdk-sqs-v1" type="minimal" >}} | {{< dsm-tracer-version lang="java" lib="aws-java-sdk-sqs-v1" type="recommended" >}} | +| Amazon SQS | [sqs (v2)](https://mvnrepository.com/artifact/software.amazon.awssdk/sqs) | {{< dsm-tracer-version lang="java" lib="sqs-v2" type="minimal" >}} | {{< dsm-tracer-version lang="java" lib="sqs-v2" type="recommended" >}} | +| Amazon Kinesis | [Kinesis (v1)](https://mvnrepository.com/artifact/com.amazonaws/aws-java-sdk-kinesis) | {{< dsm-tracer-version lang="java" lib="kinesis-v1" type="minimal" >}} | {{< dsm-tracer-version lang="java" lib="kinesis-v1" type="recommended" >}} | +| Amazon Kinesis | [Kinesis (v2)](https://mvnrepository.com/artifact/software.amazon.awssdk/kinesis) | {{< dsm-tracer-version lang="java" lib="kinesis-v2" type="minimal" >}} | {{< dsm-tracer-version lang="java" lib="kinesis-v2" type="recommended" >}} | +| Amazon SNS | [SNS (v1)](https://mvnrepository.com/artifact/com.amazonaws/aws-java-sdk-sns) | {{< dsm-tracer-version lang="java" lib="sns-v1" type="minimal" >}} | {{< dsm-tracer-version lang="java" lib="sns-v1" type="recommended" >}} | +| Amazon SNS | [SNS (v2)](https://mvnrepository.com/artifact/software.amazon.awssdk/sns) | {{< dsm-tracer-version lang="java" lib="sns-v2" type="minimal" >}} | {{< dsm-tracer-version lang="java" lib="sns-v2" type="recommended" >}} | +| Google PubSub | [Google Cloud Pub/Sub](https://mvnrepository.com/artifact/com.google.cloud/google-cloud-pubsub) | {{< dsm-tracer-version lang="java" lib="google-pubsub" type="minimal" >}} | {{< dsm-tracer-version lang="java" lib="google-pubsub" type="recommended" >}} | +| IBM MQ | [Clases de IBM MQ para Java y JMS](https://mvnrepository.com/artifact/com.ibm.mq/com.ibm.mq.jakarta.client) | {{< dsm-tracer-version lang="java" lib="ibmmqjmsclient" type="minimal" >}} | {{< dsm-tracer-version lang="java" lib="ibmmqjmsclient" type="recommended" >}} | + +*Spring Boot 3.3.x y spring-kafka 3.2.x utilizan kafka-clients 3.7.x, que no admite la generación de retardos. Para solucionarlo, actualiza la versión de kafka-clients a 3.8.0 o posterior. + +### Instalación + +Para activar Data Streams Monitoring, configura las siguientes variables de entorno en `true` en los servicios que envían o consumen mensajes: + +- `DD_DATA_STREAMS_ENABLED` +- `DD_TRACE_REMOVE_INTEGRATION_SERVICE_NAMES_ENABLED` + +{{< tabs >}} +{{% tab "Variables de entorno" %}} + +```yaml +environment: + - DD_DATA_STREAMS_ENABLED: "true" + - DD_TRACE_REMOVE_INTEGRATION_SERVICE_NAMES_ENABLED: "true" +``` + +{{% /tab %}} +{{% tab "Línea de comandos" %}} + +Ejecuta lo siguiente cuando inicies tu aplicación Java: + +```shell +java -javaagent:/path/to/dd-java-agent.jar -Ddd.data.streams.enabled=true -Ddd.trace.remove.integration-service-names.enabled=true -jar path/to/your/app.jar +``` + +{{% /tab %}} +{{< /tabs >}} + +### Instalación con un solo clic +Para configurar Data Streams Monitoring desde la interfaz de usuario Datadog sin necesidad de reiniciar tu servicio, utiliza la [configuración en tiempo de ejecución][4]. Ve a la página de servicios APM y `Enable DSM`. + +{{< img src="data_streams/enable_dsm_service_catalog.png" alt="Activa Data Streams Monitoring desde la sección Dependencias de la page (página) de servicios de APM" >}} + +##### Instalación + +Utiliza el rastreador de Java de Datadog, [`dd-trace-java`][6], para recopilar información de tus trabajadores de Kafka Connect. + +1. [Añade el archivo `dd-java-agent.jar`][7] a tus trabajadores de Kafka. Asegúrate de estar utilizando `dd-trace-java` [v1.44+][8]. +1. Modifica tus opciones de Java para incluir el rastreador de Java de Datadog en tus nodos de trabajadores. Por ejemplo, en Strimzi, modifica `STRIMZI_JAVA_OPTS` para añadir `-javaagent:/path/to/dd-java-agent.jar`. + +{{% data_streams/monitoring-sqs-pipelines %}} + +{{% data_streams/monitoring-rabbitmq-pipelines %}} + +### Monitorización de pipelines SNS a SQS +Para monitorizar un pipeline de datos en el que Amazon SNS habla directamente con Amazon SQS, debes realizar los siguientes pasos adicionales de configuración: + +{{< tabs >}} +{{% tab "SQS v1" %}} +- Configura la variable de entorno `DD_TRACE_SQS_BODY_PROPAGATION_ENABLED` en `true`. + + Por ejemplo: + ```yaml + environment: + - DD_DATA_STREAMS_ENABLED: "true" + - DD_TRACE_REMOVE_INTEGRATION_SERVICE_NAMES_ENABLED: "true" + - DD_TRACE_SQS_BODY_PROPAGATION_ENABLED: "true" + ``` +- Asegúrate de estar utilizando el [rastreador de Java v1.44.0+][11]. + +[11]: https://github.com/DataDog/dd-trace-java/releases +{{% /tab %}} +{{% tab "SQS v2" %}} +Activa la [entrega de mensajes sin formato de Amazon SNS][1]. + +[1]: https://docs.aws.amazon.com/sns/latest/dg/sns-large-payload-raw-message-delivery.html +{{% /tab %}} +{{< /tabs >}} + +{{% data_streams/monitoring-kinesis-pipelines %}} + +### Instrumentación manual +Data Streams Monitoring propaga el contexto a través de las cabeceras de los mensajes. Si utilizas una tecnología de cola de mensajes no compatible con DSM, una tecnología sin cabeceras (como Kinesis) o Lambda, utiliza la [instrumentación manual para configurar DSM][5]. + +### Conectores de monitorización + +#### Conectores de Confluent Cloud +{{% data_streams/dsm-confluent-connectors %}} + +#### Conectores de Kafka autoalojados + +_Requisitos_: [`dd-trace-java` v1.44.0+][8] + +
Esta función está en vista previa.
+ +Data Streams Monitoring puede recopilar información de tus conectores de Kafka autoalojados. En Datadog, estos conectores se muestran como servicios conectados a temas de Kafka. Datadog recopila el rendimiento hacia y desde todos los temas de Kafka. Datadog no recopila el estado del conector ni los receptores y sources (fuentes) de los conectores de Kafka autoalojados. + +##### Instalación + +1. Asegúrate de que el Datadog Agent se esté ejecutando en tus trabajadores de Kafka Connect. +2. Asegúrate de que [`dd-trace-java`][6] esté instalado en tus trabajadores de Kafka Connect. +3. Modifica tus opciones de Java para incluir `dd-trace-java` en tus nodos de trabajadores de Kafka Connect. Por ejemplo, en Strimzi, modifica `STRIMZI_JAVA_OPTS` para añadir `-javaagent:/path/to/dd-java-agent.jar`. + + +## Referencias adicionales + +{{< partial name="whats-next/whats-next.html" >}} + +[10]: /es/agent +[2]: /es/tracing/trace_collection/dd_libraries/java/ +[4]: /es/remote_configuration +[5]: /es/data_streams/manual_instrumentation/?tab=java +[6]: https://github.com/DataDog/dd-trace-java +[7]: /es/tracing/trace_collection/automatic_instrumentation/dd_libraries/java/?tab=wget +[8]: https://github.com/DataDog/dd-trace-java/releases/tag/v1.44.0 \ No newline at end of file diff --git a/content/es/feature_flags/client/javascript.md b/content/es/feature_flags/client/javascript.md new file mode 100644 index 00000000000..cd40dbe3270 --- /dev/null +++ b/content/es/feature_flags/client/javascript.md @@ -0,0 +1,207 @@ +--- +description: Configura indicadores de funciones de Datadog para aplicaciones JavaScript + de navegador. +further_reading: +- link: /feature_flags/client/ + tag: Documentación + text: Indicadores de funciones del lado del cliente +- link: https://openfeature.dev/docs/reference/sdks/client/web/ + tag: OpenFeature + text: Kit de desarrollo de software (SDK) web de OpenFeature +- link: /real_user_monitoring/application_monitoring/browser/ + tag: Documentación + text: Monitorización del navegador +title: Indicadores de funciones de JavaScript +--- + +## Información general + +En esta page (página) se describe cómo instrumentar tu aplicación JavaScript de navegador con los el kit de desarrollo de software (SDK) de indicadores de funciones de Datadog. Los indicadores de funciones de Datadog proporcionan una forma unificada de controlar remotamente la disponibilidad de funciones en tu aplicación, experimentar de forma segura y ofrecer nuevas experiencias con confianza. + +El kit de desarrollo de software (SDK) de indicadores de funciones de Datadog para JavaScript se compila en [OpenFeature][1], un estándar abierto para la gestión de indicadores de funciones. En esta guía se explica cómo instalar el kit de desarrollo de software (SDK), configurar el proveedor Datadog y evaluar los indicadores en tu aplicación. + +## Instalación + +Instala el proveedor OpenFeature y el kit de desarrollo de software (SDK) de OpenFeature Web de Datadog utilizando tu gestor de paquetes preferido: + +{{< tabs >}} +{{% tab "npm" %}} +{{< code-block lang="bash" >}} +npm install @datadog/openfeature-browser @openfeature/web-sdk @openfeature/core +{{< /code-block >}} +{{% /tab %}} + +{{% tab "yarn" %}} +{{< code-block lang="bash" >}} +yarn add @datadog/openfeature-browser @openfeature/web-sdk @openfeature/core +{{< /code-block >}} +{{% /tab %}} + +{{% tab "pnpm" %}} +{{< code-block lang="bash" >}} +pnpm add @datadog/openfeature-browser @openfeature/web-sdk @openfeature/core +{{< /code-block >}} +{{% /tab %}} +{{< /tabs >}} + +## Inicializar el proveedor + +Crea una instancia de `DatadogProvider` con tus credenciales de Datadog: + +```javascript +import { DatadogProvider } from '@datadog/openfeature-browser'; +import { OpenFeature } from '@openfeature/web-sdk'; + +const provider = new DatadogProvider({ + applicationId: '', + clientToken: '', + site: '{{< region-param key="dd_site" code="true" >}}', + env: '', +}); +``` + +## Definir el contexto de evaluación + +Define a quién o a qué se aplica la evaluación del indicador utilizando un contexto de evaluación. El contexto de evaluación incluye información del usuario o de la sesión que se utiliza para determinar qué variantes del indicador deben devolverse. Haz referencia a estos atributos en tus reglas de orientación para controlar quién ve cada variante. + +{{< code-block lang="javascript" >}} +const evaluationContext = { + targetingKey: 'user-123', + user_id: '123', + user_role: 'admin', + email: 'user@example.com', +}; + +await OpenFeature.setProviderAndWait(provider, evaluationContext); +{{< /code-block >}} + +
La targetingKey se utiliza como sujeto de aleatorización para la orientación basada en el porcentaje. Cuando un indicador se dirige a un porcentaje de sujetos (por ejemplo, 50 %), la targetingKey determina en qué "bucket" cae un usuario. Los usuarios con la misma targetingKey siempre reciben la misma variante para un indicador determinado.
+ +## Evaluar indicadores + +Una vez inicializado el proveedor, puedes evaluar los indicadores en cualquier lugar de tu aplicación. La evaluación de los indicadores es _local e instantánea_: el kit de desarrollo de software (SDK) utiliza datos almacenados en caché local, por lo que no se producen solicitudes de red al evaluar los indicadores. + +### Conseguir un cliente + +Recuperar el cliente OpenFeature para evaluar los indicadores: + +{{< code-block lang="javascript" >}} +const client = OpenFeature.getClient(); +{{< /code-block >}} + +### Indicadores booleanos + +Utiliza `getBooleanValue(key, defaultValue)` para los indicadores que representan condiciones de activado/desactivado o true/false: + +{{< code-block lang="javascript" >}} +const isNewCheckoutEnabled = client.getBooleanValue('checkout_new', false); + +if (isNewCheckoutEnabled) { + showNewCheckoutFlow(); +} else { + showLegacyCheckout(); +} +{{< /code-block >}} + +### Indicadores de cadena + +Utiliza `getStringValue(key, defaultValue)` para los indicadores que seleccionan entre múltiples variantes o cadenas de configuración: + +{{< code-block lang="javascript" >}} +const theme = client.getStringValue('ui_theme', 'light'); + +switch (theme) { + case 'dark': + setDarkTheme(); + break; + case 'light': + default: + setLightTheme(); +} +{{< /code-block >}} + +### Indicadores numéricos + +Utiliza `getNumberValue(key, defaultValue)` para indicadores numéricos como límites, porcentajes o multiplicadores: + +{{< code-block lang="javascript" >}} +const maxItems = client.getNumberValue('cart_items_max', 20); +const priceMultiplier = client.getNumberValue('pricing_multiplier', 1.0); +{{< /code-block >}} + +### Indicadores de objetos + +Utiliza `getObjectValue(key, defaultValue)` para los datos de configuración estructurados: + +{{< code-block lang="javascript" >}} +const config = client.getObjectValue('promo_banner_config', { + color: '#00A3FF', + message: 'Welcome!', +}); +{{< /code-block >}} + +### Detalles de la evaluación de indicadores + +Si necesitas algo más que el valor del indicador, utiliza los métodos detallados. Estos devuelven el valor evaluado y los metadatos que explican la evaluación: + +{{< code-block lang="javascript" >}} +const details = client.getBooleanDetails('checkout_new', false); + +console.log(details.value); // Valor (true o false) +console.log(details.variant); // Nombre de la variante, si correspondiera +console.log(details.reason); // ¿Por qué se seleccionó este valor? +console.log(details.errorCode); // Código de error, si falló la evaluación +{{< /code-block >}} + +## Ejemplo completo + +Este es un ejemplo completo en el que se muestra cómo configurar y utilizar indicadores de funciones de Datadog en una aplicación JavaScript: + +```javascript +import { DatadogProvider } from '@datadog/openfeature-browser'; +import { OpenFeature } from '@openfeature/web-sdk'; + +// Initialize the Datadog provider +const provider = new DatadogProvider({ + applicationId: '', + clientToken: '', + site: '{{< region-param key="dd_site" code="true" >}}', + env: '', +}); + +// Set the evaluation context +const evaluationContext = { + targetingKey: 'user-123', + user_id: '123', + user_role: 'admin', +}; + +await OpenFeature.setProviderAndWait(provider, evaluationContext); + +// Get the client and evaluate flags +const client = OpenFeature.getClient(); +const showNewFeature = client.getBooleanValue('new_feature', false); + +if (showNewFeature) { + console.log('New feature is enabled!'); +} +``` + +## Actualizar el contexto de evaluación + +Para actualizar el contexto de evaluación después de la inicialización (por ejemplo, cuando un usuario inicia sesión), utiliza `OpenFeature.setContext()`: + +{{< code-block lang="javascript" >}} +await OpenFeature.setContext({ + targetingKey: user.id, + user_id: user.id, + email: user.email, + plan: user.plan, +}); +{{< /code-block >}} + +## Referencias adicionales + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: https://openfeature.dev/ \ No newline at end of file diff --git a/content/es/incident_response/incident_management/incident_settings/information.md b/content/es/incident_response/incident_management/incident_settings/information.md new file mode 100644 index 00000000000..2d5ba48e360 --- /dev/null +++ b/content/es/incident_response/incident_management/incident_settings/information.md @@ -0,0 +1,88 @@ +--- +aliases: +- /es/service_management/incident_management/incident_settings/information/ +title: Información +--- + +## Información general + +Desde la página de [Información de configuración de incidentes][1], puedes personalizar los estados y la gravedad de tus incidentes y activar las funciones principales para incidente, como incidentes privados, incidentes de test y anulaciones de fecha y hora. + +## Niveles de gravedad + + {{< img src="/service_management/incidents/incident_settings/settings_info_severity_levels.png" alt="Niveles de gravedad personalizables en la configuración del incidente" style="width:100%;" >}} + +Utiliza la configuración del nivel de gravedad para: + +1. Define tu gravedad más crítica como `SEV-0` o `SEV-1` (por defecto `SEV-1`) +2. Personalizar las subetiquetas de las gravedades (**Por defecto:** Crítica, Alta, Moderada, Baja, Menor) +3. Personaliza las descripciones de tus gravedades +4. Añade o elimina gravedades desde el final de tu lista, con un mínimo de una y un máximo de diez +5. Activar la gravedad "Desconocido" + +**Nota**: Si intentas eliminar una gravedad a la que se hace referencia en una [regla de notificación][2], se te pedirá que confirmes tu decisión. Si decides continuar, se desactivarán las reglas de notificación afectadas, ya que dejarán de ser válidas. La eliminación de una gravedad o el cambio de la gravedad inicial no actualiza automáticamente ninguna consulta de [Incident Management Analytics][3]. + +## Niveles de estado + +{{< img src="/service_management/incidents/incident_settings/settings_info_status_levels.png" alt="Niveles de estado personalizables en la configuración del incidente" style="width:100%;" >}} + +Utiliza la configuración de nivel de estado para: + +1. Personalizar las descripciones de los estados +2. Activar el estado opcional `Completed` + +**Nota**: La eliminación del estado `Completed` no actualiza automáticamente los incidentes en el estado `Completed` y no actualiza automáticamente ninguna consulta de [Incident Management Analytics][3] que haga referencia explícita al mismo. Cualquier regla de notificación que haga referencia al estado `Completed` se desactiva. + +## Texto auxiliar + +{{< img src="/service_management/incidents/incident_settings/settings_info_helper_text.png" alt="Configuración del texto auxiliar de Declarar incidente" style="width:100%;">}} + +El texto auxiliar aparece junto al [Modal de creación de incidentes][4] y ayuda a tus respondedores a entender cómo deben definir el incidente. + +Puedes utilizar markdown en el texto auxiliar para añadir listas con sangría, texto formateado e hipervínculos a otros recursos. + +## Incidentes privados (visibilidad del incidente) + +_Por defecto: desactivado_ + +La **visibilidad** de un incidente determina qué usuarios de tu organización de Datadog pueden verlo. Si la visibilidad del incidente es **organización**, cualquier usuario con permiso **Lectura de incidentes** puede verlo. Si la visibilidad del incidente es **privada**, solo podrán verla los respondedores del incidente o los usuarios con el permiso **Acceso global a incidentes privados**. + +En la [página de incidentes de Datadog][5], puedes buscar incidentes privados utilizando la faceta **Visibilidad** de la izquierda. También puedes añadir condiciones en torno a la visibilidad del incidente al definir [reglas de notificación][2] del incidente. + +### Incidentes privados en Slack + +Al declarar incidentes privados, Datadog crea canales privados de Slack en lugar de canales públicos. + +Si conviertes un incidente en privado, Datadog archiva el canal de incidentes existente, crea un nuevo canal privado y añade a él todos los respondedores existentes. + +Para convertir un incidente en privado en Slack, utiliza `/datadog incident private`. + +## Eliminación del incidente + +_Por defecto: desactivado_ + +Cuando la eliminación del incidente está habilitada para un tipo de incidente, cualquier usuario con el permiso **Escritura de incidentes** puede eliminar cualquier incidente del tipo de incidente. + +Una vez eliminado un incidente, ya no influye en los análisis del incidente y ningún usuario puede acceder a él. Los incidentes eliminados no se pueden recuperar. + +## Anular las marcas de tiempo de estado + +_Por defecto: desactivado_ + +Cuando se habilitan las anulaciones de fecha y hora en un tipo de incidente, cualquier usuario con el permiso **Escritura de incidente** puede definir anulaciones de fecha y hora en cualquier incidente de ese tipo de incidente. + +Cuando está activada, puedes definir anulaciones para las marcas de tiempo `declared`, `detected` y `resolved` en un incidente. Para obtener más información, consulta [Incident Analytics][3]. + +## Incidentes de test + +_Por defecto: desactivado_ + +Cuando los incidentes de test están habilitados en un tipo de incidente, cualquier usuario con el permiso **Escritura de incidentes** puede declarar incidentes de test del tipo de incidente. + +Los incidentes de test se distinguen visualmente por un banner morado. Por defecto, los incidentes de test no aparecen en la búsqueda del incidente, no ejecutan automatizaciones, no ejecutan reglas de notificación ni afectan a los análisis. El declarante puede optar por estas funciones durante la declaración. + +[1]: https://app.datadoghq.com/incidents/settings#Information +[2]: /es/incident_response/incident_management/incident_settings/notification_rules +[3]: /es/incident_response/incident_management/analytics +[4]: /es/incident_response/incident_management/#from-the-incidents-page +[5]: https://app.datadoghq.com/incidents \ No newline at end of file diff --git a/content/es/incident_response/incident_management/setup_and_configuration/information.md b/content/es/incident_response/incident_management/setup_and_configuration/information.md new file mode 100644 index 00000000000..30df7f2be7d --- /dev/null +++ b/content/es/incident_response/incident_management/setup_and_configuration/information.md @@ -0,0 +1,92 @@ +--- +aliases: +- /es/service_management/incident_management/incident_settings/information/ +- /es/incident_response/incident_management/incident_settings/information +title: Información +--- + +## Información general + +Desde la página de [Información de configuración de incidentes][1], puedes personalizar los estados y la gravedad de tus incidentes y activar las funciones principales para incidente, como incidentes privados, incidentes de test y anulaciones de fecha y hora. + +## Niveles de gravedad + + {{< img src="/service_management/incidents/incident_settings/settings_info_severity_levels.png" alt="Niveles de gravedad personalizables en la configuración del incidente" style="width:100%;" >}} + +Utiliza la configuración del nivel de gravedad para: + +1. Define tu gravedad más crítica como `SEV-0` o `SEV-1` (por defecto `SEV-1`) +2. Personalizar las subetiquetas de las gravedades (**Por defecto:** Crítica, Alta, Moderada, Baja, Menor) +3. Personaliza las descripciones de tus gravedades +4. Añade o elimina gravedades desde el final de tu lista, con un mínimo de una y un máximo de diez +5. Activar la gravedad "Desconocido" + +**Nota**: Si intentas eliminar una gravedad a la que se hace referencia en una [regla de notificación][2], se te pedirá que confirmes tu decisión. Si decides continuar, se desactivarán las reglas de notificación afectadas, ya que dejarán de ser válidas. La eliminación de una gravedad o el cambio de la gravedad inicial no actualiza automáticamente ninguna consulta de [Incident Management Analytics][3]. + +## Niveles de estado + +{{< img src="/service_management/incidents/incident_settings/settings_info_status_levels.png" alt="Niveles de estado personalizables en la configuración del incidente" style="width:100%;" >}} + +Utiliza la configuración de nivel de estado para: + +1. Personalizar las descripciones de los estados +2. Activar el estado opcional `Completed` + +**Nota**: La eliminación del estado `Completed` no actualiza automáticamente los incidentes en el estado `Completed` y no actualiza automáticamente ninguna consulta de [Incident Management Analytics][3] que haga referencia explícita al mismo. Cualquier regla de notificación que haga referencia al estado `Completed` se desactiva. + +## Texto auxiliar + +{{< img src="/service_management/incidents/incident_settings/settings_info_helper_text.png" alt="Configuración del texto auxiliar de Declarar incidente" style="width:100%;">}} + +El texto auxiliar aparece junto al [Modal de creación de incidentes][4] y ayuda a tus respondedores a entender cómo deben definir el incidente. + +Puedes utilizar markdown en el texto auxiliar para añadir listas con sangría, texto formateado e hipervínculos a otros recursos. + +## Incidentes privados (visibilidad del incidente) + +_Por defecto: desactivado_ + +La **visibilidad** de un incidente determina qué usuarios de tu organización de Datadog pueden verlo. Si la visibilidad del incidente es **organización**, cualquier usuario con permiso **Lectura de incidentes** puede verlo. Si la visibilidad del incidente es **privada**, solo podrán verla los respondedores del incidente o los usuarios con el permiso **Acceso global a incidentes privados**. + +En la [página de incidentes de Datadog][5], puedes buscar incidentes privados utilizando la faceta **Visibilidad** de la izquierda. También puedes añadir condiciones en torno a la visibilidad del incidente al definir [reglas de notificación][2] del incidente. + +### Incidentes privados en Slack + +Al declarar incidentes privados, Datadog crea canales privados de Slack en lugar de canales públicos. + +Si conviertes un incidente en privado, Datadog archiva el canal de incidentes existente, crea un nuevo canal privado y añade a él todos los respondedores existentes. + +Para convertir un incidente en privado en Slack, utiliza `/datadog incident private`. + +## Eliminación del incidente + +_Por defecto: desactivado_ + +Cuando la eliminación del incidente está habilitada para un tipo de incidente, cualquier usuario con el permiso **Escritura de incidentes** puede eliminar cualquier incidente del tipo de incidente. + +Una vez eliminado un incidente, ya no influye en los análisis del incidente y ningún usuario puede acceder a él. Los incidentes eliminados no se pueden recuperar. + +## Anular las marcas de tiempo de estado + +_Por defecto: desactivado_ + +Cuando se habilitan las anulaciones de fecha y hora en un tipo de incidente, cualquier usuario con el permiso **Escritura de incidente** puede definir anulaciones de fecha y hora en cualquier incidente de ese tipo de incidente. + +Cuando está activada, puedes definir anulaciones para las marcas de tiempo `declared`, `detected` y `resolved` en un incidente. Para obtener más información, consulta [Incident Analytics][3]. + +## Incidentes de test + +_Por defecto: desactivado_ + +Cuando los incidentes de test están habilitados en un tipo de incidente, cualquier usuario con el permiso **Escritura de incidentes** puede declarar incidentes de test del tipo de incidente. + +Los incidentes de test se distinguen visualmente por un banner morado. Por defecto, los incidentes de test no aparecen en la búsqueda del incidente, no ejecutan automatizaciones, no ejecutan reglas de notificación ni afectan a los análisis. El declarante puede optar por estas funciones durante la declaración. + +Para más información, consulta [Uso de incidentes de test][6]. + +[1]: https://app.datadoghq.com/incidents/settings#Information +[2]: /es/incident_response/incident_management/setup_and_configuration/notification_rules +[3]: /es/incident_response/incident_management/analytics_and_reporting +[4]: /es/incident_response/incident_management/#from-the-incidents-page +[5]: https://app.datadoghq.com/incidents +[6]: /es/incident_response/incident_management/guides/test_incidents \ No newline at end of file diff --git a/content/es/incident_response/incident_management/setup_and_configuration/integrations/jira.md b/content/es/incident_response/incident_management/setup_and_configuration/integrations/jira.md new file mode 100644 index 00000000000..3b5d85ae8ae --- /dev/null +++ b/content/es/incident_response/incident_management/setup_and_configuration/integrations/jira.md @@ -0,0 +1,59 @@ +--- +aliases: +- /es/service_management/incident_management/guides/jira +- /es/service_management/incident_management/integrations/jira/ +- /es/incident_response/incident_management/integrations/jira/ +further_reading: +- link: integrations/jira/ + tag: Documentación + text: Instalar la integración con Jira +- link: https://app.datadoghq.com/integrations/jira + tag: Aplicación + text: Cuadro de integración de Jira en la aplicación +- link: /incident_response/incident_management/post_incident/follow-ups + tag: Documentación + text: Exportar seguimientos a Jira +title: Integrar Jira con Incident Management de Datadog +--- + +## Información general + +Jira es un sistema de seguimiento de problemas y projects (proyecto) para equipos de software. La integración Datadog y Jira permite crear problemas a partir de incidents (incidentes) en Datadog y ver los problemas creados en Jira como eventos de Datadog. + +**Nota**: Esta integración solo sincroniza los datos de Datadog con Jira. Las actualizaciones realizadas en Jira no se sincronizan con los incidents (incidentes) de Datadog. + +La integración de Jira con Incident Management de Datadog te ofrece las siguientes ventajas: +- **Mayor visibilidad**: garantiza que todas las partes interesadas estén inmediatamente informadas sobre las incidencias, facilitando una respuesta más rápida. +- **Compatibilidad con los flujos de trabajo existentes**: se integra perfectamente con tus procesos actuales, facilitando la planificación del trabajo y la gestión de prioridades con Jira. +- **Asignación y configuración flexibles**: Con las plantillas dinámicas, puedes asignar gravedades de Datadog a prioridades de Jira, asignar estados de incident (incidente) a estados de Jira, añadir etiquetas personalizadas y definir cesionarios dinámicos. + +## Requisitos previos + +Para utilizar la creación automática de tickets, instala la integración a través del [cuadro de integración de Jira][1]. Para obtener más información, consulta la documentación de [Integración de Jira][2]. + +## Instalación + +1. En la [page (página) de configuración de integración][3], busca la integración de Jira. +2. Haz clic en **Enable Jira issue creation** (Activar creación de problemas de Jira) para permitir la creación manual o automática de Jira. +3. Selecciona tu cuenta de Jira, project (proyecto) y el tipo de problema. +4. Añade una condición para definir cuándo crear automáticamente un problema de Jira. Si esta condición se deja en blanco, se crea un problema de Jira para todos los incidents (incidentes) nuevos. +5. Define una plantilla con variables dinámicas para rellenar los campos del ticket de Jira. Escribe `{{` para insertar variables de plantilla de incident (incidente) en campos como **Summary** (Resumen), **Reporter** (Informador) y **Description** (Descripción). Las variables dinámicas solo funcionan con **string** (cadenas) [tipos de campo de Jira][5]. + +{{< img src="service_management/incidents/guide/jira/incident_jira_settings.png" alt="Configuraciones de integración de Jira en las que se muestran ajustes de la cuenta, reglas de creación condicionales y propiedades de Jira con variables de plantilla" style="width:80%;" >}} + +6. Configura las asignaciones de estado y gravedad para sincronizar los estados y gravedad de incident (incidente) con los estados y prioridades de Jira. + +{{< img src="service_management/incidents/guide/jira/incident_jira_mappings.png" alt="Asignaciones de estado y de gravedad de Jira en las que se muestran estados de incident (incidente) asignados a estados y niveles de gravedad de Jira asignados a propiedades de Jira" style="width:80%;" >}} + +A medida que se crean incidents (incidentes), también se crea un problema en la instancia de Jira correspondiente. Este problema de Jira se vincula al incident (incidente) en Datadog como referencia. +El problema de Jira se sincroniza unidireccionalmente con el incident (incidente) en función de la plantilla y de las asignaciones definidas en la [page (página) de Configuración de integración][3]. + +## Referencias adicionales + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: https://app.datadoghq.com/integrations/jira +[2]: /es/integrations/jira/ +[3]: https://app.datadoghq.com/incidents/settings?integration=jira§ion=integrations +[4]: https://app.datadoghq.com/incidents +[5]: https://developer.atlassian.com/platform/forge/manifest-reference/modules/jira-custom-field-type \ No newline at end of file diff --git a/content/es/integrations/hudi.md b/content/es/integrations/hudi.md index 6d82c07097b..52772814b19 100644 --- a/content/es/integrations/hudi.md +++ b/content/es/integrations/hudi.md @@ -1,125 +1,100 @@ --- app_id: hudi -app_uuid: ee9cd120-9667-4a81-a309-c34f5942406a -assets: - dashboards: - Hudi Overview: assets/dashboards/overview.json - integration: - auto_install: true - configuration: - spec: assets/configuration/spec.yaml - events: - creates_events: false - metrics: - check: hudi.action.duration - metadata_path: metadata.csv - prefix: hudi. - service_checks: - metadata_path: assets/service_checks.json - source_type_id: 10217 - source_type_name: Hudi - monitors: - Commit duration is high: assets/monitors/commit_duration.json - saved_views: - hudi_error_logs: assets/saved_views/error_logs.json - hudi_overview: assets/saved_views/hudi_overview.json - hudi_patterns: assets/saved_views/hudi_patterns.json -author: - homepage: https://www.datadoghq.com - name: Datadog - sales_email: info@datadoghq.com - support_email: help@datadoghq.com categories: - recopilación de logs custom_kind: integración -dependencies: -- https://github.com/DataDog/integrations-core/blob/master/hudi/README.md -display_on_public_website: true -draft: false -git_integration_title: hudi -integration_id: hudi -integration_title: Hudi +description: Realiza el seguimiento de las métricas de tu configuración de Hudi. integration_version: 4.0.0 -is_public: true -manifest_version: 2.0.0 -name: hudi -public_title: Hudi -short_description: Realiza el seguimiento de las métricas de tu configuración de Hudi. +media: [] supported_os: - Linux - Windows - macOS -tile: - changelog: CHANGELOG.md - classifier_tags: - - Categoría::Recopilación de logs - - Sistema operativo compatible::Linux - - Sistema operativo compatible::Windows - - Sistema operativo compatible::macOS - - Oferta::Integración - configuration: README.md#Configuración - description: Realiza el seguimiento de las métricas de tu configuración de Hudi. - media: [] - overview: README.md#Información general - support: README.md#Soporte - title: Hudi +title: Hudi --- - - - - ## Información general -Este check monitoriza [Hudi][1]. -Es compatible con [versiones][2] de Hudi `0.10.0` y posteriores. +Este check monitoriza [Hudi](https://hudi.apache.org/). +Es compatible con las [versiones] de Hudi (https://github.com/apache/hudi/releases) `0.10.0` y posteriores. ## Configuración ### Instalación -El check de check está incluido en el paquete del [Datadog Agent][3]. +El check de Hudi se incluye en el paquete del [Datadog Agent](https://app.datadoghq.com/account/settings/agent/latest). No es necesaria ninguna instalación adicional en tu servidor. ### Configuración -1. [Configura][4] el [Reportador de métricas JMX][5] en Hudi: - - ``` - hoodie.metrics.on=true - hoodie.metrics.reporter.type=JMX - hoodie.metrics.jmx.host= - hoodie.metrics.jmx.port= - ``` +1. [Configura](https://hudi.apache.org/docs/configurations#Metrics-Configurations) el [JMX Metrics Reporter](https://hudi.apache.org/docs/metrics/#jmxmetricsreporter) en Hudi: + ``` + hoodie.metrics.on=true + hoodie.metrics.reporter.type=JMX + hoodie.metrics.jmx.host= + hoodie.metrics.jmx.port= + ``` -2. Edita el archivo `hudi.d/conf.yaml`, que se encuentra en la carpeta `conf.d/` en la raíz del +1. Edita el archivo `hudi.d/conf.yaml`, que se encuentra en la carpeta `conf.d/` en la raíz del directorio de configuración del Agent para empezar a recopilar tus datos de rendimiento de Hudi. - Para conocer todas las opciones de configuración disponibles, consulta el [hudi.d/conf.yaml de ejemplo][6]. + Consulta el [hudi.d/conf.yaml de ejemplo](https://github.com/DataDog/integrations-core/blob/master/hudi/datadog_checks/hudi/data/conf.yaml.example) para conocer todas las opciones de configuración disponibles. - Este check tiene un límite de 350 métricas por instancia. El número de métricas devueltas se indica al ejecutar el [comando de estado][7] del Datadog Agent. - Puedes especificar las métricas que te interesan editando la [configuración][6].. - Para saber cómo personalizar las métricas que se van a recopilar,, consulta la [documentación de checks de JMX][8] para obtener instrucciones más detalladas. - Si necesitas monitorizar más métricas, ponte en contacto con el [servicio de asistencia de Datadog][9]. - -3. [Reinicia el Agent][10]. + Este check tiene un límite de 350 métricas por instancia. El número de métricas devueltas se indica al ejecutar el [comando de estado](https://github.com/DataDog/integrations-core/blob/master/hudi/assets/service_checks.json) del Datadog Agent. + Puedes especificar las métricas que te interesan editando la [configuración](https://github.com/DataDog/integrations-core/blob/master/hudi/datadog_checks/hudi/data/conf.yaml.example). + Para saber cómo personalizar las métricas que se recopilarán, consulta la [documentación de checks de JMX](https://docs.datadoghq.com/integrations/java/) para obtener instrucciones más detalladas. + Si necesitas monitorizar más métricas, ponte en contacto con el [soporte de Datadog](https://docs.datadoghq.com/help/). +1. [Reinicia el Agent](https://docs.datadoghq.com/agent/guide/agent-commands/#start-stop-and-restart-the-agent) ### Validación -[Ejecuta el subcomando `status` del Agent][11] y busca `hudi` en la sección **Checks**. +[Ejecuta el subcomando `status` del Agent](https://docs.datadoghq.com/agent/guide/agent-commands/#agent-status-and-information) y busca `hudi` en la sección Checks. ## Datos recopilados ### Métricas -{{< get-metrics-from-git "hudi" >}} - +| | | +| --- | --- | +| **hudi.action.bytes_written**
(rate) | La cantidad total de bytes escritos en una acción (commit, deltacommit, replacecommit, compaction, etc)
_Se muestra como byte_ | +| **hudi.action.commit_time**
(gauge) | El tiempo de confirmación de una acción (commit, deltacommit, replacecommit, compaction, etc)
_Se muestra como milisegundo_ | +| **hudi.action.compacted_records_updated**
(rate) | La cantidad de registros compactados actualizados en una acción (commit, deltacommit, replacecommit, compaction, etc)
_Se muestra como registro_ | +| **hudi.action.create_time**
(rate) | El tiempo de creación de una acción (commit, deltacommit, replacecommit, compaction, etc)
_Se muestra como milisegundo_ | +| **hudi.action.duration**
(gauge) | La cantidad de tiempo que se tardó en realizar con éxito una acción en un lote de registros (commit, deltacommit, replacecommit, compaction, etc)
_Se muestra como milisegundo_ | +| **hudi.action.files_inserted**
(rate) | La cantidad de archivos insertados (commit, deltacommit, replacecommit, compaction, etc)
_Se muestra como archivo_ | +| **hudi.action.files_updated**
(rate) | La cantidad de archivos actualizados (commit, deltacommit, replacecommit, compaction, etc)
_Se muestra como archivo_ | +| **hudi.action.insert_records_written**
(rate) | El número de registros de inserción escritos en una acción (commit, deltacommit, replacecommit, compaction, etc)
_Se muestra como registro_ | +| **hudi.action.log_files_compacted**
(rate) | El número de archivos de log compactados en una acción (commit, deltacommit, replacecommit, compaction, etc)
_Se muestra como archivo_ | +| **hudi.action.log_files_size**
(rate) | El tamaño de todos los archivos de log en una acción (commit, deltacommit, replacecommit, compaction, etc)
_Se muestra como byte_ | +| **hudi.action.partitions_written**
(rate) | El número de particiones escritas en una acción (commit, deltacommit, replacecommit, compaction, etc)| +| **hudi.action.records_written**
(rate) | El número de registros escritos en una acción (commit, deltacommit, replacecommit, compaction, etc)
_Se muestra como registro_ | +| **hudi.action.scan_time**
(rate) | El tiempo total de exploración en una acción (commit, deltacommit, replacecommit, compaction, etc)
_Se muestra como milisegundo_ | +| **hudi.action.time.50th_percentile**
(gauge) | Mide el percentil 50 del tiempo necesario para completar la acción (commit, deltacommit, replacecommit, compaction, etc)
_Se muestra como nanosegundo_ | +| **hudi.action.time.75th_percentile**
(gauge) | Mide el percentil 75 del tiempo necesario para completar una acción (commit, deltacommit, replacecommit, compaction, etc)
_Se muestra como nanosegundo_ | +| **hudi.action.time.95th_percentile**
(gauge) | Mide el percentil 95 del tiempo necesario para completar una acción (commit, deltacommit, replacecommit, compaction, etc)
_Se muestra como nanosegundo_ | +| **hudi.action.time.98th_percentile**
(gauge) | Mide el percentil 98 del tiempo necesario para completar una acción (commit, deltacommit, replacecommit, compaction, etc)
_Se muestra como nanosegundo_ | +| **hudi.action.time.999th_percentile**
(gauge) | Mide el percentil 999 del tiempo necesario para completar una acción (commit, deltacommit, replacecommit, compaction, etc)
_Se muestra como nanosegundo_ | +| **hudi.action.time.99th_percentile**
(gauge) | Mide el percentil 99 del tiempo necesario para completar una acción (commit, deltacommit, replacecommit, compaction, etc)
_Se muestra como nanosegundo_ | +| **hudi.action.time.count**
(rate) | Mide el recuento de veces que se completa una acción (commit, deltacommit, replacecommit, compaction, etc)| +| **hudi.action.time.max**
(gauge) | Mide la cantidad máxima de tiempo para completar una acción (commit, deltacommit, replacecommit, compaction, etc)
_Se muestra como nanosegundo_ | +| **hudi.action.time.mean**
(gauge) | Mide la cantidad media de tiempo para completar una acción (commit, deltacommit, replacecommit, compaction, etc)
_Se muestra como nanosegundo_ | +| **hudi.action.time.min**
(gauge) | Mide la cantidad mínima de tiempo para completar una acción (commit, deltacommit, replacecommit, compaction, etc)
_Se muestra como nanosegundo_ | +| **hudi.action.time.std_dev**
(gauge) | Mide la desviación estándar del tiempo necesario para completar una acción (commit, deltacommit, replacecommit, compaction, etc)
_Se muestra como nanosegundo_ | +| **hudi.action.update_records_written**
(rate) | La cantidad de registros de actualización escritos en una acción (commit, deltacommit, replacecommit, compaction, etc)
_Se muestra como registro_ | +| **hudi.action.upsert_time**
(rate) | El tiempo de upsert de una acción (commit, deltacommit, replacecommit, compaction, etc)
_Se muestra como milisegundo_ | +| **hudi.clean.duration**
(gauge) | El tiempo total dedicado a la limpieza
_Se muestra en milisegundos_ | +| **hudi.clean.files_deleted**
(gauge) | El número de archivos borrados en limpiezas
_Se muestra como archivo_ | +| **hudi.finalize.duration**
(gauge) | El tiempo total empleado en finalizar
_Se muestra en milisegundos_ | +| **hudi.finalize.files_finalized**
(gauge) | El número de archivos finalizados"
_Se muestra como archivo_ | +| **hudi.index.command.duration**
(gauge) | El tiempo empleado en ejecutar un comando de índice (UPSERT, INSERT_OVERWRITE, etc.)
_Se muestra en milisegundos_ | +| **hudi.rollback.duration**
(gauge) | El tiempo total pasado en rollback
_Se muestra como milisegundo_ | +| **hudi.rollback.files_deleted**
(gauge) | El número de archivos borrados en rollback
_Se muestra como archivo_ | ### Recopilación de logs -_Disponible para la versión 6.0 o posteriores del Agent_ +_Disponible para las versiones 6.0 o posteriores del Agent_ -1. Hudi utiliza el generador de logs `log4j` por defecto. Para personalizar el formato, edita el archivo `log4j.properties` en tu directorio `conf` de [Flink][13] o [Spark][14]. Un ejemplo de archivo `log4j.properties` es: +1. Hudi usa el registrador `log4j` por defecto. Para personalizar el formato, edita el archivo `log4j.properties` en el directorio `conf` de [Flink](https://github.com/apache/flink/tree/release-1.11.4/flink-dist/src/main/flink-bin/conf) o [Spark](https://github.com/apache/spark/tree/v3.1.2/conf). Un archivo de ejemplo de `log4j.properties` es: ```conf log4j.rootCategory=INFO, file @@ -130,23 +105,23 @@ _Disponible para la versión 6.0 o posteriores del Agent_ log4j.appender.file.layout.ConversionPattern=%d{yyyy-MM-dd HH:mm:ss,SSS} %-5p %-60c %x - %m%n ``` -2. Por defecto, el pipeline de integración de Datadog admite el siguiente patrón de conversión: +1. Por defecto, el pipeline de integración de Datadog admite el siguiente patrón de conversión: - ```text - %d{yyyy-MM-dd HH:mm:ss,SSS} %-5p %-60c %x - %m%n - ``` + ```text + %d{yyyy-MM-dd HH:mm:ss,SSS} %-5p %-60c %x - %m%n + ``` Un ejemplo de marca de tiempo válida es: `2020-02-03 18:43:12,251`. - Clona y edita el [pipeline de la integración][15] si tienes un formato diferente. + Clona y edita el [pipeline de integración](https://docs.datadoghq.com/logs/processing/#integration-pipelines) si tienes un formato diferente. -3. La recopilación de logs está deshabilitada por defecto en el Datadog Agent; habilítala en tu archivo `datadog.yaml`: +1. La recopilación de logs está desactivada en forma predeterminada en el Datadog Agent, actívala en tu archivo `datadog.yaml`: ```yaml logs_enabled: true ``` -4. Descomenta y edita el bloque de configuración de logs en tu archivo `hudi.d/conf.yaml`. Cambia los valores de los parámetros `path` y `service` en función de tu entorno. Consulta el [hudi.d/conf.yaml de ejemplo][6] para conocer todas las opciones de configuración disponibles. +1. Quita los comentarios y edita el bloque de configuración de logs en tu archivo `hudi.d/conf.yaml`. Cambia los valores de los parámetros `path` y `service` en función de tu entorno. Consulta [hudi.d/conf.yaml de ejemplo](https://github.com/DataDog/integrations-core/blob/master/hudi/datadog_checks/hudi/data/conf.yaml.example) para ver todas las opciones de configuración disponibles. ```yaml logs: @@ -158,31 +133,19 @@ _Disponible para la versión 6.0 o posteriores del Agent_ pattern: \d{4}\-(0?[1-9]|1[012])\-(0?[1-9]|[12][0-9]|3[01]) name: new_log_start_with_date ``` + ### Eventos La integración Hudi no incluye eventos. -### Checks de servicios -{{< get-service-checks-from-git "hudi" >}} +### Checks de servicio + +**hudi.can_connect** + +Devuelve `CRITICAL` si el Agent no puede conectarse y recopilar métricas de la instancia de Hudi supervisada, `WARNING` si no se recopilan métricas y `OK` en caso contrario. +_Estados: ok, critical, warning_ ## Solucionar problemas -¿Necesitas ayuda? [Consulta el servicio de asistencia de Datadog][9]. - - -[1]: https://hudi.apache.org/ -[2]: https://github.com/apache/hudi/releases -[3]: https://app.datadoghq.com/account/settings/agent/latest -[4]: https://hudi.apache.org/docs/configurations#Metrics-Configurations -[5]: https://hudi.apache.org/docs/metrics/#jmxmetricsreporter -[6]: https://github.com/DataDog/integrations-core/blob/master/hudi/datadog_checks/hudi/data/conf.yaml.example -[7]: https://github.com/DataDog/integrations-core/blob/master/hudi/assets/service_checks.json -[8]: https://docs.datadoghq.com/es/integrations/java/ -[9]: https://docs.datadoghq.com/es/help/ -[10]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#start-stop-and-restart-the-agent -[11]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#agent-status-and-information -[12]: https://github.com/DataDog/integrations-core/blob/master/hudi/metadata.csv -[13]: https://github.com/apache/flink/tree/release-1.11.4/flink-dist/src/main/flink-bin/conf -[14]: https://github.com/apache/spark/tree/v3.1.2/conf -[15]: https://docs.datadoghq.com/es/logs/processing/#integration-pipelines \ No newline at end of file +¿Necesitas ayuda? Ponte en contacto con el [soporte de Datadog](https://docs.datadoghq.com/help/). \ No newline at end of file diff --git a/content/es/integrations/hyperv.md b/content/es/integrations/hyperv.md index b9e17de2bb2..b3684eb28ce 100644 --- a/content/es/integrations/hyperv.md +++ b/content/es/integrations/hyperv.md @@ -1,99 +1,69 @@ --- +aliases: +- /es/integrations/hyperv app_id: hyper-v -app_uuid: 6024e97b-c3c6-45e3-ba71-a48adeebc191 -assets: - dashboards: - hyper-v: assets/dashboards/overview.json - integration: - auto_install: true - configuration: - spec: assets/configuration/spec.yaml - events: - creates_events: false - metrics: - check: hyperv.hypervisor_logical_processor.total_run_time - metadata_path: metadata.csv - prefix: hyperv. - service_checks: - metadata_path: assets/service_checks.json - source_type_id: 10046 - source_type_name: HyperV -author: - homepage: https://www.datadoghq.com - name: Datadog - sales_email: info@datadoghq.com - support_email: help@datadoghq.com categories: - nube - sistema operativo y sistema -- windows +- Windows custom_kind: integración -dependencies: -- https://github.com/DataDog/integrations-core/blob/master/hyperv/README.md -display_on_public_website: true -draft: false -git_integration_title: hyperv -integration_id: hyper-v -integration_title: HyperV +description: Monitoriza la tecnología de virtualización de Hyper-V de Microsoft. +further_reading: +- link: https://www.datadoghq.com/blog/monitor-microsoft-hyperv-with-datadog + tag: blog + text: Monitorizar Microsoft Hyper-V con Datadog integration_version: 3.0.0 -is_public: true -manifest_version: 2.0.0 -name: hyperv -public_title: HyperV -short_description: Monitoriza la tecnología de virtualización de Hyper-V de Microsoft. +media: [] supported_os: -- windows -tile: - changelog: CHANGELOG.md - classifier_tags: - - Category::Cloud - - Category::OS & System - - Category::Windows - - SO compatible::Windows - - Oferta::Integración - configuration: README.md#Configuración - description: Monitoriza la tecnología de virtualización de Hyper-V de Microsoft. - media: [] - overview: README.md#Información general - resources: - - resource_type: Blog - url: https://www.datadoghq.com/blog/monitor-microsoft-hyperv-with-datadog - support: README.md#Soporte - title: HyperV +- Windows +title: HyperV --- - - - - ## Información general -Este check monitoriza [Hyper-V][1] a través del Datadog Agent. +Este check monitoriza [Hyper-V](https://docs.microsoft.com/en-us/windows-server/virtualization/hyper-v/hyper-v-on-windows-server) a través del Datadog Agent. ## Configuración ### Instalación -El check de Hyper-V está incluido en el paquete del [Datadog Agent][2]. No se necesita ninguna instalación adicional en tu servidor. +El check de Hyper-V se incluye en el paquete del [Datadog Agent](https://app.datadoghq.com/account/settings/agent/latest). No es necesaria ninguna instalación adicional en tu servidor. ### Configuración -1. Edita el archivo `hyperv.d/conf.yaml`, que se encuentra en la carpeta `conf.d/` en la raíz del directorio de configuración de tu Agent, para recopilar los datos de rendimiento de Hyper-V. Para conocer todas las opciones de configuración disponibles, consulta el [hyperv.d/conf.yaml de ejemplo][3]. +1. Edita el archivo `hyperv.d/conf.yaml`, en la carpeta `conf.d/` en la raíz de tu directorio de configuración del Agent para recopilar tus datos de rendimiento de Hyper-V. Consulta el [hyperv.d/conf.yaml de ejemplo](https://github.com/DataDog/integrations-core/blob/master/hyperv/datadog_checks/hyperv/data/conf.yaml.example) para conocer todas las opciones de configuración disponibles. -2. [Reinicia el Agent][4]. +1. [Reinicia el Agent](https://docs.datadoghq.com/agent/guide/agent-commands/#start-stop-and-restart-the-agent). -**Nota**: Las versiones 1.5.0 o posteriores de este check usan una implementación nueva para la recopilación de métricas, que requiere Python 3. Para los hosts que no pueden usar Python 3, o si quieres usar una versión heredada de este check, consulta la siguiente [configuración][5]. +**Nota**: Las versiones 1.5.0 o posteriores de este check utilizan una nueva implementación para la recopilación de métricas, que requiere Python 3. Para hosts que no pueden utilizar Python 3, o si deseas utilizar una versión anterior de este check, consulta la siguiente [configuración](https://github.com/DataDog/integrations-core/blob/7.33.x/hyperv/datadog_checks/hyperv/data/conf.yaml.example). ### Validación -[Ejecuta el subcomando de estado del Agent][6] y busca `hyperv` en la sección Checks. +[Ejecuta el subcomando de estado del Agent](https://docs.datadoghq.com/agent/guide/agent-commands/#agent-status-and-information) y busca `hyperv` en la sección Checks. ## Datos recopilados ### Métricas -{{< get-metrics-from-git "hyper-v" >}} - -### Checks de servicios +| | | +| --- | --- | +| **hyperv.dynamic_memory_balancer.available_memory**
(gauge) | La cantidad de memoria que queda en el nodo.
_Se muestra como byte_ | +| **hyperv.dynamic_memory_balancer.average_pressure**
(gauge) | Este contador representa la presión media en la VM.
_Se muestra en porcentaje_ | +| **hyperv.hypervisor_logical_processor.context_switches_per_sec**
(gauge) | La velocidad combinada a la que todos los procesadores del ordenador pasan de un subproceso a otro.
_Se muestra como operación_ | +| **hyperv.hypervisor_logical_processor.guest_run_time**
(gauge) | El porcentaje de tiempo empleado por el procesador en código invitado.
_Se muestra como porcentaje_ | +| **hyperv.hypervisor_logical_processor.hypervisor_run_time**
(gauge) | Porcentaje de tiempo dedicado por el procesador al código del hipervisor.
_Se muestra como porcentaje_ | +| **hyperv.hypervisor_logical_processor.idle_time**
(gauge) | Porcentaje de tiempo que pasa el procesador en estado inactivo.
_Se muestra como porcentaje_ | +| **hyperv.hypervisor_logical_processor.total_run_time**
(gauge) | Porcentaje de tiempo dedicado por el procesador al código del huésped y del hipervisor.
_Se muestra como porcentaje_ | +| **hyperv.hypervisor_root_virtual_processor.guest_run_time**
(gauge) | Porcentaje de tiempo empleado por el procesador virtual en código huésped.
_Se muestra como porcentaje_ | +| **hyperv.hypervisor_root_virtual_processor.hypervisor_run_time**
(gauge) | Porcentaje de tiempo dedicado por el procesador virtual al código del hipervisor.
_Se muestra como porcentaje_ | +| **hyperv.hypervisor_root_virtual_processor.total_run_time**
(gauge) | Porcentaje de tiempo dedicado por el procesador virtual al código del huésped y del hipervisor.
_Se muestra como porcentaje_ | +| **hyperv.hypervisor_virtual_processor.guest_run_time**
(gauge) | Porcentaje de tiempo empleado por el procesador virtual en código huésped.
_Se muestra como porcentaje_ | +| **hyperv.hypervisor_virtual_processor.hypervisor_run_time**
(gauge) | Porcentaje de tiempo dedicado por el procesador virtual al código del hipervisor.
_Se muestra como porcentaje_ | +| **hyperv.hypervisor_virtual_processor.total_run_time**
(gauge) | Porcentaje de tiempo dedicado por el procesador virtual al código del huésped y del hipervisor.
_Se muestra como porcentaje_ | +| **hyperv.virtual_network_adapter.bytes_per_sec**
(gauge) | La velocidad a la que se envían y reciben bytes a través de cada adaptador de red.
_Se muestra como byte_ | +| **hyperv.vm_vid_partition.physical_pages_allocated**
(gauge) | El número de páginas físicas asignadas.
_Se muestra como bloque_ | +| **hyperv.vm_vid_partition.remote_physical_pages**
(gauge) | El número de páginas físicas no asignadas desde el nodo NUMA preferido.
_Se muestra como bloque_ | + +### Checks de servicio Hyper-V no incluye checks de servicio. @@ -103,20 +73,10 @@ Hyper-V no incluye eventos. ## Solucionar problemas -¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog][8]. +¿Necesitas ayuda? Ponte en contacto con el [soporte de Datadog](https://docs.datadoghq.com/help/). ## Referencias adicionales -Más enlaces, artículos y documentación útiles: - -- [Monitorizar Hyper-V de Microsoft con Datadog][9] +Documentación útil adicional, enlaces y artículos: -[1]: https://docs.microsoft.com/en-us/windows-server/virtualization/hyper-v/hyper-v-on-windows-server -[2]: https://app.datadoghq.com/account/settings/agent/latest -[3]: https://github.com/DataDog/integrations-core/blob/master/hyperv/datadog_checks/hyperv/data/conf.yaml.example -[4]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#start-stop-and-restart-the-agent -[5]: https://github.com/DataDog/integrations-core/blob/7.33.x/hyperv/datadog_checks/hyperv/data/conf.yaml.example -[6]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#agent-status-and-information -[7]: https://github.com/DataDog/integrations-core/blob/master/hyperv/metadata.csv -[8]: https://docs.datadoghq.com/es/help/ -[9]: https://www.datadoghq.com/blog/monitor-microsoft-hyperv-with-datadog +- [Monitorizar Microsoft Hyper-V con Datadog](https://www.datadoghq.com/blog/monitor-microsoft-hyperv-with-datadog) \ No newline at end of file diff --git a/content/es/integrations/imperva.md b/content/es/integrations/imperva.md new file mode 100644 index 00000000000..c7ae6409aef --- /dev/null +++ b/content/es/integrations/imperva.md @@ -0,0 +1,113 @@ +--- +app_id: imperva +categories: +- seguridad +- recopilación de logs +custom_kind: integración +description: Registros de auditoría Imperva y eventos WAF +integration_version: 1.0.0 +media: +- caption: Dashboard de Imperva + image_url: images/imperva_dashboard.png + media_type: imagen +supported_os: +- Linux +- Windows +- macOS +title: Imperva +--- +## Información general + +Imperva ofrece soluciones de seguridad para redes y aplicaciones destinadas a proteger las aplicaciones y las API de ataques y a monitorizar incidentes. También actúa como red de distribución de contenido (CDN) global para almacenar páginas en caché y reducir el uso de ancho de banda. + +La integración de Datadog con Imperva recopila logs y métricas de la [API de Attack Analytics](https://docs.imperva.com/bundle/cloud-application-security/page/cloud-v1-api-definition.htm), de la [API de Audit Trail](https://docs.imperva.com/bundle/cloud-application-security/page/audit-trail-api-definition.htm) y de la [API de métricas de Cloud Application Security Stats](https://docs.imperva.com/bundle/cloud-application-security/page/cloud-v1-api-definition.htm), que generan: + +**Logs de Attack Analytics** +Estos logs representan incidentes de ciberataque contra tu cuenta y te ofrecen una visión completa de los ataques y atacantes que tienen como objetivo tus recursos. Se forman agregando y analizando alertas de seguridad, para luego agruparlas en incidentes de seguridad. + +**Logs de Audit Trail** +Estos logs contienen las acciones realizadas en tu cuenta por usuarios de la cuenta, procesos del sistema, administradores del sistema y personal de asistencia técnica de Imperva. + +**Métricas de Cloud Application Security Statistics** +Estas métricas de cortafuegos de aplicaciones web (WAF) miden eventos, visitas, rendimiento del almacenamiento en caché y uso de ancho de banda de los sitios protegidos por Imperva. + +## Configuración + +### Instalación + +**Paso 1: Obtener tu clave de API y tu ID de API de Imperva** + +1. Inicia sesión en tu cuenta de Imperva en https://management.service.imperva.com/ y haz clic en **Account/My Profile** (Cuenta/Mi perfil). +1. En la parte inferior de la página, haz clic en **Add API key** (Añadir clave de API) y sigue las instrucciones. +1. Después de crear la clave de API, copia y guarda los valores de **Clave de API** e **ID de API**. +1. Asegúrate de que el campo **Status** (Estado) de tu clave API está **activado**. + +**Paso 2: Obtener tu ID de cuenta de Imperva** + +1. En la consola de Imperva, selecciona la cuenta que quieres monitorizar. +1. Haz clic en el botón **Account** (Cuenta) y copia el ID de la cuenta actual. Es el número que aparece entre paréntesis después del nombre de la cuenta. + +**Paso 3: Crear la integración Datadog** + +1. Pega el ID de cuenta, el ID de API y la clave de API en los campos siguientes. +1. Introduce un nombre para la cuenta. + +**Paso 4 (opcional): Añadir ID de sitio** + +Para obtener métricas más detalladas por sitio, añade ID de sitio a tu cuenta. + +1. Recupera el ID del sitio de la consola de gestión de Imperva. +1. Pega el ID del sitio y la URL del sitio en los campos siguientes. +1. El ID y la URL del sitio se utilizarán para etiquetar las métricas de Imperva de modo que puedan filtrarse por sitio en Datadog. + +### Configuración + +### Validación + +Una vez instalada la integración, tus logs de Imperva estarán disponibles para su consulta en logs de Datadog utilizando `source:imperva`. Las métricas de Cloud Application Security Stats estarán disponibles con el prefijo `imperva.`. + +## Datos recopilados + +### Métricas + +| | | +| --- | --- | +| **imperva.visits_human**
(count) | Visitas humanas
_Se muestra como evento_ | +| **imperva.visits_bot**
(count) | Visitas de bots
_Se muestra como evento_ | +| **imperva.hits_human**
(count) | Solicitudes humanas
_Se muestra como solicitud_ | +| **imperva.hits_human_per_second**
(rate) | Solicitudes humanas por segundo
_Se muestra como solicitud_ | +| **imperva.hits_bot**
(count) | Solicitudes de bots
_Se muestra como solicitud_ | +| **imperva.hits_bot_per_second**
(rate) | Solicitudes de bots por segundo
_Se muestra como solicitud_ | +| **imperva.hits_blocked**
(count) | Solicitudes bloqueadas
_Se muestra como solicitud_ | +| **imperva.hits_blocked_per_second**
(rate) | Solicitudes bloqueadas por segundo
_Se muestra como solicitud_ | +| **imperva.caching_hits_standard**
(count) | Almacenamiento en caché de solicitudes estándar
_Se muestra como solicitud_ | +| **imperva.caching_bytes_standard**
(count) | Almacenamiento en caché del ancho de banda estándar
_Se muestra en bytes_ | +| **imperva.caching_hits_advanced**
(count) | Almacenamiento en caché de solicitudes avanzadas
_Se muestra como solicitud_ | +| **imperva.caching_bytes_advanced**
(count) | Almacenamiento en caché del ancho de banda avanzado
_Se muestra en bytes_ | +| **imperva.caching_hits_total**
(count) | Almacenamiento en caché de solicitudes total
_Se muestra como solicitud_ | +| **imperva.caching_bytes_total**
(count) | Almacenamiento en caché del ancho de banda avanzado
_Se muestra en bytes_ | +| **imperva.bandwidth_bandwidth**
(count) | Ancho de banda
_Se muestra en bytes_ | +| **imperva.bandwidth_bits_per_second**
(rate) | Bits por segundo
_Se muestra en bits_ | +| **imperva.incapsula_rule_incidents**
(count) | Incidentes de reglas de Incapsula
_Se muestra como evento_ | + +### Checks de servicio + +Imperva no incluye checks de servicio. + +### Eventos + +Imperva no incluye eventos. + +### Logs + +La integración de Datadog con Imperva recopila logs y métricas de la API de Imperva, lo que genera: + +- Eventos de seguridad WAF: Logs que capturan eventos de seguridad detectados por el cortafuegos de aplicaciones web (WAF) de Imperva, que incluyen amenazas, actividad maliciosa e infracciones de políticas que afectan a tus aplicaciones. + +- Logs de Attack Analytics: Alertas de seguridad agregadas y agrupadas en incidentes, que proporcionan una visión completa de los ciberataques dirigidos a tu cuenta. + +- Logs de acceso WAF: Logs de todas las solicitudes y respuestas entre los usuarios y el proxy de Imperva, que incluye el tráfico desde la caché de Imperva, lo que proporciona una visibilidad completa del tráfico de las aplicaciones. + +## Solucionar problemas + +¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog](https://docs.datadoghq.com/help/). \ No newline at end of file diff --git a/content/es/integrations/infiniband.md b/content/es/integrations/infiniband.md new file mode 100644 index 00000000000..cdb52fbf38e --- /dev/null +++ b/content/es/integrations/infiniband.md @@ -0,0 +1,296 @@ +--- +app_id: infiniband +categories: +- network +custom_kind: integración +description: Recopilar y representar gráficamente el rendimiento y las estadísticas + de InfiniBand +integration_version: 1.1.0 +media: [] +supported_os: +- linux +title: InfiniBand +--- +## Información general + +Este check monitoriza [InfiniBand](https://www.infinibandta.org/) a través del Datadog Agent. + +Esta integración monitoriza las transferencias de datos mediante la recopilación de contadores y contadores de hardware RDMA del subsistema InfiniBand. Realiza un seguimiento de las métricas de rendimiento a través de la interfaz de InfiniBand del núcleo Linux, que proporciona contadores de métricas incluso cuando se utilizan transportes alternativos como RDMA sobre Ethernet convergente (RoCE). + +Obtén visibilidad de tu infraestructura de red de alto rendimiento para ayudar a identificar cuellos de botella y problemas de rendimiento en cargas de trabajo con gran cantidad de datos. Al monitorizar tanto los contadores estándar de InfiniBand como los contadores de hardware RDMA, obtendrás información completa sobre el rendimiento de la red, los errores y las estadísticas de paquetes en todos tus dispositivos y puertos. + +Las métricas clave recopiladas incluyen contadores de puertos como bytes/paquetes transmitidos y recibidos, recuento de errores y métricas específicas del hardware RDMA, lo que proporciona a los operadores los datos necesarios para garantizar un rendimiento óptimo de su infraestructura de red de alta velocidad. + +## Configuración + +Sigue las instrucciones a continuación para instalar y configurar este check para un Agent que se ejecute en un host. El check recopila métricas leyendo y enviando contadores de forma predeterminada desde los directorios [`/sys/class/infiniband//ports/*/counters/` y `/sys/class/infiniband//ports/*/hw_counters/`](https://docs.nvidia.com/networking/display/ofedv512580/infiniband+interface). Para asegurarte de que esta integración funciona, debes garantizar que el Agent tiene los permisos adecuados para acceder y leer los contadores de estos directorios. + +### Instalación + +El check de InfiniBand se incluye en el paquete del [Datadog Agent](https://app.datadoghq.com/account/settings/agent/latest). +No es necesaria ninguna instalación adicional en tu servidor. + +### Configuración + +1. Para empezar a recopilar tus datos de rendimiento de InfiniBand, crea y edita el archivo `infiniband.d/conf.yaml`, en la carpeta `conf.d/` en la raíz de tu directorio de configuración del Agent. Consulta el [infiniband.d/conf.yaml de ejemplo](https://github.com/DataDog/integrations-core/blob/master/infiniband/datadog_checks/infiniband/data/conf.yaml.example) para conocer todas las opciones de configuración disponibles. + +1. Este check funciona con una configuración mínima. Configura los parámetros opcionales, que se proporcionan para controlar mejor dónde busca el Agent los datos y qué datos recopilar si no se desean los comportamientos predeterminados. Las opciones incluyen configurar el directorio donde residen los contadores, excluir dispositivos/puertos específicos y omitir o añadir contadores para su recopilación. + +```yaml +init_config: +instances: + - + ## @param infiniband_path - string - optional - default: /sys/class/infiniband + ## The path to the infiniband directory. + # + # infiniband_path: /sys/class/infiniband + + ## @param exclude_devices - list of strings - optional + ## A list of devices to exclude from the check. Devices are located in the infiniband directory. + ## The devices are located by default in /sys/class/infiniband. + # + # exclude_devices: + # - mlx5_0 + # - efa0 + # - ib1 + + ## @param additional_counters - list of strings - optional + ## A list of additional counters to collect. The counter names are the files in which the counter + ## values are stored. These are located inside /sys/class/infiniband/devices//ports//counters. + # + # additional_counters: + # - additional_counter + # - rx_mpwqe_frag + + ## @param additional_hw_counters - list of strings - optional + ## A list of additional hardware counters to collect. The counter names are the files in which the + ## counter values are stored. These are located inside + ## /sys/class/infiniband/devices//ports//hw_counters. + # + # additional_hw_counters: + # - additional_hw_counter + # - rx_mpwqe_frag + + ## @param exclude_counters - list of strings - optional + ## A list of counters to exclude from the check. + # + # exclude_counters: + # - duplicate_request + # - lifespan + + ## @param exclude_hw_counters - list of strings - optional + ## A list of hardware counters to exclude from the check. + # + # exclude_hw_counters: + # - VL15_dropped + # - link_downed +``` + +3. [Reinicia el Agent](https://docs.datadoghq.com/agent/guide/agent-commands/#start-stop-and-restart-the-agent). + +### Validación + +[Ejecuta el subcomando de estado del Agent](https://docs.datadoghq.com/agent/guide/agent-commands/#agent-status-and-information) y busca `infiniband` en la sección Checks. + +## Datos recopilados + +### Métricas + +| | | +| --- | --- | +| **infiniband.VL15_dropped**
(gauge) | Número de paquetes entrantes de Virtual Lane 15 descartados debido a limitaciones de recursos (por ejemplo, falta de búferes) del puerto
_Se muestra como paquete_ | +| **infiniband.VL15_dropped.count**
(count) | Número de nuevos paquetes de Virtual Lane 15 descartados debido a limitaciones de recursos desde el último envío de métricas
_Se muestra como paquete_ | +| **infiniband.excessive_buffer_overrun_errors**
(gauge) | Número de errores de desbordamiento excesivo del búfer
_Se muestra como error_ | +| **infiniband.excessive_buffer_overrun_errors.count**
(count) | Número de nuevos errores de desbordamiento excesivo del búfer desde el último envío de métricas
_Se muestra como error_ | +| **infiniband.link_downed**
(gauge) | Número de veces que la máquina de estado de formación de puertos ha fallado en el proceso de recuperación de errores de enlace y ha interrumpido el enlace
_Se muestra como ocurrencia_ | +| **infiniband.link_downed.count**
(count) | Número de nuevas veces que la máquina de estado de entrenamiento de puertos ha interrumpido el enlace desde el último envío de métricas
_Se muestra como ocurrencia_ | +| **infiniband.link_error_recovery**
(gauge) | Número de veces que la máquina de estado de entrenamiento de puertos ha completado con éxito el proceso de recuperación de errores de enlace
_Se muestra como ocurrencia_ | +| **infiniband.link_error_recovery.count**
(count) | Número de nuevas recuperaciones con éxito de errores de enlace desde el último envío de métricas
_Se muestra como ocurrencia_ | +| **infiniband.local_link_integrity_errors**
(gauge) | Número de veces que el recuento de errores físicos locales superó el umbral especificado por LocalPhyErrors
_Se muestra como error_ | +| **infiniband.local_link_integrity_errors.count**
(count) | Número de nuevas veces que los errores físicos locales han superado el umbral desde el último envío de métricas
_Se muestra como error_ | +| **infiniband.multicast_rcv_packets**
(gauge) | Número de paquetes multicast, incluidos los paquetes multicast que contienen errores (legado)
_Se muestra como paquete_ | +| **infiniband.multicast_rcv_packets.count**
(count) | Número de nuevos paquetes de multicast recibidos desde el último envío de métricas (legacy)
_Se muestra como paquete_ | +| **infiniband.multicast_xmit_packets**
(gauge) | Número de paquetes de multicast transmitidos en todos los Virtual Lanes desde el puerto (heredado)
_Se muestra como paquete_ | +| **infiniband.multicast_xmit_packets.count**
(count) | Número de nuevos paquetes de multicast trasmitidos desde el último envío de métricas (legacy)
_Se muestra como paquete_ | +| **infiniband.port_multicast_rcv_packets**
(gauge) | Número de paquetes de multicast recibidos
_Se muestra como paquete_ | +| **infiniband.port_multicast_rcv_packets.count**
(count) | Número de nuevos paquetes de multicast recibidos desde el último envío de métricas
_Se muestra como paquete_ | +| **infiniband.port_multicast_xmit_packets**
(gauge) | Número de paquetes de multicast transmitidos en todas las Virtual Lanes desde el puerto
_Se muestra como paquete_ | +| **infiniband.port_multicast_xmit_packets.count**
(count) | Número de nuevos paquetes de multicast transmitidos desde el último envío de métricas
_Se muestra como paquete_ | +| **infiniband.port_phys_state**
(gauge) | Estado del enlace físico| +| **infiniband.port_rcv_constraint_errors**
(gauge) | Número de paquetes recibidos en el puerto físico del conmutador que se descartan
_Se muestra como error_ | +| **infiniband.port_rcv_constraint_errors.count**
(count) | Número de nuevos paquetes descartados en la recepción desde el último envío de métricas
_Se muestra como error_ | +| **infiniband.port_rcv_data**
(gauge) | Número de octetos de datos, divididos por 4, recibidos en todas las Virtual Lanes desde el puerto
_Se muestra como byte_ | +| **infiniband.port_rcv_data.count**
(count) | Número de nuevos octetos de datos (dividido por 4) recibidos desde el último envío de métricas
_Se muestra como byte_ | +| **infiniband.port_rcv_data_64**
(gauge) | Número de octetos de datos, divididos por 4, recibidos en todas las Virtual Lanes desde el puerto
_Se muestra como byte_ | +| **infiniband.port_rcv_data_64.count**
(count) | Número de nuevos octetos de datos (dividido por 4) recibidos desde el último envío de métricas
_Se muestra como byte_ | +| **infiniband.port_rcv_discards**
(gauge) | Número de paquetes recibidos descartados
_Se muestra como paquete_ | +| **infiniband.port_rcv_discards.count**
(count) | Número de nuevos paquetes recibidos descartados desde el último envío de métricas
_Se muestra como paquete_ | +| **infiniband.port_rcv_errors**
(gauge) | Número de paquetes con error recibidos en el puerto
_Se muestra como error_ | +| **infiniband.port_rcv_errors.count**
(count) | Número de nuevos paquetes de error recibidos desde el último envío de métricas
_Se muestra como error_ | +| **infiniband.port_rcv_packets**
(gauge) | Número de paquetes (puede incluir paquetes que contengan Errores)
_Se muestra como paquete_ | +| **infiniband.port_rcv_packets.count**
(count) | Número de nuevos paquetes recibidos desde el último envío de métricas
_Se muestra como paquete_ | +| **infiniband.port_rcv_packets_64**
(gauge) | Número de paquetes de 64 bits recibidos
_Se muestra como paquete_ | +| **infiniband.port_rcv_packets_64.count**
(count) | Número de nuevos paquetes de 64 bits recibidos desde el último envío de métricas
_Se muestra como paquete_ | +| **infiniband.port_rcv_remote_physical_errors**
(gauge) | Número de paquetes marcados con el delimitador EBP recibidos en el puerto
_Se muestra como error_ | +| **infiniband.port_rcv_remote_physical_errors.count**
(count) | Número de nuevos paquetes con delimitador EBP recibidos desde el último envío de métricas
_Se muestra como error_ | +| **infiniband.port_rcv_switch_relay_errors**
(gauge) | Número de paquetes recibidos en el puerto que fueron descartados porque no pudieron ser reenviados por el switch relay
_Se muestra como error_ | +| **infiniband.port_rcv_switch_relay_errors.count**
(count) | Número de paquetes nuevos descartados debido a un fallo de reenvío del switch relay desde el último envío de métricas
_Se muestra como error_ | +| **infiniband.port_state**
(gauge) | Estado del puerto| +| **infiniband.port_unicast_rcv_packets**
(gauge) | Número de paquetes unicast, incluidos los paquetes unicast con errores
_Se muestra como paquete_ | +| **infiniband.port_unicast_rcv_packets.count**
(count) | Número de nuevos paquetes unicast recibidos desde el último envío de métricas
_Se muestra como paquete_ | +| **infiniband.port_unicast_xmit_packets**
(gauge) | Número de paquetes unicast transmitidos en todas las Virtual Lanes desde el puerto
_Se muestra como paquete_ | +| **infiniband.port_unicast_xmit_packets.count**
(count) | Número de nuevos paquetes unicast transmitidos desde el último envío de métricas
_Se muestra como paquete_ | +| **infiniband.port_xmit_constraint_errors**
(gauge) | Número de paquetes no transmitidos desde el puerto físico del switch
_Se muestra como error_ | +| **infiniband.port_xmit_constraint_errors.count**
(count) | Número de paquetes nuevos no transmitidos debido a restricciones desde el último envío de métricas
_Se muestra como error_ | +| **infiniband.port_xmit_data**
(gauge) | Número de octetos de datos, divididos por 4, transmitidos en todas las Virtual Lanes desde el puerto
_Se muestra como byte_ | +| **infiniband.port_xmit_data.count**
(count) | Número de nuevos octetos de datos (divididos por 4) transmitidos desde el último envío de métricas
_Se muestra como byte_ | +| **infiniband.port_xmit_data_64**
(gauge) | Volumen de datos transmitidos de 64 bits
_Se muestra como byte_ | +| **infiniband.port_xmit_data_64.count**
(count) | Cambio en el volumen de datos de 64 bits transmitidos desde el último envío de métricas
_Se muestra como byte_ | +| **infiniband.port_xmit_discards**
(gauge) | Número de paquetes salientes descartados por el puerto porque el puerto está caído o congestionado
_Se muestra como paquete_ | +| **infiniband.port_xmit_discards.count**
(count) | Número de nuevos paquetes salientes descartados desde el último envío de métricas
_Se muestra como paquete_ | +| **infiniband.port_xmit_packets**
(gauge) | Número de paquetes transmitidos en todas las Virtual Lanes desde este puerto
_Se muestra como paquete_ | +| **infiniband.port_xmit_packets.count**
(count) | Número de nuevos paquetes transmitidos desde el último envío de métricas
_Se muestra como paquete_ | +| **infiniband.port_xmit_packets_64**
(gauge) | Número de paquetes de 64 bits transmitidos
_Se muestra como paquete_ | +| **infiniband.port_xmit_packets_64.count**
(count) | Número de nuevos paquetes de 64 bits transmitidos desde el último envío de métricas
_Se muestra como paquete_ | +| **infiniband.port_xmit_wait**
(gauge) | Número de tics durante los cuales el puerto tenía datos para transmitir, pero no se envió ningún dato.| +| **infiniband.port_xmit_wait.count**
(count) | Número de nuevos tics de espera de transmisión desde el último envío de métricas| +| **infiniband.rdma.duplicate_request**
(gauge) | Número de paquetes recibidos. Una solicitud duplicada es una solicitud que se había ejecutado previamente
_Se muestra como error_ | +| **infiniband.rdma.duplicate_request.count**
(count) | Número de nuevos paquetes recibidos que eran solicitudes duplicadas desde el último envío de métricas
_Se muestra como error_ | +| **infiniband.rdma.implied_nak_seq_err**
(gauge) | Número de veces que el solicitado decidió un acuse de recibo con un número de secuencia de paquete mayor que el esperado para una lectura o respuesta RDMA
_Se muestra como error_ | +| **infiniband.rdma.implied_nak_seq_err.count**
(count) | Número de nuevos acuses de recibo con número de secuencia de paquetes superior al esperado desde el último envío de métricas
_Se muestra como error_ | +| **infiniband.rdma.lifespan**
(gauge) | El periodo máximo en ms que define la antigüedad del contador lee
_Se muestra como milisegundo_ | +| **infiniband.rdma.lifespan.count**
(count) | Cambio en el periodo máximo de antigüedad desde el último envío de métricas
_Se muestra en milisegundos_ | +| **infiniband.rdma.link_down_events_phy**
(gauge) | Número de eventos de caída del enlace físico
_Se muestra como ocurrencia_ | +| **infiniband.rdma.link_down_events_phy.count**
(count) | Número de nuevos eventos de caída del enlace físico desde el último envío de métricas
_Se muestra como ocurrencia_ | +| **infiniband.rdma.local_ack_timeout_err**
(gauge) | Número de veces que ha expirado el temporizador de acuse de recibo del par de colas para los pares de colas de transporte de conexión fiable, conexión fiable ampliada y conexión dinámica en el lado del remitente
_Se muestra como error_ | +| **infiniband.rdma.local_ack_timeout_err.count**
(count) | Número de nuevos vencimientos del temporizador de acuse de recibo del par de colas desde el último envío de métricas
_Se muestra como error_ | +| **infiniband.rdma.np_cnp_sent**
(gauge) | Número de paquetes de notificación de congestión enviados por el punto de notificación cuando se percató de la congestión experimentada
_Se muestra como paquete_ | +| **infiniband.rdma.np_cnp_sent.count**
(count) | Número de nuevos paquetes de notificación de congestión enviados debido a la congestión desde el último envío de métricas
_Se muestra como paquete_ | +| **infiniband.rdma.np_ecn_marked_roce_packets**
(gauge) | Número de paquetes RoCEv2 recibidos por el punto de notificación que se marcaron por experimentar congestión
_Se muestra como paquete_ | +| **infiniband.rdma.np_ecn_marked_roce_packets.count**
(count) | Número de nuevos paquetes RoCEv2 marcados de congestión recibidos desde el último envío de métricas
_Se muestra como paquete_ | +| **infiniband.rdma.out_of_buffer**
(gauge) | Número de abandonos producidos por falta de entradas de cola de trabajo para los pares de colas asociados
_Se muestra como error_ | +| **infiniband.rdma.out_of_buffer.count**
(count) | Número de nuevas bajas por falta de entradas en la cola de trabajo desde el último envío de métricas
_Se muestra como error_ | +| **infiniband.rdma.out_of_sequence**
(gauge) | Número de paquetes fuera de secuencia recibidos
_Se muestra como error_ | +| **infiniband.rdma.out_of_sequence.count**
(count) | Número de nuevos paquetes fuera de secuencia recibidos desde el último envío de métricas
_Se muestra como error_ | +| **infiniband.rdma.packet_seq_err**
(gauge) | Número de paquetes de error de secuencia de acuse de recibo negativo recibidos. No se ha superado el límite de reintentos del par de colas
_Se muestra como error_ | +| **infiniband.rdma.packet_seq_err.count**
(count) | Número de nuevos paquetes de error de secuencia de acuse de recibo negativo recibidos desde el último envío de métricas
_Se muestra como error_ | +| **infiniband.rdma.rdma_read_bytes**
(gauge) | Número de bytes leídos en operaciones RDMA
_Se muestra como byte_ | +| **infiniband.rdma.rdma_read_bytes.count**
(count) | Número de bytes nuevos leídos en operaciones RDMA desde el último envío de métricas
_Se muestra como byte_ | +| **infiniband.rdma.rdma_read_resp_bytes**
(gauge) | Número de bytes en las respuestas de lectura RDMA
_Se muestra como byte_ | +| **infiniband.rdma.rdma_read_resp_bytes.count**
(count) | Número de bytes nuevos en respuestas de lectura RDMA desde el último envío de métricas
_Se muestra como byte_ | +| **infiniband.rdma.rdma_read_wr_err**
(gauge) | Número de errores de solicitud de trabajo de lectura RDMA
_Se muestra como error_ | +| **infiniband.rdma.rdma_read_wr_err.count**
(count) | Número de nuevos errores de solicitud de trabajo de lectura RDMA desde el último envío de métricas
_Se muestra como error_ | +| **infiniband.rdma.rdma_read_wrs**
(gauge) | Número de solicitudes de trabajo de lectura RDMA
_Se muestra como solicitud_ | +| **infiniband.rdma.rdma_read_wrs.count**
(count) | Número de nuevas solicitudes de trabajo de lectura RDMA desde el último envío de métricas
_Se muestra como solicitud_ | +| **infiniband.rdma.rdma_write_bytes**
(gauge) | Número de bytes escritos en operaciones RDMA
_Se muestra como byte_ | +| **infiniband.rdma.rdma_write_bytes.count**
(count) | Número de bytes nuevos escritos en operaciones RDMA desde el último envío de métricas
_Se muestra como byte_ | +| **infiniband.rdma.rdma_write_recv_bytes**
(gauge) | Número de bytes recibidos en operaciones de escritura RDMA
_Se muestra como byte_ | +| **infiniband.rdma.rdma_write_recv_bytes.count**
(count) | Número de bytes nuevos recibidos en operaciones de escritura RDMA desde el último envío de métricas
_Se muestra como byte_ | +| **infiniband.rdma.rdma_write_wr_err**
(gauge) | Número de errores de solicitud de trabajo de escritura RDMA
_Se muestra como error_ | +| **infiniband.rdma.rdma_write_wr_err.count**
(count) | Número de nuevos errores de solicitud de trabajo de escritura RDMA desde el último envío de métricas
_Se muestra como error_ | +| **infiniband.rdma.rdma_write_wrs**
(gauge) | Número de solicitudes de trabajo de escritura RDMA
_Se muestra como solicitud_ | +| **infiniband.rdma.rdma_write_wrs.count**
(count) | Número de nuevas solicitudes de trabajo de escritura RDMA desde el último envío de métricas
_Se muestra como solicitud_ | +| **infiniband.rdma.recv_bytes**
(gauge) | Número de bytes recibidos en solicitudes de trabajo
_Se muestra como byte_ | +| **infiniband.rdma.recv_bytes.count**
(count) | Número de bytes nuevos recibidos en solicitudes de trabajo desde el último envío de métricas
_Se muestra como byte_ | +| **infiniband.rdma.recv_wrs**
(gauge) | Número de solicitudes de trabajo recibidas
_Se muestra como solicitud_ | +| **infiniband.rdma.recv_wrs.count**
(count) | Número de nuevas solicitudes de trabajo recibidas desde la última presentación de métricas
_Se muestra como solicitud_ | +| **infiniband.rdma.req_cqe_error**
(gauge) | Número de errores de entrada en la cola de finalización (solicitante)
_Se muestra como error_ | +| **infiniband.rdma.req_cqe_error.count**
(count) | Número de nuevos errores de entrada en la cola de finalización (solicitante) desde el último envío de métricas
_Se muestra como error_ | +| **infiniband.rdma.req_cqe_flush_error**
(gauge) | Número de errores de vaciado de la cola de finalización (solicitante)
_Se muestra como error_ | +| **infiniband.rdma.req_cqe_flush_error.count**
(count) | Número de nuevos errores de vaciado de la cola de finalización (solicitante) desde el último envío de métricas
_Se muestra como error_ | +| **infiniband.rdma.req_remote_access_errors**
(gauge) | Número de errores de acceso remoto (solicitante)
_Se muestra como error_ | +| **infiniband.rdma.req_remote_access_errors.count**
(count) | Número de nuevos errores de acceso remoto (solicitante) desde el último envío de métricas
_Se muestra como error_ | +| **infiniband.rdma.req_remote_invalid_request**
(gauge) | Número de solicitudes remotas no válidas
_Se muestra como solicitud_ | +| **infiniband.rdma.req_remote_invalid_request.count**
(count) | Número de nuevas solicitudes remotas no válidas desde el último envío de métricas
_Se muestra como solicitud_ | +| **infiniband.rdma.resp_cqe_error**
(gauge) | Número de errores de entrada en la cola de finalización (respondedor)
_Se muestra como error_ | +| **infiniband.rdma.resp_cqe_error.count**
(count) | Número de nuevos errores de entrada en la cola de finalización (respondedor) desde el último envío de métricas
_Se muestra como error_ | +| **infiniband.rdma.resp_cqe_flush_error**
(gauge) | Número de errores de vaciado de la cola de finalización (respondedor)
_Se muestra como error_ | +| **infiniband.rdma.resp_cqe_flush_error.count**
(count) | Número de nuevos errores de vaciado de la cola de finalización (respondedor) desde el último envío de métricas
_Se muestra como error_ | +| **infiniband.rdma.resp_local_length_error**
(gauge) | Número de errores de longitud local (respondedor)
_Se muestra como error_ | +| **infiniband.rdma.resp_local_length_error.count**
(count) | Número de nuevos errores de longitud local (respondedor) desde el último envío de métricas
_Se muestra como error_ | +| **infiniband.rdma.resp_remote_access_errors**
(gauge) | Número de errores de acceso remoto (respondedor)
_Se muestra como error_ | +| **infiniband.rdma.resp_remote_access_errors.count**
(count) | Número de nuevos errores de acceso remoto (respondedor) desde el último envío de métricas
_Se muestra como error_ | +| **infiniband.rdma.rnr_nak_retry_err**
(gauge) | Número de errores de reintento de acuse de recibo negativo del receptor no listo
_Se muestra como error_ | +| **infiniband.rdma.rnr_nak_retry_err.count**
(count) | Número de nuevos errores de reintento de acuse de recibo negativo del receptor no preparado desde el último envío de métricas
_Se muestra como error_ | +| **infiniband.rdma.roce_adp_retrans**
(gauge) | Número de retransmisiones adaptables para tráfico RoCE
_Se muestra como ocurrencia_ | +| **infiniband.rdma.roce_adp_retrans.count**
(count) | Número de nuevas retransmisiones adaptativas para tráfico RoCE desde el último envío de métricas
_Se muestra como ocurrencia_ | +| **infiniband.rdma.roce_adp_retrans_to**
(gauge) | Número de veces que el tráfico RoCE alcanzó el tiempo de espera debido a la retransmisión adaptativa
_Se muestra como ocurrencia_ | +| **infiniband.rdma.roce_adp_retrans_to.count**
(count) | Número de nuevos tiempos de espera de tráfico RoCE debidos a retransmisión adaptativa desde el último envío de métricas
_Se muestra como ocurrencia_ | +| **infiniband.rdma.roce_slow_restart**
(gauge) | Número de veces que se utilizó el reinicio lento RoCE
_Se muestra como ocurrencia_ | +| **infiniband.rdma.roce_slow_restart.count**
(count) | Número de nuevos usos de reinicio lento RoCE desde el último envío de métricas
_Se muestra como ocurrencia_ | +| **infiniband.rdma.roce_slow_restart_cnps**
(gauge) | Número de veces que el reinicio lento RoCE generó paquetes de notificación de congestión
_Se muestra como ocurrencia_ | +| **infiniband.rdma.roce_slow_restart_cnps.count**
(count) | Número de nuevos paquetes de notificación de congestión generados por el reinicio lento RoCE desde el último envío de métricas
_Se muestra como ocurrencia_ | +| **infiniband.rdma.roce_slow_restart_trans**
(gauge) | Número de veces que el reinicio lento RoCE cambió de estado a reinicio lento
_Se muestra como ocurrencia_ | +| **infiniband.rdma.roce_slow_restart_trans.count**
(count) | Número de nuevos cambios de estado de reinicio lento RoCE desde el último envío de métricas
_Se muestra como ocurrencia_ | +| **infiniband.rdma.rp_cnp_handled**
(gauge) | Número de paquetes de notificación de congestión gestionados
_Se muestra como paquete_ | +| **infiniband.rdma.rp_cnp_handled.count**
(count) | Número de nuevos paquetes de notificación de congestión gestionados desde el último envío de métricas
_Se muestra como paquete_ | +| **infiniband.rdma.rp_cnp_ignored**
(gauge) | Número de paquetes de notificación de congestión ignorados
_Se muestra como paquete_ | +| **infiniband.rdma.rp_cnp_ignored.count**
(count) | Número de nuevos paquetes de notificación de congestión ignorados desde el último envío de métricas
_Se muestra como paquete_ | +| **infiniband.rdma.rx_atomic_requests**
(gauge) | Número de solicitudes RDMA atómicas recibidas
_Se muestra como solicitud_ | +| **infiniband.rdma.rx_atomic_requests.count**
(count) | Número de nuevas solicitudes RDMA atómicas recibidas desde el último envío de métricas
_Se muestra como solicitud_ | +| **infiniband.rdma.rx_buff_alloc_err**
(gauge) | Número de errores de asignación del búfer de recepción
_Se muestra como error_ | +| **infiniband.rdma.rx_buff_alloc_err.count**
(count) | Número de nuevos errores de asignación del búfer de recepción desde el último envío de métricas
_Se muestra como error_ | +| **infiniband.rdma.rx_bytes**
(gauge) | Número de bytes recibidos
_Se muestra como byte_ | +| **infiniband.rdma.rx_bytes.count**
(count) | Número de bytes nuevos recibidos desde el último envío de métricas
_Se muestra como byte_ | +| **infiniband.rdma.rx_cqe_compress_blks**
(gauge) | Número de bloques de cola de finalización comprimidos
_Se muestra como bloque_ | +| **infiniband.rdma.rx_cqe_compress_blks.count**
(count) | Número de nuevos bloques de cola de finalización comprimidos desde el último envío de métricas
_Se muestra como bloque_ | +| **infiniband.rdma.rx_cqe_compress_pkts**
(gauge) | Número de paquetes comprimidos de la cola de finalización
_Se muestra como paquete_ | +| **infiniband.rdma.rx_cqe_compress_pkts.count**
(count) | Número de nuevos paquetes de la cola de finalización comprimidos desde el último envío de métricas
_Se muestra como paquete_ | +| **infiniband.rdma.rx_dct_connect**
(gauge) | Número de solicitudes de conexión recibidas para los transportes conectados dinámicamente asociados
_Se muestra como conexión_ | +| **infiniband.rdma.rx_dct_connect.count**
(count) | Número de nuevas solicitudes de conexión de transporte conectado dinámicamente recibidas desde el último envío de métricas
_Se muestra como conexión_ | +| **infiniband.rdma.rx_drops**
(gauge) | Número de paquetes perdidos
_Se muestra como paquete_ | +| **infiniband.rdma.rx_drops.count**
(count) | Número de nuevos paquetes perdidos desde el último envío de métricas
_Se muestra como paquete_ | +| **infiniband.rdma.rx_icrc_encapsulated**
(gauge) | Número de paquetes RoCE con errores ICReliable Connected
_Se muestra como paquete_ | +| **infiniband.rdma.rx_icrc_encapsulated.count**
(count) | Número de nuevos paquetes RoCE con errores ICReliable Connected desde el último envío de métricas
_Se muestra como paquete_ | +| **infiniband.rdma.rx_mpwqe_filler**
(gauge) | Número de eventos de llenado de entrada de cola de trabajo multipaquete
_Se muestra como evento_ | +| **infiniband.rdma.rx_mpwqe_filler.count**
(count) | Número de nuevos eventos de llenado de entrada de cola de trabajo multipaquete desde el último envío de métricas
_Se muestra como evento_ | +| **infiniband.rdma.rx_mpwqe_frag**
(gauge) | Número de eventos de fragmento de entrada de cola de trabajo multipaquete
_Se muestra como evento_ | +| **infiniband.rdma.rx_mpwqe_frag.count**
(count) | Número de nuevos eventos de fragmento de entrada de cola de trabajo multipaquete desde el último envío de métricas
_Se muestra como evento_ | +| **infiniband.rdma.rx_out_of_buffer**
(gauge) | Número de eventos fuera de búfer en recepción
_Se muestra como evento_ | +| **infiniband.rdma.rx_out_of_buffer.count**
(count) | Número de nuevos eventos de búfer agotado en recepción desde el último envío de métricas
_Se muestra como evento_ | +| **infiniband.rdma.rx_pkts**
(gauge) | Número de paquetes recibidos
_Se muestra como paquete_ | +| **infiniband.rdma.rx_pkts.count**
(count) | Número de nuevos paquetes recibidos desde el último envío de métricas
_Se muestra como paquete_ | +| **infiniband.rdma.rx_read_requests**
(gauge) | Número de solicitudes de lectura recibidas
_Se muestra como solicitud_ | +| **infiniband.rdma.rx_read_requests.count**
(count) | Número de nuevas solicitudes de lectura recibidas desde el último envío de métricas
_Se muestra como solicitud_ | +| **infiniband.rdma.rx_vport_multicast_bytes**
(gauge) | Número de bytes de multicast recibidos en el puerto virtual
_Se muestra como byte_ | +| **infiniband.rdma.rx_vport_multicast_bytes.count**
(count) | Número de nuevos bytes de multicast recibidos en el puerto virtual desde el último envío de métricas
_Se muestra como byte_ | +| **infiniband.rdma.rx_vport_multicast_packets**
(gauge) | Número de paquetes multicast recibidos en el puerto virtual
_Se muestra como paquete_ | +| **infiniband.rdma.rx_vport_multicast_packets.count**
(count) | Número de nuevos paquetes multicast recibidos en el puerto virtual desde el último envío de métricas
_Se muestra como paquete_ | +| **infiniband.rdma.rx_vport_unicast_bytes**
(gauge) | Número de bytes unicast recibidos en el puerto virtual
_Se muestra como byte_ | +| **infiniband.rdma.rx_vport_unicast_bytes.count**
(count) | Número de nuevos bytes unicast recibidos en el puerto virtual desde el último envío de métricas
_Se muestra como byte_ | +| **infiniband.rdma.rx_vport_unicast_packets**
(gauge) | Número de paquetes unicast recibidos en el puerto virtual
_Se muestra como paquete_ | +| **infiniband.rdma.rx_vport_unicast_packets.count**
(count) | Número de nuevos paquetes unicast recibidos en el puerto virtual desde el último envío de métricas
_Se muestra como paquete_ | +| **infiniband.rdma.rx_wqe_err**
(gauge) | Número de errores de entrada en cola de trabajo en recepción
_Se muestra como error_ | +| **infiniband.rdma.rx_wqe_err.count**
(count) | Número de nuevos errores de entrada en cola de trabajo en la recepción desde el último envío de métricas
_Se muestra como error_ | +| **infiniband.rdma.rx_write_requests**
(gauge) | Número de solicitudes de escritura recibidas
_Se muestra como solicitud_ | +| **infiniband.rdma.rx_write_requests.count**
(count) | Número de nuevas solicitudes de escritura recibidas desde el último envío de métricas
_Se muestra como solicitud_ | +| **infiniband.rdma.send_bytes**
(gauge) | Número de bytes enviados
_Se muestra como byte_ | +| **infiniband.rdma.send_bytes.count**
(count) | Número de bytes nuevos enviados desde el último envío de métricas
_Se muestra como byte_ | +| **infiniband.rdma.send_wrs**
(gauge) | Número de solicitudes de trabajo enviadas
_Se muestra como solicitud_ | +| **infiniband.rdma.send_wrs.count**
(count) | Número de nuevas solicitudes de trabajo enviadas desde la última presentación de métricas
_Se muestra como solicitud_ | +| **infiniband.rdma.tx_bytes**
(gauge) | Número de bytes transmitidos
_Se muestra como byte_ | +| **infiniband.rdma.tx_bytes.count**
(count) | Número de bytes nuevos transmitidos desde el último envío de métricas
_Se muestra como byte_ | +| **infiniband.rdma.tx_pkts**
(gauge) | Número de paquetes transmitidos en todas las Virtual Lanes desde este puerto
_Se muestra como paquete_ | +| **infiniband.rdma.tx_pkts.count**
(count) | Número de nuevos paquetes transmitidos desde el último envío de métricas
_Se muestra como paquete_ | +| **infiniband.rdma.tx_vport_unicast_bytes**
(gauge) | Número de bytes unicast transmitidos en el puerto virtual
_Se muestra como byte_ | +| **infiniband.rdma.tx_vport_unicast_bytes.count**
(count) | Número de nuevos bytes unicast transmitidos en el puerto virtual desde el último envío de métricas
_Se muestra como byte_ | +| **infiniband.rdma.tx_vport_unicast_packets**
(gauge) | Número de paquetes unicast transmitidos en el puerto virtual
_Se muestra como paquete_ | +| **infiniband.rdma.tx_vport_unicast_packets.count**
(count) | Número de nuevos paquetes unicast transmitidos en el puerto virtual desde el último envío de métricas
_Se muestra como paquete_ | +| **infiniband.symbol_error**
(gauge) | Número de errores de enlace menores detectados en uno o más lanes físicas
_Se muestra como error_ | +| **infiniband.symbol_error.count**
(count) | Número de nuevos errores de enlace menores detectados desde el último envío de métricas
_Se muestra como error_ | +| **infiniband.unicast_rcv_packets**
(gauge) | Número de paquetes unicast, incluidos los paquetes unicast con errores (legacy)
_Se muestra como paquete_ | +| **infiniband.unicast_rcv_packets.count**
(count) | Número de nuevos paquetes unicast recibidos desde el último envío de métricas (legacy)
_Se muestra como paquete_ | +| **infiniband.unicast_xmit_packets**
(gauge) | Número de paquetes unicast transmitidos en todas las Virtual Lanes desde el puerto (legacy)
_Se muestra como paquete_ | +| **infiniband.unicast_xmit_packets.count**
(count) | Número de nuevos paquetes unicast transmitidos desde el último envío de métricas (legacy)
_Se muestra como paquete_ | + +### Eventos + +La integración de InfiniBand no incluye ningún evento. + +### Checks de servicio + +La integración de InfiniBand no incluye checks de servicio. + +## Solucionar problemas + +¿Necesitas ayuda? Ponte en contacto con el [soporte de Datadog](https://docs.datadoghq.com/help/). \ No newline at end of file diff --git a/content/es/integrations/iocs-dmi4apm.md b/content/es/integrations/iocs-dmi4apm.md new file mode 100644 index 00000000000..788049a1bc7 --- /dev/null +++ b/content/es/integrations/iocs-dmi4apm.md @@ -0,0 +1,63 @@ +--- +algolia: + subcategory: Integraciones de Marketplace +aliases: +- /es/integrations/iocs_dmi4apm +app_id: iocs-dmi4apm +categories: +- nube +- marketplace +- herramientas de desarrollo +custom_kind: integración +description: Integración de Datadog y MuleSoft para Application Performance Monitoring +integration_version: 2.3.0 +media: +- caption: 'DMI4APM: Logs de trazas (traces)' + image_url: images/dmi_apm_logs.png + media_type: imagen +- caption: 'DMI4APM: Información de trazas' + image_url: images/dmi_apm_trace.png + media_type: imagen +- caption: 'DMI4APM: Lista de trazas' + image_url: images/dmi_apm_traces.png + media_type: imagen +- caption: 'DMI4APM: Tramo (span) distribuido' + image_url: images/dmi_distributed_span.png + media_type: imagen +- caption: 'DMI4APM: Traza (trace) de tramo distribuido' + image_url: images/dmi_distributed_trace.png + media_type: imagen +- caption: 'DMI4APM: Lista de tramos' + image_url: images/dmi_distributed.png + media_type: imagen +supported_os: +- linux +- windows +- macos +title: Integración de Mule® para APM +--- +## Información general + +MuleSoft es una empresa de software especializada en soluciones de integración y gestión de API. Su principal producto, Anypoint Platform, es una plataforma de integración que permite a los desarrolladores conectar aplicaciones, datos y dispositivos en entornos on-premises y en la nube. + +Esta integración captura trazas de APM de las aplicaciones MuleSoft y proporciona información sobre el rendimiento y los problemas de las aplicaciones. Las trazas de APM permiten a los desarrolladores y equipos de operaciones obtener una visibilidad profunda del rendimiento de esta integración e identificar cuellos de botella, errores y degradación del rendimiento en tiempo real. + +### **Instrumentar tus aplicaciones Mule con nuestro Datadog Connector para Mule 4** + +Utiliza el conector de Datadog para Mule 4 con Datadog APM para obtener visibilidad utilizando los dashboards de rendimiento predefinidos. + +Mide el rendimiento de las operaciones en tus flujos de forma tan granular como sea necesario, utilizando tramos. + +Además, correlaciona los logs generados en una transacción en una única traza para acotar cualquier optimización del rendimiento o solución de problemas. + +## Soporte + +Tómate un momento para conocer el proceso de configuración de la integración de Mule® y Datadog para APM aquí: [Requisitos previos e instalación](https://docs.ioconnectservices.com/dmi4apm/apm-datadog-integration), y la [documentación del conector](https://docs.ioconnectservices.com/dmi4apm/apm-global-elements). + +Para solicitar asistencia o funciones, ponte en contacto con el servicio de asistencia de Nova a través de los siguientes canales: + +- Ventas: [products.sales@novacloud.io](mailto:products.sales@novacloud.io) +- Soporte técnico: [support_ddp@novacloud.io](mailto:support_ddp@novacloud.io) + +--- +Esta aplicación está disponible a través de Marketplace y cuenta con el respaldo de un socio tecnológico de Datadog. Haz clic aquí para adquirirla. \ No newline at end of file diff --git a/content/es/integrations/iocs-dsi.md b/content/es/integrations/iocs-dsi.md new file mode 100644 index 00000000000..38f0cfce3d9 --- /dev/null +++ b/content/es/integrations/iocs-dsi.md @@ -0,0 +1,294 @@ +--- +algolia: + subcategory: Integraciones de Marketplace +aliases: +- /es/integrations/iocs_dsi +app_id: iocs-dsi +categories: +- marketplace +- nube +custom_kind: integración +description: Monitoriza métricas de ingresos y transacciones de Stripe. +integration_version: 1.0.2 +media: +- caption: 'Stripe® Execs: Gestión de cuentas y aplicaciones' + image_url: images/StripeAccountAndApplicationManagement.png + media_type: imagen +- caption: 'Stripe® Execs: Interacción con el cliente' + image_url: images/StripeCustomerEngagementInteraction.png + media_type: imagen +- caption: 'Stripe® Execs: Transacciones e ingresos' + image_url: images/StripeExecsTransactionsAndRevenuesDashboard.png + media_type: imagen +- caption: 'Stripe® Execs: Ciclo de vida del pago' + image_url: images/StripePaymentLifeCycle.png + media_type: imagen +- caption: 'Stripe® Execs: Facturación y gestión de suscripciones' + image_url: images/StripeSubscriptionBillingAndManagement.png + media_type: imagen +supported_os: +- linux +title: Stripe® +--- +## Información general + +Obtén información valiosa de tus eventos de Stripe® con nuestra integración continua de Datadog **basada en el Agent**. Stripe® es una plataforma líder en el procesamiento de pagos en línea que permite a las empresas aceptar pagos, gestionar suscripciones y dirigir una variedad de operaciones financieras en todo el mundo. Esta integración ayuda a las empresas a monitorizar y visualizar más de 200 métricas de sus transacciones de Stripe® sin ningún esfuerzo, lo que permite una monitorización y un análisis exhaustivos. [Más información sobre Stripe](https://www.stripe.com/). + +Esta solución proporciona información general completa de eventos de pago, seguimiento de ingresos y monitorización de errores, lo que te ayuda a tomar decisiones informadas para optimizar tus operaciones financieras. + +Características principales: + +- Monitorización: Realiza un seguimiento y analiza las transacciones de pagos, las suscripciones y la actividad de los clientes para obtener una visibilidad instantánea de tus datos de Stripe®. +- Amplia cobertura de métricas: Admite más de 200 eventos clave de Stripe®, ofreciendo información detallada sobre tendencias de pago, frecuencias de error y rendimiento financiero. +- Monitor y dashboard preconfigurados: Despliega al instante un dashboard totalmente personalizable y configura un monitor para detectar anomalías. Esto te permitirá anticiparte a posibles problemas antes de que afecten a tu empresa. +- Manejo continuo de datos: Captura eventos de Stripe® a través de un webhook, procesa los datos de forma eficiente y los envía directamente a Datadog, reduciendo la latencia y proporcionando una experiencia de monitorización fiable. +- Escalable y fiable: Creado para manejar grandes volúmenes de eventos de Stripe®, asegurando que incluso las empresas en crecimiento puedan confiar en esta integración para obtener informes de datos precisos y oportunos seleccionando qué eventos escuchar de Stripe® en diferentes webhooks. + +Con esta integración, puedes transformar sin ningún esfuerzo datos de eventos de Stripe® en información práctica, lo que permitirá a tu empresa tomar decisiones basadas en datos con confianza. + +**Nota de seguridad importante:** +Esta integración no almacena ni procesa ninguna información de pago confidencial (como información de tarjetas de crédito o datos personales de clientes). Solo captura eventos como métricas de recuento y cantidad de transacciones de intento de pago como métricas gauge, garantizando que tus datos financieros permanezcan seguros a la vez que se respeta el pleno cumplimiento de las normativas del sector, como PCI-DSS. + +## Datos recopilados + +### Métricas + +| | | +| --- | --- | +| **ioconnect.stripe.agent**
(gauge) | Mostrar agentes de la integración de Datadog con Stripe en línea
_Se muestra como unidad_ | +| **ioconnect.stripe.account.application.authorized**
(count) | El usuario autoriza una aplicación. Enviado solo a la aplicación relacionada.
_Se muestra como unidad_ | +| **ioconnect.stripe.account.application.deauthorized**
(count) | El usuario desautoriza una aplicación. Enviado solo a la aplicación relacionada.
_Se muestra como unidad_ | +| **ioconnect.stripe.account.external_account.created**
(count) | Se crea la cuenta externa.
_Se muestra como unidad_ | +| **ioconnect.stripe.account.external_account.deleted**
(count) | Se borra la cuenta externa.
_Se muestra como unidad_ | +| **ioconnect.stripe.account.external_account.updated**
(count) | Se actualiza la cuenta externa.
_Se muestra como unidad_ | +| **ioconnect.stripe.account.updated**
(count) | El estado de la cuenta o la propiedad han cambiado.
_Se muestra como unidad_ | +| **ioconnect.stripe.application_fee.created**
(count) | La tarifa de la aplicación se crea en un cargo.
_Se muestra como unidad_ | +| **ioconnect.stripe.application_fee.refund.updated**
(count) | Se actualiza el reembolso de la tarifa de la aplicación.
_Se muestra como unidad_ | +| **ioconnect.stripe.application_fee.refunded**
(count) | Se reembolsa la tarifa de la aplicación, ya sea por reembolso de un cargo o reembolso directo de la tarifa de la aplicación. Esto incluye reembolsos parciales.
_Se muestra como unidad_ | +| **ioconnect.stripe.balance.available**
(count) | El saldo de Stripe se ha actualizado (por ejemplo, el cargo está disponible para ser abonado). Por defecto, Stripe transfiere automáticamente los fondos de tu saldo a tu cuenta bancaria diariamente. Este evento no se activa para transacciones negativas.
_Se muestra como unidad_ | +| **ioconnect.stripe.billing.alert.triggered**
(count) | Se alcanza el umbral de alerta personalizado.
_Se muestra como unidad_ | +| **ioconnect.stripe.billing_portal.configuration.created**
(count) | Se crea la configuración del portal.
_Se muestra como unidad_ | +| **ioconnect.stripe.billing_portal.configuration.updated**
(count) | Se actualiza la configuración del portal.
_Se muestra como unidad_ | +| **ioconnect.stripe.billing_portal.session.created**
(count) | Se crea la sesión del portal.
_Se muestra como unidad_ | +| **ioconnect.stripe.capability.updated**
(count) | La capacidad tiene nuevos requisitos o un nuevo estado.
_Se muestra como unidad_ | +| **ioconnect.stripe.cash_balance.funds_available**
(count) | Saldo de caja restante positivo después de que Stripe concilie automáticamente nuevos fondos en el saldo de caja. Si has activado la conciliación manual, este webhook se activará siempre que haya nuevos fondos en el saldo de caja.
_Se muestra como unidad_ | +| **ioconnect.stripe.charge.captured**
(count) | El cargo no capturado previamente es capturado.
_Se muestra como unidad_ | +| **ioconnect.stripe.charge.dispute.closed**
(count) | La disputa se cierra y su estado cambia a perdida, advertencia_cerrada o ganada.
_Se muestra como unidad_ | +| **ioconnect.stripe.charge.dispute.created**
(count) | El cliente disputa un cargo con su banco.
_Se muestra como unidad_ | +| **ioconnect.stripe.charge.dispute.funds_reinstated**
(count) | Los fondos se reintegran en tu cuenta después de cerrar una disputa. Esto incluye los pagos parcialmente reembolsados.
_Se muestra como unidad_ | +| **ioconnect.stripe.charge.dispute.funds_withdrawn**
(count) | Los fondos se retiran de tu cuenta debido a una disputa.
_Se muestra como unidad_ | +| **ioconnect.stripe.charge.dispute.updated**
(count) | Se actualiza la disputa (normalmente con pruebas).
_Se muestra como unidad_ | +| **ioconnect.stripe.charge.expired**
(count) | El cargo no capturado expira.
_Se muestra como unidad_ | +| **ioconnect.stripe.charge.failed**
(count) | Intento de cargo fallido.
_Se muestra como unidad_ | +| **ioconnect.stripe.charge.pending**
(count) | Se crea el cargo pendiente.
_Se muestra como unidad_ | +| **ioconnect.stripe.charge.refund.updated**
(count) | Se actualiza el reembolso en los métodos de pago seleccionados.
_Se muestra como unidad_ | +| **ioconnect.stripe.charge.refunded**
(count) | Se reembolsa el cargo, incluidos los reembolsos parciales.
_Se muestra como unidad_ | +| **ioconnect.stripe.charge.succeeded**
(count) | El cargo se ha realizado correctamente.
_Se muestra como unidad_ | +| **ioconnect.stripe.charge.updated**
(count) | Se actualiza la descripción del cargo o los metadatos, o en una captura asíncrona.
_Se muestra como unidad_ | +| **ioconnect.stripe.checkout.session.async_payment_failed**
(count) | El intento de pago utilizando un método de pago diferido falla.
_Se muestra como unidad_ | +| **ioconnect.stripe.checkout.session.async_payment_succeeded**
(count) | El intento de pago utilizando un método de pago diferido finalmente se realiza correctamente.
_Se muestra como unidad_ | +| **ioconnect.stripe.checkout.session.completed**
(count) | La sesión de pago ha finalizado correctamente.
_Se muestra como unidad_ | +| **ioconnect.stripe.checkout.session.expired**
(count) | La sesión de pago ha expirado.
_Se muestra como unidad_ | +| **ioconnect.stripe.climate.order.canceled**
(count) | Se cancela el pedido del clima.
_Se muestra como unidad_ | +| **ioconnect.stripe.climate.order.created**
(count) | Se crea el pedido del clima.
_Se muestra como unidad_ | +| **ioconnect.stripe.climate.order.delayed**
(count) | Se retrasa el pedido del clima.
_Se muestra como unidad_ | +| **ioconnect.stripe.climate.order.delivered**
(count) | Se entrega el pedido del clima.
_Se muestra como unidad_ | +| **ioconnect.stripe.climate.product.created**
(count) | Se crea el producto del clima.
_Se muestra como unidad_ | +| **ioconnect.stripe.climate.order.product_substituted**
(count) | El producto del pedido del clima se sustituye por otro.
_Se muestra como unidad_ | +| **ioconnect.stripe.climate.product.pricing_updated**
(count) | Se actualiza el producto del clima.
_Se muestra como unidad_ | +| **ioconnect.stripe.coupon.created**
(count) | Se crea el cupón.
_Se muestra como unidad_ | +| **ioconnect.stripe.coupon.deleted**
(count) | Se elimina el cupón.
_Se muestra como unidad_ | +| **ioconnect.stripe.coupon.updated**
(count) | Se actualiza el cupón.
_Se muestra como unidad_ | +| **ioconnect.stripe.credit_note.created**
(count) | Se crea la nota de crédito.
_Se muestra como unidad_ | +| **ioconnect.stripe.credit_note.updated**
(count) | Se actualiza la nota de crédito.
_Se muestra como unidad_ | +| **ioconnect.stripe.credit_note.voided**
(count) | Se elimina el crédito.
_Se muestra como unidad_ | +| **ioconnect.stripe.customer_cash_balance_transaction.created**
(count) | Se crea una nueva transacción de saldo de caja del cliente.
_Se muestra como unidad_ | +| **ioconnect.stripe.customer.created**
(count) | Se crea un nuevo cliente.
_Se muestra como unidad_ | +| **ioconnect.stripe.customer.deleted**
(count) | Se elimina el cliente.
_Se muestra como unidad_ | +| **ioconnect.stripe.customer.discount.created**
(count) | El cupón está vinculado a un cliente.
_Se muestra como unidad_ | +| **ioconnect.stripe.customer.discount.deleted**
(count) | El cupón se retira de un cliente.
_Se muestra como unidad_ | +| **ioconnect.stripe.customer.discount.updated**
(count) | El cliente pasa de un cupón a otro.
_Se muestra como unidad_ | +| **ioconnect.stripe.customer.source.created**
(count) | Se crea una nueva fuente para un cliente.
_Se muestra como unidad_ | +| **ioconnect.stripe.customer.source.deleted**
(count) | Se elimina una fuente de un cliente.
_Se muestra como unidad_ | +| **ioconnect.stripe.customer.source.expiring**
(count) | La tarjeta o la fuente expirarán al final del mes. Este evento solo funciona con integraciones legacy que utilizan los objetos tarjeta o fuente. Si utilizas la API de PaymentMethod, este evento no se producirá.
_Se muestra como unidad_ | +| **ioconnect.stripe.customer.source.updated**
(count) | Se cambia la información de la fuente.
_Se muestra como unidad_ | +| **ioconnect.stripe.customer.subscription.created**
(count) | El cliente se ha suscrito a un nuevo plan.
_Se muestra como unidad_ | +| **ioconnect.stripe.customer.subscription.deleted**
(count) | Finaliza la suscripción del cliente.
_Se muestra como unidad_ | +| **ioconnect.stripe.customer.subscription.paused**
(count) | La suscripción del cliente está en pausa. Solo se aplica cuando las suscripciones entran en estado pausado, no cuando se pausa el cobro del pago.
_Se muestra como unidad_ | +| **ioconnect.stripe.customer.subscription.pending_update_applied**
(count) | Se aplica la actualización pendiente de la suscripción del cliente y se actualiza la suscripción.
_Se muestra como unidad_ | +| **ioconnect.stripe.customer.subscription.pending_update_expired**
(count) | La actualización pendiente de la suscripción del cliente expira antes de que se pague la factura relacionada.
_Se muestra como unidad_ | +| **ioconnect.stripe.customer.subscription.resumed**
(count) | La suscripción del cliente ya no está en pausa. Solo se aplica con estado pausado cuando se reanuda la suscripción, no cuando se reanuda el cobro del pago.
_Se muestra como unidad_ | +| **ioconnect.stripe.customer.subscription.trial_will_end**
(count) | Se produce tres días antes de que finalice el periodo de prueba de una suscripción, o la prueba finaliza inmediatamente (utilizando trial_end=now).
_Se muestra como unidad_ | +| **ioconnect.stripe.customer.subscription.updated**
(count) | Cambios en la suscripción (por ejemplo, pasar de un plan a otro o cambiar el estado de prueba a activo).
_Se muestra como unidad_ | +| **ioconnect.stripe.customer.tax_id.created**
(count) | Se crea un número de identificación fiscal para un cliente.
_Se muestra como unidad_ | +| **ioconnect.stripe.customer.tax_id.deleted**
(count) | Se elimina el número de identificación fiscal de un cliente.
_Se muestra como unidad_ | +| **ioconnect.stripe.customer.tax_id.updated**
(count) | Se actualiza el número de identificación fiscal del cliente.
_Se muestra como unidad_ | +| **ioconnect.stripe.customer.updated**
(count) | Cambia la propiedad de un cliente.
_Se muestra como unidad_ | +| **ioconnect.stripe.entitlements.active_entitlement_summary.updated**
(count) | Cambian los derechos del cliente.
_Se muestra como unidad_ | +| **ioconnect.stripe.file.created**
(count) | El nuevo archivo generado por Stripe está disponible para tu cuenta.
_Se muestra como unidad_ | +| **ioconnect.stripe.financial_connections.account.created**
(count) | Se crea una nueva cuenta de Financial Connections.
_Se muestra como unidad_ | +| **ioconnect.stripe.financial_connections.account.deactivated**
(count) | El estado de la cuenta de Financial Connections se actualiza de activo a inactivo.
_Se muestra como unidad_ | +| **ioconnect.stripe.financial_connections.account.disconnected**
(count) | La cuenta de Financial Connections está desconectada.
_Se muestra como unidad_ | +| **ioconnect.stripe.financial_connections.account.reactivated**
(count) | El estado de la cuenta de Financial Connections se actualiza de inactiva a activa.
_Se muestra como unidad_ | +| **ioconnect.stripe.financial_connections.account.refreshed_balance**
(count) | El estado de actualización del saldo de la cuenta cambia de pendiente a correcto o fallido.
_Se muestra como unidad_ | +| **ioconnect.stripe.financial_connections.account.refreshed_ownership**
(count) | El estado de actualización de la propiedad de la cuenta cambia de pendiente a correcto o fallido.
_Se muestra como unidad_ | +| **ioconnect.stripe.financial_connections.account.refreshed_transactions**
(count) | El estado de actualización de las transacciones de la cuenta cambia de pendiente a correcto o fallido.
_Se muestra como unidad_ | +| **ioconnect.stripe.identity.verification_session.canceled**
(count) | Se cancela VerificationSession.
_Se muestra como unidad_ | +| **ioconnect.stripe.identity.verification_session.created**
(count) | Se crea VerificationSession.
_Se muestra como unidad_ | +| **ioconnect.stripe.identity.verification_session.processing**
(count) | VerificationSession cambia a procesamiento.
_Se muestra como unidad_ | +| **ioconnect.stripe.identity.verification_session.redacted**
(count) | Se redacta VerificationSession.
_Se muestra como unidad_ | +| **ioconnect.stripe.identity.verification_session.requires_input**
(count) | VerificationSession cambia para requerir la entrada del usuario.
_Se muestra como unidad_ | +| **ioconnect.stripe.identity.verification_session.verified**
(count) | VerificationSession cambia a verificado.
_Se muestra como unidad_ | +| **ioconnect.stripe.invoice.created**
(count) | Se crea una nueva factura. Para saber cómo se pueden utilizar los webhooks con este evento y cómo pueden afectarlo, consulta Uso de webhooks con suscripciones.
_Se muestra como unidad_. | +| **ioconnect.stripe.invoice.deleted**
(count) | Se elimina el borrador de la factura. Nota: Este evento no se envía para las vistas previas de facturas.
_Se muestra como unidad_ | +| **ioconnect.stripe.invoice.finalization_failed**
(count) | El borrador de la factura no se puede finalizar. Consulta el último error de finalización de la factura para obtener más detalles.
_Se muestra como unidad_ | +| **ioconnect.stripe.invoice.finalized**
(count) | El borrador de la factura se finaliza y se actualiza para ser una factura abierta.
_Se muestra como unidad_ | +| **ioconnect.stripe.invoice.marked_uncollectible**
(count) | La factura se marca como incobrable.
_Se muestra como unidad_ | +| **ioconnect.stripe.invoice.overdue**
(count) | Se produce X días después del vencimiento de una factura, donde X es determinado por Automations.
_Se muestra como unidad_ | +| **ioconnect.stripe.invoice.paid**
(count) | El intento de pago de la factura se realiza correctamente o una factura se marca como pagada fuera de banda.
_Se muestra como unidad_ | +| **ioconnect.stripe.invoice.payment_action_required**
(count) | El intento de pago de la factura requiere otra acción del usuario para finalizar.
_Se muestra como unidad_ | +| **ioconnect.stripe.invoice.payment_failed**
(count) | El intento de pago de la factura falla, debido a un pago rechazado o a la falta de un método de pago almacenado.
_Se muestra como unidad_ | +| **ioconnect.stripe.invoice.payment_succeeded**
(count) | El intento de pago de la factura se realiza correctamente.
_Se muestra como unidad_ | +| **ioconnect.stripe.invoice.sent**
(count) | Se envía la factura por correo electrónico.
_Se muestra como unidad_ | +| **ioconnect.stripe.invoice.upcoming**
(count) | Se produce X días antes de que una suscripción cree una factura que se carga automáticamente, donde X es determinado por la configuración de tus suscripciones. Nota: El objeto Factura recibido no tendrá un ID de factura.
_Se muestra como unidad_ | +| **ioconnect.stripe.invoice.updated**
(count) | Cambios en la factura (por ejemplo, el importe de la factura).
_Se muestra como unidad_ | +| **ioconnect.stripe.invoice.voided**
(count) | Se anula la factura.
_Se muestra como unidad_ | +| **ioconnect.stripe.invoice.will_be_due**
(count) | Se produce X días antes del vencimiento de una factura, donde X es determinado por Automations).
_Se muestra como unidad_ | +| **ioconnect.stripe.invoiceitem.created**
(count) | Se crea el artículo de la factura.
_Se muestra como unidad_ | +| **ioconnect.stripe.invoiceitem.deleted**
(count) | Se elimina el elemento de la factura.
_Se muestra como unidad_ | +| **ioconnect.stripe.issuing_authorization.created**
(count) | Se crea la autorización.
_Se muestra como unidad_ | +| **ioconnect.stripe.issuing_authorization.request**
(count) | Representa una solicitud síncrona de autorización. Consulta Uso de la integración para gestionar solicitudes de autorización.
_Se muestra como unidad_ | +| **ioconnect.stripe.issuing_authorization.updated**
(count) | Se actualiza la autorización.
_Se muestra como unidad_ | +| **ioconnect.stripe.issuing_card.created**
(count) | Se crea la tarjeta.
_Se muestra como unidad_ | +| **ioconnect.stripe.issuing_card.updated**
(count) | Se actualiza la tarjeta.
_Se muestra como unidad_ | +| **ioconnect.stripe.issuing_cardholder.created**
(count) | Se crea el titular de la tarjeta.
_Se muestra como unidad_ | +| **ioconnect.stripe.issuing_cardholder.updated**
(count) | Se actualiza el titular de la tarjeta.
_Se muestra como unidad_ | +| **ioconnect.stripe.issuing_dispute.closed**
(count) | Se gana, se pierde o caduca la disputa.
_Se muestra como unidad_ | +| **ioconnect.stripe.issuing_dispute.created**
(count) | Se crea la disputa.
_Se muestra como unidad_ | +| **ioconnect.stripe.issuing_dispute.funds_reinstated**
(count) | Los fondos se reintegran en tu cuenta por una disputa de emisión.
_Se muestra como unidad_ | +| **ioconnect.stripe.issuing_dispute.funds_rescinded**
(count) | Los fondos se deducen de tu cuenta por una disputa de emisión.
_Se muestra como unidad_ | +| **ioconnect.stripe.issuing_dispute.submitted**
(count) | Se envía la disputa.
_Se muestra como unidad_ | +| **ioconnect.stripe.issuing_dispute.updated**
(count) | Se actualiza la disputa.
_Se muestra como unidad_ | +| **ioconnect.stripe.issuing_personalization_design.activated**
(count) | El diseño de personalización se activa tras la activación del paquete físico al que pertenece.
_Se muestra como unidad_ | +| **ioconnect.stripe.issuing_personalization_design.deactivated**
(count) | El diseño de personalización se desactiva tras la desactivación del paquete físico al que pertenece.
_Se muestra como unidad_ | +| **ioconnect.stripe.issuing_personalization_design.rejected**
(count) | El diseño de personalización es rechazado por la revisión de diseño.
_Se muestra como unidad_ | +| **ioconnect.stripe.issuing_personalization_design.updated**
(count) | Se actualiza el diseño de la personalización.
_Se muestra como unidad_ | +| **ioconnect.stripe.issuing_token.created**
(count) | Se crea el token del monedero digital emisor.
_Se muestra como unidad_ | +| **ioconnect.stripe.issuing_token.updated**
(count) | Se actualiza el token del monedero digital emisor.
_Se muestra como unidad_ | +| **ioconnect.stripe.issuing_transaction.created**
(count) | Se crea la transacción de emisión.
_Se muestra como unidad_ | +| **ioconnect.stripe.issuing_transaction.updated**
(count) | Se actualiza la transacción de emisión.
_Se muestra como unidad_ | +| **ioconnect.stripe.mandate.updated**
(count) | Se actualiza el mandato.
_Se muestra como unidad_ | +| **ioconnect.stripe.payment_intent.amount_capturable_updated**
(count) | PaymentIntent tiene fondos para colectar. Comprueba la propiedad monto_capturable de PaymentIntent para determinar el importe que puede colectarse. Puedes capturar PaymentIntent con un valor de monto_por_colectar hasta el importe especificado. Más información sobre la captura de PaymentIntents.
_Se muestra como unidad_ | +| **ioconnect.stripe.payment_intent.amount_capturable_updated_amount**
(gauge) | PaymentIntent tiene fondos para colectar. Comprueba la propiedad monto_capturable de PaymentIntent para determinar el importe que puede colectarse. Puedes capturar PaymentIntent con un valor de monto_por_colectar hasta el importe especificado. Más información sobre la captura de PaymentIntents.
_Se muestra como unidad_ | +| **ioconnect.stripe.payment_intent.canceled**
(count) | Se cancela PaymentIntent.
_Se muestra como unidad_ | +| **ioconnect.stripe.payment_intent.canceled_amount**
(gauge) | Se cancela PaymentIntent.
_Se muestra como unidad_ | +| **ioconnect.stripe.payment_intent.created**
(count) | Se crea un nuevo PaymentIntent.
_Se muestra como unidad_ | +| **ioconnect.stripe.payment_intent.created_amount**
(gauge) | Se crea un nuevo PaymentIntent.
_Se muestra como unidad_ | +| **ioconnect.stripe.payment_intent.partially_funded**
(count) | Los fondos se aplican a un PaymentIntent de saldo_de_cliente y el 'importe_restante' cambia.
_Se muestra como unidad_ | +| **ioconnect.stripe.payment_intent.partially_funded_amount**
(gauge) | Los fondos se aplican a un PaymentIntent de saldo_de_cliente y el 'importe_restante' cambia.
_Se muestra como unidad_ | +| **ioconnect.stripe.payment_intent.payment_failed**
(count) | PaymentIntent ha fallado el intento de crear un método de pago o un pago.
_Se muestra como unidad_ | +| **ioconnect.stripe.payment_intent.payment_failed_amount**
(gauge) | PaymentIntent ha fallado el intento de crear un método de pago o un pago.
_Se muestra como unidad_ | +| **ioconnect.stripe.payment_intent.processing**
(count) | PaymentIntent ha comenzado a procesar.
_Se muestra como unidad_ | +| **ioconnect.stripe.payment_intent.processing_amount**
(gauge) | PaymentIntent ha comenzado a procesar.
_Se muestra como unidad_ | +| **ioconnect.stripe.payment_intent.requires_action**
(count) | PaymentIntent cambia al estado requiere_acción.
_Se muestra como unidad_ | +| **ioconnect.stripe.payment_intent.requires_action_amount**
(gauge) | PaymentIntent cambia al estado requiere_acción.
_Se muestra como unidad_ | +| **ioconnect.stripe.payment_intent.succeeded**
(count) | PaymentIntent ha finalizado el pago correctamente.
_Se muestra como unidad_ | +| **ioconnect.stripe.payment_intent.succeeded_amount**
(gauge) | PaymentIntent ha finalizado el pago correctamente.
_Se muestra como unidad_ | +| **ioconnect.stripe.payment_link.created**
(count) | Se crea el enlace de pago.
_Se muestra como unidad_ | +| **ioconnect.stripe.payment_link.updated**
(count) | Se actualiza el enlace de pago.
_Se muestra como unidad_ | +| **ioconnect.stripe.payment_method.attached**
(count) | Se adjunta un nuevo método de pago a un cliente.
_Se muestra como unidad_ | +| **ioconnect.stripe.payment_method.automatically_updated**
(count) | Los datos del método de pago son actualizados automáticamente por la red.
_Se muestra como unidad_ | +| **ioconnect.stripe.payment_method.detached**
(count) | El método de pago se desasocia de un cliente.
_Se muestra como unidad_ | +| **ioconnect.stripe.payment_method.updated**
(count) | El método de pago se actualiza a través de la API de actualización PaymentMethod.
_Se muestra como unidad_ | +| **ioconnect.stripe.payout.canceled**
(count) | Se cancela el pago.
_Se muestra como unidad_ | +| **ioconnect.stripe.payout.created**
(count) | Se crea el pago.
_Se muestra como unidad_ | +| **ioconnect.stripe.payout.failed**
(count) | Intento de pago fallido.
_Se muestra como unidad_ | +| **ioconnect.stripe.payout.paid**
(count) | Se espera que el pago esté disponible en la cuenta de destino. Si el pago falla, también se envía una notificación payout.failed, en un momento posterior.
_Se muestra como unidad_ | +| **ioconnect.stripe.payout.reconciliation_completed**
(count) | Se pueden consultar las transacciones de saldo pagadas en un pago automático.
_Se muestra como unidad_. | +| **ioconnect.stripe.payout.updated**
(count) | Se actualiza el pago.
_Se muestra como unidad_ | +| **ioconnect.stripe.person.created**
(count) | Se crea la persona asociada a una cuenta.
_Se muestra como unidad_ | +| **ioconnect.stripe.person.deleted**
(count) | Se elimina la persona asociada a una cuenta.
_Se muestra como unidad_ | +| **ioconnect.stripe.person.updated**
(count) | Se actualiza la persona asociada a una cuenta.
_Se muestra como unidad_ | +| **ioconnect.stripe.plan.created**
(count) | Se crea el plan.
_Se muestra como unidad_ | +| **ioconnect.stripe.plan.deleted**
(count) | Se elimina el plan.
_Se muestra como unidad_ | +| **ioconnect.stripe.plan.updated**
(count) | Se actualiza el plan.
_Se muestra como unidad_ | +| **ioconnect.stripe.price.created**
(count) | Se crea el precio.
_Se muestra como unidad_ | +| **ioconnect.stripe.price.deleted**
(count) | Se elimina el precio.
_Se muestra como unidad_ | +| **ioconnect.stripe.price.updated**
(count) | Se actualiza el precio.
_Se muestra como unidad_ | +| **ioconnect.stripe.product.created**
(count) | Se crea el producto.
_Se muestra como unidad_ | +| **ioconnect.stripe.product.deleted**
(count) | Se elimina el producto.
_Se muestra como unidad_ | +| **ioconnect.stripe.product.updated**
(count) | Se actualiza el producto.
_Se muestra como unidad_ | +| **ioconnect.stripe.promotion_code.created**
(count) | Se crea el código de promoción.
_Se muestra como unidad_ | +| **ioconnect.stripe.promotion_code.updated**
(count) | Se actualiza el código de promoción.
_Se muestra como unidad_ | +| **ioconnect.stripe.quote.accepted**
(count) | Se acepta el presupuesto.
_Se muestra como unidad_ | +| **ioconnect.stripe.quote.canceled**
(count) | Se cancela el presupuesto.
_Se muestra como unidad_ | +| **ioconnect.stripe.quote.created**
(count) | Se crea el presupuesto.
_Se muestra como unidad_ | +| **ioconnect.stripe.quote.finalized**
(count) | Se finaliza el presupuesto.
_Se muestra como unidad_ | +| **ioconnect.stripe.radar.early_fraud_warning.created**
(count) |
_Se muestra como unidad_ | +| **ioconnect.stripe.radar.early_fraud_warning.updated**
(count) |
_Se muestra como unidad_ | +| **ioconnect.stripe.refund.created**
(count) | Se crea una alerta temprana de fraude.
_Se muestra como unidad_ | +| **ioconnect.stripe.refund.updated**
(count) | Se actualiza la alerta temprana de fraude.
_Se muestra como unidad_ | +| **ioconnect.stripe.reporting.report_run.failed**
(count) | No se ha podido completar el informe solicitado.
_Se muestra como unidad_ | +| **ioconnect.stripe.reporting.report_run.succeeded**
(count) | ReportRun solicitado ha finalizado correctamente.
_Se muestra como unidad_ | +| **ioconnect.stripe.reporting.report_type.updated**
(count) | Se actualiza ReportType (normalmente para indicar que los datos de un nuevo día están disponibles).
_Se muestra como unidad_ | +| **ioconnect.stripe.review.closed**
(count) | Se cierra la revisión. El campo de motivo de la revisión indica por qué: aprobada, en disputa, reembolsada o reembolsada_como_fraude.
_Se muestra como unidad_ | +| **ioconnect.stripe.review.opened**
(count) | Se abre la revisión.
_Se muestra como unidad_ | +| **ioconnect.stripe.setup_intent.canceled**
(count) | Se cancela SetupIntent.
_Se muestra como unidad_ | +| **ioconnect.stripe.setup_intent.created**
(count) | Se crea un nuevo SetupIntent.
_Se muestra como unidad_ | +| **ioconnect.stripe.setup_intent.requires_action**
(count) | SetupIntent está en estado requiere_acción.
_Se muestra como unidad_ | +| **ioconnect.stripe.setup_intent.setup_failed**
(count) | SetupIntent ha fallado en el intento de configurar un método de pago.
_Se muestra como unidad_ | +| **ioconnect.stripe.setup_intent.succeeded**
(count) | SetupIntent ha configurado un método de pago correctamente.
_Se muestra como unidad_ | +| **ioconnect.stripe.sigma.scheduled_query_run.created**
(count) | Finaliza la ejecución de la consulta programada Sigma.
_Se muestra como unidad_ | +| **ioconnect.stripe.source.canceled**
(count) | Se cancela la fuente.
_Se muestra como unidad_ | +| **ioconnect.stripe.source.chargeable**
(count) | La fuente cambia a cobrable.
_Se muestra como unidad_ | +| **ioconnect.stripe.source.failed**
(count) | Falla la fuente.
_Se muestra como unidad_ | +| **ioconnect.stripe.source.mandate_notification**
(count) | El método de notificación del mandato de fuente está configurado como manual.
_Se muestra como unidad_ | +| **ioconnect.stripe.source.refund_attributes_required**
(count) | Los atributos de reembolso son necesarios en un receptor fuente para procesar un reembolso o un pago erróneo.
_Se muestra como unidad_ | +| **ioconnect.stripe.source.transaction.created**
(count) | Se crea la transacción de la fuente.
_Se muestra como unidad_ | +| **ioconnect.stripe.source.transaction.updated**
(count) | Se actualiza la transacción de la fuente.
_Se muestra como unidad_ | +| **ioconnect.stripe.subscription_schedule.aborted**
(count) | El cronograma de la suscripción se cancela debido a que la suscripción subyacente se cancela por morosidad.
_Se muestra como unidad_ | +| **ioconnect.stripe.subscription_schedule.canceled**
(count) | Se cancela el cronograma de la la suscripción.
_Se muestra como unidad_ | +| **ioconnect.stripe.subscription_schedule.completed**
(count) | Finaliza el cronograma de la nueva suscripción.
_Se muestra como unidad_ | +| **ioconnect.stripe.subscription_schedule.created**
(count) | Se crea el cronograma de la nueva suscripción.
_Se muestra como unidad_ | +| **ioconnect.stripe.subscription_schedule.expiring**
(count) | Se produce siete días antes de que expire el cronograma de una suscripción.
_Se muestra como unidad_ | +| **ioconnect.stripe.subscription_schedule.released**
(count) | Se publica el cronograma de la nueva suscripción.
_Se muestra como unidad_ | +| **ioconnect.stripe.subscription_schedule.updated**
(count) | Se actualiza el cronograma de la la suscripción.
_Se muestra como unidad_ | +| **ioconnect.stripe.tax_rate.created**
(count) | Se crea una nueva tasa impositiva.
_Se muestra como unidad_ | +| **ioconnect.stripe.tax.settings.updated**
(count) | Se actualiza la configuración de impuestos.
_Se muestra como unidad_ | +| **ioconnect.stripe.tax_rate.updated**
(count) | Se actualiza la tasa impositiva.
_Se muestra como unidad_ | +| **ioconnect.stripe.terminal.reader.action_failed**
(count) | La acción de envío a un lector final ha fallado.
_Se muestra como unidad_ | +| **ioconnect.stripe.terminal.reader.action_succeeded**
(count) | La acción de envío a un lector final se ha realizado correctamente.
_Se muestra como unidad_ | +| **ioconnect.stripe.test_helpers.test_clock.advancing**
(count) | El reloj de test empieza a avanzar.
_Se muestra como unidad_ | +| **ioconnect.stripe.test_helpers.test_clock.created**
(count) | Se crea el reloj de test.
_Se muestra como unidad_ | +| **ioconnect.stripe.test_helpers.test_clock.deleted**
(count) | Se elimina el reloj de test.
_Se muestra como unidad_ | +| **ioconnect.stripe.test_helpers.test_clock.internal_failure**
(count) | El reloj de test falla al no avanzar su tiempo congelado.
_Se muestra como unidad_ | +| **ioconnect.stripe.test_helpers.test_clock.ready**
(count) | El reloj de test cambia a un estado listo.
_Se muestra como unidad_ | +| **ioconnect.stripe.topup.canceled**
(count) | Se cancela la recarga.
_Se muestra como unidad_ | +| **ioconnect.stripe.topup.created**
(count) | Se crea la recarga.
_Se muestra como unidad_ | +| **ioconnect.stripe.topup.failed**
(count) | Falla la recarga.
_Se muestra como unidad_ | +| **ioconnect.stripe.topup.reversed**
(count) | Se invierte la recarga.
_Se muestra como unidad_ | +| **ioconnect.stripe.topup.succeeded**
(count) | La recarga se realiza correctamente.
_Se muestra como unidad_ | +| **ioconnect.stripe.transfer.created**
(count) | Se crea la transferencia.
_Se muestra como unidad_ | +| **ioconnect.stripe.transfer.reversed**
(count) | La transferencia se revierte, incluidas las reversiones parciales.
_Se muestra como unidad_ | +| **ioconnect.stripe.transfer.updated**
(count) | Se actualiza la descripción o los metadatos de la transferencia.
_Se muestra como unidad_ | + +### Checks de servicio + +**ioconnect.stripe.service_check** + +Devuelve CRITICAL si el proceso Java no se está ejecutando o si hay errores al iniciar el JAR. Devuelve OK si el proceso Java se está ejecutando sin problemas. + +_Estados: ok, crítico_ + +### Eventos + +La integración de Datadog y Stripe no incluye eventos. + +## Soporte + +Para solicitar asistencia o funciones, ponte en contacto con el servicio de asistencia de Nova a través de los siguientes canales: + +- Correo electrónico: [support_ddp@novacloud.io](mailto:support_ddp@novacloud.io) + +--- +Esta aplicación está disponible a través de Marketplace y cuenta con el respaldo de un socio tecnológico de Datadog. Haz clic aquí para adquirirla. \ No newline at end of file diff --git a/content/es/llm_observability/evaluations/evaluation_compatibility.md b/content/es/llm_observability/evaluations/evaluation_compatibility.md index 2fad9dc3a17..6c4bb2136dd 100644 --- a/content/es/llm_observability/evaluations/evaluation_compatibility.md +++ b/content/es/llm_observability/evaluations/evaluation_compatibility.md @@ -13,7 +13,6 @@ Las evaluaciones gestionadas son compatibles con las siguientes configuraciones. | Evaluación | Versión de DD-trace | Proveedor de LLM | Tramo aplicable | | --------------------------------| ----------------- | ------------------------------| ----------------| -| [Alucinación][4] | v2.18+ | OpenAI | Solo LLM | | [Desajuste lingüístico][10] | Totalmente compatible | Autoalojado | Todos los tipos de tramo | ### Evaluaciones personalizadas de LLM como evaluador @@ -34,19 +33,20 @@ Las plantillas existentes para las evaluaciones personalizadas de LLM como evalu | Evaluación | Versión de DD-trace | Proveedor de LLM | Tramo aplicable | | ----------------------- | ---------------- | ----------------------------- | --------------- | | [Falta de respuesta][5] | Totalmente compatible | Todos los proveedores externos de LLM | Todos los tipos de tramo | +| [Alucinación][4] | Totalmente compatible | Todos los proveedores externos de LLM | Solo LLM | | [Sentimiento][6] | Totalmente compatible | Todos los proveedores externos de LLM | Todos los tipos de tramo | | [Toxicidad][7] | Totalmente compatible | Todos los proveedores externos de LLM | Todos los tipos de tramo | | [Inyección de prompts][8] | Totalmente compatible | Todos los proveedores externos de LLM | Todos los tipos de tramo | | [Relevancia del tema][9] | Totalmente compatible | Todos los proveedores externos de LLM | Todos los tipos de tramo | -| [Selección de herramientas][1] | v3.12+ | Todos los proveedores externos de LLM | Solo LLM | -| [Adecuación del argumento de la herramienta][2] | v3.12+ | Todos los proveedores externos de LLM | Solo LLM | -| [Cumplimiento de objetivos][3] | Totalmente compatible | Todos los proveedores externos de LLM | Solo LLM | +| [Selección de herramientas][1] | Totalmente compatible | Todos los proveedores externos de LLM | Solo LLM | +| [Adecuación del argumento de la herramienta][2] | Totalmente compatible | Todos los proveedores externos de LLM | Solo LLM | +| [Cumplimiento de objetivos][3] | Totalmente compatible | Todos los proveedores externos de LLM | Solo LLM | [1]: /es/llm_observability/evaluations/custom_llm_as_a_judge_evaluations/template_evaluations#tool-selection [2]: /es/llm_observability/evaluations/custom_llm_as_a_judge_evaluations/template_evaluations#tool-argument-correctness [3]: /es/llm_observability/evaluations/custom_llm_as_a_judge_evaluations/template_evaluations#goal-completeness -[4]: /es/llm_observability/evaluations/managed_evaluations#hallucination +[4]: /es/llm_observability/evaluations/custom_llm_as_a_judge_evaluations/template_evaluations#hallucination [5]: /es/llm_observability/evaluations/custom_llm_as_a_judge_evaluations/template_evaluations#failure-to-answer [6]: /es/llm_observability/evaluations/custom_llm_as_a_judge_evaluations/template_evaluations#sentiment [7]: /es/llm_observability/evaluations/custom_llm_as_a_judge_evaluations/template_evaluations#toxicity diff --git a/content/es/observability_pipelines/destinations/http_client.md b/content/es/observability_pipelines/destinations/http_client.md index 80a01a465cf..892851d3dd5 100644 --- a/content/es/observability_pipelines/destinations/http_client.md +++ b/content/es/observability_pipelines/destinations/http_client.md @@ -50,13 +50,9 @@ Active el interruptor para habilitar TLS. Si habilitas TLS, se requieren los sig #### Opciones de almacenamiento en búfer -Activa el interruptor para activar **Buffering Options** (Opciones de almacenamiento en búfer).
**Nota**: Las opciones de almacenamiento en búfer están en vista previa. Ponte en contacto con tu gestor de cuenta para solicitar acceso. -- Si se deja desactivado, el tamaño máximo del búfer es de 500 eventos. -- Si está activado: - 1. Selecciona el tipo de búfer que desees configurar (**Memory** (Memoria) o **Disk** (Disco)). - 1. Introduce el tamaño del búfer y selecciona la unidad. +{{% observability_pipelines/destination_buffer %}} -## Configurar secretos +## Establecer secretos {{% observability_pipelines/set_secrets_intro %}} diff --git a/content/es/real_user_monitoring/application_monitoring/browser/setup/server/java.md b/content/es/real_user_monitoring/application_monitoring/browser/setup/server/java.md new file mode 100644 index 00000000000..73e9bbcd371 --- /dev/null +++ b/content/es/real_user_monitoring/application_monitoring/browser/setup/server/java.md @@ -0,0 +1,161 @@ +--- +aliases: +- /es/real_user_monitoring/browser/setup/server/java +code_lang: java +code_lang_weight: 7 +description: Inserta automáticamente el kit de desarrollo de software (SDK) del navegador + de RUM en aplicaciones web basadas en Java Servlet utilizando la instrumentación + automática del kit de desarrollo de software (SDK) de Java. +further_reading: +- link: /real_user_monitoring/application_monitoring/browser/setup/server + tag: Documentación + text: Instrumentación automática de la monitorización del navegador +- link: /tracing/trace_collection/single-step-apm/ + tag: Documentación + text: Instrumentación APM de un solo paso +title: Java Servlet +type: multi-code-lang +--- + +{{< site-region region="gov" >}} +
La instrumentación automática de RUM no está disponible para el sitio seleccionado ({{< region-param key="dd_site_name" >}}). En su lugar, utiliza la instrumentación del lado del cliente.
+{{< /site-region >}} + +## Información general + +La instrumentación automática de RUM añade automáticamente la monitorización de RUM a tu servidor de aplicaciones web, por lo que puedes empezar a recopilar datos de RUM editando un archivo de configuración en lugar de tener que modificar tu código de frontend directamente. Sin embargo, si deseas rastrear acciones de usuario específicas (acciones personalizadas) o añadir detalles de eventos personalizados (atributos de eventos), todavía tendrás que añadir algún código a tu aplicación. + +## Cómo funciona + +El kit de desarrollo de software (SDK) de Java funciona monitorizando tu API de servlet (que gestiona las solicitudes y respuestas web) y hacer un check automáticamente de cada respuesta HTTP que envía tu servidor. Cuando detecta una respuesta HTML, busca la sección `` y añade allí automáticamente el código JavaScript RUM. El resto del contenido HTML permanece inalterado. Este enfoque añade una sobrecarga mínima, por lo que funciona bien incluso con respuestas de streaming (donde el contenido se envía en tiempo real). + +## Requisitos previos + +### Requisitos del servidor +- Servidor de aplicaciones web Java compatible con Servlet API 3.0 o superior: + - Jetty 7+ + - Tomcat 7+ + - GlassFish 3+ / Payara 4.1+ + - JBoss AS 6+ / Wildfly 8+ + - Undertow 1+ + - WebLogic 12+ + - WebSphere AS 8+ / Open Liberty 17+ + +## Instalación + +Selecciona el método de configuración que prefieras: + +{{< tabs >}} +{{% tab "Instrumentación de un solo step (UI) / paso (generic) (Recomendada)" %}} + +Activa la monitorización del navegador de RUM con la [Instrumentación de un solo step (UI) / paso (generic) (SSI)][2]. +Al ejecutar la instalación del Agent con RUM activado, Datadog: +- Carga el kit de desarrollo de software de (SDK) Java en tus aplicaciones Java a través de la SSI +- Crea una aplicación RUM para ti +- Configura el kit de desarrollo de software (SDK) de Java con las variables de entorno necesarias de RUM. + +**Este método no requiere cambios en el código ni la configuración manual del servidor web.** + +1. Ve a la page (página) de [**Agent Installation**][1] (Instalación del Agent). +2. Selecciona tu plataforma (por ejemplo, Linux). +3. En la sección **Customize your observability coverage** (Personaliza tu cobertura de observabilidad), activa **Real User Monitoring** en **Application Observability** (Observabilidad de la aplicación). + + Al activar esta opción, se crea automáticamente una aplicación RUM. + +4. Copia el comando de instalación generado y ejecútalo en tu host. +5. Reinicia tu aplicación Java basada en servlets. + + +[1]: https://app.datadoghq.com/fleet/install-agent/latest?platform=overview +[2]: /es/tracing/trace_collection/single-step-apm/ + +{{% /tab %}} +{{% tab "Configuración manual" %}} + +Utiliza la configuración manual si prefieres configurar la monitorización del navegador de RUM de forma independiente o si la SSI no está disponible para tu entorno. + +### Requisitos previos + +- El kit de desarrollo de software (SDK) de Java instalado y cargado utilizando cualquiera de los siguientes: + - [Instrumentación de un solo step (UI) / paso (generic)][1] (SSI) + - [Instalación manual del kit de desarrollo de software (SDK)][2] +- Aplicación RUM [creada en Datadog][3] +- Valores de configuración listos: + - `clientToken` + - `applicationId` + - `remoteConfigurationId` + +### Activar la instrumentación de RUM en el kit de desarrollo de software (SDK) de Java + +La instrumentación de RUM para servidores de aplicaciones web de Java puede configurarse utilizando los métodos de configuración habituales del kit de desarrollo de software (SDK) de Java. Para obtener más información, consulta [Configuración de la biblioteca del kit de desarrollo de software (SDK) de Java][4]. + +La inserción del kit de desarrollo de software (SDK) de RUM está desactivada en forma predeterminada. Actívala exportando las siguientes variables de entorno: + +```shell +export DD_RUM_ENABLED=true +export DD_RUM_APPLICATION_ID= +export DD_RUM_CLIENT_TOKEN= +export DD_RUM_REMOTE_CONFIGURATION_ID= +export DD_RUM_SITE=datadoghq.com # or datadoghq.eu / us3.datadoghq.com / us5.datadoghq.com / ap1.datadoghq.com / ap2.datadoghq.eu +``` + +O utiliza las siguientes propiedades del sistema de Java: + +```shell +java -Ddd.rum.enabled=true \ + -Ddd.rum.application.id= \ + -Ddd.rum.client.token= \ + -Ddd.rum.remote.configuration.id= \ + -Ddd.rum.site=datadoghq.com # or datadoghq.eu / us3.datadoghq.com / us5.datadoghq.com / ap1.datadoghq.com / ap2.datadoghq.eu +``` + +Reinicia el servidor de aplicaciones web de Java para aplicar los cambios. + +Los documentos HTML deben contener la tag (etiqueta) Datadog RUM JavaScript justo antes del `` de cierre. Es posible que tengas que borrar la caché de tu navegador. Deberías empezar a recibir datos para tu aplicación Datadog RUM. + +[1]: /es/tracing/trace_collection/#single-step-instrumentation-recommended +[2]: /es/tracing/trace_collection/automatic_instrumentation/dd_libraries/java/ +[3]: https://app.datadoghq.com/rum/list +[4]: /es/tracing/trace_collection/library_config/java/ + +{{% /tab %}} +{{< /tabs >}} + +## Opciones de configuración + +Estas son todas las opciones de configuración relacionadas con la activación de RUM en el kit de desarrollo de software (SDK) de Java: + +| Propiedad | Variable de entorno | Valor | Requisito | +|----------|---------------------|-------|-------------| +| `dd.rum.enabled` | `DD_RUM_ENABLED` | `true` / `false` | Obligatorio | +| `dd.rum.application.id` | `DD_RUM_APPLICATION_ID` | `` | Obligatorio | +| `dd.rum.client.token` | `DD_RUM_CLIENT_TOKEN` | `` | Obligatorio | +| `dd.rum.site` | `DD_RUM_SITE` | `datadoghq.com` / `us3.datadoghq.com` / `us5.datadoghq.com` / `datadoghq.eu` / `ap1.datadoghq.com` / `ap2.datadoghq.eu` | Opcional, `datadoghq.com` en forma predeterminada | +| `dd.rum.service` | `DD_RUM_SERVICE` | `` | opcional | +| `dd.rum.environment` | `DD_RUM_ENVIRONMENT` | `` | opcional | +| `dd.rum.major.version` | `DD_RUM_MAJOR_VERSION` | `5` / `6` | Opcional, `6` en forma predeterminada | +| `dd.rum.version` | `DD_RUM_VERSION` | `` | opcional | +| `dd.rum.track.user.interaction` | `DD_RUM_TRACK_USER_INTERACTION` | `true` / `false` | opcional | +| `dd.rum.track.resources` | `DD_RUM_TRACK_RESOURCES` | `true` / `false` | opcional | +| `dd.rum.track.long.tasks` | `DD_RUM_TRACK_LONG_TASKS` | `true` / `false` | opcional | +| `dd.rum.session.sample.rate` | `DD_RUM_SESSION_SAMPLE_RATE` | Porcentaje, de `0` a `100` | Obligatorio si falta `rum.remote.configuration.id` | +| `dd.rum.session.replay.sample.rate` | `DD_RUM_SESSION_REPLAY_SAMPLE_RATE` | Porcentaje, de `0` a `100` | Obligatorio si falta `rum.remote.configuration.id` | +| `dd.rum.remote.configuration.id` | `DD_RUM_REMOTE_CONFIGURATION_ID` | `` | Obligatorio si falta `rum.session.sample.rate` o `rum.session.replay.sample.rate` | + +{{% rum-browser-auto-instrumentation-update-user-attributes %}} + +## Solucionar problemas + +Check los logs del servidor de aplicaciones web de Java si no ves la tag (etiqueta) RUM JavaScript insertada. + +Busca el mensaje de error de análisis de configuración `"Unable to configure RUM injection"` en los logs. Si está presente, muestra un mensaje detallado sobre la causa. + +Además, si se activan los logs de depuración mediante la propiedad del sistema `dd.trace.debug=true` o la variable de entorno `DD_TRACE_DEBUG=true`, se volcará la configuración de la biblioteca del cliente Java al iniciarse: + +```shell +DEBUG datadog.trace.api.Config - New instance: Config{..., rumEnabled=true, rumInjectorConfig={"applicationId":"appid","clientToken":"token","site":"datadoghq.com","remoteConfigurationId":"remoteconfigid"}, ...} +``` + +## Referencias adicionales + +{{< partial name="whats-next/whats-next.html" >}} \ No newline at end of file diff --git a/content/es/security/cloud_siem/detect_and_monitor/custom_detection_rules/impossible_travel.md b/content/es/security/cloud_siem/detect_and_monitor/custom_detection_rules/impossible_travel.md new file mode 100644 index 00000000000..abd68805b76 --- /dev/null +++ b/content/es/security/cloud_siem/detect_and_monitor/custom_detection_rules/impossible_travel.md @@ -0,0 +1,38 @@ +--- +disable_toc: false +title: Viaje imposible +--- + +## Información general + +El método de viaje imposible detecta accesos desde diferentes localizaciones cuya distancia es mayor que la distancia que puede recorrer un humano en el tiempo que transcurre entre los dos eventos de acceso. Consulte [Crear regla][1] para obtener instrucciones detalladas sobre cómo crear una regla de viaje imposible. + +## Funcionamiento del método de viaje imposible + +### Localizaciones de usuario de referencia + +{{< img src="security/security_monitoring/detection_rules/impossible_travel_baseline_location.png" alt="Consulta de una regla de viaje imposible con la opción de localizaciones de referencia resaltada" style="width:100%;" >}} + +Cuando configures una consulta para tu regla de viaje imposible, puedes activar **Localizaciones de usuario de referencia** si quieres que Datadog aprenda las localizaciones habituales de cada usuario antes de que la regla comience a crear señales. + +#### Localizaciones de usuario de referencia desactivadas + +Cuando la opción **Baseline User Locations** (Localizaciones de usuario de referencia) está desactivada (por defecto): + +- Cada log se evalúa para ver si contiene una localización a la que sea imposible llegar desde una localización ya encontrada. + +- Es imposible viajar entre dos localizaciones si la velocidad de desplazamiento es superior a 1.000 km/h y la distancia es superior a 500 km. + +#### Localizaciones de usuario de referencia activadas + +Cuando la opción **Baseline User Locations** (Localizaciones de usuario de referencia) está activada: + +- Hay un periodo de aprendizaje de 24 horas para cada usuario. Durante este tiempo, Datadog aprende las localizaciones habituales (ciudad y país) de cada usuario y no se crean señales. +- Las localizaciones encontradas se olvidan al cabo de 30 días si no se han vuelto a encontrar. +- Si se encuentra una nueva localización, Datadog: + - Comprueba si la localización es una de las localizaciones habituales. Si lo es, Datadog pasa al siguiente log o evento. + - Comprueba si se trata de una situación de viaje imposible. + - Si no lo es, Datadog pasa al siguiente log o evento. + - Si se trata de una situación de viaje imposible, Datadog comprueba si existe un patrón de transición IP. Por ejemplo, si un usuario viaja de la localización A a la localización B y ese patrón de viaje se ha producido en el pasado, no se activa una señal. + +[1]: /es/security/cloud_siem/detect_and_monitor/custom_detection_rules/create_rule/real_time_rule \ No newline at end of file diff --git a/content/es/serverless/google_cloud_run/functions/java.md b/content/es/serverless/google_cloud_run/functions/java.md new file mode 100644 index 00000000000..767281783ea --- /dev/null +++ b/content/es/serverless/google_cloud_run/functions/java.md @@ -0,0 +1,121 @@ +--- +code_lang: java +code_lang_weight: 40 +further_reading: +- link: /tracing/trace_collection/automatic_instrumentation/dd_libraries/java/ + tag: Documentación + text: Rastreo de aplicaciones Java +- link: /tracing/other_telemetry/connect_logs_and_traces/java/ + tag: Documentación + text: Correlación de logs y trazas de Java +title: Instrumentación de una función de ejecución de Java Cloud +type: multi-code-lang +--- + +
Una aplicación de ejemplo está disponible en GitHub.
+ +## Configuración + +1. **Instalar el rastreador de Java de Datadog**. + + 1. Descarga el rastreador de Java de Datadog y asegúrate de que se despliegue con tu función: + + {{< code-block lang="bash" disable_copy="false" >}} +wget -O dd-java-agent.jar 'https://dtdg.co/latest-java-tracer' +{{< /code-block >}} + + Añade la variable de entorno `JAVA_TOOL_OPTIONS: -javaagent:/path/to/dd-java-agent.jar` a tu aplicación. + + 2. Añade los artefactos del rastreador. + {{< tabs >}} + {{% tab "Maven" %}} +{{< code-block lang="xml" disable_copy="false" >}} + + com.datadoghq + dd-trace-api + DD_TRACE_JAVA_VERSION_HERE + +{{< /code-block >}} + {{% /tab %}} + + {{% tab "Gradle" %}} +{{< code-block lang="groovy" disable_copy="false" >}} +implementation 'com.datadoghq:dd-trace-api:DD_TRACE_JAVA_VERSION_HERE' +{{< /code-block >}} + {{% /tab %}} + {{< /tabs >}} + + Consulta [versiones de dd-trace-java][1] para obtener la última versión del rastreador. + + 3. Añade la anotación `@Trace` a todos los métodos que desees rastrear. + + Para obtener más información, consulta [Rastreo de aplicaciones Java][2]. + +2. **Instalar serverless-init como sidecar**. + + {{< tabs >}} + + {{% tab "CLI de Datadog" %}} + {{% gcr-install-sidecar-datadog-ci %}} + {{% /tab %}} + + {{% tab "Terraform" %}} + {{% gcr-install-sidecar-terraform function="true" %}} + {{% /tab %}} + + {{% tab "Otros" %}} + {{% gcr-install-sidecar-other function="true" %}} + {{% /tab %}} + + {{< /tabs >}} + +3. **Configurar logs**. + + En el step (UI) / paso (generic) anterior, creaste un volumen compartido. Es posible que también hayas configurado la variable de entorno `DD_SERVERLESS_LOG_PATH`, que en forma predeterminada es `/shared-volume/logs/app.log`. + + En este step (UI) / paso (generic), configura tu biblioteca de logging para escribir logs en el archivo configurado en `DD_SERVERLESS_LOG_PATH`. En Java, Datadog recomienda escribir logs en el formato JSON. Por ejemplo, puedes utilizar una biblioteca de logging de terceros como `Log4j 2`: + + {{< code-block lang="java" disable_copy="false" >}} +private static final Logger logger = LogManager.getLogger(App.class); +logger.info("Hello World!"); +{{< /code-block >}} + + {{< code-block lang="xml" filename="resources/log4j2.xml" disable_copy="false" >}} + + + + + + + + + +{{< /code-block >}} + + Datadog recomienda configurar las variables de entorno `DD_LOGS_INJECTION=true` (en el contenedor principal) y `DD_SOURCE=java` (en el contenedor secundario) para permitir el análisis avanzado de logs de Datadog. + + Para obtener más información, consulta [Correlación de logs y traces (trazas) de Java][3]. + +4. {{% gcr-service-label %}} + +5. **Enviar métricas personalizadas**. + + Para enviar métricas personalizadas, [instala el cliente DogStatsD ][4] y [mira ejemplos de código][5]. En Serverless Monitoring, solo se admite el tipo de métrica *distribution*. + +{{% serverless-init-env-vars-sidecar language="java" function="true" defaultSource="cloudrun" %}} + +{{% svl-tracing-env %}} + +## Solucionar problemas + +{{% serverless-init-troubleshooting productNames="Cloud Run services" %}} + +## Referencias adicionales + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: https://github.com/DataDog/dd-trace-java/releases +[2]: /es/tracing/trace_collection/automatic_instrumentation/dd_libraries/java/ +[3]: /es/tracing/other_telemetry/connect_logs_and_traces/java/ +[4]: /es/extend/dogstatsd/?tab=java#install-the-dogstatsd-client +[5]: /es/metrics/custom_metrics/dogstatsd_metrics_submission/?tab=java#code-examples-5 \ No newline at end of file diff --git a/content/es/service_management/incident_management/incident_settings/information.md b/content/es/service_management/incident_management/incident_settings/information.md new file mode 100644 index 00000000000..999d6e30094 --- /dev/null +++ b/content/es/service_management/incident_management/incident_settings/information.md @@ -0,0 +1,86 @@ +--- +title: Información +--- + +## Información general + +Desde la página de [Información de configuración de incidentes][1], puedes personalizar los estados y la gravedad de tus incidentes y activar las funciones principales para incidente, como incidentes privados, incidentes de test y anulaciones de fecha y hora. + +## Niveles de gravedad + + {{< img src="/service_management/incidents/incident_settings/settings_info_severity_levels.png" alt="Niveles de gravedad personalizables en la configuración del incidente" style="width:100%;" >}} + +Utiliza la configuración del nivel de gravedad para: + +1. Define tu gravedad más crítica como `SEV-0` o `SEV-1` (por defecto `SEV-1`) +2. Personalizar las subetiquetas de las gravedades (**Por defecto:** Crítica, Alta, Moderada, Baja, Menor) +3. Personaliza las descripciones de tus gravedades +4. Añade o elimina gravedades desde el final de tu lista, con un mínimo de una y un máximo de diez +5. Activar la gravedad "Desconocido" + +**Nota**: Si intentas eliminar una gravedad a la que se hace referencia en una [regla de notificación][2], se te pedirá que confirmes tu decisión. Si decides continuar, se desactivarán las reglas de notificación afectadas, ya que dejarán de ser válidas. La eliminación de una gravedad o el cambio de la gravedad inicial no actualiza automáticamente ninguna consulta de [Incident Management Analytics][3]. + +## Niveles de estado + +{{< img src="/service_management/incidents/incident_settings/settings_info_status_levels.png" alt="Niveles de estado personalizables en la configuración del incidente" style="width:100%;" >}} + +Utiliza la configuración de nivel de estado para: + +1. Personalizar las descripciones de los estados +2. Activar el estado opcional `Completed` + +**Nota**: La eliminación del estado `Completed` no actualiza automáticamente los incidentes en el estado `Completed` y no actualiza automáticamente ninguna consulta de [Incident Management Analytics][3] que haga referencia explícita al mismo. Cualquier regla de notificación que haga referencia al estado `Completed` se desactiva. + +## Texto auxiliar + +{{< img src="/service_management/incidents/incident_settings/settings_info_helper_text.png" alt="Configuración del texto auxiliar de Declarar incidente" style="width:100%;">}} + +El texto auxiliar aparece junto al [Modal de creación de incidentes][4] y ayuda a tus respondedores a entender cómo deben definir el incidente. + +Puedes utilizar markdown en el texto auxiliar para añadir listas con sangría, texto formateado e hipervínculos a otros recursos. + +## Incidentes privados (visibilidad del incidente) + +_Por defecto: desactivado_ + +La **visibilidad** de un incidente determina qué usuarios de tu organización de Datadog pueden verlo. Si la visibilidad del incidente es **organización**, cualquier usuario con permiso **Lectura de incidentes** puede verlo. Si la visibilidad del incidente es **privada**, solo podrán verla los respondedores del incidente o los usuarios con el permiso **Acceso global a incidentes privados**. + +En la [página de incidentes de Datadog][5], puedes buscar incidentes privados utilizando la faceta **Visibilidad** de la izquierda. También puedes añadir condiciones en torno a la visibilidad del incidente al definir [reglas de notificación][2] del incidente. + +### Incidentes privados en Slack + +Al declarar incidentes privados, Datadog crea canales privados de Slack en lugar de canales públicos. + +Si conviertes un incidente en privado, Datadog archiva el canal de incidentes existente, crea un nuevo canal privado y añade a él todos los respondedores existentes. + +Para convertir un incidente en privado en Slack, utiliza `/datadog incident private`. + +## Eliminación del incidente + +_Por defecto: desactivado_ + +Cuando la eliminación del incidente está habilitada para un tipo de incidente, cualquier usuario con el permiso **Escritura de incidentes** puede eliminar cualquier incidente del tipo de incidente. + +Una vez eliminado un incidente, ya no influye en los análisis del incidente y ningún usuario puede acceder a él. Los incidentes eliminados no se pueden recuperar. + +## Anular las marcas de tiempo de estado + +_Por defecto: desactivado_ + +Cuando se habilitan las anulaciones de fecha y hora en un tipo de incidente, cualquier usuario con el permiso **Escritura de incidente** puede definir anulaciones de fecha y hora en cualquier incidente de ese tipo de incidente. + +Cuando está activada, puedes definir anulaciones para las marcas de tiempo `declared`, `detected` y `resolved` en un incidente. Para obtener más información, consulta [Incident Analytics][3]. + +## Incidentes de test + +_Por defecto: desactivado_ + +Cuando los incidentes de test están habilitados en un tipo de incidente, cualquier usuario con el permiso **Escritura de incidentes** puede declarar incidentes de test del tipo de incidente. + +Los incidentes de test se distinguen visualmente por un banner morado. Por defecto, los incidentes de test no aparecen en la búsqueda del incidente, no ejecutan automatizaciones, no ejecutan reglas de notificación ni afectan a los análisis. El declarante puede optar por estas funciones durante la declaración. + +[1]: https://app.datadoghq.com/incidents/settings#Information +[2]: /es/service_management/incident_management/incident_settings/notification_rules +[3]: /es/service_management/incident_management/analytics +[4]: /es/service_management/incident_management/#from-the-incidents-page +[5]: https://app.datadoghq.com/incidents \ No newline at end of file diff --git a/content/es/tests/setup/javascript.md b/content/es/tests/setup/javascript.md index 7b1cfee224c..0100a4eabac 100644 --- a/content/es/tests/setup/javascript.md +++ b/content/es/tests/setup/javascript.md @@ -12,82 +12,76 @@ further_reading: - link: /continuous_integration/tests tag: Documentación text: Exploración de los resultados de tests y del rendimiento -- link: /continuous_integration/intelligent_test_runner/javascript +- link: /tests/test_impact_analysis/javascript tag: Documentación - text: Acelerar tus tests con Intelligent Test Runner -- link: /continuous_integration/troubleshooting/ + text: Acelera tus jobs (generic) de test con el análisis del efecto de los tests +- link: /tests/troubleshooting/ tag: Documentación - text: Solucionar problemas de CI Visibility + text: Solucionar problemas de Test Optimization (optimización de tests) title: Tests de JavaScript y TypeScript type: multi-code-lang --- ## Compatibilidad -Marcos de test compatibles: +Frameworks para tests compatibles: -| Marco de test | Versión | Notas | +| Framework para tests | Versión | Notas | |---|---|---| -| Jest | >= 24.8.0 | Solo `jsdom` (en el paquete `jest-environment-jsdom`) y `node` (en el paquete `jest-environment-node`) son compatibles como entornos de test. Los entornos personalizados como `@jest-runner/electron/environment` en `jest-electron-runner` no son compatibles.

Solo [`jest-circus`][1] es compatible como [`testRunner`][2].

[`test.concurrent`](#jests-testconcurrent) no es compatible. | -| Mocha | >= 5.2.0 | Mocha >= 9.0.0 tiene [compatibilidad parcial](#known-limitations). | +| Jest | >= 24.8.0 | Solo `jsdom` (en el paquete `jest-environment-jsdom` ) y `node` (en el paquete `jest-environment-node` ) se admiten como entornos de test. Los entornos personalizados como `@jest-runner/electron/environment` en `jest-electron-runner` no son compatibles.

Solo [`jest-circus`][1] se admite como [`testRunner`][2].

[`test.concurrent`](#jests-testconcurrent) no es compatible. | +| Mocha | >= 5.2.0 | | Cucumber | >= 7.0.0 | | Cypress | >= 6.7.0 | | Playwright | >= 1.18.0 | -| Vitest | >= 1.16.0 | Compatible desde `dd-trace>=4.42.0` y `dd-trace>=5.18.0`. Solo es compatible desde Node.js>=18.19 o Node.js>=20.6 | +| Vitest | >= 1.16.0 | Compatible a partir de `dd-trace>=4.42.0` y `dd-trace>=5.18.0`. Solo es compatible a partir de Node.js>=18.19 o de Node.js>=20.6 | -La instrumentación funciona en el tiempo de ejecución, por lo que los transcompiladores como TypeScript, Webpack o Babel son compatibles de forma predefinida. +La instrumentación funciona en tiempo de ejecución, por lo que cualquier transpilador como TypeScript, Webpack o Babel es compatible desde el primer momento. -## Configuración del método de informes +## Configuración del método de notificación -Para informar resultados de tests a Datadog, debes configurar la librería de Datadog JavaScript: +Para informar de los resultados de tests a Datadog, debes configurar la biblioteca de JavaScript de Datadog: {{< tabs >}} -{{% tab "Acciones de Github" %}} -Puedes usar la [acción Datadog Test Visibility Github][1] dedicada para activar la visibilidad de test. -Si lo haces, el resto de los pasos de configuración a continuación pueden omitirse. +{{% tab "Proveedor de CI compatible con instrumentación automática" %}} +{{% ci-autoinstrumentation %}} -[1]: https://github.com/marketplace/actions/configure-datadog-test-visibility -{{% /tab %}} - -{{% tab "Jenkins" %}} -Puedes usar la [configuración basada en la interfaz de usuario][1] para activar la Visibilidad de test para tus trabajos y pipelines. -Si lo haces, el resto de los pasos de configuración a continuación pueden omitirse. +
+ Nota: La instrumentación automática no es compatible con los tests de Cypress. Para instrumentar tests de Cypress, sigue los steps (UI) / pasos (generic) de instrumentación manual descritos a continuación. +
-[1]: /es/continuous_integration/pipelines/jenkins/#enable-with-the-jenkins-configuration-ui-1 {{% /tab %}} - -{{% tab "Otro proveedor de CI en la nube" %}} -
El modo sin Agent está disponible en las versiones de la librería de Datadog JavaScript >= 2.5.0
+{{% tab "Otro proveedor de integración continua en la nube" %}} +
La modalidad agentless está disponible en las versiones de JavaScript de Datadog >= 2.5.0
{{% ci-agentless %}} {{% /tab %}} -{{% tab "Proveedor de CI on-premise" %}} +{{% tab "Proveedor de integración continua on-premises" %}} {{% ci-agent %}} {{% /tab %}} {{< /tabs >}} ## Instalación del rastreador de JavaScript -Para instalar el [rastreador de JavaScript][3], ejecuta: +Para instalar el [JavaScript Tracer][3], ejecuta: ```bash yarn add --dev dd-trace ``` -Para obtener más información, consulta la [documentación del rastreador de JavaScript][4]. +Para obtener más información, consulta la [Documentación sobre la instalación de JavaScript Tracer][4]. ## Instrumenta tus tests {{< tabs >}} {{% tab "Jest/Mocha" %}} -Establece la variable de entorno `NODE_OPTIONS` en `-r dd-trace/ci/init`. Run your tests as you normally would, specifying the environment where the tests are run in the `DD_ENV` environment variable. For example, set `DD_ENV` to `local` when running tests on a developer workstation, or `ci` cuando se ejecuta en un proveedor de CI: +Configura la variable de entorno `NODE_OPTIONS` en `-r dd-trace/ci/init`. Ejecuta tus tests como lo harías normalmente, opcionalmente especificando un nombre para tu sesión de tests con `DD_TEST_SESSION_NAME`: ```bash -NODE_OPTIONS="-r dd-trace/ci/init" DD_ENV=ci DD_SERVICE=my-javascript-app yarn test +NODE_OPTIONS="-r dd-trace/ci/init" DD_TEST_SESSION_NAME=unit-tests yarn test ``` -**Nota**: Si estableces un valor para `NODE_OPTIONS`, asegúrate que no sobrescriba la cláusula `-r dd-trace/ci/init`. This can be done using the `${NODE_OPTIONS:-}`: +**Nota**: Si configuras un valor para `NODE_OPTIONS`, asegúrate de que no sobrescriba `-r dd-trace/ci/init`. Esto se puede hacer mediante la cláusula `${NODE_OPTIONS:-}`: {{< code-block lang="json" filename="package.json" >}} { @@ -97,49 +91,55 @@ NODE_OPTIONS="-r dd-trace/ci/init" DD_ENV=ci DD_SERVICE=my-javascript-app yarn t } {{< /code-block >}} -### Añade etiquetas personalizadas a tests +### Añadir tags (etiquetas) personalizadas a los tests -Puedes añadir etiquetas personalizadas a tus tests mediante el tramo activo en ese momento: +Puedes añadir tags (etiquetas) personalizadas a tus tests mediante el span (tramo) activo actual: ```javascript it('sum function can sum', () => { const testSpan = require('dd-trace').scope().active() testSpan.setTag('team_owner', 'my_team') - // test continúa normalmente + // test continues normally // ... }) ``` -Para crear filtros o campos `group by` para estas etiquetas, primero debes crear facetas. Para obtener más información sobre añadir etiquetas, consulta la sección [Añadir etiquetas][1] de la documentación de la instrumentación personalizada de Node.js. +Para crear filtros o campos `group by` para estas tags (etiquetas), primero debes crear facetas. Para obtener más información sobre el agregado de tags (etiquetas), consulta la sección [Añadir tags (etiquetas)][1] de la documentación sobre la instrumentación personalizada de Node.js. ### Añadir medidas personalizadas a tests -Como con las etiquetas, puedes añadir medidas personalizadas a tus tests mediante el tramo activo en ese momento: +Al igual que las tags (etiquetas), puedes añadir medidas personalizadas a tus tests mediante el span activo actual: ```javascript it('sum function can sum', () => { const testSpan = require('dd-trace').scope().active() testSpan.setTag('memory_allocations', 16) - // test continúa normalmente + // test continues normally // ... }) ``` -Para más información sobre las medidas personalizadas, consulta la [guía Añadir medidas personalizadas][2]. +Para obtener más información acerca de las medidas personalizadas, consulta la [Guía para añadir medidas personalizadas][2]. + +### Módulos de ECMAScript de Mocha (ESM) +[Mocha >=9.0.0][3] utiliza un primer enfoque de ESM para cargar archivos de tests. Configura `NODE_OPTIONS` en `-r dd-trace/ci/init --import dd-trace/register.js` para obtener una visibilidad completa de tus tests. Consulta [Compatibilidad de`dd-trace-js` y ESM][4] para obtener más información. + [1]: /es/tracing/trace_collection/custom_instrumentation/nodejs?tab=locally#adding-tags [2]: /es/tests/guides/add_custom_measures/?tab=javascripttypescript +[3]: https://github.com/mochajs/mocha/releases/tag/v9.0.0 +[4]: https://github.com/datadog/dd-trace-js?tab=readme-ov-file#ecmascript-modules-esm-support {{% /tab %}} {{% tab "Playwright" %}} -Establece la variable de entorno `NODE_OPTIONS` en `-r dd-trace/ci/init`. Run your tests as you normally would, specifying the environment where the tests are run in the `DD_ENV` environment variable. For example, set `DD_ENV` to `local` when running tests on a developer workstation, or `ci` cuando lo ejecutas en un proveedor de CI: +Configura la variable de entorno `NODE_OPTIONS` en `-r dd-trace/ci/init`. Ejecuta tus tests como lo harías normalmente, opcionalmente especificando un nombre para tu sesión de tests con `DD_TEST_SESSION_NAME`: ```bash -NODE_OPTIONS="-r dd-trace/ci/init" DD_ENV=ci DD_SERVICE=my-javascript-app yarn test +NODE_OPTIONS="-r dd-trace/ci/init" DD_TEST_SESSION_NAME=e2e-tests yarn test:e2e ``` -**Nota**: Si estableces un valor de `NODE_OPTIONS`, asegúrate que no sobrescriba la cláusula `-r dd-trace/ci/init`. This can be done using the `${NODE_OPTIONS:-}`: +**Nota**: Si configuras un valor para `NODE_OPTIONS`, asegúrate de que no sobrescriba `-r dd-trace/ci/init`. Esto se puede hacer mediante la cláusula `${NODE_OPTIONS:-}`: {{< code-block lang="json" filename="package.json" >}} { @@ -149,14 +149,14 @@ NODE_OPTIONS="-r dd-trace/ci/init" DD_ENV=ci DD_SERVICE=my-javascript-app yarn t } {{< /code-block >}} -### Añadir etiquetas personalizadas a tests +### Añadir tags (etiquetas) personalizadas a tests -Puedes añadir etiquetas personalizadas a tus tests mediante la [API de anotaciones personalizadas de Playwright][1]: +Puedes añadir tags (etiquetas) personalizadas a tus tests mediante la [API de anotaciones personalizadas desde Playwright][1]: ```javascript test('user profile', async ({ page }) => { test.info().annotations.push({ - type: 'DD_TAGS[test.memory.usage]', // DD_TAGS es obligatorio y distingue entre mayúscula y minúscula + type: 'DD_TAGS[test.memory.usage]', // DD_TAGS is mandatory and case sensitive description: 'low', }); test.info().annotations.push({ @@ -175,7 +175,7 @@ test('landing page', async ({ page }) => { }); ``` -El formato de las anotaciones es el siguiente, donde `$TAG_NAME` y `$TAG_VALUE` son *cadenas* que representan el nombre de etiqueta y el valor, respectivamente: +El formato de las anotaciones es el siguiente, donde `$TAG_NAME` y `$TAG_VALUE` son *cadenas* que representan el nombre y el valor de la tag (etiqueta), respectivamente: ```json { @@ -186,18 +186,18 @@ El formato de las anotaciones es el siguiente, donde `$TAG_NAME` y `$TAG_VALUE` ### Añadir medidas personalizadas a tests -Las medidas personalizadas también usan anotaciones personalizadas: +Las medidas personalizadas también utilizan anotaciones personalizadas: ```javascript test('user profile', async ({ page }) => { test.info().annotations.push({ - type: 'DD_TAGS[test.memory.allocations]', // DD_TAGS es obligatorio y distingue entre mayúscula y minúscula - description: 16, // este es un número + type: 'DD_TAGS[test.memory.allocations]', // DD_TAGS is mandatory and case sensitive + description: 16, // this is a number }); }); ``` -El formato de las anotaciones es el siguiente, donde `$TAG_NAME` es una *cadena* que representa el nombre de etiqueta y `$TAG_VALUE` es un *número* que representa el valor de etiqueta: +El formato de las anotaciones es el siguiente, donde `$TAG_NAME` es una *cadena* que representa el nombre de la tag (etiqueta) y `$TAG_VALUE` es un *número* que representa el valor de la tag (etiqueta): ```json { @@ -205,21 +205,26 @@ El formato de las anotaciones es el siguiente, donde `$TAG_NAME` es una *cadena* "description": $TAG_VALUE } ``` -**Nota*: Los valores `description` en anotaciones se [escriben como cadenas][2]. Los números también funcionan, pero debes desactivar el error de escritura con `// @ts-expect-error`. +**Nota**: Los valores `description` en las anotaciones se [escriben como cadenas][2]. Los números también funcionan, pero puede ser necesario desactivar el error de escritura con `// @ts-expect-error`.
- Importante: El prefijo DD_TAGS es obligatorio y distingue entre mayúscula y minúscula. + Importante: El prefijo DD_TAGS es obligatorio y distingue mayúsculas de minúsculas.
+### Integración de Playwright y RUM + +Si la aplicación de navegador que se está comprobando se instrumenta mediante [Monitorización del navegador][3], los resultados del test de Playwright y sus sesiones de navegador y repeticiones de sesión generadas con RUM se vinculan automáticamente. Para obtener más información, consulta la [Guía de instrumentación de tests del navegador con RUM][4]. + [1]: https://playwright.dev/docs/test-annotations#custom-annotations [2]: https://playwright.dev/docs/api/class-testinfo#test-info-annotations +[3]: /es/real_user_monitoring/application_monitoring/browser/setup/ +[4]: /es/continuous_integration/guides/rum_integration/ {{% /tab %}} {{% tab "Cucumber" %}} -Establece la variable de entorno `NODE_OPTIONS` en `-r dd-trace/ci/init`. Run your tests as you normally would, specifying the environment where the tests are run in the `DD_ENV` environment variable. For example, set `DD_ENV` to `local` when running tests on a developer workstation, or `ci` cuando lo ejecute en un proveedor de CI: - +Configura la variable de entorno `NODE_OPTIONS` en `-r dd-trace/ci/init`. Ejecuta tus tests como lo harías normalmente, opcionalmente especificando un nombre para tu sesión de test con `DD_TEST_SESSION_NAME`: ```bash -NODE_OPTIONS="-r dd-trace/ci/init" DD_ENV=ci DD_SERVICE=my-javascript-app yarn test +NODE_OPTIONS="-r dd-trace/ci/init" DD_TEST_SESSION_NAME=integration-tests yarn test:integration ``` **Nota**: Si estableces un valor para `NODE_OPTIONS`, asegúrate de que no sobrescriba la cláusula `-r dd-trace/ci/init`. This can be done using the `${NODE_OPTIONS:-}`: @@ -232,7 +237,7 @@ NODE_OPTIONS="-r dd-trace/ci/init" DD_ENV=ci DD_SERVICE=my-javascript-app yarn t } {{< /code-block >}} -### Añadir etiquetas personalizadas a los tests +### Añadir tags (etiquetas) personalizadas a los tests Puedes añadir etiquetas personalizadas a tus tests con el tramo activo en ese momento: @@ -256,7 +261,7 @@ También puedes añadir medidas personalizadas a tu test con el tramo que esté When('the function is called', function () { const stepSpan = require('dd-trace').scope().active() testSpan.setTag('memory_allocations', 16) - // test continúa normalmente + // test continues normally // ... }) ``` @@ -306,8 +311,8 @@ const { defineConfig } = require('cypress') module.exports = defineConfig({ e2e: { setupNodeEvents(on, config) { - // tu código previo va antes de esta línea - require('dd-trace/ci/cypress/plugin')(on, config) + // tu código anterior está antes de esta línea + return require('dd-trace/ci/cypress/plugin')(on, config) } } }) @@ -370,8 +375,8 @@ Estas son las instrucciones si estás utilizando una versión anterior a `cypres Si ya has definido un `pluginsFile`, inicializa la instrumentación con: {{< code-block lang="javascript" filename="cypress/plugins/index.js" >}} module.exports = (on, config) => { - // tu código previo va antes de esta línea - require('dd-trace/ci/cypress/plugin')(on, config) + // tu código anterior está antes de esta línea + return require('dd-trace (traza)/ci/cypress/plugin')(on, config) } {{< /code-block >}} @@ -416,14 +421,14 @@ module.exports = (on, config) => { {{< /code-block >}} -Ejecuta tus tests como lo haces normalmente, especificando el entorno donde se están ejecutando (por ejemplo, `local` cuando se ejecutan los tests en una estación de trabajo de desarrollador, o `ci` cuando se ejecutan en un proveedor de CI) en la variable de entorno `DD_ENV`. Por ejemplo: +Ejecuta tus tests como lo harías normalmente, especificando opcionalmente un nombre para tu sesión de test con `DD_TEST_SESSION_NAME`: {{< code-block lang="shell" >}} -DD_ENV=ci DD_SERVICE=my-ui-app npm test +DD_TEST_SESSION_NAME=ui-tests yarn test:ui {{< /code-block >}} -### Añadir etiquetas personalizadas a los tests +### Añadir etiquetas (tags) personalizadas a los tests Para añadir información adicional a tus tests, como el propietario del equipo, utiliza `cy.task('dd:addTags', { yourTags: 'here' })` en tu testo hooks. @@ -478,21 +483,21 @@ Si la aplicación de navegador que se está probando se instrumenta con la [Moni [7]: https://docs.cypress.io/guides/core-concepts/writing-and-organizing-tests#Support-file [8]: /es/tracing/trace_collection/custom_instrumentation/nodejs?tab=locally#adding-tags [9]: /es/tests/guides/add_custom_measures/?tab=javascripttypescript -[10]: /es/real_user_monitoring/browser/setup +[10]: /es/real_user_monitoring/application_monitoring/browser/setup/ [11]: /es/continuous_integration/guides/rum_integration/ {{% /tab %}} {{% tab "Vitest" %}}
- Nota: Vitest es ESM primero, por lo que su configuración es diferente de otros marcos de test. + Nota: Vitest es ESM primero, por lo que tu configuración es diferente de otros frameworks de tests.
`vitest` y `dd-trace` requieren Node.js>=18.19 o Node.js>=20.6 para funcionar. -Establece la variable de entorno `NODE_OPTIONS` en `--import dd-trace/register.js -r dd-trace/ci/init`. Run your tests as you normally would, specifying the environment where the tests are run in the `DD_ENV` environment variable. For example, set `DD_ENV` to `local` when running tests on a developer workstation, or `ci` cuando se ejecute en un proveedor de CI: +Configura la variable de entorno `NODE_OPTIONS` en `--import dd-trace/register.js -r dd-trace/ci/init`. Ejecuta tus tests como lo harías normalmente, opcionalmente especificando un nombre para tu sesión de test con `DD_TEST_SESSION_NAME`: ```bash -NODE_OPTIONS="--import dd-trace/register.js -r dd-trace/ci/init" DD_ENV=ci DD_SERVICE=my-javascript-app yarn test +NODE_OPTIONS="--import dd-trace/register.js -r dd-trace/ci/init" DD_TEST_SESSION_NAME=smoke-tests yarn test:smoke ``` **Nota**: Si estableces un valor para `NODE_OPTIONS`, asegúrate de que no sobrescriba la cláusula `--import dd-trace/register.js -r dd-trace/ci/init`. This can be done using the `${NODE_OPTIONS:-}`: @@ -529,6 +534,7 @@ jobs: my-job: name: Run tests runs-on: ubuntu-latest + # Invalid NODE_OPTIONS env: NODE_OPTIONS: -r dd-trace/ci/init steps: @@ -595,10 +601,16 @@ Para más información, consulta [Cobertura del código][6]. A continuación, se muestra una lista de los ajustes más importantes de configuración que se pueden utilizar con el rastreador. +`test_session.name` +: Se utiliza para identificar un grupo de tests, como `integration-tests`, `unit-tests` o `smoke-tests`.
+**Variable de entorno**: `DD_TEST_SESSION_NAME`
+**Predeterminado**: (nombre del job (generic) de integración continua + comando de test)
+**Ejemplo**: `unit-tests`, `integration-tests`, `smoke-tests` + `service` : nombre del servicio o biblioteca en proceso de test.
**Variable de entorno **: `DD_SERVICE`
-**Por defecto**: (nombre del marco de test)
+**Por defecto**: (nombre del framework de test)
**Ejemplo**: `my-ui` `env` @@ -621,16 +633,12 @@ Para más información sobre etiquetas `service` y `env` reservadas, consulta [E ## API para tests manuales
- Nota: Para utilizar la API de tests manuales, debes pasar DD_CIVISIBILITY_MANUAL_API_ENABLED=1 como variable de entorno. + Nota: La API de tests manuales está disponible a partir de las versiones 5.23.0 y 4.47.0 de dd-trace.
-
- Nota: La API de tests manuales está en fase beta, por lo que podría sufrir modificaciones. Está disponible a partir de las versiones 4.4.0, 3.25.0 y 2.38.0 de dd-trace. -
+Si utilizas Jest, Mocha, Cypress, Playwright, Cucumber o Vitest, **no utilices la API de tests manuales**, ya que Test Optimization (optimización de tests) los instrumenta automáticamente y envía los resultados de los tests a Datadog. La API de test manual es **incompatible** con los frameworks de tests ya admitidos. -Si utilizas Jest, Mocha, Cypress, Playwright, Cucumber o Vitest, **no utilices la API de tests manuales**, ya que CI Visibility los instrumenta automáticamente y envía los resultados a Datadog. La API de tests manuales es **incompatible** con los marcos de test que ya son compatibles. - -Utiliza la API de tests manuales solo si utilizas un marco de test no compatible o tienes un mecanismo de test diferente. +Utiliza la API de tests manuales solo si utilizas un framework de test no compatible o tienes un mecanismo de test diferente. La API de tests manuales aprovecha el módulo `node:diagnostics_channel` de Node.js y se basa en canales en los que se puede publicar: @@ -664,7 +672,7 @@ Toma este canal por su ID `dd-trace:ci:manual:test:start` para publicar que se e const { channel } = require('node:diagnostics_channel') const testStartCh = channel('dd-trace:ci:manual:test:start') -// ... el código para tu marco de test va aquí +// ... el código para tu framework de test va aquí beforeEach(() => { const testDefinition = { testName: 'a-string-that-identifies-this-test', @@ -672,7 +680,7 @@ const testStartCh = channel('dd-trace:ci:manual:test:start') } testStartCh.publish(testDefinition) }) -// el código para tu marco de test continúa aquí ... +// el código para tu framework de test continúa aquí ... ``` La carga útil que se va a publicar tiene los atributos `testName` y `testSuite`, ambos cadenas, que identifican el test que está a punto de comenzar. @@ -685,7 +693,7 @@ Toma este canal por su ID `dd-trace:ci:manual:test:finish` para publicar que se const { channel } = require('node:diagnostics_channel') const testFinishCh = channel('dd-trace:ci:manual:test:finish') -// ... el código para tu marco de test va aquí +// ... el código para tu framework de test va aquí afterEach(() => { const testStatusPayload = { status: 'fail', @@ -693,7 +701,7 @@ const testFinishCh = channel('dd-trace:ci:manual:test:finish') } testStartCh.publish(testStatusPayload) }) -// el código para tu marco de test continúa aquí ... +// el código para tu framework de test continúa aquí ... ``` La carga útil que se va a publicar tiene los atributos `status` y `error`: @@ -713,13 +721,13 @@ Toma este canal por su ID `dd-trace:ci:manual:test:addTags` para publicar que un const { channel } = require('node:diagnostics_channel') const testAddTagsCh = channel('dd-trace:ci:manual:test:addTags') -// ... el código para tu marco de test va aquí +// ... el código para tu framework de test va aquí test('can sum', () => { testAddTagsCh.publish({ 'test.owner': 'my-team', 'number.assertions': 3 }) const result = sum(2, 1) assert.equal(result, 3) }) -// el código para tu marco de test continúa aquí ... +// el código para tu framework de test continúa aquí ... ``` La carga útil que se publica es un diccionario `` de etiquetas o medidas que se añaden al test. @@ -727,44 +735,47 @@ La carga útil que se publica es un diccionario `` de eti ### Ejecutar los tests -Cuando los canales de inicio y fin del test estén en tu código, ejecuta tu marco de test como lo haces normalmente, incluyendo las siguientes variables de entorno: +Cuando los canales de inicio y fin del test estén en tu código, ejecuta tu framework de test como lo haces normalmente, incluyendo las siguientes variables de entorno: ```shell -NODE_OPTIONS="-r dd-trace/ci/init" DD_CIVISIBILITY_MANUAL_API_ENABLED=1 DD_ENV=ci DD_SERVICE=my-custom-framework-tests yarn run-my-test-framework +NODE_OPTIONS="-r dd-trace/ci/init" DD_TEST_SESSION_NAME=custom-tests yarn run-my-test-framework ``` ## Limitaciones conocidas -### Módulos ES -[Mocha >=9.0.0][9] utiliza un enfoque primero ESM para cargar archivos de test. Esto significa que si se utilizan [módulos ES][10] (por ejemplo, al definir archivos de test con la extensión `.mjs`), _la instrumentación está limitada_. Los tests se detectan, pero no hay visibilidad de tu test. Para más información sobre los módulos ES, consulta la [documentación de Node.js][10]. - ### Tests de navegador Los tests de navegador ejecutados con `mocha`, `jest`, `cucumber`, `cypress`, `playwright` y `vitest` son instrumentados por `dd-trace-js`, pero la visibilidad de la sesión del navegador en sí no se proporciona por defecto (por ejemplo, llamadas de red, acciones del usuario, cargas de páginas, etc.). -Si quieres visibilidad del proceso de navegador, considera el uso de [RUM y Session Replay][11]. Cuando se utiliza Cypress, los resultados de los tests y sus sesiones de navegador RUM generadas y las repeticiones de sesión se vinculan automáticamente. Para más información, consulta la [guía para Instrumentar tus tests de navegador con RUM][12]. +Si deseas tener visibilidad del proceso del navegador, considera el uso de [RUM y repetición de sesión][9]. Cuando se utiliza Cypress o Playwright, los resultados de test y sus sesiones de navegador de RUM generadas y las repeticiones de sesión se vinculan automáticamente. Para obtener más información, consulta la [Guía para Instrumentar tus tests del navegador con RUM][10]. ### Modo interactivo de Cypress -El modo interactivo de Cypress (al que puedes entrar ejecutando `cypress open`) no es compatible con CI Visibility porque algunos eventos de Cypress, como [`before:run`][13], no se activan. Si quieres probarlo de todas formas, pasa `experimentalInteractiveRunEvents: true` al [archivo de configuración de Cypress][14]. +El modo interactivo de Cypress (al que puedes entrar ejecutando `cypress open`) no es compatible con Test Optimization (optimización de tests) porque algunos eventos de cypress, como [`before:run`][11], no se disparan. Si deseas probarlo de todas formas, pasa `experimentalInteractiveRunEvents: true` al [archivo de configuración de cypress][12]. + +### `--workerThreads` de Jest +La opción [workerThreads][13] de Jest no es compatible. ### `test.concurrent` de Jest -No se admite [test.concurrent][15] de Jest. +[test.concurrent][14] de Jest no es compatible. ### `--forceExit` de Jest -La opción [--forceExit][16] de Jest puede causar pérdida de datos. Datadog intenta enviar datos inmediatamente después de que tus tests terminen, pero cerrar el proceso abruptamente puede causar que algunas solicitudes fallen. Usa `--forceExit` con precaución. +La opción [--forceExit][15] de Jest puede provocar la pérdida de datos. Datadog intenta enviar datos inmediatamente después de que finalicen tus tests, pero el cierre abrupto del proceso puede hacer que fallen algunas solicitudes. Utiliza `--forceExit` con precaución. ### `--exit` de Mocha -La opción [--exit][17] de Mocha puede causar pérdida de datos. Datadog intenta enviar datos inmediatamente después de que tus tests terminen, pero cerrar el proceso abruptamente puede causar que algunas solicitudes fallen. Usa `--exit` con precaución. +La opción [--exit][16] de Mocha puede provocar la pérdida de datos. Datadog intenta enviar los datos inmediatamente después de que finalicen tus tests, pero el cierre abrupto del proceso puede hacer que fallen algunas solicitudes. Utiliza `--exit` con precaución. + +### Modo navegador de Vitest +El [modo navegador][17] de Vitest no es compatible. ## Prácticas recomendadas -Sigue estas prácticas para aprovechar al máximo el marco de test y CI Visibility. +Siga estas prácticas para aprovechar al máximo el framework testing y la optimización de test (optimización de tests). ### Tests parametrizados -Siempre que sea posible, aprovecha las herramientas que ofrecen los marcos de test para realizar tests parametrizados. Por ejemplo, para `jest`: +Siempre que sea posible, aprovecha las herramientas que ofrecen los frameworks de test para realizar tests parametrizados. Por ejemplo, para `jest`: Evita esto: {{< code-block lang="javascript" >}} @@ -796,7 +807,34 @@ forEach([ }); {{< /code-block >}} -Cuando se utiliza este enfoque, tanto el marco de test como CI Visibility pueden distinguir tus tests. +Cuando se utiliza este enfoque, tanto el framework de testing como test Optimization (optimización de tests) pueden distinguir sus tests. + +### Nombre de la sesión de test `DD_TEST_SESSION_NAME` + +Utiliza `DD_TEST_SESSION_NAME` para definir el nombre de la sesión de test y del grupo de tests relacionado. Algunos ejemplos de valores para esta etiqueta serían: + +- `unit-tests` +- `integration-tests` +- `smoke-tests` +- `flaky-tests` +- `ui-tests` +- `backend-tests` + +Si no se especifica `DD_TEST_SESSION_NAME`, el valor predeterminado utilizado es una combinación de: + +- Nombre del job (generic) de CI +- Comando utilizado para ejecutar los tests (como `yarn test`) + +El nombre de la sesión de tests debe ser único dentro de un repositorio para ayudarte a distinguir diferentes grupos de tests. + +#### Cuándo utilizar `DD_TEST_SESSION_NAME` + +Hay un conjunto de parámetros que Datadog comprueba para establecer la correspondencia entre las sesiones de test. El comando de test utilizado para ejecutar los tests es uno de ellos. Si el comando de test contiene una cadena que cambia en cada ejecución, como una carpeta temporal, Datadog considera que las sesiones no están relacionadas entre sí. Por ejemplo: + +- `yarn test --temp-dir=/var/folders/t1/rs2htfh55mz9px2j4prmpg_c0000gq/T` +- `pnpm vitest --temp-dir=/var/folders/t1/rs2htfh55mz9px2j4prmpg_c0000gq/T` + +Datadog recomienda utilizar `DD_TEST_SESSION_NAME` si tus comandos de test varían entre diferentes ejecuciones. ## Referencias adicionales @@ -810,14 +848,14 @@ Cuando se utiliza este enfoque, tanto el marco de test como CI Visibility pueden [6]: /es/tests/code_coverage/?tab=javascripttypescript [7]: /es/getting_started/tagging/unified_service_tagging [8]: /es/tracing/trace_collection/library_config/nodejs/?tab=containers#configuration -[9]: https://github.com/mochajs/mocha/releases/tag/v9.0.0 -[10]: https://nodejs.org/api/packages.html#packages_determining_module_system -[11]: /es/real_user_monitoring/browser/ -[12]: /es/continuous_integration/guides/rum_integration/ -[13]: https://docs.cypress.io/api/plugins/before-run-api -[14]: https://docs.cypress.io/guides/references/configuration#Configuration-File -[15]: https://jestjs.io/docs/api#testconcurrentname-fn-timeout -[16]: https://jestjs.io/docs/cli#--forceexit -[17]: https://mochajs.org/#-exit +[9]: /es/real_user_monitoring/application_monitoring/browser/ +[10]: /es/continuous_integration/guides/rum_integration/ +[11]: https://docs.cypress.io/api/plugins/before-run-api +[12]: https://docs.cypress.io/guides/references/configuration#Configuration-File +[13]: https://jestjs.io/docs/configuration#workerthreads +[14]: https://jestjs.io/docs/api#testconcurrentname-fn-timeout +[15]: https://jestjs.io/docs/cli#--forceexit +[16]: https://mochajs.org/running/cli/#--exit +[17]: https://vitest.dev/guide/browser/ [18]: https://jestjs.io/docs/api#testeachtablename-fn-timeout -[19]: https://www.npmjs.com/package/mocha-each +[19]: https://www.npmjs.com/package/mocha-each \ No newline at end of file diff --git a/content/es/tracing/other_telemetry/connect_logs_and_traces/java.md b/content/es/tracing/other_telemetry/connect_logs_and_traces/java.md index 11c068a9743..4317d0534d0 100644 --- a/content/es/tracing/other_telemetry/connect_logs_and_traces/java.md +++ b/content/es/tracing/other_telemetry/connect_logs_and_traces/java.md @@ -28,15 +28,111 @@ Asegúrate de que la recopilación de log está configurada. Consulta [Recopilac A partir de la versión 0.74.0, el rastreador de Java inyecta automáticamente identificadores de correlación de traza en logs con formato JSON. Para versiones anteriores, activa la inyección automática en el rastreador de Java añadiendo `dd.logs.injection=true` como propiedad del sistema, o a través de la variable de entorno `DD_LOGS_INJECTION=true`. Los detalles completos de configuración pueden encontrarse en la página de [configuración del rastreador de Java][2]. +Para un enfoque más universal, basado en la configuración, también puedes utilizar appenders de logs de OpenTelemetry'. Consulta [Correlación de traces (trazas) y logs de OpenTelemetry][6] para obtener instrucciones de configuración. + **Notas**: -- La inyección automática de la correlación de traza está disponible para Log4j2, Log4j o SLF4J y Logback. -- Si la `attribute.path` de tu ID de traza *no* es `dd.trace_id`, asegúrate de que la configuración de atributos reservados de tu ID de traza tiene en cuenta la `attribute.path`. Para obtener más información, consulta [Los logs correlacionados no aparecen en el panel de ID de traza][3]. +- La inserción automática de la correlación de traces (trazas) está disponible para Log4j2, Log4j o SLF4J y Logback. +- Si la `attribute.path` de tu ID de traza *no* es `dd.trace_id`, asegúrate de que la configuración de atributos reservados de tu ID de trace (traza) tenga en cuenta la `attribute.path`. Para obtener más información, consulta [Los logs correlacionados no aparecen en el panel de ID de traces (trazas)][3]. + +
A partir de la versión 1.18.3, si la Configuración remota del Agent está activada donde se ejecuta el servicio, puedes configurar DD_LOGS_INJECTION en la interfaz de usuario de Software Catalog.
+ +## Inserción manual + +Si prefieres añadir manualmente identificadores de correlación a tus logs, puedes utilizar una API de rastreo. Datadog recomienda utilizar la API estándar de OpenTelemetry para la neutralidad del proveedor y una mayor compatibilidad. También puedes utilizar la API específica de Datadog. + +### API de OpenTelemetry (recomendada) + +Para correlacionar logs y traces (trazas) con la API de OpenTelemetry, añade primero la dependencia `OpenTelemetry-api` a tu project (proyecto). + +{{< tabs >}} +{{% tab "Maven" %}} + +```xml + + io.opentelemetry + opentelemetry-api + 1.40.0 provided + +``` + +{{% /tab %}} +{{% tab "Gradle" %}} + +```groovy +compileOnly 'io.opentelemetry:opentelemetry-api:1.40.0' +``` +{{% /tab %}} +{{% tab "Gradle (Kotlin DSL)" %}} + +```kotlin +compileOnly("io.opentelemetry:opentelemetry-api:1.40.0") +``` + +{{% /tab %}} +{{< /tabs >}} + +Después de añadir la dependencia, utiliza la clase `Span` de OpenTelemetry para acceder a los ID actuales de trace (traza) y span (tramo) y añadirlos a tu contexto de logging. + +Por ejemplo: + +```java +import io.opentelemetry.api.trace.Span; +import io.opentelemetry.api.trace.SpanContext; +import org.slf4j.MDC; + +// ... + +SpanContext spanContext = Span.current().getSpanContext(); +if (spanContext.isValid()) { + try { + MDC.put("dd.trace_id", spanContext.getTraceId()); + MDC.put("dd.span_id", spanContext.getSpanId()); + // Log something + } finally { + MDC.remove("dd.trace_id"); + MDC.remove("dd.span_id"); + } +} +``` + +**Nota**: Si no hay ningún span (tramo) activo, `spanContext.isValid()` devuelve `false` y no se añade ningún ID a los logs. + +### API de Datadog + +Para correlacionar manualmente logs y traces (trazas) con la API de Datadog, añade la dependencia `dd-trace-api` a tu project (proyecto). + +{{< tabs >}} +{{% tab "Maven" %}} + +```xml + + com.datadoghq + dd-trace-api + LATEST_VERSION + +``` -
Fase beta: a partir de la versión 1.18.3, si la Configuración remota del Agent está activada donde se ejecuta el servicio, puedes establecer DD_LOGS_INJECTION en la interfaz de usuario del Catálogo de servicio.
+{{% /tab %}} +{{% tab "Gradle" %}} -## Inyección manual +```groovy +implementation 'com.datadoghq:dd-trace-api:LATEST_VERSION' +``` +{{% /tab %}} +{{% tab "Gradle (Kotlin DSL)" %}} -Si prefieres correlacionar manualmente tus trazas con tus logs, utiliza la API del rastreador de Java para recuperar los identificadores de correlación. Utiliza los métodos `CorrelationIdentifier.getTraceId` y `CorrelationIdentifier.getSpanId` para inyectar identificadores al principio del tramo que se está registrando, y elimina los identificadores cuando el tramo haya finalizado. +```kotlin +implementation("com.datadoghq:dd-trace-api:LATEST_VERSION") +``` + +{{% /tab %}} +{{< /tabs >}} + +Sustituye `LATEST_VERSION` por la misma versión que tu rastreador de Java de Datadog (`dd-java-agent`). + +Después de añadir la dependencia, utiliza `CorrelationIdentifier.getTraceId()` y `CorrelationIdentifier.getSpanId()` para recuperar e insertar los ID en tu contexto de logging, como se muestra en los siguientes ejemplos. + +
Si no hay ningún span (tramo) activo, CorrelationIdentifier.getTraceId() y getSpanId() devuelven "0". Asegúrate de que los spans (tramos) se inicien antes de ejecutar este código.
{{< tabs >}} {{% tab "Log4j 2" %}} @@ -45,32 +141,31 @@ Si prefieres correlacionar manualmente tus trazas con tus logs, utiliza la API d import org.apache.logging.log4j.ThreadContext; import datadog.trace.api.CorrelationIdentifier; -// Deben haber tramos iniciados y activos antes de este bloque. +// There must be spans started and active before this block. try { ThreadContext.put("dd.trace_id", CorrelationIdentifier.getTraceId()); ThreadContext.put("dd.span_id", CorrelationIdentifier.getSpanId()); -// Loguear algo. +// Log something } finally { ThreadContext.remove("dd.trace_id"); ThreadContext.remove("dd.span_id"); } ``` - {{% /tab %}} -{{% tab "SLF4J and Logback" %}} +{{% tab "SLF4J y Logback" %}} ```java import org.slf4j.MDC; import datadog.trace.api.CorrelationIdentifier; -// Deben haber tramos iniciados y activos antes de este bloque. +// There must be spans started and active before this block. try { MDC.put("dd.trace_id", CorrelationIdentifier.getTraceId()); MDC.put("dd.span_id", CorrelationIdentifier.getSpanId()); -// Loguear algo. +// Log something } finally { MDC.remove("dd.trace_id"); @@ -84,12 +179,12 @@ try { import org.tinylog.ThreadContext; import datadog.trace.api.CorrelationIdentifier; -// Deben haber tramos iniciados y activos antes de este bloque. +// There must be spans started and active before this block. try { ThreadContext.put("dd.trace_id", CorrelationIdentifier.getTraceId()); ThreadContext.put("dd.span_id", CorrelationIdentifier.getSpanId()); -// Loguear algo. +// Log something } finally { ThreadContext.remove("dd.trace_id"); @@ -99,11 +194,11 @@ try { {{% /tab %}} {{< /tabs >}} -**Nota:** Si no utilizas [la integración de log de Datadog][4] para analizar tus logs, las reglas personalizadas de parseo de log deben asegurar que `dd.trace_id` y `dd.span_id` se analicen como cadenas. Para obtener más información, consulta [Los logs correlacionados no aparecen en el panel de ID de traza][5]. +**Nota:** Si no utilizas [la integración de log de Datadog][4] para analizar tus logs, las reglas personalizadas de parseo de log deben asegurar que `dd.trace_id` y `dd.span_id` se analicen como cadenas. Para obtener más información, consulta [Los logs correlacionados no aparecen en el panel de ID de trace (traza)][5]. [Consulta la documentación de la recopilación de log de Java][1] para obtener más detalles sobre el despliegue específico del registrador e instrucciones para el registro en formato JSON. -## Leer más +## Referencias adicionales {{< partial name="whats-next/whats-next.html" >}} @@ -111,4 +206,5 @@ try { [2]: /es/tracing/trace_collection/dd_libraries/java/ [3]: /es/tracing/troubleshooting/correlated-logs-not-showing-up-in-the-trace-id-panel/? [4]: /es/logs/log_collection/java/#raw-format -[5]: /es/tracing/troubleshooting/correlated-logs-not-showing-up-in-the-trace-id-panel/?tab=custom \ No newline at end of file +[5]: /es/tracing/troubleshooting/correlated-logs-not-showing-up-in-the-trace-id-panel/?tab=custom +[6]: /es/tracing/connect_logs_and_traces/opentelemetry \ No newline at end of file diff --git a/content/es/tracing/services/inferred_entity_remapping_rules.md b/content/es/tracing/services/inferred_entity_remapping_rules.md new file mode 100644 index 00000000000..a2dd5377a7f --- /dev/null +++ b/content/es/tracing/services/inferred_entity_remapping_rules.md @@ -0,0 +1,68 @@ +--- +aliases: +- /es/tracing/services/renaming_rules/ +description: Crea nombres personalizados para entidades inferidas como bases de datos + y colas utilizando etiquetas (tags) y expresiones regulares. +further_reading: +- link: tracing/services/inferred_services + tag: Documentación + text: Servicios inferidos +site_support_id: reglas_reasignación_entidades_inferidas +title: Reglas de reasignación para entidades inferidas +--- + +## Información general + +En Datadog, puedes reasignar entidades inferidas, que incluyen los almacenes de datos y las colas, para que sean más fáciles de identificar y gestionar. Las reglas de reasignación permiten sustituir la etiqueta `peer.service` en tramos (spans) con nombres personalizados o generar nombres dinámicamente utilizando etiquetas y expresiones regulares. Esta funcionalidad se aplica en todo APM, no solo en el [Software Catalog][3]. Una vez creada una regla, los nombres actualizados aparecen de forma coherente en mapas de servicio, Trace Explorer, monitores, dashboards y cualquier otra vista de APM. + +La reasignación es útil cuando: +- El nombre por defecto no coincide con tus preferencias o convenciones. +- Los servicios que esperas que aparezcan como uno solo se dividen en varias entidades inferidas. +- Varios componentes están agrupados bajo un mismo nombre, pero quieres representarlos por separado. + +**Nota**: Esta página describe solo la reasignación de entidades inferidas. Para reasignar tus servicios instrumentados (rastreados), está disponible la versión preliminar de [Service Remapping Rules][4]. + +## Requisitos previos + +Debes tener el permiso `apm_service_renaming_write` para crear reglas de reasignación. Consulta [Permisos][2] para obtener más información sobre el control de acceso basado en roles de Datadog. + +## Crear una regla de reasignación + +### Paso 1: Seleccionar la acción y las entidades de reasignación objetivo + +1. En Datadog, ve a **APM > Software Catalog > Manage > Manage Remapping Rules** (APM > Software Catalog > Gestionar > Gestionar reglas de reasignación) y haz clic en **+ Add Rule** (+ Añadir regla). + + Alternativamente, ve a **APM > Software Catalog** y haz clic en un servicio para abrir el panel lateral de servicios. Desde allí, haz clic en **Service Page > Service Remapping** (Página de servicio > Reasignación de servicios). + + {{< img src="tracing/services/renaming_rules/service-side-panel.png" alt="Panel lateral de un servicio concreto que muestra el menú desplegable de la página de servicio con una opción de reasignación de servicios" style="width:100%;" >}} + +1. Elige una acción de reasignación que quieras realizar para tu nueva regla de reasignación. + + Puedes optar por dividir una única entidad, renombrar una entidad, fusionar varias entidades o reasignar varias entidades. + +1. Utiliza la barra de búsqueda para seleccionar las entidades que quieres reasignar. + - Puedes seleccionar una o varias entidades, pero todas deben ser del mismo tipo (servicio, almacén de datos o cola). + - A medida que seleccionas entidades, se crea una consulta de tramo en segundo plano. Para editar la consulta, selecciona **Build Advanced Query** (Crear consulta avanzada). + + +### Paso 2: Especificar el nombre de la nueva entidad + +1. En el cuadro de texto, introduce un nombre único para la entidad (o entidades) seleccionada. Alternativamente, utiliza valores de etiqueta con la sintaxis `{{tagName}}` para reasignar en función de las etiquetas de una entidad. +1. Si los valores de las etiquetas siguen un patrón, aplica una expresión regular para extraer solo la parte que quieras del nombre. + + +### Paso 3: Colocarle un nombre a tu regla y revisarla + +1. Puedes introducir un nombre descriptivo para la regla de reasignación a fin de poder identificarla posteriormente. +1. Revisa y guarda tu regla de reasignación. + +
  • Las reglas se procesan en la ingesta y se aplican a los datos a medida que se reciben.
  • Los cambios solo afectan a los tramos en los que la regla está activa y los datos anteriores no se actualizan de forma retroactiva.
  • La eliminación o modificación de una regla impide que se aplique a los nuevos datos, pero no revierte los nombres de los datos ingeridos anteriormente.
+ +## Referencias adicionales + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: /es/tracing/services/inferred_services +[2]: /es/account_management/rbac/permissions +[3]: /es/internal_developer_portal/software_catalog/ +[4]: /es/tracing/services/service_remapping_rules/ \ No newline at end of file diff --git a/content/es/tracing/trace_collection/library_config/java.md b/content/es/tracing/trace_collection/library_config/java.md index 8fbae91ce3f..1479316cb1d 100644 --- a/content/es/tracing/trace_collection/library_config/java.md +++ b/content/es/tracing/trace_collection/library_config/java.md @@ -7,24 +7,26 @@ further_reading: text: Código fuente APM de Java para Datadog - link: tracing/glossary/ tag: Documentación - text: Explorar tus servicios, recursos y trazas (traces) -- link: /tracing/trace_collection/trace_context_propagation/java/ + text: Explorar tus servicios, recursos y traces (trazas) +- link: /tracing/trace_collection/trace_context_propagation/ tag: Documentación text: Propagación del contexto de rastreo utilizando cabeceras - link: /opentelemetry/interoperability/environment_variable_support tag: Documentación text: Configuraciones de variables de entorno de OpenTelemetry -title: Configuración de la librería de rastreo de Java -type: lenguaje de código múltiple +title: Configuración de la biblioteca de rastreo de Java +type: multi-code-lang --- -Después de configurar la librería de rastreo con tu código y de configurar el Agent para recopilar datos de APM, también puedes configurar la librería de rastreo como prefieras e incluir la configuración del [Etiquetado unificado de servicios][1]. +Después de configurar la biblioteca de rastreo con tu código y de configurar el Agent para recopilar datos de APM, también puedes configurar la biblioteca de rastreo como prefieras e incluir la configuración del [Etiquetado unificado de servicios][1]. + +{{% apm-config-visibility %}} Todas las opciones de configuración anteriores tienen propiedades del sistema y variables de entorno equivalentes. Si se define el mismo tipo de clave para ambas, la configuración de propiedades del sistema tiene prioridad. Las propiedades del sistema se pueden establecer como marcas de máquinas virtuales Java. -### Conversión entre propiedades del sistema y variables de entorno +### Conversión entre propiedades del sistema y variables de entorno A menos que se indique lo contrario, puedes convertir entre propiedades del sistema y variables de entorno utilizando las siguientes transformaciones: - Para definir una propiedad del sistema como variable de entorno, escribe el nombre de la propiedad en mayúsculas y sustitúyelo por `.` o `-` por `_`. @@ -36,17 +38,13 @@ A menos que se indique lo contrario, puedes convertir entre propiedades del sist ## Opciones de configuración +### Etiquetado de servicios unificados + `dd.service` : **Variable de entorno**: `DD_SERVICE`
**Por defecto**: `unnamed-java-app`
El nombre de un conjunto de procesos que realizan la misma tarea. Se utiliza para agrupar estadísticas para tu aplicación. Disponible para las versiones 0.50.0 o posteriores. -`dd.tags` -: **Variable de entorno**: `DD_TAGS`
-**Por defecto**: `null`
-**Ejemplo**: `layer:api,team:intake,key:value`
-Una lista de etiquetas (tags) predeterminadas que se añadirá a cada tramo (span), perfil y métrica JMX. Si se utiliza DD_ENV o DD_VERSION, se anula cualquier etiqueta de entorno o versión definida en DD_TAGS. Disponible para las versiones 0.50.0 o posteriores. - `dd.env` : **Variable de entorno**: `DD_ENV`
**Por defecto**: `none`
@@ -57,16 +55,19 @@ El entorno de tu aplicación (por ejemplo, producción, staging). Disponible par **Por defecto**: `null`
La versión de tu aplicación (por ejemplo, 2.5, 202003181415, 1.3-alpha). Disponible para las versiones 0.48 o posteriores. -`dd.logs.injection` -: **Variable de entorno**: `DD_LOGS_INJECTION`
-**Por defecto**: `true`
-Inyección automática de claves MDC habilitada para los ID de rastreo y de tramos de Datadog. Para obtener más detalles, consulta [Uso avanzado][2].

-**Beta**: A partir de la versión 1.18.3, si la [configuración remota del Agent][3] está habilitada donde se ejecuta este servicio, puedes configurar `DD_LOGS_INJECTION` en la interfaz de usuario del [Catálogo de servicios][4]. +### Traces (trazas) + +`dd.trace.enabled` +: **Variable de entorno**: `DD_TRACE_ENABLED`
+**Predeterminada**: `true`
+Cuando es `false` el agente de rastreo está desactivado.
+Consulta también [DD_APM_TRACING_ENABLED][21]. `dd.trace.config` : **Variable de entorno**: `DD_TRACE_CONFIG`
-**Por defecto**: `null`
-Ruta opcional a un archivo donde se proporcionan las propiedades de configuración, una por cada línea. Por ejemplo, la ruta del archivo puede proporcionarse a través de propiedades `-Ddd.trace.config=`, configurando el nombre del servicio en el archivo con `dd.service=` +**Predeterminada**: `null`
+Ruta opcional a un archivo donde se proporcionan las propiedades de configuración, una por cada línea. Por ejemplo, la ruta al archivo se puede proporcionar a través de `-Ddd.trace.config=.properties`, configurando el nombre del servicio en el archivo con `dd.service=`
+**Nota**: No confíes en `dd.trace.config` como el único mecanismo para para activar o desactivar productos dependientes del kit de desarrollo de software (SDK) (por ejemplo, Profiler y Dynamic Instrumentation). En su lugar, utiliza las propiedades del sistema o las variables de entorno correspondientes (o `application_monitoring.yaml` para la instrumentación de un solo step (UI) / paso (generic)). `dd.service.mapping` : **Variable de entorno**: `DD_SERVICE_MAPPING`
@@ -79,11 +80,6 @@ Cambia dinámicamente el nombre del servicio mediante la configuración. Esto es **Por defecto**: `DDAgentWriter`
El valor por defecto envía trazas al Agent. Si se configura con `LoggingWriter`, escribe trazas a la consola. -`dd.agent.host` -: **Variable de entorno**: `DD_AGENT_HOST`
-**Por defecto**: `localhost`
-Nombre de host al que enviar trazas. Si utilizas un entorno contenedorizado, configúralo como IP del host. Para obtener más detalles, consulta [Rastreo de aplicaciones Docker][5]. - `dd.trace.agent.port` : **Variable de entorno**: `DD_TRACE_AGENT_PORT`
**Por defecto**: `8126`
@@ -104,24 +100,23 @@ La URL a la que enviar trazas. Si la [configuración del Agent][6] define `recei **Por defecto**: `10`
Tiempo de espera en segundos de las interacciones de red con el Datadog Agent. +`dd.trace.client-ip.enabled` +: **Predeterminada**: `false`
+Activa la recopilación de IP del cliente a partir de encabezados de IP pertinentes en spans (tramos) de solicitudes HTTP. Activado automáticamente cuando `dd.appsec.enabled=true`. + `dd.trace.header.tags` : **Variable de entorno**: `DD_TRACE_HEADER_TAGS`
-**Por defecto**: `null`
+**Predeterminada**: `null`
**Ejemplo**: `CASE-insensitive-Header:my-tag-name,User-ID:userId,My-Header-And-Tag-Name`
-Acepta un mapa de claves de cabeceras que no distinguen entre mayúsculas/minúsculas para nombres de etiquetas y aplica automáticamente valores de cabeceras coincidentes como etiquetas en las trazas. También acepta entradas sin un nombre de etiqueta especificado, que se asignan automáticamente a etiquetas con los formatos `http.request.headers.` y `http.response.headers.`, respectivamente.

-Antes de la versión 0.96.0, esta configuración sólo se aplicaba a etiquetas de cabeceras de solicitudes. Para volver al comportamiento anterior, añade el parámetro `-Ddd.trace.header.tags.legacy.parsing.enabled=true` o la variable de entorno `DD_TRACE_HEADER_TAGS_LEGACY_PARSING_ENABLED=true`.

-**Beta**: A partir de la versión 1.18.3, si la [configuración remota del Agent][3] está habilitada donde se ejecuta este servicio, puedes configurar `DD_TRACE_HEADER_TAGS` en la interfaz de usuario del [Catálogo de servicios][4]. - -`dd.trace.rate.limit` -: **Variable de entorno**: `DD_TRACE_RATE_LIMIT`
-**Por defecto**: `100`
-Número máximo de tramos para muestrear por segundo, por cada proceso, cuando se configuran`DD_TRACE_SAMPLING_RULES` o `DD_TRACE_SAMPLE_RATE`. De lo contrario, el Datadog Agent controla la limitación de la frecuencia. +Acepta un mapa de claves de encabezado que no distinguen entre mayúsculas/minúsculas para nombres de tags (etiquetas) y aplica automáticamente los valores de encabezado coincidentes como tags (etiquetas) en las traces (trazas). También acepta entradas sin un nombre de tag (etiqueta) especificado que se asignan automáticamente a tags (etiquetas) de la forma `http.request.headers.` y `http.response.headers.`, respectivamente.

+Antes de la versión 0.96.0 esta configuración solo se aplicaba a las tags (etiquetas) de encabezados de solicitudes. Para volver al comportamiento anterior, añade la configuración `-Ddd.trace.header.tags.legacy.parsing.enabled=true` o la variable de entorno `DD_TRACE_HEADER_TAGS_LEGACY_PARSING_ENABLED=true`.

+A partir de la versión 1.18.3, si la [Configuración remota del Agent][3] está activada donde se ejecuta el servicio, puedes configurar `DD_TRACE_HEADER_TAGS` en la interfaz de usuario de [Software Catalog][4] UI. `dd.trace.request_header.tags` : **Variable de entorno**: `DD_TRACE_REQUEST_HEADER_TAGS`
-**Por defecto**: `null`
+**Predeterminada**: `null`
**Ejemplo**: `CASE-insensitive-Header:my-tag-name,User-ID:userId,My-Header-And-Tag-Name`
-Acepta un mapa de claves de cabeceras que no distinguen entre mayúsculas/minúsculas para nombres de etiquetas y aplica automáticamente valores de cabeceras coincidentes como etiquetas en las trazas. También acepta entradas sin un nombre de etiqueta especificado, que se asignan automáticamente a etiquetas con el formato `http.request.headers.`.
+Acepta un mapa de claves de encabezados que no distinguen entre mayúsculas/minúsculas para nombres de tags (etiquetas) y aplica automáticamente valores de encabezados coincidentes como tags (etiquetas) en las traces (trazas). También acepta entradas sin un nombre de tag (etiqueta) especificado, que se asignan automáticamente a tags (etiquetas) con el formato `http.request.headers.`.
Disponible a partir de la versión 0.96.0. `dd.trace.response_header.tags` @@ -146,8 +141,10 @@ Una lista de anotaciones de métodos para tratar como `@Trace`. `dd.trace.methods` : **Variable de entorno**: `DD_TRACE_METHODS`
-**Por defecto**: `null`
-**Ejemplo**: `package.ClassName[method1,method2,...];AnonymousClass$1[call];package.ClassName[*]`
Lista de clases/interfaces y métodos para rastrear. Es similar a añadir `@Trace`, pero sin cambiar de código. **Nota:** La compatibilidad de los métodos de comodín (`[*]`) no se adapta a constructores, getters, setters, Synthetic, toString, equivalentes, código hash o llamadas a métodos finalizadores. +**Predeterminada**: `null`
+**Ejemplo**: `package.ClassName[method1,method2,...];AnonymousClass$1[call];package.ClassName[*]`
+Lista de clase/interfaz y métodos para rastrear. Similar a añadir `@Trace`, pero sin cambiar el código. **Nota:** La compatibilidad de métodos comodín (`[*]`) no acomoda constructores, getters, setters, sintéticos, toString, equals, hashcode ni llamadas a métodos finalizadores. +`dd.trace.methods` no está diseñado para rastrear un gran número de métodos y clases. Para buscar cuellos de botella de CPU, memoria e IO, desglosados por nombre del método, nombre de la clase y número de línea, considera en su lugar el producto [Continuous Profiler][22]. `dd.trace.classes.exclude` : **Variable de entorno**: `DD_TRACE_CLASSES_EXCLUDE`
@@ -166,26 +163,6 @@ Define un número de tramos parciales para la descarga. Es útil para reducir so **Ejemplo**: `aws.service`
Se utiliza para renombrar el nombre de servicio asociado a tramos, para que se identifique con la etiqueta del tramo correspondiente. -`dd.trace.db.client.split-by-instance` -: **Variable de entorno**: `DD_TRACE_DB_CLIENT_SPLIT_BY_INSTANCE`
-**Por defecto**: `false`
-Cuando se configura como `true`, a los tramos de bases de datos se les asigna el nombre de la instancia como nombre de servicio. - -`dd.trace.db.client.split-by-host` -: **Variable de entorno**: `DD_TRACE_DB_CLIENT_SPLIT_BY_HOST`
-**Por defecto**: `false`
-Cuando se configura como `true`, a los tramos de bases de datos se les asigna el nombre del host de la base de datos remota como nombre de servicio. - -`dd.trace.elasticsearch.body.enabled` -: **Variable de entorno**: `DD_TRACE_ELASTICSEARCH_BODY_ENABLED`
-**Por defecto**: `false`
-Cuando se configura como `true`, el cuerpo se añade a tramos de Elasticsearch y OpenSearch. - -`dd.trace.elasticsearch.params.enabled` -: **Variable de entorno**: `DD_TRACE_ELASTICSEARCH_PARAMS_ENABLED`
-**Por defecto**: `true`
-Cuando se configura como `true`, los parámetros de cadenas de consulta se añaden a tramos de Elasticsearch y OpenSearch. - `dd.trace.health.metrics.enabled` : **Variable de entorno**: `DD_TRACE_HEALTH_METRICS_ENABLED`
**Por defecto: `true`
@@ -201,35 +178,254 @@ Host de Statsd al que enviar métricas de estado. **Por defecto**: Igual que `dd.jmxfetch.statsd.port`
Puerto de Statsd al que enviar métricas de estado. -`dd.http.client.tag.query-string` -: **Variable de entorno**: `DD_HTTP_CLIENT_TAG_QUERY_STRING`
+`dd.trace.obfuscation.query.string.regexp` +: **Variable de entorno**: `DD_TRACE_OBFUSCATION_QUERY_STRING_REGEXP`
+**Por defecto**: `null`
+Una expresión regular (regex) para ocultar datos sensibles de la cadena de consulta de solicitudes entrantes informadas en la etiqueta `http.url` (las coincidencias se sustituyen por ). + +`dd.trace.servlet.async-timeout.error` +: **Variable de entorno**: `DD_TRACE_SERVLET_ASYNC_TIMEOUT_ERROR`
+**Por defecto**: `true`
+Por defecto, las solicitudes asíncronas de ejecución prolongada se marcan como errores. Definir este valor como falso permite marcar todos los tiempos de inactividad como solicitudes exitosas. + +`dd.trace.span.tags` +: **Variable de entorno**: `DD_TRACE_SPAN_TAGS`
+**Predeterminada**: `none`
+**Ejemplo**: `tag1:value1,tag2:value2`
+Una lista de las tags (etiquetas) predeterminadas que se añadirán a cada span (tramo). + +`dd.trace.jmx.tags` +: **Variable de entorno**: `DD_TRACE_JMX_TAGS`
+**Predeterminada**: `none`
+**Ejemplo**: `tag1:value1,tag2:value2`
+Una lista de las tags (etiquetas) de span (tramo) que se añadirán a cada métrica jmx. + +`dd.trace.startup.logs` +: **Variable de entorno**: `DD_TRACE_STARTUP_LOGS`
+**Por defecto**: `true`
+Cuando es `false`, se deshabilita el registro informativo de inicio. Disponible para las versiones 0.64 o posteriores. + + +`dd.trace.debug` +: **Variable de entorno**: `DD_TRACE_DEBUG`
+**Predeterminada**: `false`
+Cuando `true`, el modo de depuración para el Java de Datadog está activado. + +`datadog.slf4j.simpleLogger.jsonEnabled` +: **Variable de entorno**: No disponible
+**Predeterminada**: `false`
+Cuando `true`, los logs del rastreador de Java de Datadog se escriben en JSON. Disponible para las versiones 1.48.0+.
+**Nota**: Esta configuración es específica del registrador simple SLF4J insertado y no admite variables de entorno. `dd.log.format.json` es la opción de configuración preferida. + +`dd.trace.servlet.principal.enabled` +: **Variable de entorno**: `DD_TRACE_SERVLET_PRINCIPAL_ENABLED`
**Por defecto**: `false`
-Cuando se configura como `true`, los parámetros y el fragmento de la cadena de consulta se añaden a tramos de clientes web. +Cuando es `true`, se recopila el usuario principal. Disponible para las versiones 0.61 o posteriores. -`dd.http.client.error.statuses` -: **Variable de entorno**: `DD_HTTP_CLIENT_ERROR_STATUSES`
-**Por defecto**: `400-499`
-Se puede aceptar un rango de errores. Por defecto, los errores 4xx se informan como errores de clientes http. Esta configuración lo anula. Ej. `dd.http.client.error.statuses=400-403,405,410-499`. -`dd.http.server.error.statuses` -: **Variable de entorno**: `DD_HTTP_SERVER_ERROR_STATUSES`
-**Por defecto**: `500-599`
-Se puede aceptar un rango de errores. Por defecto, los códigos de estado 5xx se informan como errores de servidores http. Esta configuración lo anula. Ej. `dd.http.server.error.statuses=500,502-599`. +`dd.trace.rate.limit` +: **Variable de entorno**: `DD_TRACE_RATE_LIMIT`
+**Por defecto**: `100`
+Número máximo de tramos para muestrear por segundo, por cada proceso, cuando se configuran`DD_TRACE_SAMPLING_RULES` o `DD_TRACE_SAMPLE_RATE`. De lo contrario, el Datadog Agent controla la limitación de la frecuencia. `dd.http.server.tag.query-string` -: **Variable de entorno**: `DD_HTTP_CLIENT_TAG_QUERY_STRING`
+: **Variable de entorno**: `DD_HTTP_SERVER_TAG_QUERY_STRING`
**Por defecto**: `true`
Cuando se configura como `true`, los parámetros y el fragmento de la cadena de consulta se añaden a tramos de servidores web. `dd.http.server.route-based-naming` : **Variable de entorno**: `DD_HTTP_SERVER_ROUTE_BASED_NAMING`
**Por defecto**: `true`
-Cuando se configura como `false`, las rutas de marcos http no se utilizan para los nombres de recursos. Si se cambia, esto puede cambiar los nombres de recursos y las métricas derivadas. +Cuando se configura como `false`, las rutas de frameworks http no se utilizan para los nombres de recursos. Si se cambia, esto puede cambiar los nombres de recursos y las métricas derivadas. + +`dd.trace.http.server.path-resource-name-mapping`
+: **Variable de entorno**: `DD_TRACE_HTTP_SERVER_PATH_RESOURCE_NAME_MAPPING`
+**Predeterminado**: `{}` (vacío)
+Asigna rutas de solicitudes HTTP a nombres de recursos personalizados. Proporciona una lista separada por comas de pares `pattern:resource_name`:
+   – `pattern`: Un [patrón de ruta de Ant‐style][20] que debe coincidir con el valor de la tag (etiqueta) de span (tramo) `http.path_group`.
+   – `resource_name`: El nombre del recurso personalizado que se asignará si el patrón coincide.
+Si se utiliza `*` como el `resource_name` para un patrón coincidente, la ruta original, no normalizada, combinada con el método HTTP, se utilizará como el nombre del recurso. Por ejemplo, dada la regla `/test/**:*`, una solicitud `GET` para `/test/some/path` da lugar al nombre del recurso `GET /test/some/path`.
+Las asignaciones se evalúan por orden de prioridad y se aplica la primera regla coincidente. Las rutas de solicitudes no coincidentes utilizan el comportamiento de normalización predeterminado.
+**Ejemplo**: La utilización de `-Ddd.trace.http.server.path-resource-name-mapping=/admin/*.jsp:/admin-page,/admin/user/**:/admin/user` da:
+Ruta de la solicitud | Ruta del recurso +------------ | ------------- +`/admin/index.jsp` | `/admin-page` +`/admin/user/12345/delete` | `/admin/user` +`/user/12345` | `/user/?` + +`dd.trace.http.client.path-resource-name-mapping`
+: **Variable de entorno**: `DD_TRACE_HTTP_CLIENT_PATH_RESOURCE_NAME_MAPPING`
+**Predeterminado**: `{}` (vacío)
+Asigna rutas de solicitudes del cliente HTTP a nombres de recursos personalizados. Utiliza el mismo formato que `dd.trace.http.server.path-resource-name-mapping`, pero se aplica a spans (tramos) de cliente HTTP de spans (tramos) del servidor. + +`dd.trace.status404rule.enabled` +: **Variable de entorno**: `DD_TRACE_STATUS404RULE_ENABLED`
+**Predeterminado**: `true`
+En forma predeterminada, las respuestas HTTP 404 utilizan "404" como el nombre del recurso del span (tramo). Cuando es `false`, las respuestas HTTP 404 mantienen la ruta URL original como el nombre del recurso. -`dd.trace.enabled` -: **Variable de entorno**: `DD_TRACE_ENABLED`
+`dd.trace.128.bit.traceid.generation.enabled` +: **Variable de entorno**: `DD_TRACE_128_BIT_TRACEID_GENERATION_ENABLED`
+**Por defecto**: `true`
+Cuando es `true`, el rastreador genera los ID de rastreo de 128 bits y codifica los ID de rastreo como 32 caracteres hexadecimales en minúsculas con cero relleno. + +`dd.trace.128.bit.traceid.logging.enabled` +: **Variable de entorno**: `DD_TRACE_128_BIT_TRACEID_LOGGING_ENABLED`
+**Por defecto**: `false`
+Cuando es `true`, el rastreador inyecta los ID de rastreo de 128 bits como 32 caracteres hexadecimales en minúsculas con cero relleno y los ID de rastreo de 64 bits como números decimales. De lo contrario, el rastreador siempre inyecta los ID de rastreo como números decimales. + +`dd.trace.otel.enabled` +: **Variable de entorno**: `DD_TRACE_OTEL_ENABLED`
+**Por defecto**: `false`
+Cuando es `true`, el rastreo basado en OpenTelemetry para instrumentaciones [personalizadas][16] está habilitado. + +`dd.trace.cloud.payload.tagging.services` +: **Variable de entorno**: `DD_TRACE_CLOUD_PAYLOAD_TAGGING_SERVICES`
+**Predeterminado**: `ApiGateway,ApiGatewayV2,EventBridge,Sqs,Sns,S3,Kinesis`
+**Ejemplo**: `S3,Sso`
+Para activar el [etiquetado de la carga útil de AWS][18] para servicios adicionales, utiliza esta configuración. + +`dd.trace.cloud.request.payload.tagging` +: **Variable de entorno**: `DD_TRACE_CLOUD_REQUEST_PAYLOAD_TAGGING`
+**Predeterminado**: N/A (desactivado)
+**Ejemplo**: `$.Metadata.UserId,$.phoneNumber`
+Una cadena separada por comas de entradas de JSONPath que se eliminarán de las solicitudes del kit de desarrollo de software (SDK) de AWS. Al configurarla, se activa el [etiquetado de la carga útil de AWS][18] para las solicitudes. + +`dd.trace.cloud.response.payload.tagging` +: **Variable de entorno**: `DD_TRACE_CLOUD_RESPONSE_PAYLOAD_TAGGING`
+**Predeterminada**: N/A (desactivada)
+**Ejemplo**: `$.Metadata.Credentials.*`
+Una cadena separada por comas de las entradas JSONPath que se eliminarán de las respuestas del kit de desarrollo de software (SDK) de AWS. Esta configuración activa el [etiquetado de la carga útil de AWS][18] para las respuestas. + +`dd.trace.cloud.payload.tagging.max-depth` +: **Variable de entorno**: `DD_TRACE_CLOUD_PAYLOAD_TAGGING_MAX_DEPTH`
+**Predeterminada**: `10`
+Un número entero que representa la profundidad máxima de una carga útil de la solicitud/respuesta del kit de desarrollo de software (SDK) de AWS que se utilizará para el [etiquetado de la carga útil de AWS][18]. + +`dd.trace.cloud.payload.tagging.max-tags` +: **Variable de entorno**: `DD_TRACE_CLOUD_PAYLOAD_TAGGING_MAX_TAGS`
+**Predeterminado**: `758`
+Un número entero que representa el número máximo de tags (etiquetas) que se extraerán por cada span (tramo) que se utilizará para el [etiquetado de la carga útil de AWS][18]. + +### Agent + +`dd.tags` +: **Variable de entorno**: `DD_TAGS`
+**Por defecto**: `null`
+**Ejemplo**: `layer:api,team:intake,key:value`
+Una lista de etiquetas (tags) predeterminadas que se añadirá a cada tramo (span), perfil y métrica JMX. Si se utiliza DD_ENV o DD_VERSION, se anula cualquier etiqueta de entorno o versión definida en DD_TAGS. Disponible para las versiones 0.50.0 o posteriores. + +`dd.agent.host` +: **Variable de entorno**: `DD_AGENT_HOST`
+**Por defecto**: `localhost`
+Nombre de host al que enviar trazas. Si utilizas un entorno contenedorizado, configúralo como IP del host. Para obtener más detalles, consulta [Rastreo de aplicaciones Docker][5]. + +`dd.instrumentation.telemetry.enabled` +: **Variable de entorno**: `DD_INSTRUMENTATION_TELEMETRY_ENABLED`
**Por defecto**: `true`
-Cuando es `false`, el Agent de rastreo está deshabilitado. +Cuando es `true`, el rastreador recopila [datos de telemetría][8]. Disponible para las versiones 0.104 o posteriores. Por defecto es `true` para las versiones 0.115 o posteriores. + +### Bases de datos + +`dd.trace.db.client.split-by-instance` +: **Variable de entorno**: `DD_TRACE_DB_CLIENT_SPLIT_BY_INSTANCE`
+**Por defecto**: `false`
+Cuando se configura como `true`, a los tramos de bases de datos se les asigna el nombre de la instancia como nombre de servicio. + +`dd.trace.db.client.split-by-host` +: **Variable de entorno**: `DD_TRACE_DB_CLIENT_SPLIT_BY_HOST`
+**Por defecto**: `false`
+Cuando se configura como `true`, a los tramos de bases de datos se les asigna el nombre del host de la base de datos remota como nombre de servicio. + +`dd.dbm.propagation.mode` +: **Variable de entorno**: `DD_DBM_PROPAGATION_MODE`
+**Predeterminada**: `null`
+Cuando se establece en `service` o `full`, activa la correlación de Database Monitoring y APM. Para obtener más información, consulta [Correlacionar Database Monitoring y traces (trazas][23]. + +### AAP + +`dd.appsec.enabled` +: **Variable de entorno**: `DD_APPSEC_ENABLED`
+**Predeterminada**: `false`
+Cuando es `true`, activa App and API Protection Monitoring de Datadog. Además, esto activa automáticamente la recopilación de IP del cliente (`dd.trace.client-ip.enabled`).
+Para obtener más información, consulta [Activar AAP para Java][19]. + +### Errores + +`dd.trace.http.client.tag.query-string` +: **Propiedad del sistema (obsoleta)**: `dd.http.client.tag.query-string`
+**Variable de entorno**: `DD_TRACE_HTTP_CLIENT_TAG_QUERY_STRING`
+**Variable de entorno (obsoleta)**: `DD_HTTP_CLIENT_TAG_QUERY_STRING`
+**Predeterminada**: `true`
+En forma predeterminada, los parámetros y fragmentos de cadenas de consulta se añaden a la tag (etiqueta) `http.url` en los spans (tramos) de clientes web. Configúralo en `false` para impedir la recopilación de estos datos. + +`dd.trace.http.client.error.statuses` +: **Variable de entorno**: `DD_TRACE_HTTP_CLIENT_ERROR_STATUSES`
+**Predeterminada**: `400-499`
+Se puede aceptar un rango de errores. En forma predeterminada, 4xx errores se informan como errores para clientes HTTP. Esta configuración lo sustituye. Por ejemplo, `dd.trace.http.client.error.statuses=400-403,405,410-499` + +`dd.trace.http.server.error.statuses` +: **Variable de entorno**: `DD_TRACE_HTTP_SERVER_ERROR_STATUSES`
+**Predeterminado**: `500-599`
+Se puede aceptar un rango de errores. En forma predeterminada 5xx códigos de estado se informan como errores para servidores HTTP. Esta configuración lo sustituye. Por ejemplo, `dd.trace.http.server.error.statuses=500,502-599` + +`dd.grpc.client.error.statuses` +: **Variable de entorno**: `DD_GRPC_CLIENT_ERROR_STATUSES`
+**Predeterminado**: `1-16`
+Se puede aceptar un rango de errores. En forma predeterminada, los códigos de estado gRPC 1 a 16 se informan como errores para los clientes gRPC. Esta configuración lo sustituye. Por ejemplo, `dd.grpc.client.error.statuses=1-4,7-10` + +`dd.grpc.server.error.statuses` +: **Variable de entorno**: `DD_GRPC_SERVER_ERROR_STATUSES`
+**Predeterminado**: `2-16`
+Se puede aceptar un rango de errores. En forma predeterminada, los códigos de estado gRPC 2 a 16 se informan como errores para los servidores gRPC. Esta configuración lo sustituye. Por ejemplo, `dd.grpc.server.error.statuses=2-4,7-10` + +### Logs + +`dd.log.level` +: **Variable de entorno**: `DD_LOG_LEVEL`
+**Predeterminado**: `INFO`
+Establece el nivel interno de log para Datadog Java Tracer. Valores válidos: `DEBUG`, `INFO`, `WARN`, `ERROR`.
+Disponible a partir de la versión 1.36.0 + +`dd.log.format.json` +: **Variable de entorno**: `DD_LOG_FORMAT_JSON`
+**Predeterminado**: `false`
+Cuando es `true`, genera logs de Datadog Java Tracer en un formato JSON compatible con la interfaz de usuario de logs de Datadog.
+Disponible a partir de la versión 1.58.0 + +`dd.logs.injection` +: **Variable de entorno**: `DD_LOGS_INJECTION`
+**Predeterminado**: `true`
+Activada la inserción automática de claves MDC para ID de traces (trazas) y spans (tramos) de Datadog. Consulta [Utilización avanzada][2] para obtener más información.

+A partir de la versión 1.18.3, si la [Configuración remota del Agent][3] está activada donde se ejecuta este servicio, puedes configurar `DD_LOGS_INJECTION` en la interfaz de usuario de [Software Catalog][4]. + +### Propagación del contexto de rastreo + +Para obtener información sobre los valores válidos y el uso de las siguientes opciones de configuración, consulta [Propagación del contexto de rastreo Java][15]. + +`dd.trace.propagation.style.inject` +: **Variable de entorno**: `DD_TRACE_PROPAGATION_STYLE_INJECT`
+**Por defecto**: `datadog,tracecontext`
+Una lista separada por comas de formatos de cabeceras para incluir, para propagar trazas distribuidas entre servicios.
+Disponible a partir de la versión 1.9.0 + +`dd.trace.propagation.style.extract` +: **Variable de entorno**: `DD_TRACE_PROPAGATION_STYLE_EXTRACT`
+**Por defecto**: `datadog,tracecontext`
+Una lista separada por comas de formatos de cabeceras de los que se intentará extraer datos de propagación del rastreo distribuido. El primer formato encontrado con cabeceras completas y válidas se utiliza para definir la traza y continuar.
+Disponible a partir de la versión 1.9.0 + +`dd.trace.propagation.style` +: **Variable de entorno**: `DD_TRACE_PROPAGATION_STYLE`
+**Por defecto**: `datadog,tracecontext`
+Una lista separada por comas de formatos de cabeceras en los que se intentará inyectar y extraer datos de propagación del rastreo distribuido. El primer formato encontrado con cabeceras completas y válidas se utiliza para definir la traza y continuar. Los parámetros de configuración más específicos `dd.trace.propagation.style.inject` y `dd.trace.propagation.style.extract` tienen prioridad cuando están presentes.
+Disponible a partir de la versión 1.9.0 + +`trace.propagation.extract.first` +: **Variable de entorno**: `DD_TRACE_PROPAGATION_EXTRACT_FIRST`
+**Por defecto**: `false`
+Cuando se configura como `true`, deja de extraer contextos de rastreo cuando encuentra uno válido. + +### Métricas de JMX `dd.jmxfetch.enabled` : **Variable de entorno**: `DD_JMXFETCH_ENABLED`
@@ -250,8 +446,8 @@ Directorio de configuración adicional para la recopilación de métricas JMX. E `dd.jmxfetch.check-period` : **Variable de entorno**: `DD_JMXFETCH_CHECK_PERIOD`
-**Por defecto**: `1500`
-Frecuencia de envío de métricas JMX (en milisegundos). +**Predeterminado**: `15000`
+Frecuencia de envío de métricas de JMX (en ms). `dd.jmxfetch.refresh-beans-period` : **Variable de entorno**: `DD_JMXFETCH_REFRESH_BEANS_PERIOD`
@@ -275,10 +471,9 @@ Puerto de StatsD al que enviar métricas JMX. Si utilizas sockets de dominio Uni **Por defecto**: `false`
I Integración JMX para habilitar (por ejemplo, Kafka o ActiveMQ). -`dd.trace.obfuscation.query.string.regexp` -: **Variable de entorno**: `DD_TRACE_OBFUSCATION_QUERY_STRING_REGEXP`
-**Por defecto**: `null`
-Una expresión regular (regex) para ocultar datos sensibles de la cadena de consulta de solicitudes entrantes informadas en la etiqueta `http.url` (las coincidencias se sustituyen por ). +### integraciones + +Consulta cómo deshabilitar integraciones en la sección de compatibilidad de las [integraciones][13]. `dd.integration.opentracing.enabled` : **Variable de entorno**: `DD_INTEGRATION_OPENTRACING_ENABLED`
@@ -290,43 +485,41 @@ Por defecto, el cliente de rastreo detecta si se está cargando un GlobalTracer **Por defecto**: `false`
Por defecto, el grupo Hystrix, el comando y las etiquetas de estado del circuito no están habilitados. Esta propiedad los habilita. -`dd.trace.servlet.async-timeout.error` -: **Variable de entorno**: `DD_TRACE_SERVLET_ASYNC_TIMEOUT_ERROR`
-**Por defecto**: `true`
-Por defecto, las solicitudes asíncronas de ejecución prolongada se marcan como errores. Definir este valor como falso permite marcar todos los tiempos de inactividad como solicitudes exitosas. +`dd.trace.elasticsearch.body.enabled` +: **Variable de entorno**: `DD_TRACE_ELASTICSEARCH_BODY_ENABLED`
+**Por defecto**: `false`
+Cuando se configura como `true`, el cuerpo se añade a tramos de Elasticsearch y OpenSearch. -`dd.trace.startup.logs` -: **Variable de entorno**: `DD_TRACE_STARTUP_LOGS`
+`dd.trace.elasticsearch.params.enabled` +: **Variable de entorno**: `DD_TRACE_ELASTICSEARCH_PARAMS_ENABLED`
**Por defecto**: `true`
-Cuando es `false`, se deshabilita el registro informativo de inicio. Disponible para las versiones 0.64 o posteriores. - - -`dd.trace.servlet.principal.enabled` -: **Variable de entorno**: `DD_TRACE_SERVLET_PRINCIPAL_ENABLED`
-**Por defecto**: `false`
-Cuando es `true`, se recopila el usuario principal. Disponible para las versiones 0.61 o posteriores. +Cuando se configura como `true`, los parámetros de cadenas de consulta se añaden a tramos de Elasticsearch y OpenSearch. +`dd.trace.cassandra.keyspace.statement.extraction.enabled` +: **Variable de entorno**: `DD_TRACE_CASSANDRA_KEYSPACE_STATEMENT_EXTRACTION_ENABLED`
+**Predeterminado**: `false`
+En forma predeterminada, el espacio de claves se extrae solo si se configura durante la creación de la sesión. Cuando se configura en `true`, el espacio de claves también se puede extraer examinando los metadatos en los resultados de la consulta. -`dd.instrumentation.telemetry.enabled` -: **Variable de entorno**: `DD_INSTRUMENTATION_TELEMETRY_ENABLED`
-**Por defecto**: `true`
-Cuando es `true`, el rastreador recopila [datos de telemetría][8]. Disponible para las versiones 0.104 o posteriores. Por defecto es `true` para las versiones 0.115 o posteriores. +`dd.trace.websocket.messages.enabled` +: **Variable de entorno**: `DD_TRACE_WEBSOCKET_MESSAGES_ENABLED`
+**Predeterminado**: `false`
+Activa el rastreo de mensajes de websocket enviados y recibidos (de texto y binarios) y eventos de cierre de connection (conexión). -`dd.trace.128.bit.traceid.generation.enabled` -: **Variable de entorno**: `DD_TRACE_128_BIT_TRACEID_GENERATION_ENABLED`
-**Por defecto**: `true`
-Cuando es `true`, el rastreador genera los ID de rastreo de 128 bits y codifica los ID de rastreo como 32 caracteres hexadecimales en minúsculas con cero relleno. +`dd.trace.websocket.messages.inherit.sampling` +: **Variable de entorno**: `DD_TRACE_WEBSOCKET_MESSAGES_INHERIT_SAMPLING`
+**Predeterminado**: `true`
+En forma predeterminada, los mensajes de websocket conservan el mismo muestreo que el span (tramo) capturado durante el protocolo de enlace. Esto asegura que, si se ha muestreado un span (tramo) de protocolo de enlace, también se muestrearán todos los mensajes de la sesión. Para desactivar ese comportamiento y muestrear cada mensaje de websocket de forma independiente, establece esta configuración en `false`. -`dd.trace.128.bit.traceid.logging.enabled` -: **Variable de entorno**: `DD_TRACE_128_BIT_TRACEID_LOGGING_ENABLED`
-**Por defecto**: `false`
-Cuando es `true`, el rastreador inyecta los ID de rastreo de 128 bits como 32 caracteres hexadecimales en minúsculas con cero relleno y los ID de rastreo de 64 bits como números decimales. De lo contrario, el rastreador siempre inyecta los ID de rastreo como números decimales. +`dd.trace.websocket.messages.separate.traces` +: **Variable de entorno**: `DD_TRACE_WEBSOCKET_MESSAGES_SEPARATE_TRACES`
+**Predeterminado**: `true`
+En forma predeterminada, cada mensaje recibido genera una nueva trace (traza). El protocolo de enlace se vincula a ella como un enlace de span (tramo). La configuración de este parámetro en `false` hace que todos los spans (tramos) capturados durante la sesión estén en la misma trace (traza). +`dd.trace.websocket.tag.session.id` +: **Variable de entorno**: `DD_TRACE_WEBSOCKET_TAG_SESSION_ID`
+**Predeterminado**: `false`
+Cuando se configura en `true`, los spans (tramos) de websocket tienen la tag (etiqueta) `websocket.session.id` que contiene el ID de sesión cuando está disponible. -`dd.trace.otel.enabled` -: **Variable de entorno**: `DD_TRACE_OTEL_ENABLED`
-**Por defecto**: `false`
-Cuando es `true`, el rastreo basado en OpenTelemetry para instrumentaciones [personalizadas][16] está habilitado. **Nota**: @@ -337,15 +530,18 @@ Cuando es `true`, el rastreo basado en OpenTelemetry para instrumentaciones [per - Si estás ejecutando el Agent como contenedor, asegúrate de que `DD_DOGSTATSD_NON_LOCAL_TRAFFIC` [está configurado como `true`][10] y que el puerto `8125` está abierto en el contenedor Agent. - En Kubernetes, [vincula el puerto de DogStatsD con un puerto de host][11]. En ECS, [configura las marcas apropiadas en la definición de tu tarea][12]. -### Integraciones +### UDS -Consulta cómo deshabilitar integraciones en la sección de compatibilidad de las [integraciones][13]. +`dd.jdk.socket.enabled` +: **Variable de entorno**: `DD_JDK_SOCKET_ENABLED`
+**Predeterminado**: `true`
+Activa la compatibilidad nativa de JDK para sockets de dominio de Unix. ### Ejemplos #### `dd.service.mapping` -**Ejemplo con propiedad del sistema**: +Ejemplo con la propiedad del sistema: ```shell java -javaagent:/path/to/dd-java-agent.jar -Ddd.service=web-app -Ddd.service.mapping=postgresql:web-app-pg -jar path/to/application.jar @@ -354,18 +550,17 @@ java -javaagent:/path/to/dd-java-agent.jar -Ddd.service=web-app -Ddd.service.map {{< img src="tracing/setup/java/service_mapping.png" alt="Asignación de servicios" >}} #### `dd.tags` - -**Configuración de un entorno global para tramos y métricas JMX**: +Configuración de una variable de entorno global para spans (tramos) y métricas de JMX: ```shell java -javaagent:/path/to/dd-java-agent.jar -Ddd.service=web-app -Ddd.env=dev -jar path/to/application.jar ``` -{{< img src="tracing/setup/java/trace_global_tags.png" alt="Etiquetas globales de trazas" >}} +{{< img src="tracing/setup/java/trace_global_tags.png" alt="Tags (etiquetas) globales de traces (trazas)" >}} #### `dd.trace.span.tags` -**Ejemplo con la adición de project:test a cada tramo**: +Ejemplo con la adición de project:test a cada span (tramo): ```shell java -javaagent:/path/to/dd-java-agent.jar -Ddd.service=web-app -Ddd.env=dev -Ddd.trace.span.tags=project:test -jar path/to/application.jar @@ -375,7 +570,7 @@ java -javaagent:/path/to/dd-java-agent.jar -Ddd.service=web-app -Ddd.env=dev -Dd #### `dd.trace.jmx.tags` -**Configuración de custom.type:2 en una métrica JMX**: +Configuración de custom.type:2 en una métrica de JMX: ```shell java -javaagent:/path/to/dd-java-agent.jar -Ddd.service=web-app -Ddd.env=dev -Ddd.trace.span.tags=project:test -Ddd.trace.jmx.tags=custom.type:2 -jar path/to/application.jar @@ -385,7 +580,7 @@ java -javaagent:/path/to/dd-java-agent.jar -Ddd.service=web-app -Ddd.env=dev -Dd #### `dd.trace.methods` -**Ejemplo con propiedad del sistema**: +Ejemplo con la propiedad del sistema: ```shell java -javaagent:/path/to/dd-java-agent.jar -Ddd.service=web-app -Ddd.env=dev -Ddd.trace.methods="hello.GreetingController[doSomeStuff,doSomeOtherStuff];hello.Randomizer[randomize]" -jar path/to/application.jar @@ -423,19 +618,19 @@ java -javaagent:/path/to/dd-java-agent.jar -Ddd.service=web-app -Ddd.env=dev -Dd #### `dd.trace.enabled` -**Ejemplo con la propiedad del sistema y el modo de la aplicación de depuración**: +Ejemplo con propiedad del sistema y modo de depuración de aplicación: ```shell -java -javaagent:/path/to/dd-java-agent.jar -Ddd.trace.enabled=false -Ddatadog.slf4j.simpleLogger.defaultLogLevel=debug -jar path/to/application.jar +java -javaagent:/path/to/dd-java-agent.jar -Ddd.trace.enabled=false -Ddd.trace.debug=true -jar path/to/application.jar ``` -Los logs de la aplicación de depuración muestran que `el rastreo está deshabilitado y no está instalando instrumentaciones.` +Los logs de la aplicación de la aplicación muestran que `Tracing is disabled, not installing instrumentations.` #### `dd.jmxfetch.config.dir` y `dd.jmxfetch.config` Ejemplo de configuración: -- Ya sea, la combinación de: `DD_JMXFETCH_CONFIG_DIR=` + `DD_JMXFETCH_CONFIG=conf.yaml` +- Ya sea la combinación de: `DD_JMXFETCH_CONFIG_DIR=` + `DD_JMXFETCH_CONFIG=conf.yaml` - O directamente: `DD_JMXFETCH_CONFIG=/conf.yaml` Con el siguiente contenido para `conf.yaml`: @@ -460,32 +655,6 @@ Se produciría el siguiente resultado: {{< img src="tracing/setup/java/jmxfetch_example.png" alt="Ejemplo de búsqueda JMX" >}} Para obtener más información sobre la recopilación de métricas Java con la búsqueda JMX, consulta la [documentación de la integración Java][14]. -### Extracción e inyección de cabeceras - -Para obtener información sobre los valores válidos y el uso de las siguientes opciones de configuración, consulta [Propagación del contexto de rastreo Java][15]. - -`dd.trace.propagation.style.inject` -: **Variable de entorno**: `DD_TRACE_PROPAGATION_STYLE_INJECT`
-**Por defecto**: `datadog,tracecontext`
-Una lista separada por comas de formatos de cabeceras para incluir, para propagar trazas distribuidas entre servicios.
-Disponible a partir de la versión 1.9.0 - -`dd.trace.propagation.style.extract` -: **Variable de entorno**: `DD_TRACE_PROPAGATION_STYLE_EXTRACT`
-**Por defecto**: `datadog,tracecontext`
-Una lista separada por comas de formatos de cabeceras de los que se intentará extraer datos de propagación del rastreo distribuido. El primer formato encontrado con cabeceras completas y válidas se utiliza para definir la traza y continuar.
-Disponible a partir de la versión 1.9.0 - -`dd.trace.propagation.style` -: **Variable de entorno**: `DD_TRACE_PROPAGATION_STYLE`
-**Por defecto**: `datadog,tracecontext`
-Una lista separada por comas de formatos de cabeceras en los que se intentará inyectar y extraer datos de propagación del rastreo distribuido. El primer formato encontrado con cabeceras completas y válidas se utiliza para definir la traza y continuar. Los parámetros de configuración más específicos `dd.trace.propagation.style.inject` y `dd.trace.propagation.style.extract` tienen prioridad cuando están presentes.
-Disponible a partir de la versión 1.9.0 - -`trace.propagation.extract.first` -: **Variable de entorno**: `DD_TRACE_PROPAGATION_EXTRACT_FIRST`
-**Por defecto**: `false`
-Cuando se configura como `true`, deja de extraer contextos de rastreo cuando encuentra uno válido. #### Parámetros de extracción e inyección obsoletos @@ -503,24 +672,30 @@ Obsoleto a partir de la versión 1.9.0 Una lista separada por comas de formatos de cabecera de los que se intentará extraer datos de propagación del rastreo distribuido. El primer formato encontrado con cabeceras completas y válidas se utiliza para definir la traza y continuar.
Disponible a partir de la versión 1.9.0 -## Leer más +## Referencias adicionales {{< partial name="whats-next/whats-next.html" >}} [1]: /es/getting_started/tagging/unified_service_tagging/ [2]: /es/agent/logs/advanced_log_collection -[3]: /es/agent/remote_config/ +[3]: /es/tracing/guide/remote_config [4]: https://app.datadoghq.com/services [5]: /es/tracing/setup/docker/ [6]: /es/agent/configuration/network/#configure-ports [7]: https://github.com/DataDog/dd-trace-java/blob/master/dd-java-agent/instrumentation/trace-annotation/src/main/java/datadog/trace/instrumentation/trace_annotation/TraceAnnotationsInstrumentation.java#L37 [8]: /es/tracing/configure_data_security/#telemetry-collection -[9]: /es/developers/dogstatsd/#setup +[9]: /es/extend/dogstatsd/#setup [10]: /es/agent/docker/#dogstatsd-custom-metrics -[11]: /es/developers/dogstatsd/ +[11]: /es/extend/dogstatsd/ [12]: /es/agent/amazon_ecs/#create-an-ecs-task [13]: /es/tracing/compatibility_requirements/java#disabling-integrations [14]: /es/integrations/java/?tab=host#metric-collection -[15]: /es/tracing/trace_collection/trace_context_propagation/java/ +[15]: /es/tracing/trace_collection/trace_context_propagation/ [16]: /es/tracing/trace_collection/custom_instrumentation/java/otel/ [17]: /es/opentelemetry/interoperability/environment_variable_support +[18]: /es/tracing/guide/aws_payload_tagging/?code-lang=java +[19]: /es/security/application_security/setup/threat_detection/java/ +[20]: https://ant.apache.org/manual/dirtasks.html#patterns +[21]: /es/tracing/trace_collection/library_config/#traces +[22]: /es/profiler/ +[23]: /es/database_monitoring/connect_dbm_and_apm/?tab=java \ No newline at end of file diff --git a/content/ja/error_tracking/backend/capturing_handled_errors/ruby.md b/content/ja/error_tracking/backend/capturing_handled_errors/ruby.md new file mode 100644 index 00000000000..d5667de68e5 --- /dev/null +++ b/content/ja/error_tracking/backend/capturing_handled_errors/ruby.md @@ -0,0 +1,54 @@ +--- +code_lang: ruby +code_lang_weight: 10 +title: Ruby アプリケーションで処理済み例外を収集する +type: multi-code-lang +--- + +## 互換性要件 + +次の条件を満たしている必要があります: +- Ruby `2.7+` 以降を使用していること。JRuby と TruffleRuby には対応していません。 +- Datadog Ruby gem (`datadog`) `v2.16.0+` 以降を使用していること。 + +## はじめに + +始める前に、[Agent のインストールと設定][1] を済ませておいてください。また、アプリケーション自体をインスツルメンテーションできるように、[トレーシング ライブラリを追加][2] しておく必要があります。 + +### 自動インスツルメンテーション + +処理済みエラーの自動報告を有効にするには、次の 2 つの環境変数のいずれかを設定します: + +`DD_ERROR_TRACKING_HANDLED_ERRORS` +: ユーザー コード、サード パーティ gem、またはその両方で発生した処理済みエラーを報告します。指定できる値は `user`、`third_party`、`all` です。 + +`DD_ERROR_TRACKING_HANDLED_ERRORS_INCLUDE` +: 処理済みエラーを報告する対象として、カンマ区切りのパス、ファイル名、gem 名の一覧を指定します。指定できる値は、次のいずれかです: +: - **ファイル名**: 例: `main` を指定すると、`main.rb` ファイルがインスツルメンテーション対象になります。 +: - **フォルダ名**: 例: `subdir` を指定すると、`subdir` という名前のフォルダにあるすべての Ruby ファイルがインスツルメンテーション対象になります。 +: - **gem 名**: 例: `rails` を指定すると、`rails` gem 内のすべての Ruby ファイルと、`rails` という名前のフォルダにあるすべての Ruby ファイルがインスツルメンテーション対象になります。 +: - **絶対パス** (`/` で始まるパス): 例: `/app/lib/mypackage/main.rb` を指定するとそのファイルが、`/app/lib/mypackage` を指定するとそのフォルダ内のすべての Ruby ファイルがインスツルメンテーション対象になります。 +: - **カレント ディレクトリからの相対パス** (`./` で始まるパス): 例: プログラムを `/app/` で実行している場合、`./lib/mypackage/main.rb` を指定すると `main.rb` ファイルが、`./lib/mypackage/` を指定するとそのフォルダ内のすべての Ruby ファイルがインスツルメンテーション対象になります。 + +: Ruby `v3.3+` では、エラーを `rescue` した場所で一致判定が行われます。 +: それ以前の Ruby では、エラーが送出された場所で一致判定が行われます。 + +環境変数の代わりに、コード内の `Datadog.configure` ブロックで次のいずれかを設定することもできます: + +- `c.error_tracking.handled_errors` +: ユーザー コード、サード パーティ gem、またはその両方で発生した処理済みエラーを報告します。指定できる値は `user`、`third_party`、`all` です。 +- `c.error_tracking.handled_errors_include` +: 処理済みエラーを報告する対象として、カンマ区切りのパス、ファイル名、gem 名の一覧を指定します。指定できる値は、前述の `DD_ERROR_TRACKING_HANDLED_ERRORS_INCLUDE` と同じです。Ruby `v3.3+` では、エラーを `rescue` した場所で一致判定が行われます。それ以前の Ruby では、エラーが送出された場所で一致判定が行われます。 + +```Ruby +Datadog.configure do |c| + # ユーザー コードで発生した処理済みエラーを報告する + c.error_tracking.handled_errors = 'user' + + # または、処理済みエラーを報告する対象としてカンマ区切りのパス、ファイル名、gem 名を指定する + c.error_tracking.handled_errors_include = ['sinatra', 'subdir'] +end +``` + +[1]: /ja/error_tracking/backend/getting_started/#getting-started-with-backend-error-tracking +[2]: /ja/tracing/trace_collection/automatic_instrumentation/dd_libraries/ruby \ No newline at end of file diff --git a/content/ja/integrations/amazon-bedrock.md b/content/ja/integrations/amazon-bedrock.md new file mode 100644 index 00000000000..b8a579aeeae --- /dev/null +++ b/content/ja/integrations/amazon-bedrock.md @@ -0,0 +1,259 @@ +--- +aliases: +- /ja/integrations/amazon_bedrock +app_id: amazon-bedrock +categories: +- aws +- metrics +- cloud +- ai/ml +custom_kind: integration +description: Amazon Bedrock を使うと、AI の基盤モデルを API 経由で利用できます。 +further_reading: +- link: https://www.datadoghq.com/blog/monitor-amazon-bedrock-with-datadog/ + tag: blog + text: Datadog で Amazon Bedrock を監視する +media: [] +title: Amazon Bedrock +--- +## 概要 + +Amazon Bedrock を使うと、チャット ボットやデータ抽出ツールなど、LLM を活用したアプリケーションを監視し、トラブルシューティングし、評価できます。 + +LLM アプリケーションを構築している場合は、LLM Observability を使って問題の根本原因を調査し、運用パフォーマンスを監視し、LLM アプリケーションの品質、プライバシー、安全性を評価できます。 + +トレースをどのように調査できるかの例については、[LLM Observability のトレーシング画面の動画](https://imgix.datadoghq.com/video/products/llm-observability/expedite-troubleshooting.mp4?fm=webm&fit=max) を参照してください。 + +Amazon Bedrock は、Amazon や主要な AI スタートアップの [基盤モデル](https://aws.amazon.com/what-is/foundation-models/) (FM) を API 経由で利用できるようにするフル マネージド サービスです。さまざまな FM から、ユース ケースに最適なモデルを選べます。 + +このインテグレーションを有効にすると、Bedrock のすべてのメトリクスを Datadog で確認できます。 + +## セットアップ + +### LLM Observability: Amazon Bedrock を使って LLM アプリケーションをエンド ツー エンドで可視化する + +LLM Observability はさまざまな環境で有効化できます。利用シナリオに応じて、該当するセットアップ手順に従ってください: + +#### Python 向けインストール + +##### Datadog Agent がない場合: + +1. `ddtrace` パッケージをインストールします: + +```shell + pip install ddtrace +``` + +2. 次のコマンドで Agentless mode を有効にしてアプリケーションを起動します: + +```shell + DD_SITE= DD_API_KEY= DD_LLMOBS_ENABLED=1 DD_LLMOBS_AGENTLESS_ENABLED=1 DD_LLMOBS_ML_APP= ddtrace-run python .py +``` + +##### すでに Datadog Agent をインストールしている場合: + +1. Agent が起動しており、APM と StatsD が有効になっていることを確認します。たとえば、Docker では次のコマンドを使用します: + +```shell +docker run -d \ + --cgroupns host \ + --pid host \ + -v /var/run/docker.sock:/var/run/docker.sock:ro \ + -v /proc/:/host/proc/:ro \ + -v /sys/fs/cgroup/:/host/sys/fs/cgroup:ro \ + -e DD_API_KEY= \ + -p 127.0.0.1:8126:8126/tcp \ + -p 127.0.0.1:8125:8125/udp \ + -e DD_DOGSTATSD_NON_LOCAL_TRAFFIC=true \ + -e DD_APM_ENABLED=true \ + gcr.io/datadoghq/agent:latest +``` + +2. まだであれば、`ddtrace` パッケージをインストールします: + +```shell + pip install ddtrace +``` + +3. `ddtrace-run` コマンドでアプリケーションを起動すると、トレーシングが自動的に有効になります: + +```shell + DD_SITE= DD_API_KEY= DD_LLMOBS_ENABLED=1 DD_LLMOBS_ML_APP= ddtrace-run python .py +``` + +**注**: Agent がカスタム ホストまたはポートで動作している場合は、`DD_AGENT_HOST` と `DD_TRACE_AGENT_PORT` を適切に設定します。 + +##### サーバーレス環境 (AWS Lambda) で LLM Observability を実行する場合: + +1. AWS Lambda のセットアップの一環として、**Datadog-Python** と **Datadog-Extension** の Lambda レイヤーをインストールします。 +1. 次の環境変数を設定して LLM Observability を有効にします: + +```shell + DD_SITE= DD_API_KEY= DD_LLMOBS_ENABLED=1 DD_LLMOBS_ML_APP= +``` + +**注**: サーバーレス環境では、Lambda 関数の実行完了時に Datadog が span を自動的に flush します。 + +##### Amazon Bedrock の自動トレーシング + +LLM Observability を設定すると、Amazon Bedrock インテグレーションは自動的に有効になります。これにより、Amazon Bedrock 呼び出しのレイテンシー、エラー、入力/出力メッセージ、トークン使用量が取得されます。 + +同期処理とストリーミング処理の両方で、次の Amazon Bedrock 操作がトレース対象になります: + +- `InvokeModel()` +- `InvokeModelWithResponseStream()` + +これらのメソッドでは追加設定は不要です。 + +##### 検証 + +LLM Observability が span を正しく取得していることは、アプリケーション ログで span の生成成功を確認することで検証できます。`ddtrace` インテグレーションの状態は、次のコマンドでも確認できます: + +```shell +ddtrace-run --info +``` + +セットアップ確認のため、次のメッセージが表示されることを確認します: + +```shell +Agent error: None +``` + +##### デバッグ + +セットアップ中に問題が発生した場合は、`--debug` フラグを付けて debug logging を有効にします: + +```shell +ddtrace-run --debug +``` + +これにより、Amazon Bedrock のトレースに関する問題を含め、データ送信や instrumentation に関するエラーを確認できます。 + +#### Node.js 向けインストール + +##### Datadog Agent がない場合: + +1. `dd-trace` パッケージをインストールします: + + ```shell + npm install dd-trace + ``` + +1. 次のコマンドで agentless mode を有効にしてアプリケーションを起動します: + + ```shell + DD_SITE= DD_API_KEY= DD_LLMOBS_ENABLED=1 DD_LLMOBS_AGENTLESS_ENABLED=1 DD_LLMOBS_ML_APP= node -r 'dd-trace/init' .js + ``` + +##### すでに Datadog Agent をインストールしている場合: + +1. Agent が起動しており、APM が有効になっていることを確認します。たとえば、Docker では次のコマンドを使用します: + + ```shell + docker run -d \ + --cgroupns host \ + --pid host \ + -v /var/run/docker.sock:/var/run/docker.sock:ro \ + -v /proc/:/host/proc/:ro \ + -v /sys/fs/cgroup/:/host/sys/fs/cgroup:ro \ + -e DD_API_KEY= \ + -p 127.0.0.1:8126:8126/tcp \ + -p 127.0.0.1:8125:8125/udp \ + -e DD_DOGSTATSD_NON_LOCAL_TRAFFIC=true \ + -e DD_APM_ENABLED=true \ + gcr.io/datadoghq/agent:latest + ``` + +1. Datadog APM Node.js ライブラリをインストールします。 + + ```shell + npm install dd-trace + ``` + +1. `-r dd-trace/init` または `NODE_OPTIONS='--require dd-trace/init'` を使ってアプリケーションを起動すると、トレーシングが自動的に有効になります: + + ```shell + DD_SITE= DD_API_KEY= DD_LLMOBS_ENABLED=1 DD_LLMOBS_ML_APP= node -r 'dd-trace/init' .js + ``` + +**注**: Agent がカスタム ホストまたはポートで動作している場合は、`DD_AGENT_HOST` と `DD_TRACE_AGENT_PORT` を適切に設定します。 + +##### サーバーレス環境 (AWS Lambda) で LLM Observability を実行する場合: + +1. 次の環境変数を設定して LLM Observability を有効にします: + + ```shell + DD_SITE= DD_API_KEY= DD_LLMOBS_ENABLED=1 DD_LLMOBS_ML_APP= + ``` + +1. Lambda の実行が終了する前に、`llmobs.flush()` を呼び出します: + + ```js + const llmobs = require('dd-trace').llmobs; + // or, if dd-trace was not initialized via NODE_OPTIONS + const llmobs = require('dd-trace').init({ + llmobs: { + mlApp: , + } + }).llmobs; // with DD_API_KEY and DD_SITE being set at the environment level + + async function handler (event, context) { + ... + llmobs.flush() + return ... + } + ``` + +### APM: Python アプリケーションの使用状況メトリクスを取得する + +まだ設定していない場合は、先に [Amazon Web Services インテグレーション](https://docs.datadoghq.com/integrations/amazon_web_services/) を設定してください。 + +### メトリクス収集 + +1. [AWS integration page](https://app.datadoghq.com/integrations/amazon-web-services) の `Metric Collection` タブで、`Bedrock` が有効になっていることを確認します。 +1. [Datadog - Amazon Bedrock インテグレーション](https://app.datadoghq.com/integrations/amazon-bedrock) をインストールします。 + +## 収集データ + +### メトリクス + +| | | +| --- | --- | +| **aws.bedrock.content_filtered_count**
(count) | テキスト出力コンテンツがフィルタリングされた総回数
_単位は time_ | +| **aws.bedrock.input_token_count**
(gauge) | モデルに対して実行されたプロンプトで使用された入力トークン数の平均
_単位は token_ | +| **aws.bedrock.input_token_count.minimum**
(gauge) | モデルに対して実行されたプロンプトで使用された入力トークン数の最小値
_単位は token_ | +| **aws.bedrock.input_token_count.maximum**
(gauge) | モデルに対して実行されたプロンプトで使用された入力トークン数の最大値
_単位は token_ | +| **aws.bedrock.input_token_count.sum**
(count) | モデルに対して実行されたプロンプトで使用された入力トークン総数
_単位は token_ | +| **aws.bedrock.invocation_client_errors**
(count) | 呼び出し時に発生したクライアント エラー数
_単位は error_ | +| **aws.bedrock.invocation_latency**
(gauge) | 呼び出しレイテンシーの平均 (ミリ秒)
_単位は millisecond_ | +| **aws.bedrock.invocation_latency.minimum**
(gauge) | 1 分間における呼び出しレイテンシーの最小値
_単位は millisecond_ | +| **aws.bedrock.invocation_latency.maximum**
(gauge) | 1 分間における呼び出しレイテンシーの最大値
_単位は millisecond_ | +| **aws.bedrock.invocation_latency.p99**
(gauge) | 1 分間における呼び出しレイテンシーの 99 パーセンタイル値
_単位は millisecond_ | +| **aws.bedrock.invocation_latency.p95**
(gauge) | 1 分間における呼び出しレイテンシーの 95 パーセンタイル値
_単位は millisecond_ | +| **aws.bedrock.invocation_latency.p90**
(gauge) | 1 分間における呼び出しレイテンシーの 90 パーセンタイル値
_単位は millisecond_ | +| **aws.bedrock.invocation_server_errors**
(count) | 呼び出し時に発生したサーバー エラー数
_単位は error_ | +| **aws.bedrock.invocation_throttles**
(count) | 呼び出しのスロットリング発生回数
_単位は throttle_ | +| **aws.bedrock.invocations**
(count) | モデル エンドポイントに送信された呼び出し回数
_単位は invocation_ | +| **aws.bedrock.output_image_count**
(gauge) | 1 分間において、モデル呼び出しで返された出力画像数の平均
_単位は item_ | +| **aws.bedrock.output_token_count**
(gauge) | 1 分間において、モデル呼び出しで返された出力トークン数の平均
_単位は token_ | +| **aws.bedrock.output_token_count.minimum**
(gauge) | 1 分間において、モデル呼び出しで返された出力トークン数の最小値
_単位は token_ | +| **aws.bedrock.output_token_count.maximum**
(gauge) | 1 分間において、モデル呼び出しで返された出力トークン数の最大値
_単位は token_ | +| **aws.bedrock.output_token_count.sum**
(count) | すべてのモデル呼び出しで返された出力トークン総数
_単位は token_ | + +### イベント + +Amazon Bedrock インテグレーションにはイベントは含まれません。 + +### サービス チェック + +Amazon Bedrock インテグレーションにはサービス チェックは含まれません。 + +## トラブルシューティング + +サポートが必要な場合は、[Datadog サポート](https://docs.datadoghq.com/help/) にお問い合わせください。 + +## 参考資料 + +役立つドキュメント、リンク、記事: + +- [Datadog で Amazon Bedrock を監視する](https://www.datadoghq.com/blog/monitor-amazon-bedrock-with-datadog/) \ No newline at end of file diff --git a/content/ja/integrations/amazon-cloudhsm.md b/content/ja/integrations/amazon-cloudhsm.md new file mode 100644 index 00000000000..0f73512c6d8 --- /dev/null +++ b/content/ja/integrations/amazon-cloudhsm.md @@ -0,0 +1,98 @@ +--- +aliases: +- /ja/integrations/amazon_cloudhsm +app_id: amazon-cloudhsm +categories: +- cloud +- provisioning +- aws +- log collection +custom_kind: integration +description: AWS CloudHSM は、AWS Cloud で利用するためのハードウェア セキュリティ モジュールを提供するサービスです。 +media: [] +title: AWS CloudHSM +--- +## 概要 + +AWS CloudHSM は、AWS Cloud で利用するためのハードウェア セキュリティ モジュールを提供するサービスです。 + +このインテグレーションを有効にすると、CloudHSM のすべてのメトリクスを Datadog で確認できます。 + +## セットアップ + +### インストール + +まだ設定していない場合は、先に [Amazon Web Services インテグレーション](https://docs.datadoghq.com/integrations/amazon_web_services/) を設定してください。 + +### メトリクス収集 + +1. [AWS インテグレーション ページ](https://app.datadoghq.com/integrations/amazon-web-services) の `Metric Collection` タブで、`CloudHSM` が有効になっていることを確認します。 +1. [Datadog - AWS CloudHSM インテグレーション](https://app.datadoghq.com/integrations/amazon-cloudhsm) をインストールします。 + +### ログ収集 + +#### ログを有効にする + +AWS CloudHSM がログを S3 バケットまたは CloudWatch に送信するよう設定します。 + +**注**: S3 バケットにログを出力する場合は、_Target prefix_ に `amazon_cloudhsm` が設定されていることを確認してください。 + +#### ログを Datadog に送信する + +1. まだ設定していない場合は、[Datadog Forwarder Lambda 関数](https://docs.datadoghq.com/logs/guide/forwarder/) を設定してください。 + +1. Lambda 関数をインストールしたら、AWS コンソールで AWS CloudHSM のログが保存されている S3 バケットまたは CloudWatch log group に、手動でトリガーを追加します: + + - [S3 バケットに手動でトリガーを追加する](https://docs.datadoghq.com/logs/guide/send-aws-services-logs-with-the-datadog-lambda-function/#collecting-logs-from-s3-buckets) + - [CloudWatch Log Group に手動でトリガーを追加する](https://docs.datadoghq.com/logs/guide/send-aws-services-logs-with-the-datadog-lambda-function/#collecting-logs-from-cloudwatch-log-group) + +## 収集データ + +### メトリクス + +| | | +| --- | --- | +| **aws.cloudhsm.hsm_keys_session_occupied**
(gauge) | バッファリング済みメモリ量
_単位は key_ | +| **aws.cloudhsm.hsm_keys_session_occupied.sum**
(count) | バッファリング済みメモリ量の合計
_単位は key_ | +| **aws.cloudhsm.hsm_keys_token_occupied**
(gauge) | 使用中のキー数
_単位は key_ | +| **aws.cloudhsm.hsm_keys_token_occupied.sum**
(count) | 使用中のキー数の合計
_単位は key_ | +| **aws.cloudhsm.hsm_session_count**
(count) | オープン接続数の合計
_単位は session_ | +| **aws.cloudhsm.hsm_session_count.average**
(gauge) | オープン接続数
_単位は session_ | +| **aws.cloudhsm.hsm_session_count.maximum**
(gauge) | オープン接続数の最大値
_単位は session_ | +| **aws.cloudhsm.hsm_ssl_ctxs_occupied**
(gauge) | 確立済みの暗号化チャネル数
_単位は process_ | +| **aws.cloudhsm.hsm_ssl_ctxs_occupied.sum**
(count) | 確立済みの暗号化チャネル数の合計
_単位は process_ | +| **aws.cloudhsm.hsm_temperature**
(gauge) | ハードウェア プロセッサのジャンクション温度
_単位は degree celsius_ | +| **aws.cloudhsm.hsm_temperature.maximum**
(gauge) | ハードウェア プロセッサのジャンクション温度の最大値
_単位は degree celsius_ | +| **aws.cloudhsm.hsm_unhealthy**
(count) | 異常な HSM インスタンス数の合計
_単位は event_ | +| **aws.cloudhsm.hsm_unhealthy.average**
(gauge) | 異常な HSM インスタンス数の平均
_単位は event_ | +| **aws.cloudhsm.hsm_unhealthy.maximum**
(gauge) | 異常な HSM インスタンス数の最大値
_単位は event_ | +| **aws.cloudhsm.hsm_users_available**
(gauge) | 利用可能な HSM ユーザー数
_単位は user_ | +| **aws.cloudhsm.hsm_users_max**
(gauge) | HSM ユーザー数の上限
_単位は user_ | +| **aws.cloudhsm.interface_eth_2dropped_input**
(gauge) | | +| **aws.cloudhsm.interface_eth_2dropped_input.sum**
(count) | | +| **aws.cloudhsm.interface_eth_2dropped_output**
(gauge) | | +| **aws.cloudhsm.interface_eth_2dropped_output.sum**
(count) | | +| **aws.cloudhsm.interface_eth_2errors_input**
(gauge) |
_単位は error_ | +| **aws.cloudhsm.interface_eth_2errors_input.sum**
(count) |
_単位は error_ | +| **aws.cloudhsm.interface_eth_2errors_output**
(gauge) |
_単位は error_ | +| **aws.cloudhsm.interface_eth_2errors_output.sum**
(count) |
_単位は error_ | +| **aws.cloudhsm.interface_eth_2octets_input**
(gauge) | HSM への総受信トラフィック量| +| **aws.cloudhsm.interface_eth_2octets_input.sum**
(count) | HSM への総受信トラフィック量の合計| +| **aws.cloudhsm.interface_eth_2octets_output**
(gauge) | HSM からの総送信トラフィック量| +| **aws.cloudhsm.interface_eth_2octets_output.sum**
(count) | HSM からの総送信トラフィック量の合計| +| **aws.cloudhsm.interface_eth_2packets_input**
(gauge) |
_単位は packet_ | +| **aws.cloudhsm.interface_eth_2packets_input.sum**
(count) |
_単位は packet_ | +| **aws.cloudhsm.interface_eth_2packets_output**
(gauge) |
_単位は packet_ | +| **aws.cloudhsm.interface_eth_2packets_output.sum**
(count) |
_単位は packet_ | + +### イベント + +AWS CloudHSM インテグレーションにはイベントは含まれません。 + +### サービス チェック + +AWS CloudHSM インテグレーションにはサービス チェックは含まれません。 + +## トラブルシューティング + +サポートが必要な場合は、[Datadog サポート](https://docs.datadoghq.com/help/) にお問い合わせください。 \ No newline at end of file diff --git a/content/ja/integrations/gatling_enterprise.md b/content/ja/integrations/gatling_enterprise.md new file mode 100644 index 00000000000..7a6e049dfaf --- /dev/null +++ b/content/ja/integrations/gatling_enterprise.md @@ -0,0 +1,144 @@ +--- +app_id: gatling-enterprise +app_uuid: 019662ce-ced4-7e23-9738-bd4c09f38b64 +assets: + dashboards: + Gatling Enterprise Overview: assets/dashboards/gatling_enterprise_overview.json + integration: + auto_install: true + configuration: {} + events: + creates_events: false + metrics: + check: + - gatling_enterprise.user.start_count + metadata_path: metadata.csv + prefix: gatling_enterprise + process_signatures: [] + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 45953787 + source_type_name: gatling-enterprise + supports_ddr_coordinated_failover: false +author: + homepage: https://gatling.io + name: Gatling Corp + sales_email: contact@gatling.io + support_email: contact@gatling.io + vendor_id: gatling-corp +categories: +- developer tools +- testing +custom_kind: integration +dependencies: +- https://github.com/DataDog/integrations-extras/blob/master/gatling_enterprise/README.md +display_on_public_website: true +draft: false +git_integration_title: gatling_enterprise +integration_id: gatling-enterprise +integration_title: Gatling Enterprise +integration_version: '' +is_public: true +manifest_version: 2.0.0 +name: gatling_enterprise +public_title: Gatling Enterprise +short_description: Gatling Enterprise から負荷テストのメトリクスを収集 +supported_os: +- linux +tile: + changelog: CHANGELOG.md + classifier_tags: + - Category::Developer Tools + - Category::Testing + - Offering::Integration + - Supported OS::Linux + - Submitted Data Type::Metrics + configuration: README.md#Setup + description: Gatling Enterprise から負荷テストのメトリクスを収集 + media: + - caption: Gatling Enterprise の概要ダッシュボード - 応答とリクエスト + image_url: images/app.datadoghq.com_dashboard_n9p-inx-6jn_gatling-enterprise-overview_fromUser=false&refresh_mode=sliding&from_ts=1747402829806&to_ts=1747403729806&live=true + (2) 1.png + media_type: image + - caption: Gatling Enterprise の概要ダッシュボード - 応答時間 + image_url: images/app.datadoghq.com_dashboard_n9p-inx-6jn_gatling-enterprise-overview_fromUser=false&refresh_mode=sliding&from_ts=1747402829806&to_ts=1747403729806&live=true + (2) 1-1.png + media_type: image + - caption: Gatling Enterprise の概要ダッシュボード - ユーザー + image_url: images/app.datadoghq.com_dashboard_n9p-inx-6jn_gatling-enterprise-overview_fromUser=false&refresh_mode=sliding&from_ts=1747402829806&to_ts=1747403729806&live=true + (2) 1-2.png + media_type: image + overview: README.md#Overview + support: README.md#Support + title: Gatling Enterprise + uninstallation: README.md#Uninstallation +--- + + + + +## 概要 + +Gatling Enterprise は、実際のトラフィックに近い条件でアプリケーションのスケーラビリティとパフォーマンスを検証できるように設計された負荷テスト プラットフォームです。 + +Datadog とのインテグレーションにより、チームは応答時間、スループット、エラーなどの負荷テストのメトリクスを Datadog で追跡しているインフラ データと突き合わせ、パフォーマンス上の問題を詳しく調べられます。 + +Gatling Enterprise は Datadog にメトリクスを送信するため、エンジニアリング チームや SRE チームはパフォーマンスに関する知見を 1 か所に集約し、スケーラビリティと信頼性に関する意思決定の質を高められます。 + + +## セットアップ + +> **注**: このインテグレーションは Gatling Enterprise をご利用のお客様向けです。Gatling Enterprise の詳細や無料で始める方法については、[gatling.io/products][1] を参照してください。 + +1. Datadog で **Integrations** に移動し、Gatling Enterprise タイルを選択して **Install Integration** をクリックします。 + +2. Gatling のコントロール プレーン環境で、[設定ファイル][2] を編集します。`system-properties` セクションに、次のようにパラメータを追加します。YOUR_API_KEY は [Datadog API キー][3] に置き換え、組織に対応した正しい [Datadog サイト][4] を指定してください: + +```bash +control-plane { + locations = [ + { + id = "prl_example" + # ... このロケーション向けのその他の設定 + system-properties { + "gatling.enterprise.dd.api.key" = "YOUR_API_KEY" # ここに API キーを入力 + "gatling.enterprise.dd.site" = "datadoghq.com" # ご利用の Datadog サイトに置き換え + } + } + ] +} +``` + +3. コントロール プレーンをデプロイし、再起動します。 + + +## 収集データ + +Gatling Enterprise インテグレーションは、データ ベース、ノード、シャードに関するすべてのメトリクスを収集します。 + + +### メトリクス + +このインテグレーションで提供されるメトリクスの一覧は [metadata.csv][5] を参照してください。 + +## アンインストール + +1. Datadog で **Integrations** に移動し、Gatling Enterprise タイルを選択して **Uninstall Integration** をクリックします。 + +2. Gatling のコントロール プレーン環境で、[設定ファイル][6] を編集します。`system-properties` セクションから `gatling.enterprise.dd` を含む行を削除します。 + +3. コントロール プレーンをデプロイし、再起動します。 + +## サポート + +サポートが必要な場合は、[Gatling Enterprise サポート][7] にお問い合わせください。 + + + +[1]: https://gatling.io/products +[2]: https://docs.gatling.io/reference/install/cloud/private-locations/introduction/ +[3]: https://docs.datadoghq.com/ja/account_management/api-app-keys/ +[4]: https://docs.datadoghq.com/ja/getting_started/site/ +[5]: https://github.com/DataDog/integrations-extras/blob/master/gatling_enterprise/metadata.csv +[6]: https://docs.gatling.io/reference/install/cloud/private-locations/introduction +[7]: https://gatlingcorp.atlassian.net/servicedesk/customer/portal/8 \ No newline at end of file diff --git a/content/ja/integrations/oci_goldengate.md b/content/ja/integrations/oci_goldengate.md new file mode 100644 index 00000000000..5fdb1a9b609 --- /dev/null +++ b/content/ja/integrations/oci_goldengate.md @@ -0,0 +1,116 @@ +--- +app_id: oci-goldengate +app_uuid: 6abb75a2-400b-4334-8224-2f381fca27fa +assets: + integration: + auto_install: true + events: + creates_events: false + metrics: + check: + - oci.goldengate.cpu_utilization + - oci.goldengate.deployment_health + - oci.goldengate.deployment_inbound_lag + - oci.goldengate.deployment_outbound_lag + - oci.goldengate.distribution_path_lag + - oci.goldengate.distribution_path_status + - oci.goldengate.extract_lag + - oci.goldengate.extract_status + - oci.goldengate.file_system_usage + - oci.goldengate.heartbeat_lag + - oci.goldengate.memory_utilization + - oci.goldengate.ocpu_consumption + - oci.goldengate.pipeline_health + - oci.goldengate.pipeline_memory_usage + - oci.goldengate.pipeline_processing_rate + - oci.goldengate.pipeline_scheduling_delay + - oci.goldengate.pipeline_total_delay + - oci.goldengate.receiver_path_lag + - oci.goldengate.receiver_path_status + - oci.goldengate.replicat_lag + - oci.goldengate.replicat_status + - oci.goldengate.swap_space_usage + - oci.goldengate.temp_space_usage + metadata_path: metadata.csv + prefix: oci. + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 48906972 + source_type_name: OCI GoldenGate +author: + homepage: https://www.datadoghq.com + name: Datadog + sales_email: info@datadoghq.com + support_email: help@datadoghq.com +categories: +- data stores +- cloud +- oracle +- metrics +custom_kind: integration +dependencies: [] +display_on_public_website: true +draft: false +git_integration_title: oci_goldengate +integration_id: oci-goldengate +integration_title: OCI GoldenGate +integration_version: '' +is_public: true +manifest_version: 2.0.0 +name: oci_goldengate +public_title: OCI GoldenGate +short_description: OCI GoldenGate は、データ ベース間でのデータ レプリケーション、変換、ストリーミングを提供 +supported_os: [] +tile: + changelog: CHANGELOG.md + classifier_tags: + - Category::Data Stores + - Category::Cloud + - Category::Oracle + - Category::Metrics + - Offering::Integration + configuration: README.md#Setup + description: OCI GoldenGate は、データ ベース間でのデータ レプリケーション、変換、ストリーミングを提供 + media: [] + overview: README.md#Overview + support: README.md#Support + title: OCI GoldenGate +--- + + + + +## 概要 + +Oracle Cloud Infrastructure (OCI) GoldenGate は、異種のデータ ソース間でリアルタイムのデータ レプリケーション、変換、ストリーミングを実行できる、フル マネージドでスケーラブルなサービスです。オンプレミス環境とクラウド環境の間で継続的なデータ可用性とシームレスな連携を実現し、データ ベースの移行、ディザスター リカバリー、リアルタイム分析など、幅広いユース ケースに対応します。 + +このインテグレーションでは、[oci_goldengate][1] ネームスペースからメトリクスとタグを収集することで、GoldenGate インスタンスの健全性、容量、パフォーマンスを監視し、必要に応じてアラートを設定できます。 + +## セットアップ + +### インストール + +[Oracle Cloud Infrastructure][2] インテグレーションを設定したら、上記のネームスペースが [Connector Hub][3] に含まれていることを確認してください。 + +## 収集データ + +### メトリクス +{{< get-metrics-from-git "oci_goldengate" >}} + + +### サービス チェック + +OCI GoldenGate にはサービス チェックは含まれていません。 + +### イベント + +OCI GoldenGate にはイベントは含まれていません。 + +## トラブルシューティング + +サポートが必要な場合は、[Datadog サポート][5] にお問い合わせください。 +[1]: https://docs.oracle.com/en-us/iaas/goldengate/doc/metrics.html +[2]: https://docs.datadoghq.com/ja/integrations/oracle_cloud_infrastructure/ +[3]: https://cloud.oracle.com/connector-hub/service-connectors +[4]: https://github.com/DataDog/integrations-internal-core/blob/main/oci_goldengate/metadata.csv +[5]: https://docs.datadoghq.com/ja/help/ \ No newline at end of file diff --git a/content/ja/opentelemetry/guide/combining_otel_and_datadog_metrics.md b/content/ja/opentelemetry/guide/combining_otel_and_datadog_metrics.md new file mode 100644 index 00000000000..08f6c3cbe3d --- /dev/null +++ b/content/ja/opentelemetry/guide/combining_otel_and_datadog_metrics.md @@ -0,0 +1,75 @@ +--- +further_reading: +- link: /metrics/ + tag: ドキュメント + text: メトリクスのドキュメント +private: true +title: OpenTelemetry と Datadog のメトリクスを組み合わせる +--- + +## 概要 + +{{< callout url="#" btn_hidden="true" header="Preview に参加する">}} +equiv_otel() 関数は Preview 提供中です。この機能に関するフィードバックがあれば、担当のアカウント チームまでお寄せください。 +{{< /callout >}} + +Datadog と OpenTelemetry (OTel) では、インテグレーション メトリクスの命名規則が異なります。このガイドでは、Datadog の `equiv_otel` 関数を使って、両方のシステムのメトリクスを 1 つのクエリにまとめる方法を説明します。 + +
Datadog UI で Datadog と OpenTelemetry のメトリクスを横断的にクエリするには、OpenTelemetry メトリクスをクエリする方法 を参照してください。
+ +## メトリクスを組み合わせる際の課題 + +Datadog と OTel のメトリクスを併用すると、主に 2 つの課題があります。ここでは、NGINX の接続監視を例に見ていきます: + +### 命名規則の違い + +Datadog と OTel では、同じ計測値でも表し方が異なります: +- Datadog: `nginx.net.connections` (アクティブ接続専用のメトリクス) +- OTel: `nginx.connections_current` (すべての接続状態を 1 つのメトリクスにまとめたもの) + - Datadog のアクティブ接続メトリクスと一致させるには、`state:active` でフィルタする必要があります。 + +### 集計上の制約 + +別々のメトリクス クエリをそのまま組み合わせると、正しくない結果になることがあります。たとえば、次のクエリを組み合わせるとします: +``` +avg:nginx.net.connections +avg:nginx.connections_current{state:active} +``` +得られるのは、すべての時系列を通した真の平均ではなく、平均の平均です。これは、従来の [メトリクス関数][1] がデータを 1 つのメトリクスとして扱うのではなく、別々のクエリの結果を結合するためです。 + +## equiv_otel 関数でメトリクスを組み合わせる + +`equiv_otel` 関数を使うと、対応する Datadog と OTel のメトリクスを 1 つのクエリ内で自動的に組み合わせられます。主な動作は次のとおりです。 + +- メトリクス名の変換を自動で処理 +- すべての時系列を 1 つのメトリクスとして適切に集計 +- 双方向に利用可能 (Datadog から OTel、または OTel から Datadog) +- クエリ本来の集計の意味を維持 + +### Datadog から OTel への変換 + +対応する OTel メトリクスもクエリに含めるには、Datadog のクエリを `equiv_otel` で包みます: + +``` +equiv_otel(avg:nginx.net.connections) +``` +このクエリでは、次の処理が行われます。 +1. 対応する OTel メトリクス (`nginx.connections_current{state:active}`) を特定 +2. 両方のメトリクスの時系列を統合 +3. すべてのデータ ポイントに対して集計 (`avg`) を適用 + +### OTel から Datadog への変換 + +OTel のクエリに Datadog のメトリクスを含める場合も、同じように使えます: + +``` +equiv_otel(avg:nginx.connections_current{state:active}) +``` +逆方向でも動作は同じで、対応する Datadog のメトリクス (`nginx.net.connections`) が自動的に含まれます。 + +## 参考資料 + +{{< partial name="whats-next/whats-next.html" >}} + + +[1]: /ja/dashboards/functions \ No newline at end of file From 6887109d4a5d0238ef5e7df7690ab2f9ebe9bf49 Mon Sep 17 00:00:00 2001 From: Joe Peeples Date: Tue, 17 Mar 2026 14:17:19 -0400 Subject: [PATCH 2/3] fix erroneously translated frontmatter value --- content/es/tracing/services/inferred_entity_remapping_rules.md | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/content/es/tracing/services/inferred_entity_remapping_rules.md b/content/es/tracing/services/inferred_entity_remapping_rules.md index a2dd5377a7f..3bf465c888c 100644 --- a/content/es/tracing/services/inferred_entity_remapping_rules.md +++ b/content/es/tracing/services/inferred_entity_remapping_rules.md @@ -7,7 +7,7 @@ further_reading: - link: tracing/services/inferred_services tag: Documentación text: Servicios inferidos -site_support_id: reglas_reasignación_entidades_inferidas +site_support_id: inferred_entity_remapping_rules title: Reglas de reasignación para entidades inferidas --- From 3605ec9c38bbef56251b22c0a1f3e12b145e5304 Mon Sep 17 00:00:00 2001 From: Joe Peeples Date: Tue, 17 Mar 2026 14:23:33 -0400 Subject: [PATCH 3/3] fix malformed link syntax --- content/es/integrations/hudi.md | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/content/es/integrations/hudi.md b/content/es/integrations/hudi.md index 52772814b19..47629d203c1 100644 --- a/content/es/integrations/hudi.md +++ b/content/es/integrations/hudi.md @@ -15,7 +15,7 @@ title: Hudi ## Información general Este check monitoriza [Hudi](https://hudi.apache.org/). -Es compatible con las [versiones] de Hudi (https://github.com/apache/hudi/releases) `0.10.0` y posteriores. +Es compatible con las [versiones](https://github.com/apache/hudi/releases) de Hudi `0.10.0` y posteriores. ## Configuración