Dynatrace Intelligence tras Perform 2026: qué ha cambiado realmente en la plataforma

Cada año, después de un evento como Perform, los equipos de operaciones se enfrentan al mismo dilema: separar el ruido del anuncio comercial de los cambios que realmente importan en producción. Dynatrace acaba de presentar una evolución significativa de su plataforma, y esta vez hay cosas que vale la pena entender más allá del titular. No porque todo sea revolucionario —pocas cosas lo son en este sector—, sino porque algunos de estos cambios afectan directamente a cómo diagnosticas problemas a las tres de la mañana o cómo justificas el presupuesto de observabilidad ante quien controla las finanzas.

El anuncio estrella de Perform 2026 (Las Vegas, 26-29 de enero) fue Dynatrace Intelligence: lo que la compañía define como un «sistema de operaciones agéntico» que fusiona su IA determinista —el motor Davis AI que lleva años haciendo análisis causal basado en fault-tree analysis y topología en tiempo real— con una nueva capa de IA agéntica capaz de razonar, decidir y actuar dentro de guardrails definidos. No es solo un rebautizo de Davis: es una reorganización de la arquitectura de inteligencia de la plataforma que cambia cómo se interactúa con ella.

El problema que nadie menciona en las demos: demasiada inteligencia puede ser ruido

Aquí va una verdad incómoda: los sistemas de observabilidad modernos generan tantos datos y alertas que el problema ya no es detectar anomalías, sino filtrar cuáles importan. Dynatrace siempre ha presumido de su motor Davis AI, que correlaciona eventos y reduce el ruido. Funciona, pero hasta ahora tenía una limitación práctica: aunque podías ingerir eventos externos vía API, la inteligencia operaba fundamentalmente sobre su propia telemetría y no había un marco estandarizado para conectar contexto de negocio al análisis de forma nativa.

Imagina que tu aplicación de comercio electrónico empieza a responder lento un viernes por la tarde. Dynatrace detecta la anomalía, identifica que el problema está en una base de datos específica, correlaciona con un despliegue reciente. Perfecto. Pero resulta que ese viernes es Black Friday, hay tres veces más tráfico de lo habitual, y marketing acaba de lanzar una campaña en redes sociales que nadie comunicó a ingeniería. El sistema te dice que hay un problema, pero no sabe si es grave o simplemente esperable dado el contexto de negocio.

Dynatrace Intelligence aborda esto de dos formas. La primera es que la nueva capa agéntica puede correlacionar señales de sistemas externos —calendarios de eventos, datos de campañas, incidencias de proveedores cloud— gracias a las integraciones bidireccionales expandidas con AWS, Azure, Google Cloud, ServiceNow, Atlassian, GitHub y otros. La segunda es el Dynatrace MCP Server, que implementa el estándar Model Context Protocol para exponer los datos de observabilidad de producción a herramientas y agentes externos de forma estandarizada. En la práctica, esto permite que información contextual fluya en ambas direcciones: del ecosistema hacia Dynatrace y de Dynatrace hacia agentes externos.

La consecuencia práctica es que la plataforma tiene más contexto para determinar si una anomalía es real o simplemente el comportamiento esperado bajo condiciones conocidas. Pero esto no es magia: requiere que esas integraciones estén configuradas y que la información llegue. Si marketing no comunica sus campañas, si los despliegues no están documentados, si los cambios de infraestructura se hacen sin registro, el sistema no puede ayudarte. Dynatrace Intelligence no lee mentes; lee datos estructurados.

Intelligence Agents: agentes especializados por dominio

El cambio más concreto de Perform 2026 —y el que mayor impacto tiene para el día a día— son los Dynatrace Intelligence Agents. Se trata de agentes especializados que cubren dominios funcionales específicos y trabajan de forma coordinada.

La arquitectura tiene varias capas. En la base están los agentes fundacionales que proporcionan contexto operativo: un agente de análisis causal (root cause) que recorre las dependencias de Smartscape, un motor de analítica que procesa los datos del lakehouse Grail, y un agente de forecasting que escala análisis predictivo sobre millones de métricas. Estos agentes usan IA determinista —fault-tree analysis, no modelos probabilísticos— y son los que proporcionan la «verdad operativa» sobre la que trabaja el resto del sistema.

Sobre esa base operan los agentes de dominio: agentes de SRE y DevOps para prevención y remediación de incidentes, agentes de seguridad para identificación y resolución de vulnerabilidades, y agentes de business observability para optimización en tiempo real. También hay agentes «Assist» (la evolución de lo que antes era Davis CoPilot) que interpretan situaciones y guían acciones usando lenguaje natural, y workflows agénticos que permiten orquestar objetivos complejos con controles basados en políticas.

Un dato interesante de las benchmarks que presentó Dynatrace: cuando un agente SRE externo trabaja junto con los agentes deterministas de la plataforma, los problemas se resolvieron hasta 12 veces más a menudo, tres veces más rápido y con la mitad del coste en tokens, comparado con tests que usaban solo agentes LLM sin el contexto determinista. Bernd Greifeneder, CTO de Dynatrace, explicó la aritmética durante la keynote: un LLM con un 95% de precisión suena aceptable, pero si encadenas 10 llamadas secuenciales para resolver un incidente complejo, la tasa de error se acumula y el resultado final cae al 60%. La IA determinista reduce ese problema porque no «alucina»: opera sobre topología real y datos factuales.

Cómo cambia el análisis causal en la práctica

El análisis de causa raíz siempre ha sido el santo grial de la observabilidad, y también su mayor fuente de frustración. Dynatrace usa fault-tree analysis (la misma metodología que usan la NASA y la FAA) para determinar causalidad, no mera correlación. Lo que cambia con Dynatrace Intelligence no es el algoritmo base, sino la profundidad del contexto disponible para el análisis.

Davis AI siempre ha funcionado recorriendo la topología de Smartscape: cuando detecta un problema, rastrea dependencias verticales y horizontales, identifica anomalías en entidades relacionadas, y agrupa todo en un único problema con la causa raíz rankeada. Lo que los Intelligence Agents añaden es la capacidad de disparar análisis adicionales en tiempo real: cuando el agente de root cause analiza un incidente, puede activar detección de change points en métricas de entidades afectadas que no tenían alertas activas, descubriendo anomalías ocultas que el análisis tradicional basado solo en eventos no habría encontrado.

Pongamos un caso: tu API de pagos empieza a devolver errores 500. El análisis tradicional de Davis te daría el problema correlado con sus root cause contributors rankeados. Con Dynatrace Intelligence, el agente de root cause no solo identifica las causas evidentes, sino que además examina métricas de las entidades afectadas buscando change points adicionales —un incremento de garbage collection en tres instancias, timeouts intermitentes en la conexión a una base de datos de sesiones— que individualmente no generaron alertas pero en conjunto explican el comportamiento. El agente Assist puede entonces presentar todo esto en lenguaje natural, junto con pasos sugeridos de remediación.

Para equipos pequeños que no pueden permitirse perseguir pistas falsas durante horas, esto ahorra tiempo real. No porque el sistema sea infalible —no lo es—, sino porque reduce la superficie de investigación presentando un mapa más completo de lo que está pasando.

El nuevo Smartscape y la experiencia de usuario rediseñada

Otro anuncio que pasó relativamente inadvertido entre el ruido de la IA agéntica fue la renovación de Smartscape. La nueva experiencia de Smartscape se presenta como un grafo de dependencias en tiempo real que permite pasar de «ver señales» a entender la salud real de las entidades y las relaciones causa-efecto en entornos cloud, Kubernetes y arquitecturas modernas.

También se anunciaron mejoras significativas en Real User Monitoring (RUM), con una experiencia rediseñada que incluye Users & Sessions para investigaciones basadas en sesiones reales, Error Inspector para agrupación y priorización de errores con contexto, y Experience Vitals para identificar qué peticiones o assets provocan lentitud. Todo esto construido sobre Grail, lo que permite analizar datos frontend junto con logs, métricas, trazas y eventos de negocio en una sola plataforma.

Para los equipos de desarrollo, se presentaron mejoras en el Live Debugger (depuración en producción sin redespliegue) y soporte expandido para IDEs modernos, incluyendo entornos AI-first como Cursor y Windsurf. La integración MCP con VS Code y GitHub Copilot mostrada en la keynote permitía a un desarrollador consultar directamente datos de producción desde su IDE: preguntar qué servicios están lentos, recibir el contexto del problema con root cause, y acceder al código afectado sin salir de su flujo de trabajo.

Las limitaciones que nadie menciona en las presentaciones

Todo esto suena bien, pero hay compensaciones reales que conviene tener claras.

La primera es que para que el motor de inteligencia funcione bien necesitas volumen de datos y tiempo. Si acabas de implementar Dynatrace, el análisis causal y los baselines van a ser mediocres durante semanas o meses, hasta que el sistema tenga suficiente histórico para establecer líneas base fiables. Esto no es un defecto: es inherente a cualquier sistema que trabaje con detección de anomalías basada en comportamiento normal.

La segunda es que la capa agéntica está en distintos niveles de madurez. Algunos componentes, como Dynatrace Assist, ya están disponibles. Otros, como los workflows agénticos, están en Preview. Y la promesa de autonomía completa —remediación automática sin intervención humana— todavía requiere que las organizaciones construyan las políticas, los guardrails y la confianza necesarias para permitir que agentes actúen sobre sistemas de producción. Como reconoció el propio Greifeneder en su keynote, el modelo es de «autonomía supervisada», no de piloto automático.

La tercera es que la integración de contexto externo requiere disciplina organizativa. Las integraciones expandidas con AWS, Azure, GCP, ServiceNow y demás están ahí, pero configurarlas y mantenerlas requiere esfuerzo. Si tu organización no tiene cultura de documentar cambios, comunicar despliegues o registrar eventos de negocio, ninguna plataforma de observabilidad va a compensar esa carencia.

Y la cuarta, quizá la más importante: esto no elimina la necesidad de entender tus sistemas. Un motor de inteligencia artificial puede correlacionar y sugerir, pero no puede saber que ese microservicio específico tiene un bug conocido que solo se manifiesta bajo ciertas condiciones de carga, o que esa base de datos tiene una configuración subóptima que nadie ha documentado. La observabilidad sigue requiriendo conocimiento del dominio.

Cuándo estos cambios importan de verdad

No todos los equipos van a beneficiarse igual de estas mejoras. Si tu entorno es relativamente estático, con patrones de tráfico predecibles y pocos cambios, probablemente no notes una diferencia dramática.

Donde estos cambios sí marcan diferencia es en entornos dinámicos: organizaciones que despliegan varias veces al día, que tienen patrones de tráfico variables, que operan en múltiples regiones con dependencias complejas, o que están creciendo rápido y necesitan anticipar problemas de capacidad antes de que se conviertan en incidentes. También en equipos pequeños que no pueden permitirse tener a alguien de guardia analizando métricas todo el día.

Si tu problema principal es que recibes demasiadas alertas y no sabes cuáles priorizar, la capacidad de los Intelligence Agents de correlacionar contexto y priorizar automáticamente puede ser transformadora. Si tu problema es que diagnosticar incidentes te lleva horas porque tienes que seguir cadenas de dependencias manualmente, la combinación de agentes de root cause con Smartscape renovado te va a ahorrar tiempo real. Si tu problema es que el equipo de desarrollo tarda demasiado en recibir contexto de producción para investigar bugs, la integración MCP con IDEs cambia el flujo de trabajo.

Pero si tu problema es que no tienes visibilidad básica de tus sistemas, o que tu instrumentación es incompleta, o que nadie en el equipo entiende realmente cómo funcionan vuestros servicios, ninguna cantidad de inteligencia artificial va a resolverlo. La observabilidad sigue siendo, en su núcleo, una disciplina de ingeniería que requiere trabajo deliberado.

Lo que viene después

Dynatrace Intelligence en 2026 no es un punto final, es una iteración. La dirección está clara: menos ruido, más contexto, y la transición de la observabilidad como herramienta pasiva de monitorización a lo que Dynatrace llama un «control plane» activo para operaciones y desarrollo. Que lo consigan o no dependerá de la ejecución y de la adopción real en entornos de producción.

Si tu organización ya usa Dynatrace, estas mejoras llegan de forma progresiva. Vale la pena dedicar tiempo a explorar Dynatrace Assist, revisar las integraciones agénticas disponibles y, si tienes un entorno complejo, evaluar cómo los Intelligence Agents pueden encajar en tus workflows de respuesta a incidentes. El nuevo Smartscape y las mejoras en RUM son cambios que se pueden aprovechar inmediatamente.

Si estás evaluando plataformas de observabilidad, Dynatrace sigue siendo una opción sólida para entornos complejos donde el costo de la plataforma se justifica por el tiempo ahorrado en diagnóstico y la reducción de incidentes. Pero no es la única opción, y dependiendo de tu caso de uso, combinaciones de Prometheus, Grafana, OpenTelemetry y Elastic pueden darte capacidades similares a nivel de telemetría con más control y menos costo, a cambio de más trabajo de integración y sin la capa agéntica integrada que Dynatrace ofrece.

La observabilidad moderna no se trata de tener la herramienta más avanzada. Se trata de entender tus sistemas, instrumentarlos correctamente, y tener las herramientas adecuadas para diagnosticar problemas cuando inevitablemente aparecen. Dynatrace Intelligence 2026 es mejor en eso que la versión anterior. Si eso justifica el costo depende de tu contexto específico, no de lo impresionante que suene en una presentación.

Para seguir aprendiendo

Observability Engineering de Charity Majors, Liz Fong-Jones y George Miranda (O’Reilly) — La referencia fundamental para entender observabilidad moderna más allá de las herramientas específicas, con énfasis en instrumentación y cultura operativa. Nota: la segunda edición se publica en 2026 con capítulos nuevos sobre LLMs, frontend observability y optimización de costes.

Documentación oficial de Dynatrace Intelligence y Davis AI — Explica en detalle técnico cómo funciona el sistema de correlación, el fault-tree analysis y las capacidades agénticas de la plataforma.

Novedades de Perform 2026 — Resumen oficial de todos los anuncios de Perform 2026, con enlaces a las sesiones on-demand.

Practical Monitoring de Mike Julian (O’Reilly) — Perspectiva práctica y agnóstica de herramienta sobre diseño de sistemas de monitorización. Cubre anti-patrones, principios de diseño y estrategias de alerta que siguen siendo relevantes independientemente de la plataforma que uses.

Especificación de OpenTelemetry — Aunque Dynatrace tiene su propio agente y ahora su MCP Server, entender el estándar abierto de telemetría te da contexto sobre cómo funcionan los sistemas de observabilidad modernos y qué datos necesitan.

Site Reliability Engineering editado por Betsy Beyer, Chris Jones, Jennifer Petoff y Niall Richard Murphy (O’Reilly) — El libro de Google SRE incluye capítulos sobre monitorización, alertas y análisis de incidentes que contextualizan para qué sirven herramientas como Dynatrace en operaciones reales. Disponible gratis online.

Autor

Deja un comentario

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche el enlace para mayor información.

ACEPTAR
Aviso de cookies