Más allá de RAG: Por qué los agentes de varios pasos están resolviendo el dilema de los datos empresariales

8

Para muchas empresas, la promesa de conocimientos impulsados por la IA está chocando contra un muro estructural. Si bien la Generación de recuperación aumentada (RAG) se ha convertido en el estándar para conectar modelos de lenguajes grandes (LLM) con datos privados, resulta cada vez más inadecuado para cuestiones empresariales complejas del mundo real.

Una nueva investigación de Databricks sugiere que la limitación no es la inteligencia de los modelos en sí, sino la arquitectura utilizada para consultarlos. El estudio destaca un cambio crítico: pasar de la recuperación en un solo turno a flujos de trabajo agentes de varios pasos.

El problema de los “datos híbridos”

La mayor parte de la inteligencia empresarial requiere conectar dos mundos diferentes:
1. Datos Estructurados: Números precisos, cifras de ventas y tablas relacionales (SQL).
2. Datos no estructurados: Reseñas de clientes, artículos académicos y documentos de respaldo.

Para este último está diseñado un sistema RAG estándar. Se destaca en la búsqueda de texto que “suena como” una consulta, pero tiene dificultades para realizar filtros matemáticos precisos o unir datos en diferentes formatos.

“RAG funciona, pero no escala”, dice Michael Bendersky, director de investigación de Databricks. “Si desea comprender por qué sus ventas están disminuyendo, debe ayudar al agente a ver las tablas y los datos de ventas. Su canal RAG se volverá incompetente en esa tarea”.

Arquitectura versus inteligencia: la brecha del 21%

Para demostrar que el problema radica en cómo se accede a los datos y no en qué tan inteligente es el modelo, Databricks realizó una serie de pruebas utilizando el punto de referencia STaRK (que cubre productos de Amazon, Microsoft Academic Graph y datos biomédicos).

Compararon un sistema RAG de un solo giro de última generación y alto rendimiento con un enfoque agente de varios pasos. Incluso cuando se utiliza un modelo de cimentación significativamente más resistente, el sistema RAG de una sola vuelta perdió por:
* 21% en el ámbito académico.
* 38% en el ámbito biomédico.

Esta brecha de rendimiento demuestra que incluso el modelo más “inteligente” no puede compensar una arquitectura de recuperación que es fundamentalmente incapaz de cerrar la brecha entre una hoja de cálculo y un documento de texto.

Cómo funciona el “Agente supervisor”

La solución de Databricks, el Agente supervisor, se aleja de la idea de “recuperación híbrida” (intentar fusionar incrustaciones y tablas) y, en cambio, trata el problema como una orquestación de herramientas. El agente funciona a través de tres capacidades principales:

  • Descomposición de herramientas paralelas: En lugar de una búsqueda masiva, el agente activa simultáneamente consultas SQL para números y búsquedas vectoriales para texto. Luego analiza los resultados combinados para formar una respuesta coherente.
  • Autocorrección: Si una búsqueda inicial no arroja resultados (como buscar un autor específico con un recuento de publicaciones preciso), el agente no se da por vencido. Reformula la consulta, realiza un JOIN de SQL y verifica el resultado mediante una segunda búsqueda.
  • Configuración declarativa: A diferencia de los canales tradicionales que requieren que los ingenieros “aplanen” o normalicen los datos en fragmentos de texto, este agente utiliza descripciones en lenguaje sencillo. Para agregar una nueva fuente de datos, un ingeniero simplemente describe cuáles son los datos; el agente aprende a usarlo.

El cambio de la ingeniería a la configuración

Las implicaciones para la ingeniería de datos son significativas. En una configuración RAG tradicional, cada nueva fuente de datos requiere una enorme cantidad de “plomería de datos”: convertir JSON, normalizar tablas y administrar incrustaciones. Esto crea un cuello de botella que crece a medida que la empresa se expande.

El enfoque de agencia invierte este modelo: “Simplemente lleve al agente a los datos”.

Conclusiones clave para la implementación:

  • Escalabilidad: El modelo agente es más sostenible para conjuntos de datos en crecimiento porque agregar una fuente es una tarea de configuración, no una tarea de codificación.
  • Límites de complejidad: Si bien es potente, el enfoque funciona mejor con 5 a 10 fuentes de datos. Conectar demasiadas fuentes contradictorias a la vez puede degradar la velocidad y la confiabilidad.
  • Integridad de los datos: Si bien el agente puede navegar en diferentes formatos, no puede corregir “basura que entra, basura que sale”. Los datos de origen deben ser objetivamente precisos para que el agente sea eficaz.

Conclusión

La transición de RAG a agentes de múltiples pasos representa una evolución fundamental en la IA empresarial: pasar de sistemas que simplemente encuentran información a sistemas que pueden razonar a través de diversos ecosistemas de datos. Al tratar las fuentes de datos como herramientas en lugar de simplemente fragmentos de texto, las empresas finalmente pueden comenzar a responder las preguntas complejas y multifuncionales que impulsan las decisiones comerciales.

Artículo anteriorCNET lanza “People’s Picks” para colaborar con los mejores auriculares de 2026