Confluent Lanza Agentes de Streaming de IA: Reacción Autónoma con Datos Kafka

Thenewstack

Confluent ha presentado su nueva función de Agentes de Streaming, ya disponible en vista previa abierta dentro de Confluent Cloud. Esta nueva funcionalidad marca una evolución significativa en la aplicación de la inteligencia artificial, permitiendo a las organizaciones seleccionar modelos, diseñar prompts, especificar herramientas y fuentes de datos, implementar pruebas y enriquecer datos para sistemas de IA multiagente activados por eventos.

El enfoque de Confluent hacia los agentes de IA es notable por dos razones convincentes. En primer lugar, busca materializar plenamente la promesa de los agentes inteligentes alimentándolos con los datos más actuales directamente desde la base Apache Kafka de Confluent, equipándolos así con una conciencia situacional actualizada al minuto. En segundo lugar, y quizás más profundamente, invierte el modelo de interacción convencional de la IA. En lugar de que los humanos inicien agentes de IA, típicamente a través de prompts de lenguaje natural a chatbots, los Agentes de Streaming están diseñados como entidades autónomas que reaccionan dinámicamente a los datos empresariales de baja latencia. Sean Falconer, jefe de IA de Confluent, explica que los Agentes de Streaming fueron concebidos en parte para impulsar a las empresas hacia un futuro donde la IA se caracterice por “agentes ambientales, impulsados por eventos, que están incrustados en su infraestructura, monitoreando el estado del negocio y reaccionando en función de los cambios de ese estado”. Estos agentes impulsados por IA, sugiere, pueden servir como los “ojos” y “oídos” para las organizaciones, recopilando los últimos desarrollos basados en datos que impactan los casos de negocio y asegurando que los sistemas inteligentes se adapten de inmediato. Al combinar las sólidas capacidades de almacenamiento y mensajería de Kafka con la analítica, los modelos de IA y los Agentes de Streaming que se encuentran en Confluent Cloud para Apache Flink, la nueva función de Confluent tiene el potencial de lograr precisamente esto.

El desarrollo y la implementación de estos Agentes de Streaming ocurren dentro de Confluent Cloud para Apache Flink. Flink sirve como la columna vertebral computacional, permitiendo que los agentes interactúen sin problemas con varias herramientas y recursos externos. Los usuarios pueden conectarse a estándares emergentes como MCP (un protocolo para que los agentes llamen a recursos), junto con bases de datos vectoriales y SQL, y puntos finales de API, todo gestionado de forma segura dentro del entorno Flink, según Falconer. Flink también proporciona la interfaz para que las organizaciones definan las acciones específicas que desean que los agentes realicen e integren una diversa gama de modelos de IA, incluidos los de líderes de la industria como Gemini, OpenAI y Anthropic. Falconer señala que la elección del modelo a menudo marca el paso inicial en la construcción de un agente.

Un aspecto crucial de la configuración de agentes en Confluent Cloud para Apache Flink implica la definición de prompts, un proceso central para la “ingeniería de contexto”. Estos prompts son de dos tipos: prompts del sistema, que establecen el rol general del agente dentro de un flujo de trabajo más grande, y prompts específicos de la tarea, que detallan las características precisas del trabajo que se espera que el agente realice. Por ejemplo, un prompt del sistema podría designar a un agente como “un experto en escribir correos electrónicos”, seguido de instrucciones explícitas para “escribir un correo electrónico basado en la siguiente entrada que describe a este usuario en particular”. Esta delineación reduce el alcance del agente, codificando claramente sus entradas y salidas esperadas. Como ilustra Falconer, “Si estoy puntuando un lead, entonces sé que la entrada será un lead y la salida debería ser una puntuación entre uno y 100”. Esta precisión ayuda a la detección inmediata de errores y facilita una prueba y evolución más sencillas de los agentes.

Mientras que Apache Flink proporciona la potencia de procesamiento, gran parte del poder inherente de los Agentes de Streaming proviene de su profunda integración con Apache Kafka para la comunicación entre agentes. En lugar de depender de protocolos alternativos, los Agentes de Streaming aprovechan las sólidas capacidades de mensajería de Kafka para permitir que los agentes entreguen partes distintas de un flujo de trabajo complejo, logrando colectivamente objetivos más grandes, como la detección de fallas de red para un proveedor de telecomunicaciones. Este proceso a menudo comienza con diversas entradas en tiempo real —como informes meteorológicos o datos de sensores IoT— que representan el estado dinámico del negocio. Como elabora Falconer, “Una vez que un agente toma esos datos, también se comunica con algún sistema externo para recopilar contexto adicional. Luego, genera una salida que probablemente se distribuye a múltiples sistemas, incluidos otros agentes, donde esos agentes luego operacionalizan la salida”. Típicamente, estos eventos iniciales fluyen a temas de Kafka, desde donde los datos pueden ser enrutados a Flink para su agregación o procesamiento. Después de que un agente actúa sobre estos datos, devuelve su salida a Kafka, a menudo a nuevos temas, lo que impulsa a los agentes subsiguientes a continuar el flujo de trabajo. Las capacidades duraderas de mensajería y almacenamiento de Kafka son invaluables aquí, proporcionando una “trazabilidad crítica entre el agente uno y el agente dos”. Este registro continuo permite a los desarrolladores revisar el historial de comunicación, facilitando las pruebas contra el tráfico real y permitiendo el refinamiento del comportamiento y los modelos de los agentes, asegurando mejores resultados.

Confluent también ha incorporado capacidades de prueba integrales, incluido el soporte de “lanzamiento oscuro” (dark launch) para los Agentes de Streaming. Esto permite que un agente opere dentro del tráfico de producción sin interactuar directamente con los usuarios finales, lo que permite a las organizaciones implementar una segunda versión —quizás con un modelo o prompts diferentes— y medir su rendimiento contra el original sin impactar las operaciones en vivo. Este procesamiento paralelo permite la comparación de rendimiento, asegurando que “la versión dos sea mejor que la primera”. Los usuarios también pueden realizar pruebas A/B dentro del entorno de Confluent y enriquecer los datos del agente accediendo a tablas externas, como las de MySQL, directamente desde la plataforma de datos de streaming.

Al aumentar los agentes de IA con datos de streaming en tiempo real, Confluent está mejorando significativamente su capacidad para actuar de forma autónoma en nombre de una empresa. Falconer compara acertadamente esta inteligencia en tiempo real con los “ojos y oídos” de un negocio, complementando las ideas derivadas de los datos históricos. Él enfatiza que “La mayoría de los casos de negocio necesitan ambos”: comprender el comportamiento pasado del cliente junto con sus acciones actuales. Equipar a los agentes infundidos con IA con esta información completa y actualizada al minuto desbloquea un inmenso potencial para que colaboren eficazmente, optimizando los resultados del negocio y logrando objetivos estratégicos.