Event-getriebene Agenten nativ auf Apache Flink® erstellen, bereitstellen und koordinieren, um eine intelligente Echtzeit-Automatisierung im gesamten Unternehmen zu ermöglichen.
Streaming Agents enable you to build, test, deploy, and orchestrate event-driven agents using fully managed Flink and Kafka on a unified platform. With access to real-time contextualized data, they’re uniquely suited for enterprise workflows – monitoring and taking instant, informed action the moment operational events occur.
Whether you’re automating fraud prevention or personalizing product recommendations, Streaming Agents help you turn agents from brittle demos into production-ready, event-driven multi-agent systems.
Watch Demo
Vereinfachte Entwicklung dank Einbettung der Agenten in den Datenstrom, um direkt mit KI-Modellen in Flink arbeiten zu können. Die Kombination der Stream-Verarbeitungs-Jobs (z. B. Join, Filter, Enrich) mit agentischen Workflows in derselben Pipeline reduziert die operative Komplexität und ermöglicht gleichzeitig jedem Engineer, mithilfe vertrauter Flink-APIs zum KI-Engineer zu werden.
Enterprises need agents to be the eyes and ears for the business in motion, but most agents lack real-time awareness. Running as Flink jobs in stream processing pipelines, Streaming Agents can access the latest, most accurate view of the business, at the moment a decision needs to be made – zero data polling or delay. They’re always on, state-aware, and retain context over time.
Integrate without stitching together disparate systems. Use your preferred tools and Flink APIs with native support for connecting to large language models (LLMs) and embedding models, tool calling with Model Context Protocol (MCP), and data enrichment from other systems with External Tables and Vector Search.
Umfassende Transparenz und Kontrolle gewährleisten dank sicherer Verbindungen, RBAC, integrierter Wiederholbarkeit, Dark-Mode-Testing und verwalteter, nachvollziehbarer Event-Flows.
Streaming Agents erfassen Live-Daten zu Kundeninteraktionen, nutzen Kontextinformationen aus internen Systemen (z. B. Kaufhistorie, Clickstream, Lagerbestand), verwenden ein LLM, um Präferenzen und Absichten zu verstehen, und passen dann sofort Produktempfehlungen an – wobei sie sich kontinuierlich anpassen, um das Engagement und die Conversions zu maximieren.
Durch die Überwachung von operativen Datenströmen – z. B. Anrufabbruchraten, Signalqualität, Bandbreitennutzung – erkennen Streaming Agents ungewöhnliche Muster, korrelieren Signale aus verschiedenen Datenquellen, verwenden ein LLM, um mögliche Ursachen und Auswirkungen zu bewerten, und leiten dann Abhilfemaßnahmen ein oder eskalieren an die zuständigen Teams, wodurch eine schnellere durchschnittliche Lösungszeit (MTTR) ermöglicht wird.
Streaming Agents aktivieren automatisch MCP-Tools, um die Websites von Mitbewerbern nach Echtzeitpreisen für bestellte Produkte zu durchsuchen, die Bestellung des Kunden entsprechend den niedrigeren Preisen anzupassen, den Kunden per E-Mail über seine Ersparnisse zu informieren und jede Preisanpassung in einem CRM-System zu protokollieren.
„Gute KI braucht gute Daten. Confluent ist unsere zuverlässige Informationsquelle. Die Daten-Streaming-Plattform bietet Kontext und Orchestrierung für unsere KI-Agenten, um Workflows zu automatisieren und unsere Transformation zur Smart City voranzutreiben.“
Ready to build your first agent? Sign up and receive $400 to spend during your first 30 days.
Use Streaming Agents on Confluent Cloud to make production-ready, event-driven multi-agent systems a reality.
