[Webinar] Build Your GenAI Stack with Confluent and AWS | Register Now

Confluent erweitert das Angebot von Apache Flink und vereinfacht den Einsatz von KI und Stream Processing für Workloads in allen Bereichen

Die neue AI Model Inference von Confluent integriert nahtlos KI- und ML-Funktionen in Daten-Pipelines

Confluent Plattform für Apache Flink® ermöglicht Stream Processing für On-Prem- und Private-Cloud-Workloads unterstützt durch führende Flink-Experten von Confluent

Die neuen Freight Cluster von Confluent bieten Kosteneinsparungen für Anwendungsfälle mit hohem Datenfluss und geringen Latenzanforderungen

Confluent, Inc. (NASDAQ:CFLT), der Pionier im Bereich Daten-Streaming, kündigt AI Model Inference an. Die neue Funktion in Confluent Cloud für Apache Flink® ermöglicht es Teams, maschinelles Lernen einfach in Daten-Pipelines einzubinden. Confluent stellt außerdem einen neuen Clustertyp für die Confluent Cloud vor: Freight Cluster kann großvolumige, nicht zeitkritische Anwendungsfälle kosteneffizient verarbeiten, wie z. B. Protokollierungs- oder Telemetriedaten.

AI Model Inference vereinfacht die Entwicklung und Einführung von KI- und ML-Anwendungen

Generative KI hilft Unternehmen, Innovationen zu beschleunigen und maßgeschneiderte Kundenerlebnisse zu liefern. Diese KI-Workloads benötigen aktuelle, kontextreiche Daten, damit die Modelle akkurate Outputs und Ergebnisse generieren können. Dadurch können Unternehmen jederzeit fundierte Entscheidungen basierend auf aktuellen Informationen treffen.

Entwickler verwenden häufig verschiedene Tools und Sprachen für KI-Modelle und Datenverarbeitung. Das kann komplexe Workloads verursachen und die Nutzung aktueller Daten erschweren, was wiederum die Genauigkeit von KI-Erkenntnissen beeinträchtigen kann. Diese Probleme können zu einem erhöhten Entwicklungsaufwand sowie zu Schwierigkeiten bei der Wartung und Skalierung von KI-Anwendungen führen.

Mit AI Model Inference in Confluent Cloud für Apache Flink® können Unternehmen einfache SQL-Anweisungen aus Apache Flink heraus verwenden, um KI-Engines aufzurufen - darunter OpenAI, AWS SageMaker, GCP Vertex und Microsoft Azure. Damit können Unternehmen Aufgaben rund um Datenbereinigung und -verarbeitung auf einer einzigen Plattform orchestrieren.

„Apache Kafka und Flink sind die entscheidenden Verbindungen, um Anwendungen für maschinelles Lernen und künstliche Intelligenz mit aktuellen und den genauesten Daten zu versorgen“, sagt Shaun Clowes, Chief Product Officer bei Confluent. „Confluents AI Model Inference beseitigt die Komplexität, die mit der Nutzung von Streaming-Daten für die KI-Entwicklung verbunden ist, und ermöglicht es Unternehmen, Innovationen schneller umzusetzen und leistungsstarke Kundenerlebnisse zu liefern.“

AI Model Inference bietet Unternehmen:

  • Vereinfachte KI-Entwicklung durch Verwendung einer vertrauten SQL-Syntax für die direkte Arbeit mit KI/ML-Modellen, die den Bedarf an speziellen Tools und Sprachen reduziert.
  • Nahtlose Koordination zwischen Datenverarbeitung und KI-Workflows für mehr Effizienz und weniger betriebliche Komplexität.
  • Präzise KI-gestützte Entscheidungsprozesse in Echtzeit dank aktuellen, kontextbezogenen Streaming-Daten.

„Aktuelle, kontextbezogene Daten sind entscheidend für die Weiterentwicklung von KI-Modellen und für verbesserte, genauere und relevantere Ergebnisse zum Zeitpunkt der Auswertung“, so Stewart Bond, Vice President, Data Intelligence and Integration Software bei IDC. „Unternehmen müssen die KI-Verarbeitung effizienter gestalten, indem sie Datenintegration und Verarbeitungs-Pipelines mit KI-Modellen vereinen. Flink kann nun grundlegende Modelle als erstklassige Ressourcen behandeln und ermöglicht die Kombination von Echtzeit-Datenverarbeitung mit KI-Aufgaben. So werden Workflows rationalisiert, die Effizienz gesteigert und die betriebliche Komplexität reduziert. Diese Funktionen helfen Unternehmen, genaue, KI-gesteuerte Entscheidungen in Echtzeit auf Grundlage von aktuellen und relevanten Streaming-Daten zu treffen und gleichzeitig Leistung und Wert zu steigern.“

Der Support für AI Model Inference ist derzeit für ausgewählte Kunden im Early Access verfügbar. Kunden können sich für den Early Access anmelden, um mehr über dieses Angebot zu erfahren.

Confluent Plattform für Apache Flink® ermöglicht Stream Processing in privaten Clouds und lokalen Umgebungen

Viele Unternehmen suchen nach hybriden Lösungen zum Schutz sensiblerer Workloads. Mit der Confluent Plattform für Apache Flink® können Kunden Stream Processing für On-Prem- oder Private-Cloud-Workloads mit langfristigem Experten-Support von Confluent problemlos nutzen. Apache Flink kann mit minimalen Änderungen an bestehenden Flink-Jobs und der Struktur zusammen mit der Confluent Plattform verwendet werden.

Confluent Plattform für Apache Flink® hilft Unternehmen bei:

  • der Risikominimierung durch einheitlichen Flink- und Kafka-Support sowie professionelle Beratung durch führende Experten in der Daten-Streaming-Branche.
  • der schnellen Unterstützung von Fehlerbehebungen und Lösungen von Problemen, um die Auswirkungen von Betriebsunterbrechungen auf geschäftskritische Anwendungen zu reduzieren.
  • der Gewährleistung von Sicherheit und Aktualität bei Stream-Processing-Anwendungen durch regelmäßige Bug- und Vulnerability-Fixes.

Mit der Verfügbarkeit von Kafka und Flink in der kompletten Daten-Streaming-Plattform von Confluent erhalten Unternehmen eine bessere Integration und Kompatibilität zwischen den Technologien sowie umfassenden Support für Streaming-Workloads in allen Umgebungen. Im Gegensatz zum Open-Source-Produkt Apache Flink, das nur die letzten beiden Versionen pflegt, bietet Confluent bereits bei der Markteinführung drei Jahre Support für jede Version der Confluent Plattform für Apache Flink® und garantiert damit einen reibungslosen Betrieb und Sicherheit.

Confluent Plattform für Apache Flink® wird im Laufe dieses Jahres für Confluent-Kunden verfügbar sein.

Neue automatisch skalierende Freight Cluster bieten mehr Kosteneffizienz im großen Maßstab

Viele Unternehmen nutzen Confluent Cloud zur Verarbeitung von Protokollierungs- und Telemetriedaten. Diese Anwendungsfälle umfassen zwar große Mengen an geschäftskritischen Daten, sind aber oft weniger latenzempfindlich. Sie werden typischerweise in Indizierungs- oder Batch-Aggregations-Engines eingespeist. Um diese allgemeinen Anwendungsfälle für Kunden kosteneffizienter zu machen, führt Confluent Freight Cluster ein - einen neuen serverlosen Clustertyp mit bis zu 90 % geringeren Kosten für Anwendungsfälle mit hohem Datenfluss und geringen Latenzanforderungen. Freight Cluster basieren auf Elastic CKUs und skalieren nahtlos je nach Bedarf, ohne dass eine manuelle Dimensionierung oder Kapazitätsplanung erforderlich ist. So können Unternehmen den betrieblichen Aufwand minimieren und die Kosten optimieren, indem sie nur für die tatsächlich genutzten Ressourcen zahlen.

Freight Clusters sind in ausgewählten AWS-Regionen als Early Access verfügbar. Kunden können sich für den Early Access anmelden, um mehr über dieses Angebot zu erfahren.

Zusätzliche Informationen

Da sich unsere Roadmap in Zukunft ändern kann, können sich die hier erwähnten Funktionen ändern, nicht rechtzeitig oder gar nicht geliefert werden. Diese Informationen stellen keine Verpflichtung zur Bereitstellung von Funktionen dar, und Kunden sollten ihre Kaufentscheidungen auf der Grundlage der derzeit verfügbaren Funktionen treffen.

Über Confluent

Confluent erschließt als Daten-Streaming-Experte einen neuen Bereich der modernen Dateninfrastruktur: Data in Motion. Die Cloud-native Plattform fungiert als intelligenter Knotenpunkt, über den Daten von mehreren Datenquellen kontinuierlich und in Echtzeit zu jedem Datenkonsumenten im gesamten Unternehmen gestreamt werden. Für Unternehmen schafft das Angebot die Grundlage für eine, den modernen Kundenanforderungen entsprechende Digital Customer Experience. Gleichzeitig werden sie ihrem eigenen Echtzeit-Betrieb gerecht. Ziel ist es, den Mehrwert von Data in Motion gezielt auszunutzen, damit moderne Unternehmen mit dem Tempo der Digital-First mithalten können.

Mehr dazu erfahren Sie hier: https://www.confluent.io/de-de/.