[Webinar] Build Your GenAI Stack with Confluent and AWS | Register Now
In unserem digitalen Zeitalter von Big Data und IoT, in dem täglich mehrere Trillionen Byte an Daten produziert werden, ist es für Unternehmen von ganz erheblicher Bedeutung, die richtigen Daten, zur richtigen Zeit bereit zu haben – egal in welcher Applikation und unabhängig davon, ob in der Cloud oder on-premise.
Mit Hilfe einer flexiblen und leistungsstarken Event-Streaming-Plattform, die eine standardisierte Kommunikation zwischen der Vielzahl von Datenplattformen und -systemen erlaubt, können tatsächlich Milliarden von Events pro Tag verarbeitet werden.
Und wenn diese Event Streaming Plattform dann noch anhand eines dedizierten Connectors mit einer führenden NoSQL-Datenplattform angebunden ist, die skalierbar und ebenso flexibel sowohl on-premise als auch in der (Multi-)Cloud läuft, ist nichts mehr unmöglich.
Denn mit diesem Connector lassen sich auf einfache Weise robuste und reaktive Daten-Pipelines erstellen, die die Stream-Verarbeitung zwischen Datenspeichern, den Anwendungen und Services in Echtzeit nutzen. Und so sind dann auch komplexe Workflows für Datenmigration und IoT problemlos ausführbar.
In dieser Online Session stellen wir genau diese „Best of Breed“-Lösung vor und zeigen, wie Apache Kafka® und MongoDB mithilfe des MongoDB-Connectors für Kafka in einem realen Anwendungsfall miteinander interagieren. Wir führen heterogene Datenquellen zusammen und ermitteln im Handumdrehen die entscheidenden KPIs.