NebulaStream
Datenmanagement für das Internet der Dinge
NebulaStream ist ein universelles Datenmanagementsystem für das Internet der Dinge. Es optimiert die Datenverarbeitung in Cloud-Edge-Sensor-Umgebungen durch innovative Technologien wie Code-Generierung. Das System ermöglicht effiziente Abfragen über Millionen von Datenquellen hinweg. Es ist ein Gemeinschaftsprojekt führender Forschungseinrichtungen wie der TU Berlin.
Bitte registrieren Sie sich, oder loggen Sie sich ein, um den Website-Link der Firma zu sehen!
Über die Firma NebulaStream
NebulaStream ist ein wegweisendes, universelles End-to-End-Datenmanagementsystem, das speziell für die Herausforderungen in Cloud-Edge-Sensor-Umgebungen entwickelt wurde. Die Plattform verfolgt drei primäre Ziele: außergewöhnliche Benutzerfreundlichkeit, umfassende Erweiterbarkeit und höchste Effizienz bei der Verarbeitung massiver Datenmengen. Durch vorkonfigurierte Funktionen für multimodale Datenströme können sich Anwender voll und ganz auf ihre spezifische Geschäftslogik konzentrieren, ohne sich um die zugrunde liegende Komplexität kümmern zu müssen. Das System ist darauf ausgelegt, Tausende von Abfragen über Millionen von heterogenen Quellen in einer massiv verteilten Infrastruktur in Echtzeit zu bewältigen. Anwender können vordefinierte Abstraktionen nutzen, um komplexe Datenflüsse einfach zu steuern. Die Architektur unterstützt dabei verschiedene Frequenzen und Formate innerhalb eines einheitlichen Systems.
Die technologische Basis von NebulaStream umfasst fünf Kernkomponenten, die eine nahtlose Skalierung und Optimierung ermöglichen. Dazu gehört die Unterstützung für heterogene Hardware wie ARM- und x86-Architekturen sowie spezialisierte Beschleuniger wie GPUs und TPUs. Ein besonderes Merkmal ist die effiziente Code-Generierung, die jede Abfrage in nativen, energiesparenden Maschinencode umwandelt. Durch In-Network Processing werden Rechenoperationen so nah wie möglich an die Datenquelle verschoben, was den Netzwerkverkehr drastisch minimiert. Das adaptive Ressourcenmanagement reagiert dabei dynamisch auf Änderungen in der Netzwerktopologie oder der Arbeitslast, ohne laufende Prozesse zu unterbrechen. Zusätzlich nutzt die Plattform On-Demand-Datenerfassung, um verfügbare Ressourcen optimal auszuschöpfen. Die I/O-Verarbeitung erfolgt asynchron über Thread-Sharing, was Wartezeiten bei der Datenaufnahme effektiv verhindert.
Hinter NebulaStream steht ein starkes akademisches Fundament als gemeinsames Forschungsprojekt von BIFOLD, der TU Berlin und dem Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI). Die erste Entwicklung wurde maßgeblich von der DIMA-Gruppe der Technischen Universität Berlin und der IAM-Gruppe des DFKI vorangetrieben. Zahlreiche Publikationen auf international renommierten Konferenzen wie SIGMOD und VLDB belegen die technologische Exzellenz und wissenschaftliche Relevanz des Systems. Als Brücke zwischen Forschung und industrieller Anwendung bietet NebulaStream eine modulare Pipeline, die jeden Schritt von der Sensorik bis zur Cloud optimiert. Nutzer haben die Möglichkeit, eigene SQL-ähnliche Abfragen zu formulieren oder kundenspezifische Operatoren zu integrieren. Die modulare Architektur erlaubt es, Konnektoren für JDBC, MQTT oder TCP flexibel zu erweitern. Damit setzt NebulaStream neue Maßstäbe für die Datenanalyse jenseits klassischer Cloud-Zentralisierung.
#KünstlicheIntelligenz #Industrie40 #Streaming #CloudComputing #BigData #Softwareentwicklung #IoT #Echtzeitdaten #DataManagement #EdgeComputing #Datenbanken #BerlinTech #Sensortechnik