Definition und Merkmale:
Big Data bezieht sich auf extrem große und komplexe Datensätze, die aufgrund ihres Umfangs, ihrer Geschwindigkeit und ihrer Vielfalt mit traditionellen Datenverarbeitungswerkzeugen nur schwer oder gar nicht zu erfassen, zu speichern, zu verwalten und zu analysieren sind. Die Konzepte von Big Data werden oft durch die „Drei Vs“ charakterisiert:
- Volume (Umfang): Die schiere Menge der Daten (Terabytes, Petabytes).
- Velocity (Geschwindigkeit): Die Geschwindigkeit, mit der die Daten erzeugt und verarbeitet werden müssen (Echtzeit-Streaming, z.B. von Tausenden von Sensoren).
- Variety (Vielfalt): Die verschiedenen Arten und Formate der Daten (strukturierte Daten aus Datenbank, unstrukturierte Daten wie Text, Video, Bilddaten von der Bildverarbeitung (Machine Vision)).
Relevanz in der Automatisierung (Industrial IoT):
Mit der zunehmenden Vernetzung von Maschinen und Sensoren im Rahmen von Industrial IoT (IIoT) entsteht in der Industrie eine enorme Menge an Big Data, die ein riesiges Potenzial für Optimierung und neue Geschäftsmodell birgt.
- Maschinendaten: Sammlung von Hochfrequenz-Messdatenerfassung (DAQ) (z.B. Vibration, Drehmoment, Strom) für Predictive Maintenance.
- Qualitätsdaten: Speicherung von hochauflösenden Bildern und Messwert für Inline-Qualitätskontrolle.
- Analytik: Spezielle Plattformen wie Apache Kafka oder Cloud-Lösungen (Cloud-Computing) sind notwendig, um diese Datenströme zu verwalten und für Data Analytics nutzbar zu machen.
- Geschäftsmodell: Big Data ermöglicht die Entwicklung neuer digitaler Geschäftsmodell wie „Equipment-as-a-Service“.
→ Siehe auch: Industrial IoT, Data Analytics, Apache Kafka, Cloud-Computing, Bildverarbeitung (Machine Vision), Messdatenerfassung (DAQ)

