Mit Big Data sammeln sich auf Festplatten riesige Datenmengen

Digitalisierung

Big Data: Unterwegs zum Yottabyte

Bis zum Jahr 2025 soll sich das weltweite Datenvolumen verzehnfachen. Doch wie lassen sich diese Datenmassen begreifen und wer generiert sie?

Im vergangenen Jahr wurden weltweit insgesamt 16 Zettabyte an Daten produziert. Die schwindelerregende Dimension dieser Zahl wird deutlich, sobald man sich folgendes Beispiel vor Augen führt: Ein Zettabyte genügt, um Dostojewskis Epos „Krieg und Frieden“ (ca. 1.250 Seiten) über 323 Billionen Mal zu speichern. Laut einer gemeinsamen Studie des IDC und des Festplattenherstellers Seagate soll sich das Datenvolumen im Jahr 2025 auf 163 Zettabyte belaufen – das bedeutet ein jährliches Wachstum von 30 Prozent. Für diesen rapiden Anstieg zeichnen sich insbesondere Unternehmen verantwortlich. Waren sie 2015 noch zu einem Drittel an der weltweiten Datengenerierung beteiligt, wird ihr Anteil in den kommenden acht Jahren rund 60 Prozent ausmachen und die heute dominierenden Privatnutzer weit hinter sich lassen.

Massendaten visualisiert: Von Tera- bis Yottabyte

  • Wie groß ist 1 Terabyte? Die Datenmenge anschaulich erklärt

    Wie groß ist 1 Terabyte? Die Datenmenge anschaulich erklärt

  • Wie groß ist 1 Petabyte? Die Datenmenge anschaulich erklärt

    Wie groß ist 1 Petabyte? Die Datenmenge anschaulich erklärt

  • Wie groß ist 1 Exabyte? Die Datenmenge anschaulich erklärt

    Wie groß ist 1 Exabyte? Die Datenmenge anschaulich erklärt

  • Wie groß ist 1 Zettabyte? Die Datenmenge anschaulich erklärt

    Wie groß ist 1 Zettabyte? Die Datenmenge anschaulich erklärt

  • Wie groß ist 1 Yottabyte? Die Datenmenge anschaulich erklärt

    Wie groß ist 1 Yottabyte? Die Datenmenge anschaulich erklärt

Big Data – wofür Unternehmen ihre Daten nutzen

In Deutschland werden unternehmerische Entscheidungen zunehmend auf Basis umfassender Datenanalysen getroffen – sei es im Marketing, Vertrieb, der Produktentwicklung oder bei der Herstellung von Gütern. Grundsätzlich unterscheidet man zwischen drei Komplexitätsstufen: Die deskriptive Analyse liefert Informationen zu einer beliebigen Variable, beispielsweise zur Auslastung von Produktionsanlagen. Diese Daten können entweder in Echtzeit verwertet oder retrospektiv betrachtet werden (etwa für statistische Zwecke). Die prädiktive Datenanalyse geht einen Schritt weiter und ermöglicht zukunftsbezogene Aussagen. So können Warenwirtschaftssysteme im Handel mithilfe von Algorithmen und kumulierter Verkaufsdaten Umsatzverläufe relativ genau prognostizieren. Die Königsdisziplin – die präskriptive Analyse – liefert nicht nur Beschreibungen oder Forecasts, sondern gibt Nutzern konkrete Handlungsempfehlungen. Voraussetzung hierfür ist die erfolgreiche Verknüpfung unterschiedlicher Datensilos entlang der Wertschöpfungskette, wie etwa zwischen dem Enterprise-Resource-Planning (ERP) und Customer-Relationship-Management (CRM).

Beispielsweise können Artikelstammdaten, Währungsinformationen, Zahlungs- und Lieferbindungen aus dem ERP genutzt werden, um im CRM spezielle Angebote für den Vertrieb zu generieren. Umgekehrt kann Kundenfeedback aus dem CRM ins ERP eingespeist werden, um Kaufentscheidungen in der Materialwirtschaft zu optimieren.

Vorreiter im Handling von Massendaten finden sich im Maschinen- und Anlagenbau sowie der Automobilindustrie. In der Industrie-Fertigung zum Beispiel lässt sich durch M2M-Kommunikation („Machine to Machine“) eine rigorose Prozessoptimierung erzielen. Produktionsanlagen tauschen hierbei selbstständig Datensätze über alle Fertigungsstätten hinweg aus. Dabei senden sie Informationen an den Zulieferer oder melden Störungen – und garantieren so logistische Effizienz und bedarfsgerechtes Wartungsmanagement. Solche Vorgänge bewegen sich im Tera- bis Petabyte-Bereich.

Das Yottabyte – kennen Datenmengen eine Grenze?

Das Yottabyte ist die derzeit höchste metrische Angabe für Speicherkapazität. In ein Yottabyte passen eine Billiarde Gigabytes oder 36 Millionen Jahre Video-Content in HD. Eine gewaltige Datenmenge, die nicht einmal das NSA Data Center in Utah speichern könnte. Je nach Quelle rangieren dessen Kapazitäten im Peta- oder Exabyte-Bereich. Jenseits dieser Grenze gibt es noch keine definierten Volumenhöhen. Theoretisch lassen sich weitere Größen mit Präfixen beziffern. Ob und wann wir tatsächlich Xona-, Weka- oder Nenabytes nutzen werden, bleibt abzuwarten. Allerdings haben auch die Erstnutzer des IBM 305 RAMAC an die Langlebigkeit ihres Großraumrechners geglaubt. Das ist knapp 50 Jahre her. Sein Speicherplatz damals: 4 MB. Da passt Dostojewskis Epos etwa 1,2 Mal rein.

Informationen zur Verfügbarkeit von Breitbandnetzen in Deutschland finden Sie in unserem Dossier „Breitbandausbau vor großen Herausforderungen“