Wissenschaftsjahr 2014 - Die Digitale Gesellschaft

Interview mit Prof. Dr. Kriegel

Porträtbild Prof. Hans-Peter Kriegel
Prof. Hans-Peter Kriegel

Sie haben es wahrscheinlich geahnt: Die Meldung, das Internet sei voll, ist natürlich ein Aprilscherz. Dennoch können einzelne Server an ihre Kapazitätsgrenze stoßen, wie Prof. Dr. Hans-Peter Kriegel vom Institut für Informatik der LMU München im Interview erklärt. Insgesamt ist die Datenflut aber händelbar - und eröffnet sogar neue Möglichkeiten für den Informationsgewinn.

Wie nahe ist das Internet an seiner Kapazitätsgrenze?

Das Internet kann technisch gesehen gar nicht überlaufen. Denn es ist nicht ein großes solitäres Speichermedium, sondern ein dezentrales Netzwerk von Servern, auf denen Daten abgelegt sind. Einzelne Server können allerdings sehr wohl überlastet sein. Dann lassen sich die Websites, die auf ihnen hinterlegt sind, nicht mehr abrufen. Das passiert auch regelmäßig, etwa wenn kleinere Homepages aufgrund von Medienberichterstattung von vielen Nutzern gleichzeitig angesteuert werden.

 

Und wenn man alle ans Netz angeschlossene Server als ein Volumen begreifen würde, hätten wir dann noch viel Luft nach oben?

Ja, sehr viel sogar. Die meisten Rechenzentren halten deutlich mehr Speicherkapazitäten bereit, als sie tatsächlich nutzen. Ich habe mal bei dem Rechenzentrum angefragt, das die Datenbanken unserer Universität - der LMU München - betreut: Dort werden momentan erst zehn Prozent des potenziellen Speichervolumens tatsächlich genutzt. Die Server von Google sollen sogar schon Zettabytes an Kapazitäten haben. Ein Zettabyte entspricht einer 1 mit 21 Nullen. Hingegen würde das theoretische Speichervolumen, das das World Wide Web in seiner Frühzeit hatte, heute wahrscheinlich auf ein Smartphone passen. Die Menge der verfügbaren Daten verdoppelt sich inzwischen etwa alle eineinhalb Jahre.

 

Können wir diese Datenflut überhaupt noch beherrschen?

Wir können sogar unseren Nutzen daraus ziehen. Durch die riesigen Datenmengen sind heute Anwendungen möglich, die vor wenigen Jahren noch unvorstellbar waren. Durchwühlt man die Datenberge systematisch, lassen sich wichtige Zusammenhänge erkennen. Wir nennen das Data-Mining, also das Schürfen von Informationen aus dem digitalen Steinbruch. Können Sie das anhand eines Beispiels illustrieren? Als vor ein paar Jahren die Vogelgrippe SARS in Großbritannien ausbrach, konnte Google den Ausbruch in einer bestimmten Region hervorsagen - dort wurden die Symptome des Erregers besonders häufig in die Suchmaske eingegeben. Ein paar Tage später bestätigten die Daten der Ärzte und Krankenhäuser den Ausbruch.