Newsletter abonnieren
Bestellen Sie den Newsletter der Wissenschaftsjahre und bleiben Sie auf dem Laufenden, was Aktionen und Veranstaltungen betrifft.
Am Anfang war… der C64 von Commodore, auch Brotkasten genannt. Er war einer der ersten Heimcomputer mit einem Arbeitsspeicher von 64 Kilobyte – 64.000 Byte. Seitdem hat sich das Datenvolumen, das Computer,
Smartphones oder Tablets verarbeiten, in unvorstellbarem Maße vervielfacht.
Auf Tera folgte Petabyte (eine 1 mit 15 Nullen), die Fachleute sprechen von Exa-, Zetta- und Yottabytes. Das Datenvolumen verdoppelt sich etwa alle zwei Jahre. Denn immer mehr Prozesse in allen Bereichen generieren digitale Daten. Big Data heißt der moderne Begriff für riesige Datenmengen unterschiedlichster Herkunft. Mit Big Data operieren die Geheimdienste der Welt ebenso wie medizinische Datenbanken und die Industrie. Banken und Google, Klimaforscher, Terrorexperten oder Archäologen – alle müssen und wollen damit umgehen. Big is beautiful! Gilt das auch für Big Data? Wie können die Informationen gemanagt werden? Mit welchen Methoden lässt sich aus den Datenmeeren das Wesentliche herausfischen?
Informatiker und Praktiker aus unterschiedlichen Anwendungsbereichen diskutieren die Möglichkeiten und Grenzen von Big Data – im Rahmen der Informatiktage der Gesellschaft für Informatik am Hasso-Plattner-Institut der Universität Potsdam.
Podium
Prof. Dr. Reinhard Förtsch
Deutsches Archäologisches Institut
Wissenschaftlicher Direktor für Informationstechnologien
Prof. Dr.-Ing. Peter Liggesmeyer
Präsident der Gesellschaft für Informatik e. V. (GI)
Wissenschaftlicher Leiter des Fraunhofer-Instituts für Experimentelles Software Engineering Kaiserslautern
Prof. Dr. Volker Markl
Technische Universität Berlin
Leiter des Fachgebiets Datenbanksysteme und Informationsmanagement
Dr.-Ing. Jürgen Müller
Leiter des SAP Innovationszentrums
Moderation
Thomas Prinzler
Wissenschaftsredaktion Inforadio (rbb)