Big Data ist seit 2012 das Trendthema schlechthin, aber immer noch weithin unverstanden: Jede Konferenz greift es auf, viele Begriffe kursieren, gepaart mit Halbwissen, bei Meetings. Wir erklären, was unter Big Data wirklich zu verstehen ist – und welche konkreten Lösungsansätze und Umsetzungsbeispiele es für Verlage bereits gibt.

„Big Brother is watching you“ hieß es in „1984“, George Orwells düsterer Vision vom Überwachungsstaat. Und nun – fast 30 Jahre nach diesem Datum und inmitten immer neuer Enthüllungen über die Datensammelwut der Geheimdienste – beherrscht ausgerechnet „Big Data“ die Diskussion. Schlagwort und Sammelbegriff zugleich, steht der Ausdruck für die Analyse und Nutzbarmachung aller Daten aus unterschiedlichsten Unternehmensteilen für Geschäftsprozesse – auch die der Verlage. „Daten sind der Rohstoff des 21. Jahrhunderts“, schreibt der Brettener Business Integrator Seeburger auf seiner Website.

Denn durch den stetigen Ausbau der Breitbandzugänge und den fast überall möglichen Internetzugang konsumieren die Nutzer mehr und mehr Daten. Wissentlich oder unwissentlich erzeugen sie dabei aber auch gleichzeitig selbst Daten und stellen sie zur Verfügung. Die großen Datenmengen aus den unterschiedlichsten Quellen zu verarbeiten und in hoher Geschwindigkeit auszuwerten – ebendiese Fähigkeit bezeichnet der Begriff Big Data. Neuartige Datenbanken sowie linguistische Analyse- oder Visualisierungstools sollen zum Einsatz kommen, um aus der Datenflut wertvolle Informationen zu destillieren.

Die Technik steckt hier aber noch in den Kinderschuhen – allumfassende Lösungen oder ein sicheres Gewinner-Pferd, auf das Verlage setzen können, fehlen. MapReduce (ein Tochterunternehmen von Google) setzt zum Beispiel darauf, die gigantischen Datenmengen – mittlerweile sind es weltweit Petabyte – von verschiedenen Computer-Clustern berechnen zu lassen. Viele Open-Source-Projekte setzen hierbei auf dem von MapReduce entwickelten Algorithmus auf, ebenso wie kommerzielle Unternehmen (exemplarisch sei hier http://www.asterdata.com/ genannt). Sicher scheint derzeit nur eines zu sein: Die ITK-Branche kann sich über einen neuen Umsatzbringer freuen, dessen Volumen 2014 auf geschätzt rund 73,5 Milliarden Euro weltweit steigen wird, prognostiziert das Marktforschungsinstitut Crisp Research in einer vom Branchenverband Bitkom in Auftrag gegebenen Analyse. Das entspräche einem Plus von 66 Prozent gegenüber dem Vorjahr. Wer sich diese Zahlen vergegenwärtigt, wird sehr schnell erkennen, dass sich nicht nur die ITK-Branche mit dem Thema Big Data beschäftigen muss, sondern auch die Verlagswelt.

Warum ist Big Data ein Thema für einen Fachverlag?

Um die Bedeutung von Big Data für einen Verlag zu verstehen, hilft es, sich dessen Kernkompetenzen vor Augen zu führen: das Erstellen von Content, das Verbreiten von Informationen und deren Vermarktung. Dabei setzen viele Verlage auf die klassischen drei Säulen, um Profit zu generieren:

  1. Anzeigenerlöse
  2. Vertriebserlöse (Abonnenten/ Einzelverkäufe)
  3. Kooperationsgeschäfte

Allein in diesen Bereichen fallen bereits Unmengen von Informationen – also Daten – an, die es zu verarbeiten gilt, um so weitere und vor allem neue Erlösquellen zu erschließen oder exakt auf die Leser-Zielgruppe fokussierten Content zu entwickeln. Genau deshalb wird es für die Verlage in Zukunft keine andere Chance geben, als sich mit dem Thema zu befassen. Einige Verlagshäuser tun dies bereits, auch wenn es bei den Fachverlagen meist unbewusst stattfindet. Etwa, indem CRM- oder ERP-Systeme eingeführt und verschiedene Datenbanken zu einer vereint werden. Trotzdem gibt es immer noch unzählige Informationen, die brachliegen oder nur einzeln in verschiedenen Teilbereichen betrachtet werden.

Nehmen wir als Beispiel eine Magazin-Website, die mit Google Analytics oder mithilfe einer anderen Software täglich Informationen an die Online-Abteilung im Verlag liefert, wie viele Zugriffe es auf die Website gab. Wäre es nicht ein Traum, zu erfahren, wer von den Abonnenten auf welchen Content zugriffen hat und welche Anzeigenkunden die Website (speziell die Unterseiten zu den Mediadaten) besucht haben? Und vor allem, wo der Kunde dies getan hat: Während seiner Freizeit oder während der Arbeit? Wurden die vom Verlag zur Verfügung gestellten Informationen via Mobilgerät oder am PC-Desktop abgerufen? Hat der Nutzer womöglich auch Interesse an weiterführenden Produkten gezeigt, ist dann allerdings zu einem Wettbewerber abgewandert, weil er beim jeweiligen Verlag nicht die Information finden konnte, die er gern gehabt hätte?

Allein anhand dieser kleinen Bespiele wird bereits sichtbar, wie viele Daten entstehen und welche Möglichkeiten sich daraus ergeben. Gerade deshalb ist es wichtig, die Vernetzung aller Informationen zu erreichen, um so eine valide Datenanreicherung gewährleisten zu können. Denn was nützen sonst Tonnen von Daten, wenn sie sich letztendlich nicht auswerten lassen? Big Data soll die Antwort auf diese Frage liefern. Und die Lösung des Problems.

Wie kann sich ein Verlag auf das Thema Big Data am besten vorbereiten? Wo sollte er anfangen?

Um auf die immer größeren Datenmengen vorbereitet zu sein, ist es wichtig, eine Struktur zu schaffen bei allen Bereichen, in denen dies möglich ist. Dabei sind gerade die Datenbanken einer der wichtigsten Ansatzpunkte. Bei vielen Verlagen gibt es beispielsweise eine Abonnenten-Datenbank, eine Anzeigenkunden-Datenbank, eine Redaktions-Datenbank und eine Datenbank für Newsletter-Abonnenten. Diese Datenbanken sind im Zuge des Outsourcing teilweise sogar an einzelne Dienstleister ausgelagert worden. Ein richtiger Schritt wäre hier, die bereits bestehenden Datenbanken zu einer einzigen zusammenzufassen, Doubletten abzugleichen, alte Datensätze zu entfernen und unvollständige Datensätze mit zusätzlichen Informationen anzureichern. Dafür gibt es bereits sehr gute Software-Lösungen und Dienstleister auf dem Markt.

Ist Big Data eine Bedrohung für Verlage?

Kurz gesagt – NEIN. Irgendwer muss ja schließlich die Informationen zur Verfügung stellen, die ausgewertet werden sollen. Zudem kommt es immer auf die Interpretation der gewonnenen Informationen an. Die Verlage haben somit vielmehr eine reale Chance, sich neue Umsatzfelder zu erschließen, Produkte und Prozesse zu optimieren und dabei gleichzeitig ihre Kunden zu unterstützen. Nicht wirklich eine neue Herausforderung – vielmehr Eigenschaften, die jeder Verlag in der heutigen Medieninformationsflut besitzen muss, um seinen Lesern einen Überblick geben zu können. Das Problem ist eher, dass dieses hehre Ziel bei vielen Fachverlagen zugunsten des Abdruckens reiner Presseinformationen in den Hintergrund geriet, um so keine weiteren Anzeigenumsätze zu verlieren. Bereits jetzt aber zeigen Verlage, die über eine klare Content-Strategie verfügen, dass sie eine bessere Überlebenschance haben. Und das liegt nicht am Trendthema Big Data: Wer seine Kunden kennt und bedienen kann, hatte schon immer eine bessere Marktposition. Und konnte seinen Vorsprung durch den Einsatz neuer Technologien sogar vergrößern, statt durch sie obsolet gemacht zu werden.

Wie lässt sich Big Data mit Datenschutz vereinbaren?

NSA, Facebook & Co. – der in anderen Zusammenhängen immer wieder thematisierte Datenschutz (beziehungsweise dessen Fehlen) wird nun im großen Stil auch ein Thema im Big-Data-Kontext. Auf der einen Seite gilt es, die Privatsphäre des Einzelnen rechtskonform zu schützen, auf der anderen Seite soll aber auch die Wettbewerbsfähigkeit deutscher Unternehmen nicht gefährdet werden. Die vom Bitkom veröffentlichte Orientierungshilfe „Leitfaden Big-Data-Technologien – Wissen für Entscheider“ beleuchtet dieses Spannungsfeld und gibt einen kurzen Abriss. Sie steht unter http://www.bitkom.org/de/publikationen/38337_78776.aspx kostenlos zum Download bereit.

Weiterführende Links zum Thema: