Frankfurter Buchmesse 2013

Auf der Frankfurter Buchmesse bietet die Deutsche Fachpresse ein spezielles Veranstaltungsangebot für Fachverlage an. In 2013 lud der Fachpresse-Empfang am 10. Oktober zum informellen Austausch ein und bot Gelegenheit, sich in entspannter Atmosphäre zu begegnen. Nach dem Get-together diskutierten Experten aus Politik, Wissenschaft und Verlagen in einer Podiumsrunde. Eine weitere Podiumsrunde zum Thema "Medien-Relaunches" wurde zudem am 9. Oktober im "Forum Verlagsherstellung" veranstaltet.

Rückblick auf den Fachpresse-Empfang 2013:

Big Data, Smart Data und die Kirche im Dorf

"Wissen oder Algorithmus: Woher kommt das Know-how in Zukunft?" Um diese Frage drehte sich die Podiumsdiskussion beim Empfang der Deutschen Fachpresse auf der Frankfurter Buchmesse. Das Diskussionsthema stieß auf großes Interesse bei den Fachmedien-Managern. Kein Wunder: Sie müssen sich – ob sie wollen oder nicht – mit dem Schlagwort "Big Data" auseinandersetzen.

"Die Medienhäuser sind Akteure in einem gewaltigen, lang andauernden Transformationsprozess." Mit diesen Worten stimmte Stefan Rühling, Sprecher der Deutschen Fachpresse, die Gäste beim sehr gut besuchten Empfang in Halle 4.2 ein. Im Zuge der Digitalisierung entwickeln sich Fachverlage laut Rühling "zum Wissens- und Kommunikationsdienstleister". Dabei können sie sich darauf verlassen, dass gute Fachmedien unersetzlich bleiben. Sie müssen, so Rühling, „das Wissen für die Profis in den Märkten aufbereiten, veredeln und formatgerecht auf den vielen Medienplattformen  ausspielen.“ Das Wissen bleibe der Kern des Erfolgs bei Lesern und Usern – auch in Zeiten einer fast unüberschaubaren Datenflut.

Auf die erstaunliche Dimension, die die Datenwelt mittlerweile erreicht hat, wies Dr. Gunther Schunk (Vogel Business Media) hin, der die anschließende Diskussion moderierte: "Nach Einschätzung von Experten werden Ende 2013 alle zehn Minuten so viele neue Daten generiert wie von Beginn der Menschheitsgeschichte bis zum Jahr 2008 insgesamt."

Aber wie weit reichen die Konsequenzen, die "Big Data" mit sich bringt? Läuft der Computer, der in Windeseile auf Basis unvorstellbar großer Datenmengen Informationen liefern kann, dem menschlichen Wissen den Rang ab? Wird der Algorithmus, der Informationen sinnvoll verknüpft, zur Grundlage aller Erkenntnis? "Wir sollten die Kirche im Dorf lassen", mahnte Dr. Michael Eble (Fraunhofer-Institut). Wissensmanagement funktioniere nicht über Datenbanken, sondern nur über die Personen im Unternehmen. "Was passiert denn, wenn ein Mitarbeiter ein Problem lösen muss, das im Unternehmen schon häufiger aufgetaucht ist? Er fragt im Zweifel einen Kollegen, der damit Erfahrung hat, und nicht die 2,5 Millionen dazu verfügbaren Daten."

Für eine "saubere Trennung zwischen Wissen und Daten" sprach sich Simon Dückert (Cogneon, The Knowledge Company) aus. Die Menge der verfügbaren Daten habe sich zwar drastisch erhöht, damit sei aber nicht zwangsläufig das Wissen größer geworden: "Wir sind nicht wissender oder unwissender als früher", so Dückert. Und: "Die Computerprogramme können zwar nach bestimmten Regelsätzen Schlüsse aus der Datenflut ziehen, sie sind aber nicht in der Lage, menschliche Eigenschaften wie Intuition und Phantasie ersetzen." Innovative Ideen müssten immer noch die Mitarbeiter selbst haben.

Dr. Svenja Hagenhoff (Universität Erlangen Nürnberg) wies darauf hin, dass die Datenflut häufig auch kontraproduktiv sein kann: "Es gibt in Unternehmen mehr schlechte als gute Daten". Wissen bestehe darin, die Informationen strukturieren und bewerten zu können. Dazu brauche man vor allem auch Erfahrungswissen, das sich nicht durch Algorithmen erreichen lasse. Computer seien Effizienzmaschinen, die die Vorgänge eminent beschleunigen. "Sie können dem Arzt helfen, Patientendatenbestände nach ähnlichen früheren Befunden zu durchsuchen", so Hagenhoff. "Sie nehmen ihm aber nicht die Aufgabe ab, die aktuelle Diagnose selbst zu stellen." Sie betonte auch, dass Algorithmen keine Selbstläufer seien: "Nur wenn ich gute Daten in das System einspeise, bekomme ich auch gute Ergebnisse heraus." Das Prinzip "Garbage-in-Garbage-out" habe uneingeschränkte Gültigkeit.

Dr. Sven Fund (De Gruyter) brachte die Skepsis der Diskutanten auf den Punkt: "Big Data ist in gewisser Hinsicht auch 'Big Bullshit'. Es ist zu großen Teilen ein Hype-Thema." Dennoch lag es den Diskutanten fern, die neuen technologischen Möglichkeiten herunterzuspielen. Diese seien jedoch nicht Konkurrenz für den Menschen, sondern erleichtern ihm vielmehr die Arbeit. Laut Eble sind menschliches Wissen und Algorithmus nicht als Alternativen, sondern als Ergänzung zu verstehen.

Neue Wissensarbeiter notwendig

Für die Unternehmen bringen die neuen Möglichkeiten weitreichende Herausforderungen mit sich. Traditionelle Strukturen des Wissensmanagements kommen auf den Prüfstand. So "müssen sich die Unternehmen von der Vorstellung befreien, dass es Spezialisten geben muss, die das Wissen für die anderen Mitarbeiter organisieren", führte Dückert aus. "Jeder Entwickler bei Mercedes-Benz ist heute selbst ein Wissensarbeiter, der die Informationsbeschaffung für sich selbst organisiert." Dafür brauche er Freiräume und Ressourcen.

Dückert konstatierte in den Unternehmen einen "Shift vom Fakten- zum Orientierungswissen", das die Menge der verfügbaren Daten ordnet und interpretiert. An dieser Stelle komme der Redakteur eines Fachmediums als Bindeglied ins Spiel. Ähnlich sieht es Hagenhoff: Es sei für die Verlage eine zentrale Herausforderung, "zu schauen, wie man sich in die Workflows von Entscheidungsträgern einklinken kann". Das bedeutet natürlich für die Fachmedien, mehr zu bieten als regelmäßig erscheinende Zeitschriften oder Newsletter. "Die Fachverlage müssen von starren zu fließenden Geschäftsmodellen finden", forderte Fund.

Eine der großen Herausforderungen für die Content-Lieferanten besteht laut Eble darin, die "werttragenden Einheiten neu zu definieren". Gefragt seien viel kleinere Wissenseinheiten, weil die Abnehmer häufig lediglich eine ganz konkrete, detaillierte Information benötigen, nicht aber das große Drumherum, das sie aber mitbezahlen müssen.

Dückert verglich diesen Prozess mit der Entwicklung, die die Musikindustrie in den vergangenen Jahren durchlaufen hat: "Früher bot man physisch ganze Alben an. So konnte man neben den Hits auch weniger attraktives Füllmaterial verkaufen." In der heutigen Download-Welt dagegen zähle der einzelne Track. Genau so, losgelöst vom großen Zusammenhang, müssten auch Informationen verstärkt zum Einsatz kommen – analog zur Musikwelt brauche ein Unternehmen "Wissens-DJ’s", die diese Aufgabe übernehmen.

Die Fachverlage sind laut Dückert auch gut beraten, sich mit den sozialen Netzwerken für Wissenschaftler und Akademiker auseinanderzusetzen. Beispielhaft sei die Plattform Research Gate, die 2008 gegründet wurde und von Boston und Berlin aus gesteuert wird. Hier tauschen sich mittlerweile über 3 Millionen Teilnehmer aus, Unternehmen zahlen zudem dafür, hier Expertennachwuchs finden zu können. "Die Verlage sollten sich fragen, welche Rolle ihre Veröffentlichungen im Kontext derartiger Netze spielen können", so Dückert.

Auffindbarkeit und Klickraten

Auf eine andere Problematik wies Sven Fund hin: Bei der Bereitstellung von Wissen, etwa über Online-Datenbanken von Bibliotheken, gebe es häufig nicht genug Anreize, den Nutzer möglichst schnell zum gewünschten Inhalt zu führen. "Bei den Bibliotheken gelten die Angebote als erfolgreich, die möglichst viele Klicks erzeugen", kritisierte Fund.

Auf einen generellen Irrweg in der Datenproduktion machte Eble aufmerksam: "Es werden sehr viele Inhalte auf audiovisueller Basis erzeugt, zum Beispiel in Form von Videos oder Podcasts." Diese Medien seien aber auf elektronischem Weg nur schwer nach Schlüsselwörtern oder Ähnlichem zu durchkämmen. "Menschen, die nach bestimmten Informationen suchen, können nicht die Zeit aufwenden, sich Videos komplett anzusehen. Also werden sie nicht genutzt." Man müsse dafür sorgen, Daten schneller auffindbar zu machen.

Die Quintessenz der Diskussion: Statt "Wissen oder Algorithmus" muss es heißen: "Wissen und Algorithmus". Vor diesem Hintergrund sind die Fachverlage gefordert, neue Dienstleistungen und Services zu lancieren. Durch die inflationäre Verfügbarkeit von Daten steigen zwar die Anforderungen an die Geschäftsmodelle. Andererseits bietet sich auch die große Chance, als umsichtiger Navigator im Daten-Universum aufzutreten.