Allgemein
05.06.2015

Scrapen, Prothesenweltmeister, Recherche – Was ist Datenjournalismus?

Von

München, Bayerischer Rundfunk, Treffen der #ardinnovation-Runde. RedakteurInnen, OnlinerInnen, der eine oder die andere HackerIn informieren sich einen Tag lang über Data-Driven-Journalism = DDJ = Datenjournalismus. Aus nackten Zahlen und vermeintlich drögen Statistiken werden journalistische Beiträge für Zeitung, Radio, Netz, TV.

Noch nie ein datenjournalistisches Projekt gesehen? Dann lohnt ein Blick auf den DDJ-Katalog – eine Zusammenstellung von datenjournalistischen Projekten aus dem deutschsprachigen Raum. Der Katalog wurde im Winter 2014 von webkid und DACOSTO ins Leben gerufen. Er umfasst Datenprojekte von diversen Medienhäusern – verzeichnet aber auch unabhängig entstandene Projekte, wie bspw. im Rahmen von Code for Germany.

Beim Workshop der Labore der ARD #ardinnovation wurden einige dieser Projekte vorgestellt, zum Beispiel der „Klinikcheck Südwest“ des SWR (Wusstet ihr, dass Deutschland Prothesenweltmeister ist? Dass  Kliniken mindestens 50 Kniegelenksprothesen im Jahr einsetzen müssen, damit die Krankenkasse die für die Krankenhäuser lukrativen OP-Kosten noch übernimmt? Werden da Kniee operiert, die eigentlich gesund sind?).

Die NDR-Kollegen haben uns ein schönes Video freigegeben. Onlineredaktion und Fernsehen ergänzen sich durch Datenjournalismus – aus einem Wust an Daten wurde ein ganzer Thementag:

 

 

Datensammeln im Zeitalter von Snowden und NSA? Unbedingt!

Natürlich wurde auch das Für und Wider des Datensammelns an sich diskutiert. Tatsache ist, dass wir in Deutschland und im Netz geradezu überflutet werden von frei erhältlichen Daten. Und gehört es nicht zum journalistischen Selbstverständnis, vermeintlich klare und öffentlich zugängliche Fakten kritisch zu überprüfen bzw. auszuwerten – und entsprechende Folgefragen zu stellen?

In Deutschland gilt die Informationsfreiheit nach dem Informationsfreiheitsgesetz und dem  Informationsweiterverwendungsgesetz, Zitat von der Seite des Bundesministerium des Inneren:

„Das Informationsfreiheitsgesetz (IFG) schafft einen voraussetzungslosen Anspruch auf Zugang zu amtlichen Informationen bei Behörden des Bundes.“

Ob bei einer deutschen oder internationalen Behörde, bei statistischen Landesämtern, auf öffentlich zugänglichen Netzseiten, in digitalen Bibliotheken: Da draußen schlummern Fakten, die ganz neue Perspektiven auf ein Thema eröffnen können.

Datensammeln dauert

An die Daten kommt man auf eher analogem Weg: Recherche, Hartnäckigkeit, Geduld, anfragen, wieder anfragen, und nochmal anfragen. Sammeln und sortieren – und/oder auch scrapen, sprich: Datenauslesen von Webseiten, doch Vorsicht!: Das geht in rechtliche Grauzonen bzw. im Zweifel auch den illegalen Bereich, Stichwort: geistiges Eigentum, das gilt insbesondere für Fotos, Grafiken, Bewegtbild, Musik.

Das Sammeln legaler Daten kann man von Hand und mit Excelfunktionen machen, das geht auch mit Scrape-Software (scrape = „kratzen“, „auskratzen“), würde aber diesen Blogbeitrag sprengen. Dennoch hier eine Auswahl an möglichen Tools:

import.io 

LimeSurvey

Excel – für das „analoge“ Datensammeln immer noch nützlich

Tableau

Datawrapper