Wie lassen sich unsichere Informationen in Medienkarten darstellen?
Eigentlich ist es allen Beteiligten – Erstellern und Nutzern von Medienkarten – bewusst, dass die dort dargestellten Informationen gewisse Unsicherheiten in sich bergen – seien es nicht korrekte Positionen von Unglücksorten, ungenau Verläufe von Orkanen, geschätzte Zahlen von Flüchtlingen, etc. Doch nur äußerst selten werden solche Unsicherheiten auch in Karten kommuniziert. Basierend auf diversen Forschungs- und Entwicklungsarbeiten in diesem Themengebiet geht dieser Beitrag darauf ein, wann eine Visualisierung von Unsicherheiten überhaupt sinnvoll ist und welche Möglichkeiten dafür zur Verfügung stehen.
Prof. Dr. Jochen Schiewe (HafenCity Universität Hamburg)
Die Verdatung der Atmosphäre. Klima und Klimawandel als Datenerkenntnis seit 1800
Zahlreiche wissenschaftliche Bilder vom Klima bestehen Bilder aus Daten. Mittels Methoden der Visualisierung wird das Klima zu einem Forschungsobjekt und damit zu einer Erkenntnis gemacht. Der Zusammenhang von Daten und Visualisierungsmethoden stand bereits am Beginn der modernen Klimaforschung um 1800 als Alexander von Humboldt erstmals Messwerte in Form einer Klimazonenkarte darstellte. Die Visualisierung von Daten war aber auch für die Erkenntnis des anthropogenen Klimawandels sowie für dessen Kommunikation bedeutend. Denn auch gegenwärtig werden die viele der wichtigsten Beweise des Klimawandels in Form von Datenbildern angeführt – weshalb es andererseits auch diese Visualisierungen sind, die von Klimawandelleugnern gezielt in Zweifel gezogen werden. In meinem Vortrag werde ich aus bild- und medienwissenschaftlicher sowie aus historischer Perspektive Beispiele beleuchten, die diskutieren lassen, wo Konfliktpunkte klimawissenschaftlicher Datenbilder und ihrer Kommunikation in außerwissenschaftliche Kreise liegen.
Dr. Birgit Schneider (FH Potsdam, Europäische Medienwissenschaft)
Eine Data-Mining-Leitlinie für guten Datenjournalismus?
Wissen aus Daten generieren: Das wollen nicht nur Journalisten und Forscher, sondern auch Unternehmen. Damit nicht jeder neue Datenanalyst in die gleichen Fallen tappt, verwenden viele Firmen seit den Neunzigerjahren einen Standardprozess für sogenannte Data-Mining-Projekte. Anna Behrend hat in ihrer Bachelorarbeit gezeigt, dass dieser Prozess große Gemeinsamkeiten mit datenjournalistischen Arbeitsweisen aufweist. Kann er als Leitfaden für guten Datenjournalismus dienen? Die Ergebnisse der Bachelorarbeit dienen im Workshop als Diskussionsgrundlage für diese Frage.
Anna Behrend (Daten- und Wissenschaftsjournalistin, Berlin)
Datenjournalismus in Datenfriedhöfen – über die Tücken des „Public Reporting“ in der Medizin
Datenjournalismus über die Qualität der medizinischen Versorgung in Deutschland ist ein mühsames Geschäft. Es mangelt an relevanten Daten. Der Flickenteppich der vorhandenen Datenquellen erzeugt vor allem Scheintransparenz. Wie schwer es ist, sich als Journalist im Dschungel der Versorgungsdaten zu orientieren, erläutert der Vortrag anhand einer Reihe von Recherche-Werkzeugen.
Volker Stollorz (Redaktionsleiter Science Media Center Germany)
Informationsansprüche von Journalisten gegenüber Behörden - Anspruchsgrundlagen und ihre Grenzen
Die Information der Öffentlichkeit durch Journalisten ist der Nährboden demokratischer Meinungsbildung. Gesetzliche Informationsansprüche der Presse und der Öffentlichkeit kollidieren mit Schutzinteressen des Funktionierens staatlicher Einrichtungen, der Allgemeinheit und betroffener Einzelner. Wie das Recht diese Konfliktlage auflöst bzw. auflösen sollte, erläutert Prof. Martini in einem Überblick.
Prof. Mario Martini (Deutsche Universität für Verwaltungswissenschaften Speyer)
Mäandern. Über den Gestaltungsprozess von Visualisierungen
In diesem Vortrag wird Till Nagel über den Gestaltungsprozess von Datenvisualisierungen sprechen. Anhand von Beispielen zeigt er, wie Daten in lesbare und visuell ansprechende Form abgebildet werden können. Diese anschaulichen Beispielprojekte reichen von einer interaktiven Darstellung von Verkehrsströmen, über eine abstrakte Visualisierung von Flugrouten, bis hin zu einem Kartogramm von Shanghai. Er dokumentiert Entwürfe und Experimente, die bei der Analyse und Synthese entstanden, und diskutiert wie Ideen erneut aufgegriffen und auch projektübergreifend eingesetzt werden können.
Till Nagel (Urban Complexity Lab, FH Potsdam)
Daten-Storytelling (auch) unter Zeitdruck
Das ZEIT ONLINE Datenteam produziert neben dem Tagesgeschäft regelmäßig umfangreiche interaktive Geschichten. Wie strukturiert das Team seine Projekte und welche Schritte sind bei der Entstehung essentiell (obwohl sie Zeit kosten)? Sascha Venohr stellt einzelne datenbasierte Geschichte vor und erzählt, wie der Workflow im Hintergrund ablief und welche Hindernisse bis zum Livegang zu überwinden waren.
Sascha Venohr (Leiter Team Datenjournalismus, ZEIT ONLINE)
Workshop: Daten von Behörden erfragen & erforschen
Daten von Behörden finden sich in Open-Data-Portalen, hinten kruden Suchmasken oder sind erst gar nicht online. Welche Möglichkeiten habe ich an behördliche Datensätze zu kommen? Doch der Erhalt von Daten ist oftmals erst der Anfang, denn behördliche Datensätze sind oft voller Fallstricke. Worauf muss ich achten, um die Daten richtig zu verstehen und weiterzuverarbeiten?
Stefan Wehrmeyer (Fragdenstaat / Correctiv, Berlin)
The Jupyter Project: Opening cultures, from science to data-driven journalism
In this talk, Fernando Pérez will briefly describe the Jupyter project (evolved from IPython), and how its flagship, the Jupyter Notebook, allows open collaboration to emerge in a variety of contexts: A tool that was originally built for scientific computing today enables data-driven journalists, educators, bloggers and more to share narratives that weave equal parts computation, data and natural language to tell a story. We will see how these tools can support rich data-driven journalistic narratives, hopefully leading to a richer dialog between the journalists and a more informed public.
Fernando Pérez, PhD (Research scientist at U.C. Berkeley, Brain Imaging Center, founder of iPython)
Wie Daten Geschichten erzählen: Workshop mit konkreten Beispielen
Der Workshop zielt darauf ab, ein gemeinsam vereinbartes Thema in einer Hands-On-Session gestalterisch zu vermitteln. Die Teilnehmer berücksichtigen dabei unterschiedliche Storytelling-Methoden, Perspektiven und Ausrichtungen an Zielgruppen. Am Anfang werden wir Praxis-Beispiele untersuchen, anschließend arbeiten die Teilnehmer in kleinen Teams ihre Linie heraus und diskutieren sie in der Gruppe. Zum Abschluss ordnen wir ein, wie unterschiedliche Darstellungsformen auch auf unterschiedliche Weise die Wahrnehmung des Lesers beeinflussen können, positiv wie negativ.
Coaching Computers to Detect and Verify News from Social Media
The use of social media as a source of news is entering a new phase as computer algorithms are developed and deployed to detect, rank, and verify news. The efficacy and ethics of such technology is the subject of this talk, which examines once such tool, Social Sensor. Social Sensor is being used successfully to identify trending news stories, allow journalists to search within social media, and help verify social media contributors and content. However such software also raises questions about who has influence as social media is algorithmically-filtered for the benefit of journalists and others.
Prof. Dr. Neil Thurman (Institut für Kommunikationswissenschaft und Medienforschung, LMU München)
The news will find you - the question is how
News organisations have to face a constant change in how users are consuming their stories. Be it print, desktop, tablet, smartwatch, smart-tv or other devices - we'll have to understand in which situation at whicht time which content ist best for our customers. The Internet of things will help us to get a better understanding on the situation. We'll need to learn that the next learning curve for us as news producer will be how we can use sensors in a privacy-acceptable way to serve news stories in the future.
Marco Maas (OpenDataCity)
Einwohnerzahlen via Stichprobe: die Statistik hinter der Volksählung
2011 wurde in Deutschland der erste Register-gestützte Zensus durchgeführt. Im Rahmen des Vortrages soll die Methodik, welche Register- mit Stichprobeninformationen geeignet kombiniert, vorgestellt und diskutiert werden.
Dabei sollen die Auswirkungen gesetzlicher Rahmenbedingungen auf die Festlegungen und Qualität des Zensus dargelegt werden, wie etwa die Bedeutung der statistischen Qualität, der Einfluss des Meldewesens sowie die Anfordernisse an Gemeinden um 10.000 Einwohner.
Professor Dr. Ralf Münnich (Universität Trier, Fachbereich IV, Volkswirtschaftslehre)
Reproducible data-driven journalism – challenges and tools
Reproducibility is the next big thing in data journalism. Done correctly, it solves two major problems: 1) Working collaboratively on datasets, for example with Excel, is error-prone and hard to quality-control. Making data processing steps reproducible also means making them understandable and controllable - e.g. by team members. 2) While sophisticated data collection or even analysis might result in nice scoops and awesome stories, it is often hard to explain to the audience what has happened behind the curtains. In order to be credible, we should be as transparent as possible - making methods open and in the best case fully reproducible allows our audience to understand, criticize and correct or even alleviate our methodology.
In his talk, Timo Grossenbacher from SRF Data will first introduce the principles of reproducibility, why the science community has so far mostly failed achieving it and how data journalism could become better by applying it throughout. In the second part, he will demo the processes and tools he uses in his daily work, e.g. on arms exports.
Timo Grossenbacher (Schweizer Rundfunk und Fernsehen, Reporter im Data-Team)
Adaptive Informationsaufbereitung aus heterogenen Quellen
Herausforderungen und Werkzeuge
1) Prof. Dr. Iryna Gurevych und Christian Meyer
(TU Darmstadt, Ubiquitous Knowledge Processing (UKP) Lab)
Intensive Recherche ist zentral für sämtliche journalistischen Tätigkeiten und unterliegt sehr engen Zeitvorgaben. Zugleich explodiert die relevante Informationsmenge und die Quellen werden immer komplexer, sind hochgradig heterogen und weisen unterschiedliche Informationsqualität auf.
Im Rahmen dieses Workshops stellen wir das von den Universitäten Darmstadt und Heidelberg sowie dem Heidelberger Institut für Theoretische Studien (HITS) gegründete Graduiertenkolleg AIPHES vor und diskutieren wesentliche Herausforderungen und Werkzeuge aus Sicht des Journalismus und der informatikorientierten Forschung zu sprach- und wissensverarbeitenden Systemen.
Das gemeinsame Anwendungsszenario des Graduiertenkollegs ist es, relevantes Wissen aus heterogenen Textquellen automatisch zu extrahieren und zu einem informativen und stilistisch homogenen Dossier aufzubereiten, das als Recherchehilfsmittel oder Schreibvorlage für Online-Redaktionen genutzt werden kann.
2) Kurt Jansson und Maximilian Schäfer (Dokumentation DER SPIEGEL, Hamburg)
Das Zu-Tage-Fördern von strukturierten Daten aus diversen Formaten und Quellen gehört beim SPIEGEL seit einigen Jahren zum Alltag. Die Szenarien sind vielfältig: Uns erreichen kiloschwere Aktenordner aus einer Behörde, ein Redakteur erhält von einem Informanten einen USB-Stick mit unklarem Inhalt oder wir benötigen Informationen, die über tausende Webseiten verstreut sind.
Mittlerweile verfügen wir über einen erprobten Werkzeugkasten, mit dem wir Daten auch aus widerspenstigen Formaten extrahieren und analysieren können. Während des Workshops geben wir einen Einblick in unsere Arbeitsweise.