Roboter schreiben Nachrichten

Die amerikanische Nachrichtenagentur AP lässt die vierteljährlichen Geschäftsberichte über Unternehmen von einem Computer schreiben: In standardisierten Texten werden nur die Namen und die Zahlen ausgetauscht und angepasst. Ein Software-Algorithmus ersetzt dabei den Autoren. Mit diesem so genannten Roboterjournalismus experimentieren unter anderem auch die New York Times und der britische Guardian. Als erste deutsche Tageszeitung testet dies nun die mittlerweile zur  nordrhein-westfälischen Funke-Gruppe gehörenden Berliner Morgenpost. Sie hat sich die Los Angeles Times zum Vorbild genommen: Dort werden Erdbebenwarnungen automatisiert veröffentlicht, bei der Morgenpost geht es um Feinstaubbelastungen. 

Der Berliner Stadtteil Neukölln, die Silbersteinstraße. Am Straßenrand steht eine Messstation für Feinstaub, so wie an elf anderen Stellen. Die aktuellen Werte der Messstationen werden ins Internet übertragen und sind dort für jeden einsehbar – auch für die Journalisten der Berliner Morgenpost. Sie waren neugierig darauf, wie sich die Werte im Laufe der Jahre verändert haben. „Es ist nur lediglich so, dass nur jeder Tag einzeln dort abgerufen werden kann. Jetzt müßte ich als Journalist dort hingehen und jeden einzelnen Tag mir ausrechnen lassen“, sagt Julius Tröger. Der 31jährige ist Datenjournalist und Reporter in der Lokalredaktion der Morgenpost. Er bat die Umweltverwaltung um einen Datensatz zu Feinstaub-Messungen, der die vergangenen fünf Jahre umfasst. Und zwar nicht auf Papier, sondern in einem Datenformat, das mit einer Software direkt bearbeitet werden kann. „Es wurde uns dadurch ermöglicht, dass wir die Daten in unsere eigene Datenbank schreiben können und dadurch die Datenbank interviewen können“, sagt Tröger. „Das wäre so anders nicht möglich gewesen.“

Die eigene Datenbank befragen, heißt, Suchbefehle eingeben: Zum Beispiel, wie oft in den vergangen Jahren wurde der Grenzwert überschritten? An welchen Stellen und an welchen Tagen? Die Journalisten stießen schnell auf auffällige Werte, sagt

Julius Tröger: „Da haben wir ganz normal gearbeitet, wir haben ´ne Stellungnahme eingeholt, wir haben uns viele Dinge erklären lassen, ich habe viel telefoniert, wir haben viele emails hin- und hergeschickt.“

Und dann haben die Journalisten ihre Berichte über Feinstaub geschrieben. Die Daten der vergangenen Jahre hatten sie gespeichert, doch es kommen jeden Tag Messwerte hinzu, die wiederum eingeordnet werden sollten: Gibt es neue Jahreshöchstwerte, zum Beispiel. Julius Tröger oder ein Kollege hätte ständig die Messwerte im Auge behalten müssen, um schnell zu reagieren. Sie entwickelten eine andere Lösung: Sie lassen den Computer die Daten auswerten; der tauscht jetzt automatisch die Überschriften aus. So titelt der Computer, dass der Jahresgrenzwert in der Silbersteinstraße erreicht sei. Das heißt, an 35 Tagen im Jahr wurde mindestens 50 Mikrogramm pro Kubikmeter gemessen.

Julius Tröger: „Jetzt warten wir darauf, dass die EU-Norm überschritten wird, ab 36. Und dann würde sich die Überschrift anpassen. Dann ist es für uns interessant, dann haben wir die Nachricht so ziemlich als erste auf der Seite und können vor allem dann, weil das ist ja auch ein Thema für uns, dann weiter recherchieren.“

Der Computer denkt sich die Sätze nicht selbst aus, die Redakteure haben vorher überlegt, welche Möglichkeiten eintreten könnten und etwa zwei Dutzend Überschriften formuliert. Die Software ist so programmiert, dass diese Titel bei bestimmten Ereignissen automatisch auf der Internetseite der Zeitung erscheinen.

Julius Tröger: „Eine andere Nachricht wäre, dass der höchst Wert gemessen wird, der jemals in Berlin gemessen wurde. Wir haben aktuell die höchsten Werte um 300 Mikrogramm. Wenn es höher wäre, hätten wir auch noch eine neue Nachricht – es wurde noch nie so ein hoher Wert in Berlin gemessen. Ich glaube, das ist eine Mischung aus, in Anführungszeichen, Roboterjournaliusmus und normalem Journalismus. Der Roboter, wenn man ihn so nennen will, hilft uns einfach, besseren Journalismus zu machen.“

Aktuelle Daten im Internet – längere Berichte auch in der Zeitung: Die einmal am Tag auf Papier erscheinende Berliner Morgenpost und ihr Internetauftritt, der ständig aktualisiert wird, sind eng miteinander verknüpft.

Chefredakteur Carsten Erdmann: „Wir probieren einfach, das ist ein Experiment. Wir wollen gucken, was geht, was geht nicht. Wo macht der Algorithmus, der Computer vielleicht auch Fehler und wo können wir den, diese Technik künftig möglicherweis ein journalistischen Bereichen, in Servicebereichen einsetzen und wo können wir dort den Lesern einen höheren Nutzwert anbieten und auch einen sehr schnellen Service anbieten.“

Julius Tröger kann sich vorstellen, dass die Verspätungen von Bussen, S- und U-Bahnen auf der Internetseite automatisch eingefügt werden können. Oder Informationen rund um die Spiele des Fussball-Bundesligisten Hertha BSC – überall, wo es Daten gibt, die der Computer leicht lesen kann. Schwieriger wird es schon, wenn die Software Texte verstehen soll.

Julius Tröger: „Das ist dann noch mal der nächste Schritt – die semantische Analyse von Text. Und da wird natürlich viel dran geforscht. Das z.B. nehmen wir mal eine Polizeimeldung. Der Computer könnte dann erkennen, wie viele Leute sind involviert, wenn eine bestimmte Straftat häufiger begangen wird in einer bestimmten Ecke, und dann hat man dann wieder einen Anhaltspunkt, um da weiter zu recherchieren.“

Nachhaken, einordnen und bewerten – das sei auch weiterhin die Aufgabe von Journalisten und nicht die von Robotern, sagt Chefredakteur

Carsten Erdmann: „Wenn es um die subjektive Beurteilung geht, um die Einschätzung geht, wenn wir uns im Reportagebereich bewegen, im Kritikenbereich bewegen, wenn wir Nachrichten gewichten, dann wird es, glaube ich, im Roboterjournalismus schwierig, dann ist es auch das falsche Tool.“