Categories
Slow theory Zeitschriften Zeitungen

Der umgekehrte Turing-Test

Im Oktober dieses Jahres jährt sich die Veröffentlichung von Alan Turings Paper “Computing Machinery and Intelligence“, das damals in der philosophischen Zeitschrift Mind veröffentlicht wurde, zum 60. Mal. Zwei Jahre später, im Turing-Jahr 2012, wird dann wahrscheinlich auf zahlreichen Symposien und Konferenzen über die gegenwärtige Bedeutung des Turing-Tests debattiert und gestritten. Kurz zusammengefasst beschreibt Turing ein Testsetup, das dazu geeignet ist, menschliche und computerisierte Intelligenz voneinander zu unterscheiden.

Dieses Konzept, obwohl auf den ersten Blick aus einem ganz anderen Diskurs stammend, hat für mich einen sehr spannenden Berührungspunkt mit der gegenwärtigen Diskussion über die Folgen der Internetgesellschaft. Unser Slow Media-Manifest skizziert in 14 Punkten eine denkbare Zukunft der (Qualitäts-)Medienproduktion. In den letzten Tagen habe ich immer wieder mit Journalisten und Redakteuren über die faszinierenden Möglichkeiten gesprochen, die sich durch Slow Media für Zeitungen und Zeitschriften eröffnen.

Ein immer wieder diskutiertes Thema war dabei die Frage: Haben auch Tageszeitungen, die wie kein anderes Medium derzeit von einer Sinnkrise befallen sind, eine Zukunft? Können sich auch Medien, deren Kernaufgabe die tägliche Information einer breiten Öffentlichkeit ist, unter dem Zeichen von Slow Media neu erfinden und hierin neue Geschäftsmodelle entwickeln? Welchen Qualitätskriterien müssen Tageszeitungen unter Slow-Media-Gesichtspunkten genügen?

Was wir an dieser Stelle brauchen, ist eine Art umgekehrter Turing-Test. Denn in der zweiten historischen Phase des Internets sehen sich gedruckte Tageszeitungen nicht mehr nur in Konkurrenz mit den Produkten ihrer Onlineredaktionen, sondern zunehmend auch in Konkurrenz mit Computer-Algorithmen. Hinter Plattformen wie Google News oder Rivva stehen keine Redakteure mehr, sondern programmierte Selektionsregeln auf Grundlage der Vernetzung von Internetquellen, ganz gleich ob dies Webseiten oder persönliche Profile sind. Was die Geschwindigkeit und das Volumen betrifft, haben die Algorithmen ihre menschlichen Vorläufer schon lange überholt. Und auch in Punkto Relevanz ist die Distanz nicht mehr allzu groß.

Hier kommt der umgekehrte Turing-Test ins Spiel, der nicht abbildet, wie nah die künstliche Intelligenz an die humane heranrückt, sondern das genaue Gegenteil: die Möglichkeiten der menschlichen Intelligenz, eine inhaltliche und formale Qualität zu schaffen, die jenseits der Möglichkeiten der Algorithmen liegt. Wenn sich der Mantel von Tageszeitungen, was Auswahl und Präsentation der Nachrichten, von automatisierten Angeboten à la Google News nicht mehr unterscheidet, haben die Redakteure den umgekehrten Turing-Test nicht bestanden. In diesem Fall ist ihre Verhandlungsposition denkbar schlecht, denn warum sollten sie für dasselbe Ergebnis ein Vielfaches an Belohnung erhalten. Darüber hinaus: Algorithmen sind keine Gewerkschaftsmitglieder und brauchen keine Pausenräume. Diesen Konkurrenzkampf haben die Redakteure und Journalisten längst verloren, auch wenn sie noch so gute Lobbyarbeit für die Wirkung von Printprodukten machen.

Genau darin liegt aber auch die Chance. Zeitungen und Zeitschriften, die den umgekehrten Turing-Test bestehen und ein Ergebnis liefern, das in dieser Form nie und nimmer von einem Computer hätte errechnet werden können, haben eine Zukunft. Hinter diesen Medien stecken echte Menschen. Und das wichtigste ist: das merkt man auch.

11 replies on “Der umgekehrte Turing-Test”

So einfach und naheliegend: Ziel muss also ein “menschlicher” Journalismus sein. Nur dpa-Meldungen abzutippen reicht da nicht. Sich hier in Konkurrenz zu den Algorithmen zu stellen, ist absurd.
Konsequenz? Vielleicht kann man sagen, dass der Journalismus zur Qualität verdammt ist. Ich bin gespannt, welche Folgen das haben wird.

Interessante Idee!
Allerdings wird das Rohmaterial, das die Algorithmen von Google & Konsorten derzeit augenscheinlich besser sortieren und aggregieren, ja auch von Journalisten erstellt. Würden sich alle Journalisten, um den umgekehrten Turing-Test [Gnirut-Test?] zu bestehen, an einer anderen Art des Journalismus versuchen, bliebe genau das auf der Strecke, woraus Google News den (um Aggregation angereicherten) Wert schöpft: Nachrichten.

@ jan schmidt: Was Google News drastisch deutlich macht, ist wie wenig sich die meisten Zeitungsberichte (Online wie in gedruckter Form) von den reinen Agenturmeldungen unterscheiden (“… und weitere 989 ähnliche Meldungen” ist typischer Weise, was bei Google News unter der ersten Zusammenfassung steht – und mit ähnlich ist in der Regel gemeint: wortgleich bis auf Auslassungen).

Insofern sollte Google wohl so fair sein, dpa etc. zu abonnieren. Das, was uns die Verlage versuchen einzureden, nämlich, dass die Auswahl der wirklich wichtigen Nachrichten aus der Fülle von Informationen die eigentlich wertvolle Arbeit der Redaktion wäre, wird durch die Automaten klar widerlegt – auswählen können die Automaten inzwischen besser.

@jbenno: richtig; die Frage ist dann aber ja, ob dpa (oder irgendwelche anderen “ur-journalistischen-content-ersteller”) ihre arbeit noch tun werden [=finanziert sind], wenn sie nur rohmaterial für google und andere automatisierten aggregatoren liefern.
Worauf ich eigentlich hinaus will: ich stimme ja zu, dass Algorithmen die Auswahl, Selektion und Aggregation gut, effizient und ohne Kaffepausen leisten können, aber dies setzt doch voraus, dass irgendwo irgendwer “Nachrichten herstellt”, also Informationen auswählt und aufbereitet, die google news oder meinetwegen auch rivva dann weiter verarbeiten können.
Die journalistisch wertvolle Leistung sehe ich deswegen in der tat nicht in der Filterung einer Fülle journalistisch erstellter Inhalte (= aus dpa-ticker-meldungen auswählen), sondern eine Stufe davor: Im Auswählen von Ereignissen in der Welt, und zwar nach nachvollziehbaren und stabilen Relevanzkriterien, und der publik gemachten Aufbereitung dieser Ereignisse. Das bringen Algorithmen meines Erachtens noch nicht zustande.. 🙂

@ jan schmidt absolut Einverstanden. Das ist auch der Grund, warum wir Wired oder BrandEins in diesem Blog als Slow Media würdigen – publizistische Produkte, die das Papier, auf das man sie druckt, auch wirklich wert sind; und dafür, davon bin ich überzeugt, werden die Leser auch in Zukunft gerne bezahlen!

Du schreibst dass sich die Ergebnisse von Journalisten (also Menschen) von computergenerierten Ergebnissen unterscheiden müssen.
Ich seh da aber ein grundsätzliche Problem, das meiner Meinung nach nur durch Änderung der Aufgabenstellung gelöst werden könnte.
Juornalismus soll OBJEKTIVE Fakten berichten, und man kenn ja seine Medien und weiß dass selbst diese derzeitigen Aufgabe sehr oft subjektiv verzerrt wird.
Und hier liegt aber meiner Meinung nach die Chance.
Objektive Fakten sammeln und auch Zuverlässigkeit von Quellen beurteilen werden automatisierte System immer schneller, besser und umfangreicher können. Ich glaube daher, dass die Chance vor allem in der subjektiven Auswahl und Beurteilung von Fakten besteht.

ICH will z.B. nicht nur wissen, dass das Gesundheitsystem umgestellt werden soll – ich will wissen WAS das bedeutet. und das kann kein Softwareprogramm beurteilen.
Ich bin allerdings kein Journalist und weiß nicht ob ich nun eine “heilige Objektivitätspflicht” in Frage stelle und daher so etwas niemals möglich sein wird. Aber Kommentare, Beurteilungen und Einschätzungen halte ich für wesentlich intressanter als objektive Daten.

Eine etwas andere Richtung schlägt Clive Thompson in seinem Wired-Artikel “The Cyborg Advantage” ein. Er sieht die zunehmende Technisierung und Computerisierung der menschlichen Existenz als unausweichlich und wendet das Thema pragmatisch: Aus seiner Perspektive geht es nicht darum, wie sich Journalisten zum Beispiel von Algorithmen positiv unterscheiden können, sondern darum, die Möglichkeiten der maschinellen Intelligenz zu nutzen, um die eigenen Fähigkeiten zu erweitern. Guter Journalismus, so lässt sich das fortsetzen, hängt also davon ab, die richtigen digitalen Assistenten um sich zu wissen. Ich glaube, dass die Debatte zwischen rein pragmatischen (= Computer als neutrales Werkzeug) und normativen Positionen (= positive / negative Folgen Computerisierung) in diesem Punkt noch sehr wichtig sein wird. Nicht neu, aber wichtig.

Nicht nur Angela Merkel ist ein Androide aus der Trabifabrik. Sogar ich bin beim Touringest oder Turingtest oder wie das heisst durcht gefallen. Bitter, für Euch Menschlein

Der Hinweis, dass der Abstand zwischen einem automatisierten Mashup und einer Tageszeitung möglichst groß sein muss, gefällt mir sehr gut. Ich habe allerdings keine Angst, dass die Nähe zu groß werden könnte. Wobei der Abstand wahrscheinlich proportional ist zu der Zahl der Redakteure, die an einer Zeitung beteiligt sind. Maschinen können ja nur abschreiben und Zahlenreporte erstellen, sie können keinen Gedanken fassen.
Dass die Mitteilung der Fakten (“Bin Laden tot”, “Schalke verliert in Manchester”, “Justin Bieber von fauler Tomate getroffen”, “Dax minus 0,3%” etc.) den Zeitungen vom Internet gewissermaßen gestohlen, ist aber schon länger klar. Aber das ist ein Geschwindigkeitsproblem. Zeitungen hinken den “Fakten” unvermeidlich hinterher. Was bleibt dann den Zeitungen/Zeitschriften? Eine ganze Menge. Vor allem Subjektivität. Nicht verstanden als Innerlichkeit, Gefühl oder Parteilichkeit, sondern als Herstellen von unterschiedlichen Perspektiven. Das reicht von Hintergrund-Perspektive, Expertenperspektiven über Erklärungsperspektiven bis hin zu persönlichen oder dokumentarischen Perspektiven. Und dann stellen die Zeitungen, obwohl sie so lahm wirken, für den Nutzer sogar wieder einen zeitlichen Vorteil her: Ich muss mir nicht in stundenlanger Kleinarbeit die Bedeutung eines Ereignisses selbst zusammensuchen und stundenlang Wichtiges und Unwichtiges parallel lesen, sondern bekomme verdichtete Aufarbeitungen und subjektive Auswahl. Logischerweise wächst der Bedarf an Auswahl, je größer die Info-Lawine wird.
Im übrigen wird Google nie irgendein journalistisches Produkt ersetzen. Google kann ja nur finden, was woanders da ist. Das Paradoxe an der derzeitigen Situation ist ja, dass viele Zeitungen und Zeitschriften noch nie so viel genutzt wurden wie heute. Wo man vor 20 Jahren morgens ein wenig Zeitung las, tagsüber die Leier der 5-Minuten-Nachrichten im Radio hörte und abends kurz Tagesschau guckte, da hat man heute den Tag über ein Auge auf den Strom redaktioneller News und Artikel – aus Hamburg, Berlin und München, aus aller Welt. Schon merkwürdig – die Zeitungen sterben, während noch nie so viele Leute wie heute den ganzen Tag über so ihre Nachrichten und Artikel verfolgen.

Comments are closed.