- Wir übernehmen keine Haftung
Algorithmen bestimmen den Journalismus immer mehr. Subsumiert wird das dann unter dem Begriff Datenjournalismus. Wer aber trägt im Sinne des Presserechts die Verantwortung für jene Informationen, die aus Daten generiert werden?
Im digitalen Journalismus, wie wir ihn heute kennen, sind immer mehr unsichtbare Hebel in Betrieb. Es geht um Algorithmen. Das sind Computerprogramme, die mit ihren Berechnungsergebnissen unsere Wahrnehmung verändern können. Sie erfassen, archivieren und werten berechenbare Muster in großen Datenbeständen aus – und setzen so neue Prioritäten. Nicht algorithmisch erfassbare Wahrnehmungsbereiche werden „ausgeblendet“, weil sie (noch) nicht berechenbar sind. Informatiker „modellieren“ also soziale Beziehungen, obwohl sie für Journalismus oder zivilbürgerliche Praxis oft keine besondere Expertise haben.
Das „netzwerk recherche“ diskutierte diese Entwicklungen bereits 2015 auf seiner Jahrestagung und wird sie auch 2016 problematisieren. In deutschen Tageszeitungen erscheinen seit einigen Jahren hierzu Artikel. Andrian Kreye beschrieb Algorithmen in der Süddeutschen Zeitung als neue Weltsprache: „Wenn aber Algorithmen in der Welt der Maschinen die Sprache der Entscheidungen bilden, tut eine Gesellschaft gut daran, sich mit ihr zu beschäftigten.“
Niemand trägt die Verantwortung
Eigentumsverhältnisse, gesetzliche Kontrollen und technische Ausstattung bestimmen die Entwicklung von Algorithmen. Wie viele Arbeitskräfte in welchen Labors zusammenwirken und wie kompetent die Informatiker sind, wie viel Zeit und Rechenkapazität ihnen zur Verfügung steht, in welchem Rahmen und Kontext sie forschen, das prägt ihre Erkenntnisse und deren Verwertung.
Unklar ist, wer hier verantwortlich ist. Bei den traditionellen Medien gibt es eine Verantwortungspflicht im Presserecht. Diese Pflicht wird aber verdunkelt, wenn multinationale Unternehmen ihre Erkenntnisse als „Betriebsgeheimnisse“ deklarieren. Pflichten zur Transparenz der Herkunft und Zuverlässigkeit von Informationen werden für die immer wichtiger werdende Algorithmisierung von Informationen verletzt. Allerdings könnten die Datengrundlagen entsprechend überprüft werden – in Kooperation von Informatikern mit anderen Experten.
Massiver Wettbewerbsvorteil für Suchmaschinenanbieter
Traditionelle Medienunternehmen – aber auch z.B. die Herstellung und der Vertrieb von Arznei- oder Nahrungsmitteln – werden weitaus stärker kontrolliert als die Entwicklung und der Einsatz von Algorithmen. Dieser öffentliche Kontrollverlust ist ein weiterer (illegitimer) Wettbewerbsvorteil globaler Suchmaschinen oder Social Media gegenüber den Massenmedien. Sie können sich so exorbitante Unternehmensgewinne sichern – Steuerflucht oder die Unterdrückung von Konkurrenz durch Google und Konsorten noch gar nicht eingerechnet.
Die unzureichende Produkthaftung aber ist gesamtgesellschaftlich verantwortungslos. Multinationale Weltunternehmen oder Geheimdienste finanzieren historisch neuartige Institute für Künstliche Intelligenz. In diesen Instituten werden für Profit- und Überwachungszwecke nützliche Algorithmen erarbeitet. Sie bleiben wegen der Höhe und Komplexität der Investitionen in große Forschungslabors jenseits der Überprüfbarkeit durch die wesentlich weniger geförderten Informatiker an öffentlich kontrollierbaren Forschungsinstituten. Das ist problematisch, denn:
Erstens, sind Algorithmen geprägt durch Klassifikationen und Rangordnungen in den zur Verfügung stehenden Datensets. Indem man sie auf berechenbare Dimensionen reduziert, ohne die übernommenen Kategorien kritisch zu hinterfragen, kann die Verantwortung an Forschungsteams und deren Auftraggeber nur noch schwer zugeordnet werden. So erhielten Frauen in den USA bereits schlechter bezahlte Stellenangebote von Googles Ad Network: Wenn Frauen erkennbar häufiger auf solche Anzeigen klicken, wird das als Muster erkannt und algorithmisch verfestigt.
Fragwürdige Wahlcomputer
Zweitens, bei Wahlmaschinen, die bereits in mehreren Ländern, vor allem den USA und Brasilien eingesetzt werden, gewinnt die Algorithmisierung eine weitere gefährliche Dimension. Das wurde in Deutschland schon vor einigen Jahren kontrovers diskutiert und das Bundesverfassungsgericht entschied einige strittige Punkte. Project Censored betont für die USA: In der Präsidentschaftswahl 2016 werden circa 80 Prozent der Stimmen über veraltete elektronische Wahlmaschinen abgegeben, die durch Software privater Unternehmen programmiert werden. So heißt es im September 2015 in einer Untersuchung des Brennan Center for Justice an der NYU School of Law. Das bedeutet, dass es keine Papierunterlagen mehr gibt und es entfallen damit Möglichkeiten, die Zählung der Stimmen nach traditionellen Maßstäben genau zu überprüfen.
Und ein weiteres Beispiel von Project Censored: Googles Suchalgorithmen für wahlrelevante Informationen können Wahlentscheidungen bisher unentschiedener Wähler beeinflussen, zu 25 Prozent oder mehr. Robert Epstein führte eine entsprechende Untersuchung durch. Ergebnis: Manipulationen durch Suchmaschinen gefährden das US-amerikanische demokratische System möglicherweise bereits seit vielen Jahren. Denn jede zweite Präsidentschaftswahl wurde mit Abständen von unter 7.6 Prozent gewonnen, die Wahl von 2012 mit einem Abstand von nur 3.9 Prozent.
Drittens, Informationen aus Agenturen, Unternehmen, Verbänden, von Regierungen und Parteien, aus PR und SM erregen bereits durch ihre Identifikation, Klassifikation und Zugänglichkeit journalistische Aufmerksamkeit. Bei Abfragen steuert die Rangordnung auch die Berücksichtigung und damit Berichterstattung in schwer durchschaubarer Weise: Im April 2016 erschien ein Artikel in den „Proceedings of the National Academy of Sciences of the United States of America“, der berichtete, wie dramatisch der Einfluss der Rangordnungen von Suchergebnissen auf Konsumentscheidungen und allgemeine Verhaltensweisen sei. US-amerikanische und kanadische Unternehmen gäben mehr als 20 Milliarden US-Dollar jährlich aus, um ihre Produkte an die Spitze von Suchmaschinenresultaten zu bringen. Hochrangierende Links führten zu mehr Klicks und mehr Aufmerksamkeit. Eine neuere Untersuchung von etwa 300 Millionen Klicks bei einer Suchmaschine ergab, dass 91,5 Prozent dieser Klicks auf die erste Seite der Suchergebnisse gingen, davon 32,5 Prozent auf das oberste und 17,6 Prozent das zweitplatzierte Ergebnis.
Algorithmen kaum journalistisch hinterfragt
Diese Entwicklungen bleiben oft im Dunkelfeld journalistischer Aufmerksamkeit. Im Journalismus gibt es nur sehr wenige Experten, die hierzu kompetente Recherchen durchführen könnten und an entsprechende „Betriebsgeheimnisse“ herankommen würden. Die kritischen Teilöffentlichkeiten besonders kompetenter Informatikspezialisten in verschiedenen Foren reichen nicht hin, hier zu umfassender Aufklärung beizutragen. Die oft privatrechtliche, profitorientierte Finanzierung, Organisation und Nutzung von Algorithmen führt zu interessegeleiteten Verfahren, die durch ihre mathematische Darstellung neutral zu sein scheinen. Die Zusammensetzung entsprechender Arbeitsgruppen berücksichtigt aber sehr selten explizit, intensiv und kontinuierlich anderes Expertenwissen (z.B. das von Journalisten). Zwar gibt es Ansätze, ursprünglich nicht verbalisierte und digitalisierte Berufserfahrungen zu explizieren, in digitale Datensets zu überführen und damit in einigen Dimensionen berechenbar zu machen. Aber solche Versuche sind selten und ihre Erfolge sind gering.
Die für algorithmische Lösungen zur Verfügung stehenden Daten sind zudem durchgehend und fundamental verzerrt und nicht repräsentativ. Denn sie gründen allein auf digitalisierten geschriebenen Texten oder digitalisierten audio-visuellen (Re-) Präsentationen. Damit werden die anderen Sinne ausgeschlossen. Algorithmen sind deshalb immer großenteils „sinn“los, weil Begreif-, Riech- und Schmeckbares nicht berücksichtigt wird. Vollsinnliche Evidenzen bleiben (noch) jenseits der Algorithmisierung.
Die Ursprünge und Verzerrungen von „Informationen“ mittels oder über Algorithmen sind deshalb genauso zu hinterfragen und zu diskutieren wie Verantwortungspflichten im Sinne des Presserechts oder der Produkthaftung. Klassische Ressorts bedürfen eigener Pendants eines investigativen Journalismus, um bisher scheinbar zuverlässige Quellen in ihren technik- und interessegeleiteten Kontexten aufzuklären.
Verdrängung kultureller Öffentlichkeit
Wir müssen öffentlich diskutieren, ob „systemrelevante“ Algorithmen in großen Datenbeständen („Big Data“) weiter vollkommen intransparent ausgebaut werden dürfen. Denn das macht prinzipiell wissenschaftliche und journalistische Aufklärung unmöglich. Entsprechend große Arbeitsgruppen können weder durch öffentliche Institutionen noch NGOs finanziert oder organisiert werden.
Globale Konzerne, die Steuern hinterziehen und Wettbewerbschancen für Konkurrenten zu mindern versuchen, haben bereits weite Teile kritischer Öffentlichkeiten ausgeschaltet. Ted Striphas resümierte in seinem Artikel „Algorithmic Culture“ im „European Journal of Cultural Studies“ 2015: „Es geht um nichts weniger als die allmähliche Verdrängung kultureller Öffentlichkeit. Statt ihrer entsteht eine seltsame Mischung von Botschaften („Das Medium ist die Botschaft“) einer neuen Machtelite, die vorgibt, einer mit sich selbst kommunizierenden Gemeinschaft ein neutrales soziales Medium und Forum zu bieten.“
Wie kann sich eine neue professionelle journalistische Kompetenz zur Aufklärung berechenbarer („algorithmisierter“) Öffentlichkeiten weiter entwickeln? Hierfür müssten Politik, Wirtschaft, Kultur und kritische Öffentlichkeiten zusammenarbeiten, auch in geschlossenen Netzen. Nur dann besteht weiterhin die Chance, demokratische Willensbildung durch einen verantwortungsbewussten Journalismus zu fördern.
Bei älteren Beiträgen wie diesem wird die Kommentarfunktion automatisch geschlossen. Wir bedanken uns für Ihr Verständnis.
Es empfiehlt sich die Sicht des Konsumenten einzunehmen. Denn im Endeffekt entscheidet dieser über den Erfolg eines Unternehmens. Nicht das Unternehmen selbst, oder die angeblich benachteiligte Konkurrenz.
Sollten Unternehmen, die Algorhytmen verwenden, damit Bedürfnisse befriedigen, dann werden sie auch künftig am Markt bleiben. Und sie werden sich jene Transparenz leisten müssten, welche ihre Kunden eben fordernd oder nicht.
Sobald man zu viel Macht in die Hände des staatlichen Gewaltmonopols legt, neigt es zum Machtmissbrauch und zum Preisanstieg. Unternehmen hingegen neigen stets zur preisgünstigsten Kundenbefriedigung.
Der Autor sollte davon zwei Lieder singen können.
Denn erstens ging die ehemals staatliche Universität, an der er heute lehrt, pleite und kann nur von den Mitteln einer superreichen Kaufmannsfamilie weitergeführt werden.
Zweitens führen die westlichen Staaten, seitdem viel Geld ins Militär geht, unentwegt Krieg. Nicht zuletzt gegen das eigene Volk.
Also ich bin mit meinen Medien total zufrieden. Nur nicht mit der Propaganda von den Staatsmedien wie ARD und ZDF. Und auch die (damals mit staatlichen Millionen aufgebaute) BILD-Zeitung berichtet hat nicht ganz neutral, wenn in den Arbeitsverträgen ihrer Angestellten steht, sie sollen nicht gegen die USA berichten. An der Macht der Algorithmen sollten wir auf jeden Fall dranbleiben. Ich gebe nur zu bedenken, dass, bloß weil dieser oder jene Suchmaschinenanbieter groß ist, deshalb noch lange nicht Marktkräfte außer Kraft gesetzt sein müssen. Google ist nicht groß, obwohl es vielen Menschen im Alltag und im Beruf hilft. Sondern weil! Übrigens hat die staatliche Elite nie etwas gegen einige wenige große Anbieter, denn die sind leichter zu kontrollieren als viele kleine, die auf dem freien Markt durch Konkurrenz entstehen könnten. Der Staat hilft somit nicht unbedingt bei der digitalen Informations-Reformation. Er steht dieser im Weg!
Und die algorithmierte Frorm der Suche/Speicherung entbehrte dessen?
Da bin ich nicht so sicher.
Nur der Bedarf ist "Schmalspur"?, was mich auch veranlasste "nicht mehr" zu googlen.
Täusche ich mich oder ist man da schnell im Klatsch- und Tratschbereich, wissenschaftlich m.E. nicht zu gebrauchen, aber um Konsumentenwünsche zu erkennen?
Mehr brauchen diese Leute vlt. nicht.
Dennoch konnte ich Google für meine Suchen benutzen, man muss nur überlegen welche Nebenschauplätze man benennt. Darüber funtkioniert es meist.
Der Punkt ist, dass jeder Suchende, wenn er fragt, einen Algorithmus hat?
Der Rest wird ausgeblendet.
Darüber können allerdings Ergebnisse verfälscht sein, sogar erheblich.
Internetrecherche ist nicht wissenschaftlich,
weshalb ich mir meine Informationen aus der Presse ziehe und auch da muss man sehr vorsichtig sein.
Aber Muster erkennt man schnell.
Kurz, ich würde den Teufel nicht an die Wand malen, aber man sollte das Bewusstsein schärfen für Unschärfen.