- Das Netz, ein kafkaesker Staat?
Ihnen wird nachgesagt, den Mainstream zu befördern und kreativitätstötend zu sein: Algorithmen. Unser digitales Leben wird schon lange von einer Art virtuellem Korrektorat bestimmt. Der Algorithmus durchzieht das Netz und bestimmt unsere Wahrnehmung in der digitalen Welt. Oder? Über ein Leben mit der Maschine
Das Internet, so könnte man meinen, ist erst einmal das Internet. Etwas, das für alle gleich ist. Für jeden das gleiche Angebot, für jeden die gleiche Information -- und alle Freunde sind gleich. Dabei wird das digitale Leben schon lange von einer Art virtuellem Korrektorat bestimmt: Algorithmen durchziehen das Netz, sind an allen entscheidenden Stellen präsent und bestimmen maßgeblich unsere Wahrnehmung der digitalen Welt. Du bekommst, was du siehst. Nur dass schon lange nicht mehr alle das gleiche sehen. Formen also Menschen Algorithmen – oder ist es nicht schon lange umgekehrt?
Der Hintergrund ist einfach und zunächst auch nachvollziehbar. Das Internet ist schlichtweg zu groß geworden. Es gibt zu viel Information, zu viele Menschen, zu viele Netze. Nicht einmal der strukturierteste Mensch wäre noch in der Lage, Millionen Webseiten, tausende Kontakte, Postings in Echtzeit, Videos, Animationen, Kommentare und natürlich ein gigantisches Warenangebot zu überblicken und wenigstens in eine halbwegs nachvollziehbare Relevanz zu bringen. Das Netz in seiner anarchischen Grundform ist das genaue Gegenteil dessen, was klassische Medien tun: Es gibt per se keinen Filter, keine Einordnung, keine Bewertung. Das ist zu viel, weshalb der grundsätzliche Gedanke eines Algorithmus naheliegend ist: Die Maschine macht etwas für den Nutzer, was der wiederum alleine nicht hinbekäme. Sie sortiert vor, sie liefert Antworten, sie gewichtet in Netzwerken sogar die Freunde nach Wichtigkeit und individueller Bedeutung. Die Maschine kennt uns, manchmal sogar besser als wir uns selber kennen. Weil sie nichts, aber auch rein gar nichts vergisst. Und weil wir sie füttern, jeden Tag, jede Sekunde. Mit jedem Klick, den wir im Netz hinterlassen, bekommen Algorithmen Daten von uns. Je mehr sie davon haben, desto besser lernen sie uns kennen.
Algorithmen sind allgegenwärtig. Sie können kleine Helferlein im Hintergrund von Steuerungsgeräten sein, sie finden sich in jedem Textverarbeitungsprogramm, wenn es darum geht, Rechtschreibung und Grammatik zu überprüfen. Es gibt zahllose Anwendungen, in denen der Algorithmus quasi neutral ist. Dann trifft er keine Entscheidungen, er nimmt keinen Einfluss auf uns als Person, er gibt uns Informationen auf Basis von weitgehend unumstrittenen Informationen. Sehr viel komplizierter wird die Angelegenheit, wenn Algorithmen beginnen, unsere Informationen, unseren Konsum, unsere Beziehungen und irgendwann auch unser Bild von der Welt zu beeinflussen. Die Frage ist: Können sie das? Und wenn ja: positiv oder doch eher negativ?
Und spätestens an diesem Punkt kommen zwei Weltbilder ins Spiel, die unterschiedlicher kaum sein könnten. Das eine geht davon aus, dass “der Computer” und “der Algorithmus” (beides übrigens Dinge, die es in dieser pauschalen Form gar nicht gibt) das Schlechte aus dem Menschen und seiner Gesellschaft herausholt.
Wahlweise ist dann die Rede von “bürokratischen Diktaten eines kafkaesken Staates” (der Informatiker David Gelernter) oder “rücksichtslosen Algorithmen”. Der Journalist Eli Pariser beklagt in seinem Buch “Filter Bubble”, dass Algorithmen letztendlich kreativitätstötend seien, weil sie verhindern, dass wir auch andere Impulse und Sichtweisen zu sehen bekommen als diejenigen, die wir ohnehin schon kennen. Und die Medienwissenschaftlerin Miriam Meckel schlägt in eine ähnliche Kerbe: Letztendlich beförderten Algorithmen den Mainstream. Die immer gleichen Empfehlungen einer immer gleichen Formel für das immer gleiche Publikum - wie soll das Vielfalt und Kreation entwickeln?
In seinem Büro an der Passauer Universität sitzt Professor Thomas Knieper und sieht diese Debatte wenigstens entspannt. Er sieht sie aus der Sicht des Wissenschaftlers, für den eine Sache erst einmal bewiesen sein muss, bevor er sie glaubt. Das sorgt für einen eher nüchternen Blick auf die Dinge. Szenarien wie das von Eli Pariser oder auch das Mainstream-Szenario von Miriam Meckel hält er für “zu kurz gedacht”. Weil sich letztlich niemand mit ein paar wenigen Formeln in Schubladen einsortieren lässt. “Intelligent sieht anders aus”, sagt Knieper -- und verweist darauf, dass in der Praxis niemand einen Menschen einfach nur, wie Meckel kritisiert, “von einem Tunnel in einen anderen treibt”. Knieper verweist auf die Praxis etlicher Onlineshops, die das Kaufverhalten ihrer Kunden systematisch auswerten. Neben den aus dem Profil bzw. bisherigen Käufen abgeleiteten Kaufempfehlungen stellen sie immer wieder zufällig ausgewählte Produkte ein, damit sie sehen, wie man darauf reagiert. Damit können sie auf Verhaltens- und Einstellungsänderungen oder hinzu gekommene Bedürfnisse reagieren.
Seite 2: Gibt es einen intelligenten Algorithmus?
Betrachtet man es nüchtern, dann ist die Intelligenz eines Algorithmus erst einmal vom Menschen abhängig und von den Daten, die man ihm gibt. Wobei: Intelligenz? Thomas Knieper entlockt diese Idee nur ein eher müdes Lächeln: “Im Weltbild einer schwachen KI gilt: Ein Algorithmus ist eine prozessuale Abarbeitung von Handlungsanweisungen. Der Algorithmus ist daher niemals schlau, allenfalls wird durch ihn ein intelligentes Verhalten simuliert.”
Ist die Kritik an Algorithmen auch deshalb wohlfeil, weil sie uns gelegentlich vor Augen führen, dass wir uns gar nicht so verhalten wie wir von uns selber denken? Oder weil sie uns klar machen, dass wir einfacher zu durchschauen sind als wir im Glauben an unsere Einzigartigkeit denken? Das messbare Verhalten, schrieb die Autorin Kathrin Passig in der “Süddeutschen Zeitung”, unterscheide sich vom gefühlten. Klagen über die Ergebnisse von Algorithmen seien deshalb häufig Klagen darüber, dass Wunsch und Wirklichkeit auseinander klaffen.
Natürlich sehen aber auch Wissenschaftler durchaus ihre Risiken im Umgang mit dem Algorithmus, im Leben mit der Maschine. Thomas Knieper beispielsweise verweist darauf, dass Algorithmen beschränkt werden sollten, will man nicht einer vollständigen Wissensillusion aufsitzen. “Entweder sollte er daher nach einer entsprechenden Frist abbrechen oder aber weitere Handlungen erst nach einer Abfrage durch einen Menschen durchführen.”
Möglicherweise ist das Problem, das viele Algorithmen-Kritiker haben, auch gar nicht der Algorithmus. Der ist ja letztendlich nur eine Handlungsanweisung, mit der – nüchtern betrachtet – einfach nur ein Problem gelöst werden soll. Und der im Normalfall nichts über den Nutzer am anderen Ende weiß; zumindest nichts, was problematisch wäre. Schwieriger sind da schon die Daten, die gesammelt werden müssen, um Algorithmen eine Basis zu geben. Wüsste man also irgendwann einiges über das Kauf- und Nutzungsverhalten eines Menschen im Internet, biometrische und biophysiologische Daten und würde man dann andere Verhaltensdaten und Einstellungen zusammen führen, hätte man schnell den vollständig gläsernen Menschen, der auch im echten Leben schon identifiziert werden könnte, bevor er beispielsweise ein Kaufhaus betritt. “Eine Horrorvorstellung”, nennt Thomas Knieper das. Indes aber auch eine, von der wir momentan immer noch sehr weit entfernt sind.
Und es gibt ja auch andere Theorien. Das pure Gegenteil der “filter bubble” wird von der vor allem in der Netzgemeinde wesentlich populäreren Idee des “long tail” vertreten. Dieser Theorie zufolge machen es personalisierte Algorithmen tendenziell eher möglich, sich auch abseits des Mainstreams zu bewegen. Das Onlineshop-Beispiel mag dafür exemplarisch sein: Intelligente Algorithmen richten sich eben nicht nur strikt nach dem bisherigen Kauf- und Nutzungsverhalten, sondern ziehen die Möglichkeit einer Überraschung mit ins Kalkül. Eine geplante Überraschung, sozusagen. Anders gesagt: Wer die Bestseller-Listen oder die Charts liest, bekommt das, was der Mainstream hört, liest, kauft. Wem der Algorithmus hingegen vorschlägt, sich doch auch mal mit diesem oder jenem zu beschäftigen, weil es ja immerhin möglich wäre, dass ihm das ebenfalls gefällt, der landet dann möglicherweise bei Dingen, die wirklich fernab von jeglichem Mainstream liegen.
Unbeschadet dessen, für Algorithmen-Skeptiker wie ihre Befürworter gibt es eine Nachricht, die dann irgendwie wieder beruhigend ist: Nie werden es Algorithmen schaffen, unsere wahre Identität tatsächlich zu entschlüsseln. Wissenschaftler gehen schon lange davon aus, dass Menschen beispielsweise in sozialen Netzwerken keineswegs so sind, wie sie sind. Stattdessen wird ein öffentliches Ich kreiert, jemand, der viel mehr das darstellt, was jemand sein möchte, als das, was er tatsächlich ist. Eli Pariser beispielsweise räumt in seinem Buch “Filter Bubble” ein, gelegentlich mal auf lange und eindrucksvoll wirkende Texte anderer zu verlinken – ohne sie je richtig gelesen zu haben. Sieht aber gut aus. Und der Juraprofessor Daniel Solove kommt noch zu einem viel simpleren Schluss: “Wir sind mehr als die Datenfragmente, die wir im Lauf unseres Lebens freigeben.”
Bei älteren Beiträgen wie diesem wird die Kommentarfunktion automatisch geschlossen. Wir bedanken uns für Ihr Verständnis.