Twitter und die Wall Street, oder: Wenn Algorithmen Meinung machen

In einem sehr kenntnisreichen Artikel diskutiert das neue Wissensmagazin „limn“ eine Frage, die in der Diskussion um die Macht von Social Media gerne untergeht: Die Frage nämlich, wie sehr unser Meinungsbild (und übrigens auch unsere persönliche Nachrichtenlage) heute schon von Algorithmen, also Automaten bestimmt wird.

Bekanntestes Beispiel für den Effekt ist Facebook. Kein Mensch kapiert mittlerweile mehr, nach welchen Gesetzmässigkeiten die Posts der eigenen Facebook-Freunde angezeigt werden – oder eben auch nicht. Eli Pariser hat das in einem sehr schönen TED-Talk sehr gut beschrieben und den Effekt „Filter-Bubbles“ genannt: Nehmen wir mal an, ich selbst bin politisch auf der Linie der SPD. Unter Meinen Facebook-Freunden sind genau 50% SPD-Anhänger, die anderen 50% sind alle CDU-Anhänger. Was wird passieren? Weil das meiner eigenen Meinung eher entspricht, werde ich vermutlich häufiger auf die Postings der SPD-Anhänger klicken als auf diejenigen der CDU-Anhänger. Was macht Facebook daraus? „Aha!“, sagt der Algorithmus, „dieser User klickt offensichtlich häufig auf diese Postings und nicht auf die anderen“. Und, schwupps, schon verbirgt der Algorithmus mehr und mehr Postings meiner CDU-Freunde – und meine (Facebook-)Welt wird immer SPD-lastiger. Abweichende Meinungen bekomme ich nicht mal mehr zu Gesicht.

Wollen wir das?

Na ja: sicherlich nicht. Aber es ist halt mal wieder ein richtig schön klassischer Zielkonflikt – erstens. Denn angesichts der immer größer werdenden Informationsflut ist es ja nicht nur ein legitimes, sondern mittlerweile fast überlebenswichtiges Anliegen, wichtiges von unwichtigem möglichst per Automation schon an einem Punkt zu unterscheiden, bevor ich mir das alles überhaupt anschauen muß. Heißt also: Eigentlich ist der Effekt gewollt, und eigentlich ist der Filterprozeß auch wünschenswert.

Aber zweitens ist dennoch die Erkenntnis wichtig (und neu), dass Algorithmen im Social Web plötzlich in ihrer Eigenschaft als Instrumente der Informationsfilterung zwangsläufig zu Instrumenten der (politischen) Meinungsbildung werden. Und, klar: In diesem Sinne wären sie auch durch ihren Urheber manipulierbar. Also, mal ein blödes Beispiel: Wenn Facebook aus irgendeinem Grund wollte, dass nicht Barrack Obama, sondern Milt Romney der nächste Präsident der USA wird – dann wäre ein naheliegender Weg zu diesem Ziel, den Facebook-Algorithums so zu verändern, dass die ja doch einigermaßen zahlreichen Facebook-User von Obama einfach nichts mehr zu sehen bekommen. Zukunftsmusik? Vielleicht. Aber theoretisch möglich. Und man muß sich auch an dieser Stelle einfach immer klarmachen, dass alle großen Player auf dem Feld der Social Media nun mal Wirtschaftsunternehmen sind, die logischerweise auch wirtschaftliche Interessen verfolgen. Und wirtschaftliche Interessen sind immer auch politisch.

Ein dritter Punkt kommt dazu: Zwar liegt die Funktionsweise eines Algorithmus natürlich in der Hand seines Urhebers. Aber: Man kann die Dinger spammen. Damit sind also auch Interessensgruppen in der Lage, zwar keine Informationen zu verbergen, aber gezielt Informationen in den Vordergrund zu rücken, die da vielleicht gar nicht hingehören. Auch dieser Aspekt muß bedacht werden.

Doch zurück zum Anfang. In dem von „limn“ diskutierten Beispiel geht es nicht um Facebook, sondern um einen sehr interessanten Mechanismus auf Twitter, nämlich die so genannten „Trending Topics„. Hier wird durch einen Algorithums ermittelt, welche „Hash-Tags“ (#wetter, #obama o.ä.) gerade besonders beliebt sind. Dabei geht es aber nicht nur darum, wie häufig der jeweilige Hash-Tag vorkommt, sondern beispielsweise auch darum, wie schnell seine Verwendung ansteigt, ob das gleiche Thema schon mal „Trending“ war und ob die Tweets zum Thema aus wirklich neuem Content bestehen oder ob sie nur Retweets (Weiterleitungen) eines bereits vorhandenen Tweets sind (Näheres dazu hier).  Im konkreten Fall hatten sich Aktivisten der „Occupy“-Bewegung darüber aufgeregt, dass ihr Hash-Tag #occupywallstreet bei Twitter nicht „getrendet“ hatte. Und sofort stand eine schöne neue Verschwörungstheorie im Raum: Twitter habe die Trends bewußt „zensiert“, weil es ein Wirtschaftsunternehmen sei, dessen Gewinnerzielungsabsicht letztlich den Zielen der Occupy-Bewegung zuwiderlaufe.

Doch so schön die Theorie ist, sie läßt viele ganz banale Ursachen für das „Nicht-Trenden“ außen vor:

  • Vielleicht war das Thema einfach doch nicht so interessant, wie die Aktivisten selber dachten
  • Vielleicht ist seine Popularität sehr hoch gewesen, aber nicht schnell gewachsen
  • Vielleicht waren einfach gerade andere Themen NOCH „trendiger“
  • Vielleicht waren zu viele Retweets im Spiel.

Das alles wären, wie gesagt, völlig legitime Erklärungen für den beobachteten Effekt. Ich denke also, die Frage der Zensur stellt sich (hier zumindest) vorerst nicht.

Aber noch ein weiterer Effekt der „Trending Topics“ ist interessant: Nämlich der einer teilweise selbsterfüllenden Prophezeihung. Denn alleine die Tatsache, dass ein Thema „Trending“ ist, führt ja dazu, dass es NOCH mehr gelesen wird. Das war sicherlich der Effekt, den die Occupy-Aktivisten sich erhofft hatten. Wenn man das weiterdenkt, wird damit letztlich ein Algorithmus zum Agendasetter, um nicht zu sagen: Zum Meinungsmacher.

Weiterlesen