Ein
Spiegel Artikel
on
Konrad Lischka zeigt einen interessanten Aspekt der modernen sozialen Medien.
Wir waren schon immer von unserem Umfeld beeinflusst worden. Heute wird das noch verstärkt.
Wir glauben, die ganze Welt hat unsere Meinung, unsere Sicht und fühlen uns bestätigt.
Die Realität ist aber anders. Das uns mitgebaute Soziale Netz passt sich uns an:
Es ist eine schleichende, unheimliche Veränderung: Bei Facebook,
Google oder Amazon entscheidet Software, was der Nutzer zu sehen bekommt
und was nicht. Nur wenigen ist bewusst, wie stark Algorithmen inzwischen
unser Bild von der Wirklichkeit bestimmen - was nicht passt, schluckt
der Filter.
Eli Pariser, der langjährige Chef der Politaktivisten-Plattform
MoveOn.org, hat vor ein paar Tagen auf der TED-Konferenz eine
interessante Geschichte zu den neuen Pforten der Wahrnehmung erzählt:
Irgendwann, so Pariser, sei ihm auf Facebook aufgefallen, dass er in
seinem Nachrichtenstrom immer weniger von den konservativen Kontakten
las, die er seinem Netzwerk hinzugefügt hatte. Um auch mit
abweichenden Meinungen konfrontiert zu werden, wie er sagt. Allein:
Der Facebook-Algorithmus blendete mit der Zeit mehr und mehr dieser
Meinungsäusserungen aus - weil, so vermutet Pariser, er nicht so
oft die von den konservativen Kollegen empfohlenen Artikel anklickte
wie die seiner liberalen Gleichgesinnten.
(...)
Parisers Analyse greift etwas kurz, solange er nur von den Algorithmen
spricht, die das Netz filtern. Eine ganz ähnliche Verengung der
Weltsicht lässt sie bei Twitter beobachten, wo die Nutzer selbst
entscheiden, welchen Menschen sie folgen, wessen Leseempfehlungen und
Kommentare sie sehen wollen. Twitter filtert diesen persönlich
zusammengestellten Strom der Hinweise, Wortmeldungen und Kommentare nicht
- man sieht in chronologischer Abfolge ohne jede weitere Gewichtung,
was das selbstgewählte Umfeld gesagt hat.