Im folgenden Video sehen Sie einen äußerst interessanten, empirischen Überblick zur derzeitigen Forschungslage bei den Themen Filterblasen, Fakenews, digitale Öffentlichkeit und „Algorithmische Entscheidungsfindung (ADM)“ auf den sozialen Netzwerken. Der Vortrag wurde von Christian Stöcker, Professor für digitale Kommunikation an der HAW Hamburg und Konrad Lischka, Mitarbeiter der BertelsmannStiftung auf der diesjährigen „re:publica“ gehalten: https://www.youtube.com/watch?v=N0k7uOdNGUY
Stöcker und Lischka gehen dabei der sehr weitreichenden aber auch schwer zu klärenden Frage nach, ob soziale Netzwerke überhaupt einen messbaren Einfluss auf die (politische) Meinungsbildung haben und wie dieser durch das Wirken „algorithmischer Entscheidungsfindung“ auf Plattformen wie bspw. facebook zu erklären ist. Begünstigen diese Algorithmen, also automatische Systeme, die entscheiden, was wir dort (vorrangig) angezeigt bekommen, also die Entstehung von Filterblasen oder die Verbreitung von Fakenews und beeinflussen damit direkt oder indirekt gesellschaftliche Diskurse?
Immerhin 57 Prozent aller Onlinenutzer geben zumindest in einer Studie an, dass sie sich „gestern“ über das politische Geschehen online informiert haben. Über die wirkliche Wirkung auf deren Meinungsbildung gibt es aber noch wenig Hinweise. Zumal andere Studien zeigen, dass das Fernsehen nachwievor relevant ist bei der Meinungsbildung. Fakt ist aber auch: die Algorithmen, die entscheiden, was wir als user bspw. bei facebook angezeigt bekommen oder nicht, sind tendenziell so gebaut, dass sie Phänomene wie Filterblasen, Fakenews oder social bots wahrscheinlicher machen und/oder verstärken können. Denn sie bewerten Relevanz und damit die Wahrscheinlichkeit der Anzeige letztlich auf Basis von likes, shares, klicks und Kommentaren und gehen dabei rein quantitativ und stochastisch vor. So haben sie weder ein eingebautes Wahrheitskriterium noch bieten sie für den Einzelnen Vielfalt beim Informationsangebot, denn ihr „Geschäft“ ist vorrangig die schnelle Emotion und was wir nicht sehen „wollen“, bekommen wir tendenziell so auch nicht zu sehen, weil der Algorithmus unsere ganze user-Geschichte durchleuchtet und kennt.
Auch die Kommentare von social bots, also unechten Profilen, hinter denen keine Personen sondern Algorithmen stecken, werden vermehrt angezeigt. Denn sie gaukeln dem System Relevanz vor, indem sie hunderttausendfach automatisch „tweeten“ und „retweeten“ und damit Themen im Netz setzen können. Allein im US Wahlampf waren bei den Wahl-Debatten 400 000 solcher bots unterwegs, die auf twitter 3,8 Millionen tweets abgesetzt haben und so ein Fünftel der Gesamtkommentare zu den Debatten ausmachten.
Was meinen Sie dazu? Wir glauben, dass sich auch das politische System in den nächsten Jahrzehnten grundsätzlich weiterentwickeln muss, um die technologischen Entwicklungen, die die Digitalisierung mit sich bringt, „aufzufangen“. Einen wesentlichen Beitrag bei der Transformation des Politikfeldes spielt dabei die Weiterentwicklung des gegenwärtigen Begriffs „Politischer Öffentlichkeit“. Wichtige Fragen sind hier zu stellen: Wie machen wir den Raum des Internets zu einem vernünftigen Diskursraum? Wie kanalisieren wir also Emotionen in sachbezogene und zielführende Argumente? Wie beugen wir bewusster Manipulation und Desinformation vor? Und wie sind die digitalen Vorgänge im Netz eigentlich an die realen Ereignisse in der Politik und den klassischen Medien gekoppelt? Entstehen hier zunehmend Gegenöffentlichkeiten, die die Intregrationsfähigkeit unserer Gesellschaft weiter in Gefahr bringen? Oder liegen hier nicht eher auch große Chancen für neue Partizipations- und Demoktarisierungsbewegungen, da der Raum politischer Öffentlichkeit nun für viele Akteure geöffnet ist? Bringen Sie sich ein – für einen menschgerechten Weg der Digitalisierung.
Die Studie von Stöcker und Lischka kann auch öffentlich und kostenlos direkt bei der BertelsmannStiftung eingesehen werden: https://www.bertelsmann-stiftung.de/fileadmin/files/BSt/Publikationen/GrauePublikationen/Digitale_Oeffentlichkeit_final.pdf