In einer jüngst in Nature Communications Physics publizierten Studie untersuchte ein Forschungsteam der Universität Freiburg unter der Leitung von Dr. Matúš Medo die Desinformation im Internetzeitalter:
Mithilfe der Methoden der Physik komplexer Systeme konnte aufgezeigt werden, dass irrige Meinungen in Systemen mit unzähligen Informationsquellen von selbst auftreten können.
Manchmal informieren wir uns sehr umfassend, um uns eine Meinung über eine Sache zu bilden. Dies wäre aber in aller Regel viel zu aufwendig, weshalb wir uns zumeist auf Meinungsquellen stützen, die wir als zuverlässig erachten. Ist diese Methode robust? Wie reagiert sie auf Desinformationen? Genau diese Fragen stellte sich Dr. Matúš Medo, Physiker und Spezialist für komplexe Systeme an der Universität Freiburg.
«Alles begann mit einem persönlichen Erlebnis», erklärt er. «Ich las Informationen über die Geschehnisse in Venezuela und fragte mich, für welche Seite ich Partei ergreifen würde – für die Demonstranten oder die Regierung.» Wie die meisten von uns nahm sich Matúš Medo nicht genügend Zeit, um sich nuanciert über die Vorgeschichte und die verschiedenen Aspekte der Situation zu informieren. Er bildete sich seine Meinung anhand von Stellungnahmen anderer Akteure, unter anderem von verschiedenen Staaten. «Ich stellte fest, dass die Länder, denen ich vertraute, die eine Partei unterstützten, und umgekehrt. Daran orientierte ich mich.»
Eine anfällige Methode im Internetzeitalter
Matúš Medo hat sich daraufhin gefragt, wie zuverlässig diese Art der Meinungsbildung ist. Um dieser Frage auf den Grund zu gehen, kombinierte der Physiker Computersimulationen mit theoretischen Berechnungen. Zusammen mit seinem Forschungsteam stellte er fest, dass diese Methode relativ zuverlässig ist, solange die Zahl der Themen, über die man sich eine Meinung bilden will, gering ist. Mit steigender Themenzahl erweist sich die Methode jedoch als zunehmend instabil. In einem komplexen System mit einer hohen Themenvielfalt kann ein gleicher Ausgangspunkt zu diametral entgegengesetzten Schlussfolgerungen führen. Das ehrliche Bemühen einer Bürgerin bzw. eines Bürgers, sich eine Meinung zu bilden, kann somit in einem Trugschluss enden. Und noch schlimmer: Sie werden in der Folge selbst zu Desinformationsträger_innen.
Meinungspolarisierung
Es existiert bereits eine grosse Zahl von Studien über die Verbreitung von Falschinformationen in Systemen wie den sozialen Netzwerken, wo eine Quelle – oft mit unredlichen Absichten – Fake News platziert, die sich danach wie ein Lauffeuer verbreiten. Das Team von Matúš Medo hingegen beleuchtet mit seiner Studie ein Phänomen, das selbst Systeme beeinträchtigen kann, in denen sämtliche Teilnehmer_innen ehrlich sind und sich mit den besten Absichten eine Meinung zu bilden versuchen. Die Studie zeigt, dass Desinformation bei Erreichen einer ausreichend grossen Zahl von Meinungen von selbst auftritt und sich verbreitet. Das System tendiert sogar dazu, sich in zwei Gruppen von diametral entgegengesetzten Informationsquellen zu «polarisieren», die sich gegenseitig misstrauen. Dieses Phänomen ist mittlerweile aus den sozialen Netzwerken gut bekannt.
«Unsere Studie bietet Lösungsansätze zum besseren Verständnis von Desinformation und der Verbreitung irriger Meinungen im Internetzeitalter», so Matúš Medo. Die Forschungsergebnisse legen nahe, dass uns unsere einfachen Meinungsbildungsmechanismen in einer immer komplexer werdenden Welt in die Irre führen und zu Trugschlüssen verleiten können. Die Modelle zeigen, dass diesem Phänomen entgegengewirkt werden kann, indem Anstrengungen unternommen werden, die Zahl der zuverlässigen Meinungen zu erhöhen. Dies unterstreicht die Bedeutung des kritischen Denkens in unserer hochvernetzten Gesellschaft mit ihrer Informations- und Meinungsflut.
Literatur
Medo, M., Mariani, M.S. & Lü, L. «The fragility of opinion formation in a complex world», Nature Commun Phys 4, 75 (2021).
Quelle: Universität Freiburg, 19. Mai 2020
Die Feindselige Sprache gegenüber politischen Fremdgruppen fördert das Engagement in den sozialen Medien
Die Besorgnis über die Rolle der sozialen Medien bei der politischen Polarisierung wächst. Social-Media-Beiträge werden doppelt so häufig viral, wenn sie Politiker, die sie ablehnen, eher negativ bewerten als diejenigen, die sie unterstützen, so eine Studie der Cambridge University.
Es analysierte über einen Zeitraum von fünf Jahren 2,7 Millionen Tweets und Facebook-Posts von US-Medien und Politikern. Die negativen Beiträge wurden auch doppelt so häufig kommentiert.
Sie zogen auf Facebook mehr wütende oder lachende Emoji-Reaktionen auf sich als die positiven Herzen oder Daumen hoch.
Es wurde in der Studie untersucht, ob Fremdgruppenfeindlichkeit besonders erfolgreich war, um Engagement auf zwei der größten Social-Media-Plattformen zu generieren: Facebook und Twitter.
Bei der Analyse von Beiträgen von Nachrichtenmedien und US-Kongressmitgliedern (n = 2.730.215) fanden wir heraus, dass Beiträge über die politische Fremdgruppe etwa doppelt so oft geteilt oder retweetet wurden wie Beiträge über die Eigengruppe. Jeder einzelne Begriff, der sich auf die politische Fremdgruppe bezieht, erhöhte die Wahrscheinlichkeit, dass ein Social-Media-Beitrag geteilt wird, um 67 %. Fremdgruppensprache erwies sich durchweg als der stärkste Prädiktor für Shares und Retweets:
Die durchschnittliche Effektstärke der Fremdgruppensprache war etwa 4,8-mal so stark wie die der Sprache mit negativem Affekt und etwa 6,7-mal so stark wie die der moralisch-emotionalen Sprache – beides etablierte Prädiktoren des Social-Media-Engagements.
Die Sprache über die Fremdgruppe war ein sehr starker Prädiktor für „wütende“ Reaktionen (die beliebtesten Reaktionen in allen Datensätzen), und die Sprache über die Eigengruppe war ein starker Prädiktor für „Liebes“-Reaktionen, was die Eigengruppenbegünstigung und Fremdgruppenablehnung widerspiegelte. Dieser Fremdgruppeneffekt wurde nicht durch die politische Orientierung oder die Social-Media-Plattform moderiert, aber bei politischen Führern wurden stärkere Effekte festgestellt als bei Nachrichtenmedien.
Zusammenfassend ist die Fremdgruppensprache der stärkste Prädiktor für das Engagement in sozialen Medien über alle relevanten gemessenen Prädiktoren hinweg, was darauf hindeutet, dass soziale Medien möglicherweise perverse Anreize für Inhalte schaffen, die Feindseligkeit gegenüber Fremdgruppen zum Ausdruck bringen.
Literatur:
Rathje, Steve; Van Bavel, JJ; van der Linden, Sander
«Outgroup Animosity Drives Engagement on Social Media»
May 2021
https://stevenrathje.com/publication/outgroup-animosity-drives-engagement-on-social-media/index-1/
[pdf-embedder url=»https://innovators-guide.ch/wp-content/uploads/2021/06/s42005-021-00579-3.pdf»]