Springe direkt zu Inhalt

Frei im Denken? Frei im Handeln?

Was sagt die Wissenschaft? Forschende der Freien Universität Berlin und des Weizenbaum-Instituts antworten

23.04.2026

Journalismus und politische Kommunikation haben sich durch die sozialen Medien verändert. Hassrede und Desinformation nehmen zu, der Ton ist rau. Tiktok, X & Co. nehmen immer stärker Einfluss auf die Meinungsbildung. Das hört und liest man immer wieder. Aber stimmt das auch? Wir fragen nach – bei Wissenschaftler*innen des Weizenbaum-Instituts, die zu den gesellschaftlichen Auswirkungen der Digitalisierung forschen.

Wie verändern soziale Medien unsere Kommunikation?

Wie verändern soziale Medien unsere Kommunikation?
Bildquelle: Illustration mit KI generiert

Der 2017 gegründete Verbund Weizenbaum-Institut, dem die Freie Universität Berlin angehört, wird vom Bundesforschungsministerium und dem Land Berlin gefördert. Weitere Partner*innen sind die Humboldt-Universität zu Berlin, die Technische Universität Berlin, die Universität der Künste Berlin und die Universität Potsdam sowie das Fraunhofer-Institut für Offene Kommunikationssysteme und das Wissenschaftszentrum Berlin für Sozialforschung.

Sind rechtsextreme Parteien besser im Umgang mit sozialen Medien als traditionelle, moderate Parteien?

Dr. Annett Heft

Dr. Annett Heft
Bildquelle: Katharina Stefes


Dr. Annett Heft leitet die Forschungsgruppe „Dynamiken der Digitalen Mobilisierung“ am Weizenbaum-Institut.

Es ist ein Ansatz, der oft zur Erklärung bemüht wird, warum die MAGA-Bewegung von Donald Trump oder die AfD derzeit so erfolgreich sind: Solche Akteure würden die sozialen Medien einfach besser nutzen als traditionelle Parteien. Aber stimmt das auch?

Annett Heft sagt: So einfach ist das nicht. Soziale Medien seien nur ein Faktor unter vielen. Aber was sehr wohl eine Rolle spiele: „Dass soziale Medien eine Möglichkeit bieten, ungefiltert und direkt zu kommunizieren. Dass also die Gatekeeper-Funktion, die der klassische Journalismus gespielt hat, immer weniger wichtig wird.“

Ein zweiter Faktor: Rechtspopulistische Parteien posten nicht nur öfter, sie sind auch erfolgreicher in der Generierung von Anschlusskommunikation, also der Weiterverbreitung ihrer Inhalte in den sozialen Medien. „Die Menschen an der Basis dieser Parteien sind offenbar aktiver darin, ihre Inhalte weiterzuverbreiten als Anhängerinnen und Anhänger gemäßigter Parteien“, sagt Annett Heft. Und drittens: „Polarisierende Inhalte zu kontroversen Themen ziehen das Interesse stark an.“

Diese „Affinität von Populismus und sozialen Medien“, wie es Annett Heft nennt, hat auch mit der Funktionslogik digitaler Plattformen zu tun: Extreme, emotionalisierende Inhalte werden höher gewertet, häufiger ausgespielt und angezeigt als andere. 
Diese Aufmerksamkeitslogik führt die Wissenschaftlerin zu der Frage: „Werden dadurch Themen und Positionen über ihre eigentliche Bedeutung in der realen Welt hinaus verstärkt? Bis sie quasi überrepräsentiert sind und dadurch andere, liberale Positionen übertönen, obwohl diese in der realen Welt viel mehr Fürsprecher haben?“


Nimmt die Verbreitung von Verschwörungstheorien wegen der sozialen Medien zu?

Wenn Kinder einander auf einem Berliner Schulhof erzählen, dass Jeffrey Epstein Kinder gegessen habe, sind offensichtlich zwei Dinge passiert: Ein mittelalterlicher Verschwörungsmythos wurde reaktiviert. Und: Durch Social Media wurde ein ganz neues und junges Publikum mit sehr altem Antisemitismus konfrontiert. 

Annett Heft geht davon aus, dass die Wahrscheinlichkeit, mit verschwörungstheoretischen Inhalten in Kontakt zu kommen, durch die sozialen Medien deutlich größer geworden ist. Und sie weist darauf hin, wie wandelbar und anpassungsfähig Verschwörungsmythen oder -theorien sind: Wie sie sich genau deshalb in der digitalen Sphäre rasant verbreiten, weil sie von den Verbreitenden den verschiedenen Medien angepasst werden. 

„Verschwörungstheoretische Inhalte sind oftmals je nach Plattform mehr oder weniger explizit formuliert“, sagt Heft. Auf den größeren Plattformen werde vorsichtiger formuliert, werde eher gefragt, nahegelegt, dass „da etwas dran sein könnte“. Oft kommen sie auch als lustig aufgemachte Clips daher, als Unterhaltung. Teilweise gelte: je abwegiger, desto lustiger. Und desto viraler. Mit dem Ziel, dass dadurch Anschlussfähigkeit bei einer breiteren Gruppe an Nutzenden erreicht wird, aber auch, um eine Regulierung seitens der Plattformen zu umgehen.

Eine zentrale Frage, die sich Annett Heft stellt, ist die eines möglichen Korrektivs: Eine Zeit lang galten Faktenchecks als nützliches Gegenmittel gegen Fake News und Verschwörungstheorien. Allerdings sind Faktenchecks nur bei einem Teil der Öffentlichkeit wirksam: Für überzeugte Anhänger von Verschwörungsmythen steht fest, dass gerade ihnen nicht zu trauen ist. In der Logik: Wenn ein Faktencheck etwas als Lüge überführt, dann muss es ja stimmen!

Was helfen würde, sagt die Wissenschaftlerin, wäre ein zweiseitiger Ansatz: Die Plattformen müssten mehr Verantwortung übernehmen und einschreiten, wenn schädliche Inhalte auf ihren Seiten kursieren – wobei die Frage, was freie Meinungsäußerung und was „schädlich“ ist, nicht trivial ist. Und die Kompetenzen der Nutzenden, die oftmals noch sehr jung sind, müssten gestärkt werden, um sie zu immunisieren, wenn ihnen die nächste Verschwörungstheorie als viraler Tiktok-Clip entgegenschwappt. Damit sie zweimal überlegen, welchen Inhalt sie weiterverbreiten wollen.

Wie verändert KI die Nachrichten?

Prof. Dr. Christoph Neuberger

Prof. Dr. Christoph Neuberger
Bildquelle: Mo Wüstenhagen


Prof. Dr. Christoph Neuberger ist wissenschaftlicher Geschäftsführer und Direktor des Weizenbaum-Instituts.

Dieser Text wurde nicht von einer Künstlichen Intelligenz geschrieben. Obwohl die das mittlerweile auch ganz passabel hinbekommen hätte. Oder? Die Transkription des Gesprächs, das diesem Text zugrunde lag, hat jedenfalls schon ein LLM, ein Large Language Model, erledigt. Ist es dann bald so weit, dass KI auch gleich den Rest erledigen könnte? Die Frage wird derzeit meist dann diskutiert, wenn die Nutzung von KI im Journalismus zu einer blamablen Panne führt, so wie es mit der Verwendung von KI-generierten Videos in einem Beitrag aus den USA im ZDF-heute-Journal der Fall war.

Christoph Neuberger ist wissenschaftlicher Geschäftsführer und Direktor des Weizenbaum-Instituts und an der Freien Universität Berlin Professor für Publizistik- und Kommunikationswissenschaft. Er beschäftigt sich schon lange mit den Veränderungen, die die Digitalisierung für den Journalismus und die Art, wie wir Nachrichten konsumieren, mit sich bringen. Für ihn ist der Einsatz von generativer KI nur die jüngste Etappe eines seit den 1990er Jahren dauernden Prozesses. Neuberger konstatiert, dass der Journalismus in Bezug auf KI mittlerweile das erste Stadium der naiven Begeisterung und des naiven Entsetzens hinter sich gelassen habe. Inzwischen hätten sich Standards etabliert und professionelle Normen eingespielt, sagt der Wissenschaftler: eine Kennzeichnungspflicht etwa, die überall sichtbar macht, wo KI zum Einsatz kommt: oder die Pflicht des „human in the loop“, dass also KI-generierte Inhalte nicht ohne Prüfung durch den Menschen ausgespielt werden.

Neuberger will den Einsatz von KI aber nicht nur als Gefahr bewerten, die eingehegt werden muss. Die positiven Potenziale von KI verdienten genauso viel Aufmerksamkeit. Bei vielen Anwendungen mache Künstliche Intelligenz Qualitätssprünge möglich – wenn man an eine europäische Öffentlichkeit denke etwa: Bislang wurden die vielen verschiedenen Sprachen als Hemmnis gesehen. Mit den Möglichkeiten KI-generierter Echtzeit-Übersetzung zeichneten sich ganz neue Möglichkeiten ab, sagt Neuberger. Genauso im Datenjournalismus: Es könnten viel größere Datenmengen mithilfe von KI durchforstet werden als bisher. Auch in der Individualisierung von Inhalten könne KI zum Einsatz kommen. Eine weitere Einsatzmöglichkeit zeichnet sich Neuberger zufolge ab: In jüngster Vergangenheit gab es bei fast allen Großkrisen, man denke an die Corona-Pandemie, stets den Vorwurf, dass „die Medien“ einseitig berichteten. Ein KI-gestütztes Echtzeit-Medien-Monitoring großer Datenmengen könnte einen solchen Vorwurf entkräften oder aber blinde Flecken sichtbar machen. So, und nun darf die KI hier noch die Rechtschreibkorrektur übernehmen.


Treiben die sozialen Medien in Deutschland die Polarisierung so weit wie in den USA?

„Polarisierung“, die Feststellung, wie „gespalten” eine Gesellschaft ist, wird meist nicht als wertfreie Beschreibung verwendet, sondern als Warnung oder Vorwurf. Für die USA skizziert Christoph Neuberger die Entwicklung so: 

Seit den 1980er Jahren sei dort der Medienmarkt immer stärker segmentiert worden, mit kleinen und radikaleren Kabelfernsehsendern und Talk-Radiostationen. Das kommerzielle Kalkül dahinter zielte nicht mehr auf hohe Reichweiten, sondern auf das Ansprechen vieler Zielgruppen. Im Zusammenspiel mit dem Zweiparteiensystem habe sich eine sehr eigene Polarisierung der Gesellschaft entlang politischer Differenzen herausgebildet.

Wenn man aber die deutsche Gesellschaft in den Blick nimmt, sagt Neuberger, müsse man mit dem Soziologen Steffen Mau feststellen, dass diese in ihren Tiefenstrukturen eben weniger polarisiert sei. Es gibt auch in Deutschland radikale Ränder, aber sie seien viel kleiner als in den USA. „Trotzdem bewirken sie – auch durch ihre Präsenz in den sozialen Medien – oft den Eindruck, dass unsere Gesellschaft viel stärker polarisiert sei, als sie eigentlich ist. Steffen Mau spricht von ‚Polarisierungsunternehmern‘, von Akteuren mit dem Interesse, Diskurse zu eskalieren.“

So entsteht eine Art selbsterfüllende Prophezeiung: Weil viele Menschen den Eindruck haben, wir lebten in einer sehr polarisierten Gesellschaft, verhalten sie sich so – und verstärken das Phänomen.

Bedrohen Desinformationskampagnen die öffentliche Meinungsbildung?

Prof. Dr. Barbara Pfetsch

Prof. Dr. Barbara Pfetsch
Bildquelle: David Ausserhofer


Barbara Pfetsch ist Professorin im Ruhestand der Freien Universität und Principal Investigator der Forschungsgruppe „Dynamiken der digitalen Mobilisierung“ am Weizenbaum-Institut.

Barbara Pfetsch ist so etwas wie eine Pionierin der „Plattformforschung“. Diese betreibt sie inzwischen als „vergleichende“ Forschung: weil sich Inhalte, Strukturen und Nutzende der verschiedenen Plattformen – Instagram, Tiktok, X oder Facebook – mittlerweile stark voneinander unterscheiden.

Pfetsch hat dabei auf ein Phänomen fokussiert, das immer wieder Schlagzeilen bewirkt: Kampagnen. Oder, wie sie präzisiert: gezielte Manipulationen der Informations- und Meinungsströme auf Social-Media-Plattformen, mit strategischem Ziel und politischen Absichten. Zum Beispiel sollen ausländische Akteure wie russische oder chinesische Trollfabriken dafür verantwortlich sein, Desinformationskampagnen zu Corona oder im Vorfeld von Bundestags- oder Europawahlen verfolgt oder gar Donald Trumps Einzug in das Weiße Haus befördert haben. Aus wissenschaftlicher Sicht sei es gar nicht so einfach festzustellen und einzugrenzen, was eine Kampagne ausmache, sagt Pfetsch. Der Umstand allein, dass sehr viele Nutzende in einem bestimmten Zeitraum ähnliche Inhalte posten oder weiterverbreiten, belege noch nicht, dass dahinter manipulative Absichten stecken: Das machen schließlich auch Graswurzel-Kampagnen wie #metoo oder die Klimabewegung.

„Wir sind nicht die Kriminalpolizei oder der Verfassungsschutz“, sagt Barbara Pfetsch und meint: Die Wissenschaft hat weder die Werkzeuge noch die Befugnisse, um Trollfabriken oder Hacker als Verantwortliche zu identifizieren. Ein Beleg für Manipulation sei eher, wenn quasi aus dem Nichts in einem kurzen Zeitraum sehr viele Posts von anonymen Usern mit ähnlichem Inhalt das Netz fluten und sich keine Urheber ausmachen lassen.

Ein erster Befund, den Pfetsch und ihr Team erhoben haben: Es gibt Desinformationskampagnen, die von ausländischen Akteuren ausgehen, aber sie sind zahlenmäßig wohl klein und beschränkt wirksam. Zugleich bezeichnet Pfetsch „Kampagnen“ auf sozialen Plattformen eher als eine Kommunikationstechnik: Eine Studie ihres Teams während der UN-Klimakonferenz in Scharm al-Scheich im November 2022 konnte keine Desinformationskampagnen nachweisen. Dafür aber den Versuch von lokalen Aktivisten in Ägypten, mit einer Social-Media-Kampagne von der öffentlichen Aufmerksamkeit zu profitieren.

Das führt zu neuen Schwierigkeiten von Regulierung: weil es die Abgrenzung zwischen Manipulation und konzertierter aktivistischer Kommunikation erschwert, zwischen dem, was noch Information oder schon strafbarer Missbrauch von digitaler Öffentlichkeit ist.


Was macht Hassrede mit der Wissenschaftsfreiheit?

Für die Kommunikationswissenschaftlerin Barbara Pfetsch ist Öffentlichkeit – und dazu gehört digitale Öffentlichkeit – unverzichtbar: als Diskursraum, in dem Ergebnisse der Forschung präsentiert, diskutiert und evaluiert werden. Zugleich muss Pfetsch konstatieren, dass eben diese Öffentlichkeit die Freiheit der Wissenschaft bedroht: Wenn Diskurs in Wut umschlägt, wenn Hassrede, Hate Speech, die Diskussion torpediert, wenn Forschende in ihrer Arbeit behindert werden.

Die Schwelle sei erreicht, wenn der Streit um das bessere Argument in Bedrohungen und Beschimpfungen umschlägt, in justiziable Taten, die Forschung unmöglich machen – weil sich kein Wissenschaftler mehr dem aussetzen wolle und so bestimmte Themen vermieden würden.

Pfetsch sagt, von Hate Speech, die die Wissenschaftsfreiheit bedroht, seien vor allem bestimmte Gruppen und Angehörige von Minderheiten betroffen: Frauen, queere Personen, migrantische Forschende. Von der Selbstregulierung der Plattformen erwartet die Wissenschaftlerin wenig: weil diese wegen ihrer Funktionslogik vor allem an Reichweite interessiert seien und an Aufmerksamkeits-Peaks, egal ob aus viralen Katzenvideos oder Hasskampagnen.

Barbara Pfetsch hat daraus ihre Schlüsse gezogen und plädiert für eine andere Form von Wissenschaftskommunikation: „Wir präsentieren unsere Forschungsergebnisse nicht breit in den sozialen Medien, sondern tauschen uns zielgerichtet mit den zivilgesellschaftlichen Gruppen aus, für die sie relevant sind. Damit unsere Forschung selbst nicht Gegenstand von Kampagnen wird.“

Wird Tiktok künftig Wahlen beeinflussen?

Dr. Jakob Ohme, Weizenbaum-Institut

Dr. Jakob Ohme, Weizenbaum-Institut
Bildquelle: Privat


Dr. Jakob Ohme leitet die interdisziplinäre Forschungsgruppe „Digital News Dynamics“ am Weizenbaum-Institut.

Es war eine große Frage jüngster Landtagswahlen: Unter jungen Menschen war die AfD stärkste Partei. Junge Leute nutzen Tiktok mehr als ältere. Ist das nur Korrelation oder auch Kausalität? Und wenn die Linkspartei bei der Bundestagswahl unter den 18- bis 24-Jährigen stärker als die AfD abschnitt: Lag das daran, dass Heidi Reichinnek auf Tiktok noch besser lief als Alice Weidel?

Jakob Ohme leitet die Forschungsgruppe „Digital News Dynamics“. Er sagt: Aus wissenschaftlicher Sicht sei das nicht leicht zu bestätigen oder zu falsifizieren, sondern mit mehreren methodischen Problemen verbunden. Ohmes Forschungsgruppe hat zusammen mit dem Bayerischen Rundfunk, der Stuttgarter Zeitung und der Universität Zürich erforscht, welche Inhalte Nutzende digitaler Plattformen während eines Wahlkampfes sehen. Dazu musste zuerst das Problem der Datenverfügbarkeit gelöst werden. Forschende haben keine Einsicht, welche Inhalte etwa der Tiktok-Algorithmus wem wie ausspielt.

Deshalb baten sie User, ihre Daten zu spenden, nachdem sie diese bei der Plattform angefordert hatten. Aus den Datenspenden konnten die Forschenden nachbauen, wie der Algorithmus funktioniert: Wer bekommt AfD-Videos angezeigt? Ohmes Team kombinierte diese Daten mit Befragungsdaten zu den politischen Präferenzen und erhielt ein aussagekräftiges Bild, ob und wie das eine mit dem anderen zusammenhängen könnte. „Nicht so stark, wie das teilweise vermutet wurde“, sagt Ohme. „Es besteht zwar eine algorithmische Auswahl, nach der Inhalte gemäß der eigenen parteipolitischen Präferenz ausgespielt wurden, aber nicht so stark, dass jemand nur Videos zu sehen bekäme, die die eigene Haltung spiegeln.“ 

Ihn hat das nicht überrascht. Einerseits, weil er schon vorher kein Anhänger der Filterblasen-These gewesen sei – andererseits auch, weil die Bundestagswahl früher stattfand als geplant. Dadurch sei der Beobachtungszeitraum zu kurz gewesen, um überprüfen zu können, ob sich die politische Präferenz ändert, wenn jemand bestimmten Inhalten verstärkt ausgesetzt war. Einen solch längeren Zeitraum wird Ohmes Team in diesem Jahr für die Landtagswahlen in Sachsen-Anhalt, Mecklenburg-Vorpommern und Berlin im Herbst untersuchen können.