SPIEGEL: Herr Montag, vor elf Jahren hat Eli Pariser das Buch „Filter Bubble“ veröffentlicht. Seither wird viel darüber diskutiert, inwiefern personalisierte Angebote im Netz dazu beitragen, dass Menschen in abwegigen Weltbildern bestärkt werden. Welche Rolle spielt das Phänomen in der aktuellen Debatte über die Corona-Pandemie?

Christian Montag: Genau quantifizieren können wir das nicht. Die Vorselektion von Informationen durch einen Algorithmus wirkt aber mit großer Wahrscheinlichkeit in verschiedenen Themenbereichen unterschiedlich stark. Wir werden in unserer modernen Gesellschaft jeden Tag mit unglaublich vielen Informationen bombardiert. Insofern ist es gut, dass sie teils auf persönliche Interessen zugeschnitten werden. Wenn es um Politik oder Gesundheitsinformationen geht, kann das aber zu Problemen führen.

Icon: vergrößern

Christian Montag ist Professor an der Universität Ulm und leitet dort die Abteilung für Molekulare Psychologie. Er erforscht den Einfluss moderner Medien und sozialer Netzwerke auf die Gesellschaft. Außerdem analysiert er, wie Fake News entstehen und sich verbreiten.

SPIEGEL: Welche sind das?

Montag: Wenn jemand immer nur auf die Inhalte einer bestimmten Partei oder Organisation klickt, die abwegige Ansichten verbreitet, wird er in seinem personalisierten Newsfeed vor allen Dingen Nachrichten aus diesem Spektrum bekommen. Es wird dann immer schwieriger, die eigenen festgefahrenen – und manchmal falschen – Weltanschauungen zu korrigieren.

„Wenn Wut, Zorn und Ärger sehr stark stimuliert werden, fällt uns die bewusste Regulierung dieser Emotionen zunehmend schwer.“

SPIEGEL: Es gab vor ein paar Jahren eine Untersuchung, laut der Roboter, die den Video-Vorschlägen auf YouTube folgen, verlässlich bei Horror und Verschwörungstheorien landen. Warum lenken uns die Algorithmen vor allem auf diese Inhalte?

Montag: Es liegt im Interesse der Anbieter, die Nutzer möglichst lange auf ihrer Seite zu halten und sie zu…