Desinformation erkennen und abwehren – eine Herausforderung für Cybersicherheitsforschung und Demokratie

Manipulierte Inhalte, Desinformation und Deepfakes bedrohen nicht nur die digitale Öffentlichkeit – sie sind eine Herausforderung für Cybersicherheitsforschung und Demokratie. Beim Schlaglicht „Desinformation erkennen und abwehren“ wurde deutlich: Es braucht interdisziplinäre Ansätze, technische Lösungen – und politische Verantwortung.

Diskutierten darüber, wie sich Desinformation besser erkennen und abwehren lässt: Moderatorin Carmen Hentschel, Dr. Jan-Hinrik Schmidt (Hans-Bredow-Institut), Prof. Dr. Tatjana Scheffler (Ruhr-Universität Bochum), Prof. Dr. Martin Steinebach (Fraunhofer SIT) und Prof. Dr. Friederike Herrmann (Kath. Universität Eichstätt-Ingolstadt).© BMBF, Laurin Schmid / bundesfoto

Teilnehmende:

• Prof. Dr. Friederike Herrmann, Professorin für Journalistik und Kommunikationswissenschaft, Katholische Universität Eichstätt-Ingolstadt
• Prof. Dr. Tatjana Scheffler, Lehrstuhlinhaberin Digitale Forensische Linguistik, Ruhr-Universität Bochum
• Dr. Jan-Hinrik Schmidt, Senior Researcher, Leibniz-Institut für Medienforschung | Hans-Bredow-Institut
• Prof. Dr. Martin Steinebach, Abteilungsleiter Media Security und IT Forensics, Fraunhofer SIT

Desinformation als Angriff auf Vertrauen

Desinformation zielt nicht nur auf Fakten – sie zielt auf Vertrauen. Vertrauen in Medien, Institutionen, Wissenschaft. Prof. Dr. Friederike Herrmann betonte, dass Falschinformationen häufig an gesellschaftlich wirkmächtige Narrative anknüpfen und sich nicht allein mit Faktenchecks neutralisieren lassen. Der Schutz gegen Desinformation müsse daher tiefer greifen – und kulturelle wie emotionale Dynamiken einbeziehen.

Prof. Dr. Friederike Herrmann machte deutlich, wie wichtig es ist, Narrative bei der Erforschung von Desinformation zu berücksichtigen. © BMBF, Laurin Schmid / bundesfoto

Forschung an der Schnittstelle von Sprache, Technik und Gesellschaft

Prof. Dr. Tatjana Scheffler stellte das Projekt „noFake“ vor. Das Projekt verfolgte das Ziel , KI-gestützte linguistische Methoden zu entwickeln, die Falschinformationen automatisiert identifizieren – insbesondere in sozialen Medien. Die Herausforderung dabei: Sprache ist flexibel, mehrdeutig, kontextabhängig – technische Lösungen müssen dies abbilden. Gleichzeitig brauche es verlässliche Tools, um faktenbasierte Kommunikation in digitalen Räumen zu stärken – für Journalismus, Bildungsarbeit und Plattformregulierung.

Medienkompetenz und Ambiguitätstoleranz

Dr. Jan-Hinrik Schmidt argumentierte, dass Resilienz gegen Desinformation nicht nur technologisch, sondern gesellschaftlich erzeugt werde. Ambiguitätstoleranz – also die Fähigkeit, Widersprüche auszuhalten und nicht vorschnell einfachen Erklärungen zu folgen – sei eine Schlüsselkompetenz. Sie müsse schon in der Bildung angelegt werden. Digitale Aufklärung bedeute, Menschen zu befähigen, Informationen einzuordnen – und Unsicherheit als Teil demokratischer Diskurse zu verstehen.

Verbreitungsstrukturen verstehen – nicht nur Inhalte bewerten

Prof. Dr. Martin Steinebach hob hervor, dass es bei der Bekämpfung von Desinformation nicht allein um die Bewertung einzelner Inhalte gehen könne. Entscheidend sei die Analyse ihrer Verbreitungswege: „Das Erfolgsversprechende ist wirklich die Verteilungsstruktur-Ebene.“ Besonders in geschlossenen Kanälen wie Messenger-Gruppen sei der Anteil problematischer Inhalte deutlich erhöht – hier müsse Forschung ansetzen, um systematische Muster zu erkennen.

Prof. Dr. Martin Steinebach ging in seinem Vortrag sowie im Projekt DYNAMO der Frage nach, welche Rolle Messenger bei der Verbreitung von Desinformationen spielen. © BMBF, Laurin Schmid / bundesfoto

Plattformverantwortung und politischer Rahmen

Alle Diskutierenden waren sich einig: Technische Lösungen allein reichen nicht. Es braucht klare politische Rahmenbedingungen, die Plattformen in die Verantwortung nehmen – etwa bei der Kennzeichnung manipulierter Inhalte, Transparenz über Algorithmen und dem Umgang mit systematischer Desinformation. Forschungsförderung müsse sich auch auf die Entwicklung von Interventionsmodellen und evidenzbasierter Regulierung erstrecken.