
Manipulierte Inhalte, Desinformation und Deepfakes bedrohen nicht nur die digitale Öffentlichkeit – sie sind eine Herausforderung für Cybersicherheitsforschung und Demokratie. Beim Schlaglicht „Desinformation erkennen und abwehren“ wurde deutlich: Es braucht interdisziplinäre Ansätze, technische Lösungen – und politische Verantwortung.
Teilnehmende:
• Prof. Dr. Friederike Herrmann, Professorin für Journalistik und Kommunikationswissenschaft, Katholische Universität Eichstätt-Ingolstadt
• Prof. Dr. Tatjana Scheffler, Lehrstuhlinhaberin Digitale Forensische Linguistik, Ruhr-Universität Bochum
• Dr. Jan-Hinrik Schmidt, Senior Researcher, Leibniz-Institut für Medienforschung | Hans-Bredow-Institut
• Prof. Dr. Martin Steinebach, Abteilungsleiter Media Security und IT Forensics, Fraunhofer SIT
Desinformation zielt nicht nur auf Fakten – sie zielt auf Vertrauen. Vertrauen in Medien, Institutionen, Wissenschaft. Prof. Dr. Friederike Herrmann betonte, dass Falschinformationen häufig an gesellschaftlich wirkmächtige Narrative anknüpfen und sich nicht allein mit Faktenchecks neutralisieren lassen. Der Schutz gegen Desinformation müsse daher tiefer greifen – und kulturelle wie emotionale Dynamiken einbeziehen.
Prof. Dr. Tatjana Scheffler stellte das Projekt „noFake“ vor. Das Projekt verfolgte das Ziel , KI-gestützte linguistische Methoden zu entwickeln, die Falschinformationen automatisiert identifizieren – insbesondere in sozialen Medien. Die Herausforderung dabei: Sprache ist flexibel, mehrdeutig, kontextabhängig – technische Lösungen müssen dies abbilden. Gleichzeitig brauche es verlässliche Tools, um faktenbasierte Kommunikation in digitalen Räumen zu stärken – für Journalismus, Bildungsarbeit und Plattformregulierung.
Dr. Jan-Hinrik Schmidt argumentierte, dass Resilienz gegen Desinformation nicht nur technologisch, sondern gesellschaftlich erzeugt werde. Ambiguitätstoleranz – also die Fähigkeit, Widersprüche auszuhalten und nicht vorschnell einfachen Erklärungen zu folgen – sei eine Schlüsselkompetenz. Sie müsse schon in der Bildung angelegt werden. Digitale Aufklärung bedeute, Menschen zu befähigen, Informationen einzuordnen – und Unsicherheit als Teil demokratischer Diskurse zu verstehen.
Prof. Dr. Martin Steinebach hob hervor, dass es bei der Bekämpfung von Desinformation nicht allein um die Bewertung einzelner Inhalte gehen könne. Entscheidend sei die Analyse ihrer Verbreitungswege: „Das Erfolgsversprechende ist wirklich die Verteilungsstruktur-Ebene.“ Besonders in geschlossenen Kanälen wie Messenger-Gruppen sei der Anteil problematischer Inhalte deutlich erhöht – hier müsse Forschung ansetzen, um systematische Muster zu erkennen.
Alle Diskutierenden waren sich einig: Technische Lösungen allein reichen nicht. Es braucht klare politische Rahmenbedingungen, die Plattformen in die Verantwortung nehmen – etwa bei der Kennzeichnung manipulierter Inhalte, Transparenz über Algorithmen und dem Umgang mit systematischer Desinformation. Forschungsförderung müsse sich auch auf die Entwicklung von Interventionsmodellen und evidenzbasierter Regulierung erstrecken.