
Potential und Grenzen von großen Sprachmodellen für mit Wasserzeichen markierten Text und gesprochene Sprache
Sowohl die Menge als auch die Qualität von Texten und Sprachdateien, die von Maschinen generiert werden, nehmen rasant zu. Dadurch wird es immer schwieriger, sie von menschlich erzeugten Texten zu unterscheiden. Digitale Äquivalente von Wasserzeichen könnten hier Abhilfe schaffen. Sie werden bei traditionellen Texten genutzt, um Informationen wie den Urheber des Textes anzugeben und garantieren die Echtheit eines Dokuments. Die Einbettung von Wasserzeichen in digitale Textdokumente, das sogenannte „Text-Watermarking“, ermöglicht es Nutzenden zu erkennen, ob ein Text von einem Menschen oder einem zertifizierten Computerprogramm geschrieben wurde.
Das Projekt „Lantmark“ untersucht die Potenziale des Einsatzes aktueller Text-Watermarking-Methoden und entwickelt neue, anwendbare Verfahren hierfür. Außerdem erforscht das Projektteam, inwieweit sich große Sprachmodelle (Large Language Models, LLM) entwickeln lassen, die Wasserzeichen automatisch in generierte Texte und somit auch in gesprochene Sprache einbinden können. Auf Basis dieser Information lässt sich dann beispielweise ablesen, welches Modell einen Text verfasst hat. Dadurch können Nutzende einfacher herausfinden, welches Programm den Text erstellt hat oder ob dieser von einem Menschen verfasst bzw. gesprochen wurde. Die Forschenden untersuchen darüber hinaus, wie eine Zertifizierung von LLM für Watermarking realisiert werden kann.
Das Vorhaben vereinfacht die Unterscheidung von menschen- und maschinengenerierten Texten und ermöglicht es, zu erkennen, welche Programme einen Text erzeugt haben, oder zu überprüfen, ob eine Informationsquelle authentisch ist, und so potentielle Desinformation zu identifizieren. Zertifizierte Sprachmodelle ermöglichen es beispielsweise Unternehmen und Personen, Falschmeldungen über sich aufzudecken, wenn diese nicht die korrekten Wasserzeichen enthalten, und stärken damit die digitale Souveränität der Bürgerinnen und Bürger sowie der Wirtschaft.
Das Markieren maschinell erzeugter Texte mit digitalen Wasserzeichen macht es einfacher, die Autorenschaft eines Textes zu bestimmen und Desinformation zu erkennen. (Quelle: Fraunhofer IDMT, generiert mit DALL-E 3 (OpenAI) durch Patrick Aichroth)