Datenschutzgerechte Nutzung großer Sprachmodelle im Gesundheitswesen
Mit der Veröffentlichung von ChatGPT Ende 2022 gelangte das Thema der großen Sprachmodelle (eng. Large Language Models, LLMs) in den Mittelpunkt des öffentlichen Interesses und fand schnell Anklang − auch in datenschutzsensiblen Bereichen wie dem Gesundheitswesen. Dort birgt die Nutzung von großen Sprachmodellen jedoch erhebliche Risiken für die Privatsphäre von Menschen. Da sensible Gesundheitsdaten verarbeitet werden, sind hier besondere Sicherheitsmaßnahmen notwendig.
Im Projekt „ILLUMINATION“ zielen die Forschenden darauf ab, einen Werkzeugkasten mit technischen Methoden und Handlungsempfehlungen für die Privatsphäre-schonende Nutzung von LLMs im Gesundheitsbereich zu entwickeln. Hierzu setzt das Projektteam auf innovative Methoden wie Differential Privacy, synthetische Daten und Private Information Retrieval, um die Risiken für die Privatsphäre zu minimieren. Die Forschenden bewerten die Methoden zudem aus menschzentrierter, rechtlicher und anwendungsspezifischer Perspektive, um Zielkonflikte zwischen Privatsphäre, rechtlichen Vorgaben, Vorhersagequalität von LLMs und Rechenaufwand zu identifizieren. Auf dieser Grundlage erarbeitet das Projektteam interdisziplinäre Handlungsempfehlungen, um das medizinische Personal zu mehr Verantwortung im Umgang mit LLMs zu motivieren.
Der innovative Lösungsansatz für eine vertrauenswürdige und Privatsphäre-schonende Nutzung von LLMs im Gesundheitswesen adressiert den aktuellen Bedarf an effektiven Datenschutzmaßnahmen. Das Projekt liefert neben technischen Methoden auch praktische Handlungsempfehlungen für den Privatsphäre-schonenden Einsatz von LLMs und erleichtert es damit Unternehmen, diese Technologien in Form von privatheitsfreundlichen Geschäftsmodellen einzusetzen und damit auf dem deutschen Markt erfolgreich zu sein.