Professor Esfandiar Mohammadi vom Institut für IT-Sicherheit der Universität zu Lübeck erklärt im Interview, weshalb es wichtig ist, Datenschutz bei digitalen Technologien mitzudenken. Eine Herausforderung ist dies insbesondere, wenn Geräte − etwa bei der Selbstvermessung − sensible Daten erfassen und mit Künstlicher Intelligenz (KI) arbeiten.
Ob Herzfrequenzmessungen bei Stress, Optimierung von Trainingszyklen im Sport oder Schlaftracking: Immer mehr Menschen erfassen mithilfe von digitalen Geräten Daten über sich selbst. Doch diese Selbstvermessung kann auch Probleme mit Blick auf den Datenschutz mit sich bringen – gerade wenn die Geräte mit Künstlicher Intelligenz (KI) arbeiten. Prof. Esfandiar Mohammadi vom Institut für IT-Sicherheit der Universität zu Lübeck forscht im BMBF-geförderten Projekt „MLens − Datenschutzfreundliches Maschinelles Lernen für eine sichere Selbstvermessung“ an entsprechenden Lösungen.
Ein großer Vorteil von modernen Selbstvermessungsanwendungen ist, dass sie nicht nur Vitalwerte in Alltagssituationen messen, sondern diese Messungen auch in den Kontext der jeweiligen Situation einordnen. Ein Beispiel wäre ein Frühwarnsystem, welches bei der Erfassung von Blutzuckerwerten oder EKG-Daten auch die aktuelle Aktivität miteinbezieht, etwa mittels Smartphone-Sensoren. Da die Arbeit mit Sensordaten- und Messgeräten facettenreich ist, profitieren diese Anwendungen von einer gründlichen Feinjustierung. Moderne Verfahren ermöglichen es, solche Selbstvermessungsanwendungen kontinuierlich zu verbessern, sofern sie die Daten teilen. Neben Frühwarnsystemen sehe ich ein großes Potenzial der Selbstvermessung auch für andere Gesundheitsdienste, etwa Assistenzsysteme für Personen mit Allergien oder Vorerkrankungen.
Eine unvorsichtige Verarbeitung von Daten über Alltagsaktivitäten Einzelner birgt eine deutliche Gefahr für deren Privatsphäre. Wenn man genau hinschaut, hinterlassen viele Arten der Datenverarbeitung Spuren über die Daten im Berechnungsergebnis. Aus diesen Spuren lassen sich potenziell sensible Informationen über eine Person extrahieren.
Maschinelle Lernverfahren bieten eine Vielzahl an statistischen Methoden, um aus Beispieldaten automatisch eine Lösung für eine Aufgabe zu lernen. Moderne Lernverfahren wie etwa lernende neuronale Netze nutzen dabei Hunderttausende bis Milliarden von Stellschrauben. Diese werden während einer Lernphase automatisch auf die Beispieldaten angepasst. Bei genauerer Betrachtung findet man bei diesen Stellschrauben sehr deutliche Spuren der genutzten Beispieldaten. Aus den Stellschrauben lassen sich also Informationen über die Beispieldaten extrahieren. Wenn diese Beispieldaten Informationen über Alltagsaktivitäten von Personen umfassen, kann etwa ein derart angelerntes neuronales Netz hochsensible Informationen über die Privatsphäre einzelner Personen preisgeben.
Bei maschinellen Lernverfahren gilt grundsätzlich: Mit mehr personenbezogenen Daten können auch mehr und bessere Anwendungen angelernt werden. Aktuell zögern allerdings viele Personen, ihre Daten selbst für Anwendungen anzubieten, die anderen Menschen helfen können. Aussagekräftige und verlässliche Garantien über den Schutz der Privatsphäre können ein wichtiger Baustein sein, um die Datenschutzbedenken bezüglich Datenspenden zu adressieren. Heutige maschinelle Lernverfahren sind allerdings entweder nicht in der Lage, solche Garantien zu liefern, oder nicht flexibel genug für anspruchsvolle Anwendungen.
In MLens arbeiten wir an Privatsphäre erhaltenden verteilten maschinellen Lernverfahren für ein selbstverbesserndes EKG-Frühwarnsystem. Es soll zum Beispiel nach Herzoperationen genutzt werden. Alle Daten sollen dabei bei den Personen bleiben, an denen sie gemessen wurden. Und selbst Zwischenergebnisse, die zur Selbstverbesserung geteilt werden, sollen beweisbar keine Gefährdung der Privatsphäre darstellen. Solche Privatsphäre erhaltenden Lernverfahren wären eine Schlüsseltechnologie für eine Vielzahl an Visionen für selbstverbessernde Endnutzeranwendungen, die mit persönlichen Daten arbeiten.
Die Forschung hat Methoden erarbeitet, die sogar mathematisch beweisen, dass sie Privatsphäre garantieren können, so zum Beispiel Differential Privacy. Die DSGVO gibt keine Anhaltspunkte darüber, inwiefern eine derart Privatsphäre erhaltende Datenverarbeitung ein geringeres Risiko für Einzelne bedeutet als eine klassische Datenverarbeitung. Insbesondere für die Medizin würde die Anerkennung von Privatsphäre erhaltender Datenverarbeitung neue Wege ermöglichen: von der Erkennung seltener Krankheiten, über personalisierte Medizin bis hin zur Verlässlichkeit von Resultaten durch verbesserte Reproduzierbarkeit.
IT-Sicherheit sollte wie Brandschutz bei Gebäuden eine notwendige Bedingung für Anwendungen sein. Rohdaten, wie Aufnahmen oder Messungen, sollten bei den Personen verbleiben, bei denen diese Daten erhoben wurden. Ausnahmen sollten ausschließlich Datenspenden oder verteilte Privatsphäre erhaltende Verfahren bilden. Jede Anwendung sollte in der Zukunft in der Lage sein, de Nutzerschaft automatisiert zu beweisen, dass die versprochenen Regeln der Datenverarbeitung eingehalten werden.
Anwendungen, die die Privatsphäre Einzelner nicht gefährden und die Rohdaten nicht teilen, schaffen eine Grundlage für Vertrauen. Es wäre dann vertretbar, personenbezogene Daten einfließen zu lassen, selbst wenn sie nur dazu dienen, Anwendungen zu verbessern. Außerdem kann Vertrauen zu großflächigen Datenspenden führen, welche wiederum die Umsetzung neuer, spannender Anwendungen ermöglicht, wie etwa voll- oder halbautomatisierte Gesundheitsdienste oder persönliche Assistenzsysteme für den Alltag.