Bei der interdisziplinären Jahreskonferenz des Forum Privatheit in Berlin stand das Thema „Daten-Fairness“ im Mittelpunkt. Die zentrale Frage: Wie lässt sich eine gerechtere digitale Welt gestalten, in der Menschen und ihre Daten besser geschützt sind?
Das vom Bundesministerium für Bildung und Forschung (BMBF) als Teil der Plattform Privatheit geförderte Forum Privatheit stellte auf seiner Konferenz am 13. und 14. Oktober das Thema „Daten-Fairness in einer globalisierten Welt“ in den Mittelpunkt. Aus gutem Grund: Heutzutage kommt das Grundrecht der Menschen auf informationelle Selbstbestimmung häufig zu kurz, etwa bei der Nutzung von Messengerdiensten und Social-Media-Plattformen. Stattdessen profitieren vorrangig global agierende Tech-Unternehmen von den aktuellen Machtverhältnissen. Dabei beruht der Erfolg von Google, Meta & Co. zum großen Teil auf der hoch entwickelten Fähigkeit, Datenbestände zu sammeln, zu strukturieren, zu kontrollieren und zu vermarkten. Was bedeuten diese Strukturen für unser Leben in der digitalen Welt? Wie können wir sie in Zukunft fairer gestalten? Über Fragen wie diese diskutierten rund 80 Teilnehmende aus Wissenschaft, Politik und Zivilgesellschaft vor Ort bei der Veranstaltung, außerdem nahmen etwa 140 Personen online teil.
BMBF stellt mit Plattform Privatheit die Forschung breiter auf
Zu Beginn der Konferenz war der strategische Ausbau der BMBF-Förderung zur Privacy-Forschung Thema. In ihrer Begrüßung betonte Ministerialrätin Dr. Heike Prasse, Leiterin des fördergebenden Referats „Vernetzung und Sicherheit digitaler Systeme“ im BMBF, die Bedeutung der neu geschaffenen Plattform Privatheit. Sie wird künftig das Fundament bilden für die interdisziplinäre Forschung zu aktuellen Fragestellungen des Datenschutzes und der informationellen Selbstbestimmung. Der Kreis an Themen und Akteuren soll sich mit der Plattform deutlich erweitern, um Diskussionen und datenschutzfreundliche Innovationen anzustoßen. Eine erste Förderrichtlichtlinie zur Plattform Privatheit hat das BMBF bereits in diesem Jahr veröffentlicht.
Um Datenschutz zu gewährleisten und Innovationen zu ermöglichen, etabliert das BMBF neben der Plattform Privatheit auch explizit technische Forschungsschwerpunkte wie das Forschungsnetzwerk Anonymisierung für eine sichere Datennutzung. Die Forschungsprojekte und die Forschungscluster werden Technologien, Verfahren und Methoden zur Anonymisierung personenbeziehbarer Daten entwickeln. Die ersten Forschungscluster starten im kommenden Monat mit ihrer Arbeit.
Wolfgang Kerber, Professor für Wirtschaftspolitik an der Universität Marburg, erläuterte in seiner Keynote, dass weder das Wettbewerbs- noch das Datenschutzrecht bislang in der Lage waren, die Macht der globalen Digitalunternehmen wirksam einzudämmen. Er schlug daher vor, Wettbewerbs- und Datenschutzrecht stärker miteinander zu verzahnen. Dazu forderte er zum Beispiel, Digitalkonzernen gesetzlich zu verbieten, Dienste manipulativ zu gestalten („dark patterns“). Zudem warb der Ökonom dafür, die datenschutzrechtliche Einwilligung neu zu interpretieren, und zwar dahingehend, dass sie die dem Interesse der Nutzerinnen und Nutzer stärker Rechnung trägt.
Die Bedeutung innovativer Instrumente für eine faire Data Governance hob Gerrit Hornung, Professor für Öffentliches Recht, IT-Recht und Umweltrecht an der Universität Kassel und Mitglied im „Forum Privatheit“, hervor: „Es gibt einen großen Bedarf für Fairnesskriterien im Datenschutzrecht, beispielsweise im Rahmen von Zertifizierungsprogrammen, aber auch für die datenschutzkonforme Gestaltung neuer Technologien und Geschäftsmodelle“.
Forschung für eine gerechtere digitale Welt
Verschiedene Forschende stellten bei der Konferenz im Rahmen unterschiedlicher Formate ihre laufenden Projekte vor. Deutlich wurde der äußerst interdisziplinäre Charakter der Forschung zu Datenschutz und Privatheit. Ob Rechtswissenschaften, Informatik, Psychologie, Soziologie, Wirtschafts-, Politik-, Medien- und Kommunikationswissenschaften oder Linguistik: In den Forschungsteams arbeiten Wissenschaftlerinnen und Wissenschaftler unterschiedlichster Disziplinen gemeinsam an Lösungen. So etwa das interdisziplinäre Team des vom BMBF geförderten Projekts DESIVE2: In dem Vortrag „Das habe ich so in einer Studie gelesen!“, stellte es seinen Ansatz vor, um die Verbreitung von wissenschaftlich anmutender Desinformation im Gesundheitskontext zu erforschen – gerade im Kontext der Corona-Pandemie ein höchst aktuelles und relevantes Thema. Im Rahmen des Projekts werden beispielsweise qualitative Interview- und Befragungsmethoden eingesetzt, um im direkten Austausch mit Bürgerinnen und Bürgern zu erfahren, welche kritischen Ereignisse und subjektiven Auslöser zur Verbreitung von wissenschaftlich anmutender Desinformation führen können. Basierend auf den Erkenntnissen wollen die Forschenden ein Modell des Umgangs mit dieser speziellen Art von Desinformation entwickeln.
Bei der Konferenz wurde vor dem Hintergrund der Datengerechtigkeit intensiv über verzerrte algorithmische Entscheidungen und deren Auswirkungen auf bestimmte Personengruppen diskutiert, etwa in der Keynote von Alex Hanna vom Distributed AI Research Institute (DAIR). In ihrem Vortrag „Beyond Bias: Algorithmic Unfairness, Infrastructure, and Genealogies of Data“ beschäftigte sich die Soziologin beispielsweise mit falschen, diskriminierenden Entscheidungen automatischer Gesichtserkennungssysteme. Hanna legte dar, dass diese häufig in fehlerhaften Datensätzen begründet liegen, die zum Training von KI-Systemen genutzt werden. In ihrer Forschung betrachtet sie genauer, wie fairere Trainingsdatensätze aufgebaut werden können.
Abschließend zogen Mitglieder des Forum Privatheit ein positives Fazit der Tagung. „Die perfekte Lösung für Daten-Fairness konnten wir in den zwei Tagen zwar nicht ausarbeiten, aber im interdisziplinären Austausch zeigten sich viele gute Ansätze − da müssen wir weitermachen!“, so Marit Hansen, Landesbeauftragte für Datenschutz Schleswig-Holstein und Mitglied im Forum Privatheit.
Mit Veranstaltungen wie dieser Jahreskonferenz wird sich das Forum Privatheit auch künftig in wissenschaftliche und gesellschaftliche Debatten einbringen sowie den Dialog in der Plattform Privatheit aktiv fördern.