Sichere Nutzung generativer KI in Unternehmen
Große Sprachmodelle (engl. Large Language Models, LLM) als eine Art generativer Künstlicher Intelligenz (KI), können sehr nützlich sein, um die Produktivität zu erhöhen. Aktuell nutzen allerdings erst wenige Unternehmen solche Systeme, da Datenschutz- und Sicherheitsrisiken bestehen. Deshalb gilt es, LLM-Lösungen zu entwickeln, die sensible Unternehmensinformationen schützen.
Die Forschenden im Projekt „CyberLinguaGuard“ zielen darauf ab, eine skalierbare und hochsichere Referenzarchitektur zu entwickeln, die aus einer semantischen Datenbank und einem LLM besteht. Unternehmen sollen durch diese Architektur generative KI nutzen und gleichzeitig Cybersicherheit, Datenschutz sowie insbesondere Datensouveränität gewährleisten können. Dadurch können Unternehmen große Sprachmodelle auch mit vertraulichen und internen Informationen sicher verwenden. Das Projektteam entwickelt für diesen Zweck spezielle Methoden zur Verschlüsselung und berechtigungsspezifischen Trennung von Daten innerhalb der Architektur, die mehrstufige Datenschutzkonzepte integriert. Dies stellt die Datenhoheit und Datensouveränität innerhalb des Systems sicher und garantiert so eine bestmögliche Sicherheit im Umgang mit Unternehmensdaten.
Die Entwicklung einer Referenzarchitektur für LLM mit höchstem Anspruch an Cybersicherheit ermöglicht mittelfristig auch KMU ohne eigene Expertise, guten Gewissens und datenschutzrechtlich einwandfrei die Vorteile von LLM zu nutzen. Die Architektur und das entwickelte Framework sollen offen für neue Entwicklungen im Bereich der generativen KI sein und über starke Sicherheitsmechanismen verfügen. All dies ermöglicht es vielen Unternehmen, die Potenziale von LLM besser zu nutzen und so die Innovationskraft zu stärken.