Security News

Wie aktuelle KI-Forschung unsere Privatsphäre schützen wird

Kristina Ohr, 12 Januar 2021

Kryptografische KI-Forschung wird die Privatsphäre der Anwender schützen.

Im Dezember haben Avast und Borsetta, ein Unternehmen für AI-Software-basierte, sichere Computer-Hardware-Dienstleistungen, gemeinsam mit Intel das Private AI Collaborative Research Institute ins Leben gerufen. Ziel des Instituts ist es, die Grundlagenforschung zur Lösung realer Herausforderungen für die Gesellschaft zu fördern und sich der ethischen Herangehensweise bei der KI-Entwicklung zu widmen. Durch die Dezentralisierung der KI und die Verlagerung der KI-Analyse ins Netzwerk wollen die Unternehmen Daten aus Silos befreien, die Privatsphäre und Sicherheit schützen und Effizienz gewährleisten. 

Anfang 2020 haben die Unternehmen Forschungsteams in Universitäten dazu aufgerufen, ihre Projekte einzureichen, mit dem Ziel, die vielversprechendsten darunter durch das Institut zu unterstützen. Im Dezember standen dann neun Projekte fest, die das Institut unterstützt - darunter zwei der TU Darmstadt. Prof. Thomas Schneider von der Cryptography and Privacy Engineering Group (ENCRYPTO) der TU Darmstadt hat uns einige Fragen zum aktuellen Stand der Forschung beantwortet. 

Avast Blog: Was genau ist die Aufgabe des Forschungsteams der TU Darmstadt innerhalb des KI-Forschungsprojekts? 

Prof. Thomas Schneider: Unser Forschungsteam am Fachgebiet ENCRYPTO der TU Darmstadt befasst sich mit Methoden zum Schutz von sensiblen Daten im Kontext von dezentraler KI. Damit können beispielsweise KI-Dienste auf verteilten Nutzerdaten angewendet oder trainiert werden, ohne dass ein Diensteanbieter Einblick in diese vertraulichen Daten erhält. Hierfür entwickeln wir insbesondere kryptografische Methoden zur sogenannten sicheren Mehrparteienberechnung weiter und erforschen Möglichkeiten zur Steigerung ihrer Effizienz durch eine gezielte Kombination mit Hardwarekomponenten. Auf dieser Grundlage aufbauend wollen wir Prototypen für sichere KI-Dienste für verschiedene Anwendungsfälle realisieren.

Wie profitiert der Endverbraucher im Markt von Ihren Forschungsergebnissen? 

Unsere Hoffnung ist, dass unsere Forschungsergebnisse mit der Unterstützung der beteiligten Industriepartner direkt in die Entwicklung der nächsten Generation von KI-Diensten einfließen. Dabei würden Verbraucher unmittelbar von einem sehr starken Privatsphärenschutz profitieren, wohingegen bei derzeit genutzten KI-Diensten sensible Daten meist direkt an einen Dienstanbieter übertragen werden müssen.

Unsere Forschung hat zusätzlich das Potenzial, völlig neue KI-Dienste zu ermöglichen, da Datenschutzgesetze derzeit den Einsatz von KI-Diensten auf besonders sensiblen Daten (z.B. Genomdaten) stark einschränken. Mit den von uns entwickelten Technologien könnte diese Hürde genommen werden, da wir Daten bei deren Verarbeitung durch kryptografische Methoden schützen.

Können Sie als Wissenschaftler nachvollziehen, dass viele Menschen Ängste und Bedenken haben, wenn Sie von künstlicher Intelligenz hören? Woran liegt das Ihrer Meinung nach? 

Ja, das kann ich sehr gut nachvollziehen. Ich glaube, es liegt vor allem an fehlender Transparenz der Verwendung der Daten: Man weiß nicht wo, wie und wofür die eigenen Daten in KI-Systemen verwendet werden. Genau deshalb muss KI vertrauenswürdiger und Privatsphäre-schützender gemacht werden.

Was lässt sich Cyberkriminellen entgegensetzen, die vermehrt KI anwenden und für ihre Angriffe nutzen? 

Die Erkennung und Bekämpfung solcher KI-basierten Angriffe könnte eventuell unter Zuhilfenahme von KI-Technologie erfolgen, wobei dabei eine Art Wettrüsten zwischen Cyberkriminellen und Sicherheitsforschern entstünde. Ein verwandter Aspekt dieser Problematik ist, dass Kriminelle auch versuchen können, vermeintlich sichere dezentrale KI-Dienste durch das Einschleusen von speziell präparierten Daten zu manipulieren.

Werden Ihre Forschungsergebnisse Cybersicherheits-Unternehmen helfen, die Anzahl der ‘False Positives’ bei der Gefahrenerkennung zu senken? 

Wir forschen nicht direkt an Systemen zur Gefahrenerkennung wie beispielsweise Virenscannern oder Intrusion Detection-Systemen. Unsere Forschungsergebnisse erhöhen jedoch die Vertrauenswürdigkeit KI-unterstützter Systeme, indem die Privatsphäre der zugrunde liegenden Nutzerdaten geschützt bleibt. Durch die somit reduzierten Datenschutzbedenken könnten mehr bzw. detailliertere Daten genutzt werden, um solche Systeme (beispielsweise zur Gefahrenerkennung) zu verbessern.

Sehen wir Ihre Forschungsergebnisse schon heute in konkreten Anwendungen und in welchen Branchen sind diese zu finden, z. B. Automotive, Gesundheitswesen, Finanzen? Welche spannenden Lösungen werden wir in der Zukunft sehen? 

Leider sind kryptografische Protokolle für verteilte Berechnungen derzeit noch zu ineffizient für komplexe Anwendungen mit vielen Nutzern, da sie zu viel Rechenaufwand und Netzwerkkommunikation zwischen den involvierten Parteien erfordern. Es gibt jedoch schon einige erste Anwendungen von einfachen und speziell optimierten Protokollen, wie z.B. das Sicherheitsfeature von Browsern wie Chrome oder Safari, um auf Privatsphäre-schützende Art und Weise zu überprüfen, ob ein Passwort kompromittiert wurde. Unser langfristiges Ziel ist es, deutlich komplexere KI-basierte Anwendungen unter der Berücksichtigung von Sicherheitsaspekten nutzbar zu machen.

Wie wird die Privatsphäre der Anwender gewährleistet? 

Wir setzen zum Schutz der Privatsphäre auf beweisbar sichere kryptografische Protokolle. Damit können beispielsweise KI-Modelle dezentral trainiert sowie verwendet werden, ohne dass die zugrundeliegenden Nutzerdaten für eine der involvierten Parteien einsehbar sind - auch nicht für einen möglicherweise involvierten Diensteanbieter. Man kann sich den Prozess so vorstellen, dass sämtliche Daten durchgängig verschlüsselt sind, sogar wenn darauf Berechnungen wie für die Durchführung einer KI-Aufgabe nötig ausgeführt werden. Die verwendeten Protokolle garantieren mathematische Sicherheit, sodass sich die Anwender nicht nur auf technische und organisatorische Sicherheitsmechanismen verlassen müssen.

Vielen Dank, Herr Prof. Schneider, für das interessante Gespräch und weiterhin viel Erfolg für Ihre Forschungsprojekte!

Titelbild: Tanner Boriak, Unsplash

Interessiert an mehr News von uns? Folgen Sie uns auf Facebook und auf Twitter