Expertise zu vertrauenswürdiger Künstlicher Intelligenz gewinnt

Teams aus der Cybersicherheits-Forschung der TU Darmstadt erfolgreich

07.12.2020

Zwei Forschungsteams der TU Darmstadt konnten in einem weltweiten Wettbewerb zu vertrauenswürdiger Künstlicher Intelligenz (KI) mit ihren Forschungsprojekten punkten und werden Teil des von den Unternehmen Intel, Avast und Borsetta initiierten Private AI Collaborative Research Institute.

Die Cryptography and Privacy Engineering Group unter Leitung von Prof. Thomas Schneider und das System Security Lab unter Leitung von Prof. Ahmad-Reza Sadeghi aus dem Profilbereich Cybersicherheit der TU Darmstadt überzeugten mit ihren Forschungsideen im Rahmen eines international ausgeschriebenen Wettbewerbs. Renommierte Universitäten waren aufgefordert, Forschungsideen für das von Intel, Avast und Borsetta initiierte Private AI Collaborative Research Institute einzureichen. Neun Forschungsteams, darunter zwei der TU Darmstadt, konnten sich im Konkurrenzfeld behaupten. Sie verstärken mit ihrer Expertise ab sofort die Forschungskooperation zu vertrauenswürdiger KI.

„Künstliche Intelligenz stellt eine wahre Goldmine für Cybersicherheits-Forschung dar“, betont Prof. Ahmad-Reza Sadeghi, Leiter des System Security Lab und Sprecher des Profilbereichs Cybersicherheit (CYSEC) an der TU Darmstadt. Im Vordergrund seiner Forschungsarbeiten steht das sogenannte Federated Machine Learning, um exakte, vertrauenswürdige und sichere Algorithmen in Software und Hardware für KI zu etablieren.

„Täglich werden enorme Datenmengen erzeugt, gesammelt und weiterverarbeitet. Wir benötigen neue Methoden der angewandten Kryptographie für Privatsphäre-schützende KI-Systeme, um so den Schutz sensibler Daten zu gewährleisten“, erläutert Prof. Thomas Schneider, Leiter des Fachgebiets Cryptography and Privacy Engineering (ENCRYPTO). Sein Forschungsprojekt beschäftigt sich insbesondere mit Methoden zur sicheren Mehrparteienberechnung und der Anwendung von Hardware-beschleunigter Kryptographie im Kontext von dezentraler KI.

Die Kooperationspartner aus wissenschaftlicher Forschung und Industrie wollen unter dem Dach des Private AI Collaborative Research Institute Herausforderungen bewältigen, die durch die Ausbreitung von KI in nahezu alle Lebensbereiche und Industriezweige entstehen.

Private AI Collaborative Research Institute

Das Private AI Collaborative Research Institute ist eine Forschungskooperation mehrerer Unternehmen. Das ursprünglich von Intel initiierte Zentrum baut sein Forschungspotenzial aus, indem es mit Avast, einem weltweit führenden Sicherheitsunternehmen, und Borsetta, einem Start-up für Edge-Computing, eng zusammenarbeitet. Ziel ist es, mit der Förderung von Grundlagenforschung Technologien voranzubringen und zu entwickeln, welche die Sicherheit und das Vertrauen in dezentrale Künstliche Intelligenz (KI) stärken.

The research projects in detail (english-only)

Engineering Private AI Systems (EPAI)
Principal investigator: Thomas Schneider

For EPAI, the ENCRYPTO group at TU Darmstadt will develop basic technologies to build private AI systems, investigate their orchestration strategies to optimize efficiency and costs on a given network and compute infrastructure, and systematically validate these to allow for automatically selecting the most efficient solution for a specific usage scenario. As underlying technologies, the ENCRYPTO group will mix different building blocks from cryptography and hardware, including secure multi-party computation, hardware acceleration, and trusted execution environments.


Decentralized Trustworthy Federated Learning (TRUFFLE)
Principal investigator: Ahmad-Reza Sadeghi

For TRUFFLE, TU Darmstadt will design a framework for FL that provides comprehensive security and privacy. The design will be resilient against various attacks, such as poisoning, and will incorporate privacy-enhancing technologies based on decentralized aggregators and advanced crypto-based primitives to address privacy requirements of FL. TRUFFLE will incorporate hardware-assisted security and trusted execution environments of varying capabilities.