Project Details
Projekt Print View

Machine Learning and Digital Watermarking in Adversarial Environments

Subject Area Security and Dependability, Operating-, Communication- and Distributed Systems
Term from 2017 to 2022
Project identifier Deutsche Forschungsgemeinschaft (DFG) - Project number 393063728
 
Final Report Year 2022

Final Report Abstract

Maschinelles Lernen wird zunehmend in sicherheitskritischen Anwendungen eingesetzt, wie zum Beispiel zur Schadsoftware-Erkennung oder im autonomen Fahren. Hier ist es wichtig, dass Angreifer die eingesetzten Lernalgorithmen selbst nicht umgehen oder täuschen können. Das Forschungsgebiet des “Adversarial Machine Learning” beschäftigt sich daher mit Angriffen und Verteidigungen für Lernalgorithmen. Parallel dazu untersucht das Forschungsgebiet des “Digital Watermarking”, wie digitale Medien gekennzeichnet werden können, ohne dass ein Angreifer die Markierung wieder entfernen oder extrahieren kann. Trotz unterschiedlicher Ziele weisen beide Gebiete eine überraschend ähnliche Angriffsfläche auf. Das von der DFG geförderte Projekt verfolgte das Ziel beide Gebiete zusammenzubringen. Zu diesem Zweck wurde eine Schnittstelle erarbeitet, die den Lern- und Markierungsprozess sowie Angriffe und Verteidigungen zusammenführt. Im Laufe des Projektes konnten diverse Angriffs- und Verteidigungskonzepte aus beiden Forschungsdisziplinen in die jeweilige andere Disziplin erfolgreich transferiert werden. Als nennenswertes Nebenprodukt dieser Forschung ist ein Transfer von Methoden auf den Bereich der Multimediasicherheit entstanden. Zudem konnten Angriffe studiert werden, die nicht nur das Lernsystem in einem Vektorraum täuschen, sondern auch reale Objekte erzeugen, wie zum Beispiel Programmcode.

Publications

  • Adversarial Machine Learning Against Digital Watermarking, Proc. of the European Signal Processing Conference (EUSIPCO), 2018
    E. Quiring and K. Rieck
    (See online at https://doi.org/10.23919/EUSIPCO.2018.8553343)
  • Forgotten Siblings: Unifying Attacks on Machine Learning and Digital Watermarking, Proc. of the IEEE European Symposium on Security and Privacy (EuroS&P), 2018
    E. Quiring, D. Arp, and K. Rieck
    (See online at https://doi.org/10.1109/EuroSP.2018.00041)
  • Misleading Authorship Attribution of Source Code using Adversarial Learning, Proc. of the USENIX Security Symposium, 2019
    E. Quiring, A. Maier, and K. Rieck
    (See online at https://dl.acm.org/doi/10.5555/3361338.3361372)
  • On the Security and Applicability of Fragile Camera Fingerprints, Proc. of the European Symposium on Research in Computer Security (ESORICS), 2019
    E. Quiring, M. Kirchner, and K. Rieck
    (See online at https://doi.org/10.1007/978-3-030-29959-0_22)
  • Adversarial Preprocessing: Understanding and Preventing Image-Scaling Attacks in Machine Learning, Proc. of the USENIX Security Symposium, 2020
    E. Quiring, D. Klein, D. Arp, M. Johns, and K. Rieck
    (See online at https://dl.acm.org/doi/10.5555/3489212.3489289)
  • Against All Odds: Winning the Defense Challenge in an Evasion Competition with Diversification
    E. Quiring, L. Pirch, M. Reimsbach, D. Arp, and K. Rieck
    (See online at https://doi.org/10.48550/arXiv.2010.09569)
  • On the Security of Machine Learning Beyond the Feature Space, Dissertation, Technische Universität Braunschweig, Oktober 2021
    E. Quiring
    (See online at https://dx.doi.org/10.24355/dbbs.084-202111181527-0)
  • Dos and Don’ts of Machine Learning in Computer Security, Proc. of the USENIX Security Symposium, 2022
    D. Arp, E. Quiring, F. Pendlebury, A. Warnecke, F. Pierazzi, C. Wressnegger, L. Cavallaro, and K. Rieck
    (See online at https://doi.org/10.48550/arXiv.2010.09470)
 
 

Additional Information

Textvergrößerung und Kontrastanpassung