Klassifikatoren basierend auf neuronalen Netzen sind anfällig gegenüber feindlichen Angriffen (Adversarial Attacks). Bei diesen Angriffen werden Eingabedaten manipuliert, um eine (gezielte) Fehlklassifikation zu erwirken. Oft reicht dafür eine geringfügige, schwer erkennbare Manipulation aus.
Um diese Angriffe zu erschweren, kann ein Netz im Rahmen eines Adversarial Trainings durch wiederholte Simulation solcher Angriffe gehärtet werden.
@bsi Falls jemand ein konkretes Beispiel braucht, das hier fällt mir ein: https://arxiv.org/abs/2004.00622