Follow

Klassifikatoren basierend auf neuronalen Netzen sind anfällig gegenüber feindlichen Angriffen (Adversarial Attacks). Bei diesen Angriffen werden Eingabedaten manipuliert, um eine (gezielte) Fehlklassifikation zu erwirken. Oft reicht dafür eine geringfügige, schwer erkennbare Manipulation aus.

Um diese Angriffe zu erschweren, kann ein Netz im Rahmen eines Adversarial Trainings durch wiederholte Simulation solcher Angriffe gehärtet werden.

@bsi Falls jemand ein konkretes Beispiel braucht, das hier fällt mir ein: arxiv.org/abs/2004.00622

Sign in to participate in the conversation
social.bund.de

Dies ist der Mastodon-Server des Bundesbeauftragten für den Datenschutz und die Informationsfreiheit (BfDI).