Gå direkt till innehållet
Adversariale Robustheit Neuronaler Netze
Spara

Adversariale Robustheit Neuronaler Netze

pocket, 2021
Tyska
Gelernte Klassifikationsverfahren sind nicht sicher, wenn Angreifer gezielte Ver nderungen an der Eingabe vornehmen. Obwohl diese nderungen f r den Menschen kaum wahrnehmbar sind, ndert sich die Klassifikation. Um gelernte Modelle in sicherheitskritischen Bereichen anwenden zu k nnen, ist es erforderlich, Methoden zu entwickeln, die Robustheit gegen adversariale Angriffe gew hrleisten k nnen. Hier wird eine bersicht ber verschiedene Anwendungsf lle, Angriffe, die daraus entstehenden Problemstellungen, Ans tze zur Verteidigung sowie Gefahren bei der Evaluation dieser gegeben und die Notwendigkeit korrekter Verfahren aufgezeigt.
Undertitel
Verteidigungen gegen Vermeidungsangriffe zur Testzeit
ISBN
9783961168965
Språk
Tyska
Vikt
172 gram
Utgivningsdatum
2021-03-08
Förlag
Diplom.de
Sidor
124