Siirry suoraan sisältöön
Adversariale Robustheit Neuronaler Netze
Tallenna

Adversariale Robustheit Neuronaler Netze

pokkari, 2021
saksa
Gelernte Klassifikationsverfahren sind nicht sicher, wenn Angreifer gezielte Ver nderungen an der Eingabe vornehmen. Obwohl diese nderungen f r den Menschen kaum wahrnehmbar sind, ndert sich die Klassifikation. Um gelernte Modelle in sicherheitskritischen Bereichen anwenden zu k nnen, ist es erforderlich, Methoden zu entwickeln, die Robustheit gegen adversariale Angriffe gew hrleisten k nnen. Hier wird eine bersicht ber verschiedene Anwendungsf lle, Angriffe, die daraus entstehenden Problemstellungen, Ans tze zur Verteidigung sowie Gefahren bei der Evaluation dieser gegeben und die Notwendigkeit korrekter Verfahren aufgezeigt.
Alaotsikko
Verteidigungen gegen Vermeidungsangriffe zur Testzeit
ISBN
9783961168965
Kieli
saksa
Paino
172 grammaa
Julkaisupäivä
8.3.2021
Kustantaja
Diplom.de
Sivumäärä
124