Gå direkte til innholdet
Adversariale Robustheit Neuronaler Netze
Spar

Adversariale Robustheit Neuronaler Netze

pocket, 2021
Tysk
Gelernte Klassifikationsverfahren sind nicht sicher, wenn Angreifer gezielte Ver nderungen an der Eingabe vornehmen. Obwohl diese nderungen f r den Menschen kaum wahrnehmbar sind, ndert sich die Klassifikation. Um gelernte Modelle in sicherheitskritischen Bereichen anwenden zu k nnen, ist es erforderlich, Methoden zu entwickeln, die Robustheit gegen adversariale Angriffe gew hrleisten k nnen. Hier wird eine bersicht ber verschiedene Anwendungsf lle, Angriffe, die daraus entstehenden Problemstellungen, Ans tze zur Verteidigung sowie Gefahren bei der Evaluation dieser gegeben und die Notwendigkeit korrekter Verfahren aufgezeigt.
Undertittel
Verteidigungen gegen Vermeidungsangriffe zur Testzeit
ISBN
9783961168965
Språk
Tysk
Vekt
172 gram
Utgivelsesdato
8.3.2021
Forlag
Diplom.de
Antall sider
124