Adversariale Robustheit Neuronaler Netze

29,99 €*

Nach dem Kauf zum Download bereit Ein Downloadlink ist wenige Minuten nach dem Kauf im eigenen Benutzerprofil verfügbar.

ISBN/EAN: 9783961163960
Gelernte Klassifikationsverfahren sind nicht sicher, wenn Angreifer gezielte Veränderungen an der Eingabe vornehmen. Obwohl diese Änderungen für den Menschen kaum wahrnehmbar sind, ändert sich die Klassifikation. Um gelernte Modelle in sicherheitskritischen Bereichen anwenden zu können, ist es erforderlich, Methoden zu entwickeln, die Robustheit gegen adversariale Angriffe gewährleisten können. Hier wird eine Übersicht über verschiedene Anwendungsfälle, Angriffe, die daraus entstehenden Problemstellungen, Ansätze zur Verteidigung sowie Gefahren bei der Evaluation dieser gegeben und die Notwendigkeit korrekter Verfahren aufgezeigt.
Autor: Bijan Kianoush Riesenberg
EAN: 9783961163960
eBook Format: PDF
Sprache: Deutsch
Produktart: eBook
Veröffentlichungsdatum: 29.12.2020
Untertitel: Verteidigungen gegen Vermeidungsangriffe zur Testzeit
Kategorie:
Schlagworte: JSMA Maschinelles Lernen Neuronale Netze Spamfilter ZOO

0 von 0 Bewertungen

Geben Sie eine Bewertung ab!

Teilen Sie Ihre Erfahrungen mit dem Produkt mit anderen Kunden.


shop display image

Möchten Sie lieber vor Ort einkaufen?

Haben Sie weiterführende Fragen zu diesem Buch oder anderen Produkten? Oder möchten Sie einfach doch lieber in der Buchhandlung stöbern? Wir sind gern persönlich für Sie da und beraten Sie auch telefonisch.

Buchhandlung Nettesheim GmbH
Hauptstraße 17
42349 Wuppertal
Telefon: 0202/472870

Mo – Fr09:30 – 18:00 UhrSa09:00 – 13:00 Uhr