Til hovedinnhold
Norli Bokhandel

Adversariale Robustheit Neuronaler Netze - Verteidigungen gegen Vermeidungsangriffe zur Testzeit

2021, Pocket, Tysk

1 029,-

På nettlager - sendes innen 2-4 virkedager
  • Gratis frakt på ordre fra 299,-
  • Bytt i 200 butikker
  • Ikke tilgjengelig for hent i butikk
Gelernte Klassifikationsverfahren sind nicht sicher, wenn Angreifer gezielte Ver-erungen an der Eingabe vornehmen. Obwohl diese -derungen f-r den Menschen kaum wahrnehmbar sind, -ert sich die Klassifikation. Um gelernte Modelle in sicherheitskritischen Bereichen anwenden zu k-nnen, ist es erforderlich, Methoden zu entwickeln, die Robustheit gegen adversariale Angriffe gew-leisten k-nnen. Hier wird eine -ersicht -ber verschiedene Anwendungsf-e, Angriffe, die daraus entstehenden Problemstellungen, Ans-e zur Verteidigung sowie Gefahren bei der Evaluation dieser gegeben und die Notwendigkeit korrekter Verfahren aufgezeigt.

Produktegenskaper

  • Forfatter

  • Bidragsyter

    Riesenberg, Bijan Kianoush
  • Forlag/Utgiver

    SD Books
  • Format

    Pocket
  • Språk

    Tysk
  • Utgivelsesår

    2021
  • Antall sider

    124
  • Varenummer

    9783961168965

Kundeanmeldelser

Frakt og levering