日本語
 
Help Privacy Policy ポリシー/免責事項
  詳細検索ブラウズ

アイテム詳細

  Accurate, reliable and fast robustness evaluation

Brendel, W., Rauber, J., Kümmerer, M., Ustyuzhaninov, I., & Bethge, M. (2020). Accurate, reliable and fast robustness evaluation. In H., Wallach, H., Larochelle, A., Beygelzimer, F., d'Alché-Buc, E., Fox, & R., Garnett (Eds.), Advances in Neural Information Processing Systems 32 (pp. 12817-12827). Red Hook, NY, USA: Curran.

Item is

基本情報

表示: 非表示:
アイテムのパーマリンク: https://hdl.handle.net/21.11116/0000-0003-FE36-3 版のパーマリンク: https://hdl.handle.net/21.11116/0000-000A-11AB-2
資料種別: 会議論文

ファイル

表示: ファイル
非表示: ファイル
:
NEURIPS-2019-Brendel.pdf (要旨), 16MB
ファイルのパーマリンク:
https://hdl.handle.net/21.11116/0000-0005-5E3B-1
ファイル名:
NEURIPS-2019-Brendel.pdf
説明:
-
OA-Status:
閲覧制限:
公開
MIMEタイプ / チェックサム:
application/pdf / [MD5]
技術的なメタデータ:
著作権日付:
-
著作権情報:
-
CCライセンス:
-

作成者

表示:
非表示:
 作成者:
Brendel, W, 著者
Rauber, J, 著者
Kümmerer, M, 著者
Ustyuzhaninov, I, 著者
Bethge, M1, 2, 著者           
所属:
1Research Group Computational Vision and Neuroscience, Max Planck Institute for Biological Cybernetics, Max Planck Society, ou_1497805              
2Max Planck Institute for Biological Cybernetics, Max Planck Society, Spemannstrasse 38, 72076 Tübingen, DE, ou_1497794              

内容説明

表示:
非表示:
キーワード: -
 要旨: Throughout the past five years, the susceptibility of neural networks to minimal adversarial perturbations has moved from a peculiar phenomenon to a core issue in Deep Learning. Despite much attention, however, progress towards more robust models is significantly impaired by the difficulty of evaluating the robustness of neural network models. Today's methods are either fast but brittle (gradient-based attacks), or they are fairly reliable but slow (score- and decision-based attacks). We here develop a new set of gradient-based adversarial attacks which (a) are more reliable in the face of gradient-masking than other gradient-based attacks, (b) perform better and are more query efficient than current state-of-the-art gradient-based attacks, (c) can be flexibly adapted to a wide range of adversarial criteria and (d) require virtually no hyperparameter tuning. These findings are carefully validated across a diverse set of six different models and hold for L2 and L-infinity in both targeted as well as untargeted scenarios. Implementations will be available in all major toolboxes (Foolbox, CleverHans and ART). We hope that this class of attacks will make robustness evaluations easier and more reliable, thus contributing to more signal in the search for more robust machine learning models.

資料詳細

表示:
非表示:
言語:
 日付: 2019-122020-06
 出版の状態: 出版
 ページ: -
 出版情報: -
 目次: -
 査読: -
 識別子(DOI, ISBNなど): -
 学位: -

関連イベント

表示:
非表示:
イベント名: Thirty-third Conference on Neural Information Processing Systems (NeurIPS 2019)
開催地: Vancouver, Canada
開始日・終了日: 2019-12-09 - 2019-12-13

訴訟

表示:

Project information

表示:

出版物 1

表示:
非表示:
出版物名: Advances in Neural Information Processing Systems 32
種別: 会議論文集
 著者・編者:
Wallach, H, 編集者
Larochelle, H, 編集者
Beygelzimer , A, 編集者
d'Alché-Buc, F, 編集者
Fox, E, 編集者
Garnett, R, 編集者
所属:
-
出版社, 出版地: Red Hook, NY, USA : Curran
ページ: - 巻号: - 通巻号: - 開始・終了ページ: 12817 - 12827 識別子(ISBN, ISSN, DOIなど): ISBN: 978-1-7138-0793-3