日本語
 
Help Privacy Policy ポリシー/免責事項
  詳細検索ブラウズ

アイテム詳細

登録内容を編集ファイル形式で保存
 
 
ダウンロード電子メール
  Bit Error Robustness for Energy-Efficient DNN Accelerators

Stutz, D., Chandramoorthy, N., Hein, M., & Schiele, B. (2021). Bit Error Robustness for Energy-Efficient DNN Accelerators. In A., Smola, A., Dimakis, & I., Stoica (Eds.), Proceedings of the 4th MLSys Conference. mlsys.org.

Item is

基本情報

表示: 非表示:
アイテムのパーマリンク: https://hdl.handle.net/21.11116/0000-0007-80D4-8 版のパーマリンク: https://hdl.handle.net/21.11116/0000-0008-3A8A-C
資料種別: 会議論文
LaTeX : Bit Error Robustness for Energy-Efficient {DNN} Accelerators

ファイル

表示: ファイル
非表示: ファイル
:
arXiv:2006.13977.pdf (プレプリント), 2MB
 
ファイルのパーマリンク:
-
ファイル名:
arXiv:2006.13977.pdf
説明:
File downloaded from arXiv at 2020-12-03 07:44
OA-Status:
閲覧制限:
非公開
MIMEタイプ / チェックサム:
application/pdf
技術的なメタデータ:
著作権日付:
-
著作権情報:
-
:
MLSys-2021-bit-error-robustness-for-energy-efficient-dnn-accelerators-Paper.pdf (全文テキスト(全般)), 2MB
ファイルのパーマリンク:
https://hdl.handle.net/21.11116/0000-0008-2E32-D
ファイル名:
MLSys-2021-bit-error-robustness-for-energy-efficient-dnn-accelerators-Paper.pdf
説明:
-
OA-Status:
Green
閲覧制限:
公開
MIMEタイプ / チェックサム:
application/pdf / [MD5]
技術的なメタデータ:
著作権日付:
-
著作権情報:
-
CCライセンス:
-

関連URL

表示:

作成者

表示:
非表示:
 作成者:
Stutz, David1, 著者           
Chandramoorthy, Nandhini2, 著者
Hein, Matthias2, 著者
Schiele, Bernt1, 著者           
所属:
1Computer Vision and Machine Learning, MPI for Informatics, Max Planck Society, ou_1116547              
2External Organizations, ou_persistent22              

内容説明

表示:
非表示:
キーワード: Computer Science, Learning, cs.LG,Computer Science, Architecture, cs.AR,Computer Science, Cryptography and Security, cs.CR,Computer Science, Computer Vision and Pattern Recognition, cs.CV,Statistics, Machine Learning, stat.ML
 要旨: Deep neural network (DNN) accelerators received considerable attention in
past years due to saved energy compared to mainstream hardware. Low-voltage
operation of DNN accelerators allows to further reduce energy consumption
significantly, however, causes bit-level failures in the memory storing the
quantized DNN weights. In this paper, we show that a combination of robust
fixed-point quantization, weight clipping, and random bit error training
(RandBET) improves robustness against random bit errors in (quantized) DNN
weights significantly. This leads to high energy savings from both low-voltage
operation as well as low-precision quantization. Our approach generalizes
across operating voltages and accelerators, as demonstrated on bit errors from
profiled SRAM arrays. We also discuss why weight clipping alone is already a
quite effective way to achieve robustness against bit errors. Moreover, we
specifically discuss the involved trade-offs regarding accuracy, robustness and
precision: Without losing more than 1% in accuracy compared to a normally
trained 8-bit DNN, we can reduce energy consumption on CIFAR-10 by 20%. Higher
energy savings of, e.g., 30%, are possible at the cost of 2.5% accuracy, even
for 4-bit DNNs.

資料詳細

表示:
非表示:
言語: eng - English
 日付: 2020-06-242020-10-2020212021
 出版の状態: オンラインで出版済み
 ページ: 29 p.
 出版情報: -
 目次: -
 査読: -
 識別子(DOI, ISBNなど): BibTex参照ID: StutzMLSYS2021
 学位: -

関連イベント

表示:
非表示:
イベント名: Fourth Conference on Machine Learning and Systems
開催地: Virtual Conference
開始日・終了日: 2021-04-05 - 2021-04-09

訴訟

表示:

Project information

表示:

出版物 1

表示:
非表示:
出版物名: Proceedings of the 4th MLSys Conference
  省略形 : MLSys 2021
種別: 会議論文集
 著者・編者:
Smola, A.1, 編集者
Dimakis, A.1, 編集者
Stoica, I.1, 編集者
所属:
1 External Organizations, ou_persistent22            
出版社, 出版地: mlsys.org
ページ: 30 p. 巻号: - 通巻号: - 開始・終了ページ: - 識別子(ISBN, ISSN, DOIなど): -