作業記録2022山田
をテンプレートにして作成
[
トップ
] [
新規
|
一覧
|
単語検索
|
最終更新
|
ヘルプ
|
ログイン
]
開始行:
[[組込みシステム 2021]]
file:///home/share/ktakagi/Paper/DAS2020/IPSJ-DAS2020.htm
* 研究 [#r75e8dc7]
** 全体ミーティング [#tdffe9e2]
- https://us02web.zoom.us/j/85822435894?pwd=bHRibTNqVEg1Z...
- ミーティングID: 858 2243 5894
- パスコード: archinfo
* 参考 [#ib6a9e05]
** Webサイト [#w0c52c66]
-ランダムフォレスト×FPGA[https://www.slideshare.net/Hirok...
[https://recruit.gmo.jp/engineer/jisedai/blog/fpga-ml-rf/]
-PyTorch量子化[https://pytorch.org/docs/stable/quantizati...
-mnist8bit[https://karanbirchahal.medium.com/how-to-quant...
** 論文 [#k4aabfd3]
-FPGAベースの畳み込みニューラルネットワークのリアルタイム...
-モバイルネットの論文
-量子化した畳み込みニューラルネットワークの FPGA への実装...
** メモ [#hd0e9998]
-FPGAを画像処理に使用するメリット[https://nanoxeed.co.jp/...
-system_estimate_inference.xtxt
* 作業記録 [#r75e8dc7]
**10/25 [#h11d1982]
-量子化なんとかするmnist_quan
-消費電力の測定
**10/11 [#g19d7a32]
-ミーティング資料作成
**7/20 [#a93f5d73]
-必要なデータ
--量子化データと実行時間とリソース
**7/7 [#gec96fd4]
-CIFARでも同様の方法の実装できた
**7/4 [#c9719c99]
-実行できた
**6/29 [#vae898a2]
-heightで畳込み層の分割可能
**6/28 [#n1bc70b3]
-CPU計測可能
-現状時間
--CPU 50ms [MNIST_FASION_CPU/CPU]
--FPGA 3ms [Project_first/PIPELINE.ipynb]
--PyTorch 12ms [Project_first/PIPELINE.ipynb]
**6/27 [#r871fae0]
-FPGAで実行できた
**6/23 [#f31dabf1]
-部品をつなげて高位合成した
-来週予定:実行結果確認とCPU実行
**6/22 [#u6d83900]
-mnist_fashion 90%モデル完成
**6/14 [#v8b78fd7]
-データセット予定
-mnist文字、mnistファション、cifar10,cifar100
**6/10 [#b7f29f59]
-conv実験
-och1,x1 warningなし10781 36| 5| 6214| 7139| ...
-och3,x1 warningなし3689 42| 7| 9406| 9459| ...
-och1,x2 warningありgmem1547 10| 10| 23580| 19164...
-och1,x4 warningありgmem11677 14| 5| 5474| 662...
-och3,x2 warningなし3164 10| 9| 7457| 8157| ...
-ネストでunroll
-och1,x2 warningなし5601 36| 7| 7031| 7828| ...
-och3,x2 warningなし1964 42| 7| 10624| 10503| ...
-och3,x1 warningなし3689 42| 7| 9406| 9459| ...
-och1,x2 warningなし1535 42| 7| 11787| 10481| ...
**6/9 [#i96c4579]
-自動化?
-フレームワーク
-ハードウェア版Pytorch
**6/8 [#z88991af]
-層の変更?
-Depthwise畳み込み
-画像特化の活性化関数FReLu[https://qiita.com/omiita/items...
**6/7 [#a9d6df02]
-conv実験
-宣言大丈夫だった
-並列にするとxのgmemで制限がかかる
-convをどうにか
-できそうなこと
-層の分割や合体、パラメタを外に
**6/6 [#r398986b]
-conv実験
-ファイル:conv_test
-宣言の仕方に注意:最初に一気にしないとだめなのか
**6/1 [#k3666884]
-linear実験
-warningはgmemの割り当てで解消
**5/27 [#k45d0871]
-linearの実験
-フォルダ:Linear_experiment
-warningあり
-読んだ論文:シントリックアレイによる多層パーセプトロンの...
**5/25 [#xaa602ae]
-poolingの実験
-フォルダ:Pooling_experiment
-メイン:pooling_top.cpp
-テスト:pooling_test.ipynb
-8bitの学習的なのできた
-フォルダ:MNIST_Quant
**5/24 [#xaa602ae]
-reluの実験
-ファイルRelu_experiment
-メイン:relu_top.cpp
-テスト:relu_test.ipynb
**5/12 [#a8307b57]
-PyTorchの量子化学習は難しいかも
**4/26 [#a3781cd2]
-PyTorchで量子化できるっぽい
-画像処理では、静的量子化なんか わっからん
-[https://pytorch.org/docs/stable/quantization.html]
** 4/21 [#s518bc93]
-作業記録作成
***SSH [#b2a9346a]
-[ssh -L 8890:localhost:8890 yamada@ssh.arch.info.mie-u.a...
-[ssh -L 8890:localhost:8890 oyster2]
* 2021記録 [#l63bfa46]
-[[作業記録2021山田]]
終了行:
[[組込みシステム 2021]]
file:///home/share/ktakagi/Paper/DAS2020/IPSJ-DAS2020.htm
* 研究 [#r75e8dc7]
** 全体ミーティング [#tdffe9e2]
- https://us02web.zoom.us/j/85822435894?pwd=bHRibTNqVEg1Z...
- ミーティングID: 858 2243 5894
- パスコード: archinfo
* 参考 [#ib6a9e05]
** Webサイト [#w0c52c66]
-ランダムフォレスト×FPGA[https://www.slideshare.net/Hirok...
[https://recruit.gmo.jp/engineer/jisedai/blog/fpga-ml-rf/]
-PyTorch量子化[https://pytorch.org/docs/stable/quantizati...
-mnist8bit[https://karanbirchahal.medium.com/how-to-quant...
** 論文 [#k4aabfd3]
-FPGAベースの畳み込みニューラルネットワークのリアルタイム...
-モバイルネットの論文
-量子化した畳み込みニューラルネットワークの FPGA への実装...
** メモ [#hd0e9998]
-FPGAを画像処理に使用するメリット[https://nanoxeed.co.jp/...
-system_estimate_inference.xtxt
* 作業記録 [#r75e8dc7]
**10/25 [#h11d1982]
-量子化なんとかするmnist_quan
-消費電力の測定
**10/11 [#g19d7a32]
-ミーティング資料作成
**7/20 [#a93f5d73]
-必要なデータ
--量子化データと実行時間とリソース
**7/7 [#gec96fd4]
-CIFARでも同様の方法の実装できた
**7/4 [#c9719c99]
-実行できた
**6/29 [#vae898a2]
-heightで畳込み層の分割可能
**6/28 [#n1bc70b3]
-CPU計測可能
-現状時間
--CPU 50ms [MNIST_FASION_CPU/CPU]
--FPGA 3ms [Project_first/PIPELINE.ipynb]
--PyTorch 12ms [Project_first/PIPELINE.ipynb]
**6/27 [#r871fae0]
-FPGAで実行できた
**6/23 [#f31dabf1]
-部品をつなげて高位合成した
-来週予定:実行結果確認とCPU実行
**6/22 [#u6d83900]
-mnist_fashion 90%モデル完成
**6/14 [#v8b78fd7]
-データセット予定
-mnist文字、mnistファション、cifar10,cifar100
**6/10 [#b7f29f59]
-conv実験
-och1,x1 warningなし10781 36| 5| 6214| 7139| ...
-och3,x1 warningなし3689 42| 7| 9406| 9459| ...
-och1,x2 warningありgmem1547 10| 10| 23580| 19164...
-och1,x4 warningありgmem11677 14| 5| 5474| 662...
-och3,x2 warningなし3164 10| 9| 7457| 8157| ...
-ネストでunroll
-och1,x2 warningなし5601 36| 7| 7031| 7828| ...
-och3,x2 warningなし1964 42| 7| 10624| 10503| ...
-och3,x1 warningなし3689 42| 7| 9406| 9459| ...
-och1,x2 warningなし1535 42| 7| 11787| 10481| ...
**6/9 [#i96c4579]
-自動化?
-フレームワーク
-ハードウェア版Pytorch
**6/8 [#z88991af]
-層の変更?
-Depthwise畳み込み
-画像特化の活性化関数FReLu[https://qiita.com/omiita/items...
**6/7 [#a9d6df02]
-conv実験
-宣言大丈夫だった
-並列にするとxのgmemで制限がかかる
-convをどうにか
-できそうなこと
-層の分割や合体、パラメタを外に
**6/6 [#r398986b]
-conv実験
-ファイル:conv_test
-宣言の仕方に注意:最初に一気にしないとだめなのか
**6/1 [#k3666884]
-linear実験
-warningはgmemの割り当てで解消
**5/27 [#k45d0871]
-linearの実験
-フォルダ:Linear_experiment
-warningあり
-読んだ論文:シントリックアレイによる多層パーセプトロンの...
**5/25 [#xaa602ae]
-poolingの実験
-フォルダ:Pooling_experiment
-メイン:pooling_top.cpp
-テスト:pooling_test.ipynb
-8bitの学習的なのできた
-フォルダ:MNIST_Quant
**5/24 [#xaa602ae]
-reluの実験
-ファイルRelu_experiment
-メイン:relu_top.cpp
-テスト:relu_test.ipynb
**5/12 [#a8307b57]
-PyTorchの量子化学習は難しいかも
**4/26 [#a3781cd2]
-PyTorchで量子化できるっぽい
-画像処理では、静的量子化なんか わっからん
-[https://pytorch.org/docs/stable/quantization.html]
** 4/21 [#s518bc93]
-作業記録作成
***SSH [#b2a9346a]
-[ssh -L 8890:localhost:8890 yamada@ssh.arch.info.mie-u.a...
-[ssh -L 8890:localhost:8890 oyster2]
* 2021記録 [#l63bfa46]
-[[作業記録2021山田]]
ページ名: