作業記録2023山田
をテンプレートにして作成
[
トップ
] [
新規
|
一覧
|
単語検索
|
最終更新
|
ヘルプ
|
ログイン
]
開始行:
** メモ [#l63bfa46]
-[ssh -L 8890:localhost:8890 yamada@ssh.arch.info.mie-u.a...
-[ssh -L 8890:localhost:8890 oyster2]
-[xbutil reset -d 0000:a6:00.1 deadlocked]
-[[作業記録2021山田]]
-[[作業記録2022山田]]
-&ref(国際シンポAll (2).pdf,,去年のシンポ.pdf);
* 作業記録 [#r75e8dc7]
**4/3 [#h11d1982]
-M2作業記録作成
-SSH設定
**4/5 [#v23b11be]
-ファイル整理
-Zulip登録
**4/18 [#occ04a64]
-並列度変更用ヘッダファイル作成:(hed.h)Automation/method...
**4/19 [#s281779a]
-高位合成レポートファイルのデータ前処理:(read_xtxt)Autom...
-ヘッダファイルへの出力(hed_output)Automation/method_hed
**4/20 [#ad06dc29]
-自動並列化の並列度アルゴリズム以外(para_automation)Autom...
**4/21 [#kd297022]
-自動並列化アルゴリズムを考えた
**4/24 [#jc6cdb49]
-並列でのサイクル数の影響を計測
-最も処理時間のかかる層の並列化まで(method_make_algo/para...
**4/25 [#c4af132f]
-2番目に処理時間のかかる層の並列化まで(method_make_algo2/...
**4/28 [#ye6fa8da]
-その他の層の並列化まで(すべての層の並列化)(method_make_a...
-何分割するか設定&リファクタリング(method_make_algo4/par...
-パイプライン処理追加&リファクタリング(method_make_algo5...
**4/29 [#ued4d82b]
-分割のヘッドファイル変更(method_make_algo6/para_automati...
**5/1 [#hb1f462e]
-分割用inferenceへの変更(method_make_algo7/para_automatio...
**5/2 [#z387e968]
-分割convファイルの生成(method_make_algo8/para_automation...
-実行結果(method_make_algo9/para_automation-latest.ipynb)
-レポートファイル追加(Automation/method_make_algo10/metho...
**5/3 [#h4703cb8]
-分割ファイルfor文の変更(method_make_algo11)
**5/11 [#we7c0d8e]
-最低限の完成(Automation/method_make_algo12/para_automati...
**5/12 [#r572bb5f]
-リファクタリング(method_make_algo13)
-レポートファイルの情報量の追加(method_make_algo14)
**5/14 [#n49b73ee]
-else文の作成(method_make_algo15/para_automation-else.ipy...
-pyファイルにし、else文も結合(method_make_algo16/Automati...
--pyファイルへの変換コマンド:jupyter nbconvert --to scri...
--実行方法:ipython ファイル.py
**5/16 [#y01b5ed6]
-少し変更&mnist_fashionで実行(mnist_fashion)
**5/20 [#y00f4df7]
-レポートファイル修正 mnist準完成版(method_para_mnist_fa...
**5/21 [#l90c18c9]
-変更点修正 cifar準完成版(method_make_algo17/para_automat...
**5/23 [#x20debd7]
-cifar10のcpuでの時間計測(cifar10_cpu)
-mnist_fashionでのcpuでの時間計測(mnist_fashion_cpu)
**5/24 [#y15212b4]
-時間の評価(fps)
**6/5 [#h59c80aa]
-サイクル数を指定するdesignate_cycleの入力を作成(method_m...
-分割数を指定できるようにした(method_make_19)
**6/7 [#j8253154]
-サイクル数を指定するためのコードを追加整理前(method_make...
-サイクル数を指定する処理を追加した(method_make_21/Auto.py)
**6/14 [#o687ec1c]
-実行ファイル作成を選択できる機能を追加した(method_make_2...
**6/16 [#i4568e70]
-レポートファイルのコメントを変更するなど(method_make_23/...
**6/19 [#qbc8a7c6]
-↓の準備(method_make1724/para_automation.ipynb)
-分割部分の修正予定(method_make_24/Auto.py)→失敗
**6/20 [#vaab3abb]
-分割部分のアルゴリズム修正(method_make_25/Auto.py)
-no,no,noで実行→25
-60000で実行→26
-完成形(実行前)→27
**6/26~ [#pf90fade]
-計測:
--cifar_comp_1:1000000サイクル
--cifar_comp_2:2000000サイクル
--cifar_comp_3:500000サイクル
--cifar_comp_4:300000サイクル
--cifar_comp_5:200000サイクル
--cifar_comp_6:100000サイクル
--cifar_comp_7:800000サイクル
--cifar_comp_8:400000サイクル
--cifar_comp_9:600000サイクル
--cifar_comp_10:700000サイクル
--cifar_comp_11:900000サイクル
--cifar_comp_12:1500000サイクル
--cifar_comp_13:サイクル指定なし(3分割)
--cifar_comp_14:2分割
--cifar_comp_15:3000000サイクル
--cifar_comp_16:4000000サイクル
--cifar_comp_17:5000000サイクル
--cifar_comp_18:10000000サイクル
--cifar_comp_19:7500000サイクル
--cifar_comp_20:15000000サイクル
--cifar_comp_21:9000000サイクル
--cifar_comp_22:20000000サイクル
--cifar_comp_23:18000000サイクル
**10/13~ [#pf90fade]
-電力計測:
--cifar_comp_1:
---1000000サイクル
---391.86888602194773w
---20.091439s
--cifar_comp_2
---2000000サイクル
---755.9335369053689w
---39.986515s
--cifar_comp_3
---500000サイクル
---308.8865121044949w
---15.268820s
--cifar_comp_4
---300000サイクル
---129.9111181048481w
---5.768546s
--cifar_comp_5:200000サイクル
---4と同じ
--cifar_comp_6
---100000サイクル
---69.0429019921065
---2.933962s
--cifar_comp_7:800000サイクル
---1と同じ
--cifar_comp_8
---400000サイクル
---217.13223632249503
---10.698921s
--cifar_comp_9:600000サイクル
---3と同じ
--cifar_comp_10:700000サイクル
---1と同じ
--cifar_comp_11:900000サイクル
---1と同じ
--cifar_comp_12:1500000サイクル
---2と同じ
--cifar_comp_13
---サイクル指定なし(3分割)
---46.592116062198016
---1.843151s
--cifar_comp_14
---サイクル指定なし(2分割)
---44.07203333629149w
---1.712018s
--cifar_comp_15
---3000000サイクル
---1469.7363416834287
---1:19.677688
--cifar_comp_16:4000000サイクル
---15と同じ
--cifar_comp_17
---5000000サイクル
---3423.0466883408626
---2:37.901353
--cifar_comp_18
---10000000サイクル
---6982.326702427808
---5:17.008734
--cifar_comp_19:7500000サイクル
---17と同じ
--cifar_comp_20:15000000サイクル
---18と同じ
--cifar_comp_21:9000000サイクル
---17と同じ
--cifar_comp_22
---20000000サイクル
---13934.283416475904
---10:34.109641
--cifar_comp_23:18000000サイクル
---22と同じ
**10/1~ [#g8e837b8]
-アルゴリズム修正
*ファイル整理 [#g663ec1e]
**ファイル状況 [#t887893e]
***通常 [#f6d85673]
-method0:ベースライン
-method1:dataflow追加
-method2:並列化
-method3:分割
***量子化 [#tf5a9a4f]
-Q_method0:ベースライン(pipelineの最適化が自動でされている)
-Q_method1:dataflow追加(pipelineの最適化が自動でされている)
-Q_method2:並列化(unrollを追加)
-Q_method3:分割
**ファイル内状況 [#h999dc32]
***命名と役割 [#i03d01c8]
-inference.cpp:トップファイル
-tranin0.h:内部メモリに格納
-tranin.h:量子化時の型変換
***レポート [#h5cbf1fa]
-回路規模などの詳細:_x/logs/link/imp/impl_1_runme.log
-高位合成のレポート:_x/reports/inference/hls_reports/inf...
-層ごとの時間:_x/reports/link/system_estimate_inference....
**必要ファイル最新状況 [#wdd0cfb5]
-mnist_fashion_cpu
-cifar10_cpu
-method_para_mnist_fashion
-cifar_latest
*どうなってるか [#hfabd166]
-1.pytorchでCNNモデルをつくる(現状の部品のある層:畳み込...
-2.学習したモデルをC++で書く(部品のある層で作るならpytorc...
-3.pytorchで学習し、学習済みパラメータをC++に書き込む(pyt...
-4.C++でのソースコードを高位合成し、正しく実行できるか確認
-5.手動で並列化するか自動化のアルゴリズムを実行する
終了行:
** メモ [#l63bfa46]
-[ssh -L 8890:localhost:8890 yamada@ssh.arch.info.mie-u.a...
-[ssh -L 8890:localhost:8890 oyster2]
-[xbutil reset -d 0000:a6:00.1 deadlocked]
-[[作業記録2021山田]]
-[[作業記録2022山田]]
-&ref(国際シンポAll (2).pdf,,去年のシンポ.pdf);
* 作業記録 [#r75e8dc7]
**4/3 [#h11d1982]
-M2作業記録作成
-SSH設定
**4/5 [#v23b11be]
-ファイル整理
-Zulip登録
**4/18 [#occ04a64]
-並列度変更用ヘッダファイル作成:(hed.h)Automation/method...
**4/19 [#s281779a]
-高位合成レポートファイルのデータ前処理:(read_xtxt)Autom...
-ヘッダファイルへの出力(hed_output)Automation/method_hed
**4/20 [#ad06dc29]
-自動並列化の並列度アルゴリズム以外(para_automation)Autom...
**4/21 [#kd297022]
-自動並列化アルゴリズムを考えた
**4/24 [#jc6cdb49]
-並列でのサイクル数の影響を計測
-最も処理時間のかかる層の並列化まで(method_make_algo/para...
**4/25 [#c4af132f]
-2番目に処理時間のかかる層の並列化まで(method_make_algo2/...
**4/28 [#ye6fa8da]
-その他の層の並列化まで(すべての層の並列化)(method_make_a...
-何分割するか設定&リファクタリング(method_make_algo4/par...
-パイプライン処理追加&リファクタリング(method_make_algo5...
**4/29 [#ued4d82b]
-分割のヘッドファイル変更(method_make_algo6/para_automati...
**5/1 [#hb1f462e]
-分割用inferenceへの変更(method_make_algo7/para_automatio...
**5/2 [#z387e968]
-分割convファイルの生成(method_make_algo8/para_automation...
-実行結果(method_make_algo9/para_automation-latest.ipynb)
-レポートファイル追加(Automation/method_make_algo10/metho...
**5/3 [#h4703cb8]
-分割ファイルfor文の変更(method_make_algo11)
**5/11 [#we7c0d8e]
-最低限の完成(Automation/method_make_algo12/para_automati...
**5/12 [#r572bb5f]
-リファクタリング(method_make_algo13)
-レポートファイルの情報量の追加(method_make_algo14)
**5/14 [#n49b73ee]
-else文の作成(method_make_algo15/para_automation-else.ipy...
-pyファイルにし、else文も結合(method_make_algo16/Automati...
--pyファイルへの変換コマンド:jupyter nbconvert --to scri...
--実行方法:ipython ファイル.py
**5/16 [#y01b5ed6]
-少し変更&mnist_fashionで実行(mnist_fashion)
**5/20 [#y00f4df7]
-レポートファイル修正 mnist準完成版(method_para_mnist_fa...
**5/21 [#l90c18c9]
-変更点修正 cifar準完成版(method_make_algo17/para_automat...
**5/23 [#x20debd7]
-cifar10のcpuでの時間計測(cifar10_cpu)
-mnist_fashionでのcpuでの時間計測(mnist_fashion_cpu)
**5/24 [#y15212b4]
-時間の評価(fps)
**6/5 [#h59c80aa]
-サイクル数を指定するdesignate_cycleの入力を作成(method_m...
-分割数を指定できるようにした(method_make_19)
**6/7 [#j8253154]
-サイクル数を指定するためのコードを追加整理前(method_make...
-サイクル数を指定する処理を追加した(method_make_21/Auto.py)
**6/14 [#o687ec1c]
-実行ファイル作成を選択できる機能を追加した(method_make_2...
**6/16 [#i4568e70]
-レポートファイルのコメントを変更するなど(method_make_23/...
**6/19 [#qbc8a7c6]
-↓の準備(method_make1724/para_automation.ipynb)
-分割部分の修正予定(method_make_24/Auto.py)→失敗
**6/20 [#vaab3abb]
-分割部分のアルゴリズム修正(method_make_25/Auto.py)
-no,no,noで実行→25
-60000で実行→26
-完成形(実行前)→27
**6/26~ [#pf90fade]
-計測:
--cifar_comp_1:1000000サイクル
--cifar_comp_2:2000000サイクル
--cifar_comp_3:500000サイクル
--cifar_comp_4:300000サイクル
--cifar_comp_5:200000サイクル
--cifar_comp_6:100000サイクル
--cifar_comp_7:800000サイクル
--cifar_comp_8:400000サイクル
--cifar_comp_9:600000サイクル
--cifar_comp_10:700000サイクル
--cifar_comp_11:900000サイクル
--cifar_comp_12:1500000サイクル
--cifar_comp_13:サイクル指定なし(3分割)
--cifar_comp_14:2分割
--cifar_comp_15:3000000サイクル
--cifar_comp_16:4000000サイクル
--cifar_comp_17:5000000サイクル
--cifar_comp_18:10000000サイクル
--cifar_comp_19:7500000サイクル
--cifar_comp_20:15000000サイクル
--cifar_comp_21:9000000サイクル
--cifar_comp_22:20000000サイクル
--cifar_comp_23:18000000サイクル
**10/13~ [#pf90fade]
-電力計測:
--cifar_comp_1:
---1000000サイクル
---391.86888602194773w
---20.091439s
--cifar_comp_2
---2000000サイクル
---755.9335369053689w
---39.986515s
--cifar_comp_3
---500000サイクル
---308.8865121044949w
---15.268820s
--cifar_comp_4
---300000サイクル
---129.9111181048481w
---5.768546s
--cifar_comp_5:200000サイクル
---4と同じ
--cifar_comp_6
---100000サイクル
---69.0429019921065
---2.933962s
--cifar_comp_7:800000サイクル
---1と同じ
--cifar_comp_8
---400000サイクル
---217.13223632249503
---10.698921s
--cifar_comp_9:600000サイクル
---3と同じ
--cifar_comp_10:700000サイクル
---1と同じ
--cifar_comp_11:900000サイクル
---1と同じ
--cifar_comp_12:1500000サイクル
---2と同じ
--cifar_comp_13
---サイクル指定なし(3分割)
---46.592116062198016
---1.843151s
--cifar_comp_14
---サイクル指定なし(2分割)
---44.07203333629149w
---1.712018s
--cifar_comp_15
---3000000サイクル
---1469.7363416834287
---1:19.677688
--cifar_comp_16:4000000サイクル
---15と同じ
--cifar_comp_17
---5000000サイクル
---3423.0466883408626
---2:37.901353
--cifar_comp_18
---10000000サイクル
---6982.326702427808
---5:17.008734
--cifar_comp_19:7500000サイクル
---17と同じ
--cifar_comp_20:15000000サイクル
---18と同じ
--cifar_comp_21:9000000サイクル
---17と同じ
--cifar_comp_22
---20000000サイクル
---13934.283416475904
---10:34.109641
--cifar_comp_23:18000000サイクル
---22と同じ
**10/1~ [#g8e837b8]
-アルゴリズム修正
*ファイル整理 [#g663ec1e]
**ファイル状況 [#t887893e]
***通常 [#f6d85673]
-method0:ベースライン
-method1:dataflow追加
-method2:並列化
-method3:分割
***量子化 [#tf5a9a4f]
-Q_method0:ベースライン(pipelineの最適化が自動でされている)
-Q_method1:dataflow追加(pipelineの最適化が自動でされている)
-Q_method2:並列化(unrollを追加)
-Q_method3:分割
**ファイル内状況 [#h999dc32]
***命名と役割 [#i03d01c8]
-inference.cpp:トップファイル
-tranin0.h:内部メモリに格納
-tranin.h:量子化時の型変換
***レポート [#h5cbf1fa]
-回路規模などの詳細:_x/logs/link/imp/impl_1_runme.log
-高位合成のレポート:_x/reports/inference/hls_reports/inf...
-層ごとの時間:_x/reports/link/system_estimate_inference....
**必要ファイル最新状況 [#wdd0cfb5]
-mnist_fashion_cpu
-cifar10_cpu
-method_para_mnist_fashion
-cifar_latest
*どうなってるか [#hfabd166]
-1.pytorchでCNNモデルをつくる(現状の部品のある層:畳み込...
-2.学習したモデルをC++で書く(部品のある層で作るならpytorc...
-3.pytorchで学習し、学習済みパラメータをC++に書き込む(pyt...
-4.C++でのソースコードを高位合成し、正しく実行できるか確認
-5.手動で並列化するか自動化のアルゴリズムを実行する
ページ名: