hardware accelerator

AI関連その他

2022年のGoogleのAI研究の成果と今後の展望~MLとコンピュータシステム編~(2/3)

1.2022年のGoogleのAI研究の成果と今後の展望~MLとコンピュータシステム編~(2/3)まとめ・最近のMLPerfのコンペでは、TPUs v4が5つのベンチマークで新記録を達成し、2位に比べて平均1.42倍の差をつけた・プラットフ...
学習手法

PRIME:過去のシミュレーションログ使ってアクセラレータを新規に設計(3/3)

1.PRIME:のシミュレーションログ使ってアクセラレータを新規に設計(3/3)まとめ・PRIMEは複数アプリケーション対応とゼロショット対応の2つの目的で設計されている・一部モデルではシミュレータ駆動型の方が待ち時間が短いがPRIMEはメ...
学習手法

PRIME:過去のシミュレーションログ使ってアクセラレータを新規に設計(2/3)

1.PRIME:のシミュレーションログ使ってアクセラレータを新規に設計(2/3)まとめ・PRIMEを未知のアプリケーションに汎化させるためにレイヤー数など高レベル特徴を与えている・PRIMEはEdgeTPUに比べて2.69倍(t-RNN E...
学習手法

PRIME:過去のシミュレーションログ使ってアクセラレータを新規に設計(1/3)

1.PRIME:のシミュレーションログ使ってアクセラレータを新規に設計(1/3)まとめ・ハードウェア設計には多くのシミュレーションが必要でMLがあっても手間がかかる作業・過去データを使ってモデルを学習させ、次世代のアクセラレータを設計できな...
モデル

Apollo:コンピュータアーキテクチャのために機械学習を活用(1/3)

1.Apollo:コンピュータアーキテクチャのために機械学習を活用(1/3)まとめ・最近の機械学習の進歩の要因の1つにTPUなどのカスタムアクセラレータの開発がある・急速に進化するMLモデルに順応するためにアーキテクチャの革新を続ける必要が...
インフラ

EfficientNet-EdgeTPU:アクセラレータでの実行に最適化したニューラルネット(1/2)

1.EfficientNet-EdgeTPU:アクセラレータでの実行に最適化したニューラルネット(1/2)まとめ・ハードウェアアクセラレータ上での実行に最適化したニューラルネットワークはあまり存在しない・AutoMLで最適化したEffici...