著者
伊藤信悟 伊野 文彦 萩原 兼一
出版者
一般社団法人情報処理学会
雑誌
情報処理学会論文誌コンピューティングシステム(ACS) (ISSN:18827829)
巻号頁・発行日
vol.48, no.13, pp.235-246, 2007-08-15
被引用文献数
2

GPGPU (General-Purpose Computation on Graphics Processing Units) とは、GPU をグラフィクス処理の枠を越えて汎用問題に適用する試みのことである。本稿では、典型的な GPGPU 実装を対象として、GPU による高速化の見込みを予測するための性能モデルを提案する。提案モデルは、GPGPU 実装の多くがメモリ集中型の問題を対象として規則的にデータを参照する点に着目し、実装全体の性能を主記憶、ビデオメモリおよび GPU 内演算器間の各データパスの転送性能で表す。転送性能の各々は、GPGPU アプリケーションとは独立に計測できるバンド幅および遅延時間のみの簡単な組で表す。提案モデルを画像フィルタおよび LU 分解に適用し、3 世代にわたる GPU 上で評価した結果、誤差は最悪で 20%であった。GPU 内キャッシュの効果がさほど大きくない場合、誤差は 10%以内であることから、提案モデルは典型的な実装に対して GPU による高速化の見込みを見積もる際に有用であると考える。GPGPU stands for general-purpose computation on graphics processing units (GPUs), aiming at applying the GPU to general problems beyond graphics problems. This paper presents a performance model for typical GPGPU implementations, which is capable of predicting the possibility of the acceleration achievable by the GPU. Our model focuses on the fact that most of GPGPU implementations deal with memory-intensive problems and have regular access to data. Based on this fact, we represent the entire performance as the transfer performance of data paths connecting main memory, video memory, and processors inside the GPU. Each of the transfer performance here is simply represented by a combination of bandwidth and latency, which are independent of GPGPU applications. We applied the model to an image filter and LU decomposition to estimate their performance on three generations of GPUs. We found that the model has a 20% error at the worst case. We think that the model is useful for estimating the possibility of typical GPU-accelerated implementations, because the observed errors are less than 10% if GPU cache does not have significant effects on performance.