著者
掘 敦史 手塚 宏史 石川 裕
出版者
一般社団法人情報処理学会
雑誌
情報処理学会論文誌 (ISSN:18827764)
巻号頁・発行日
vol.40, no.5, pp.2072-2083, 1999-05-15
参考文献数
36
被引用文献数
2

本稿の貢献は2つある. 1つはギャングスケジューリングの高速化技法の提案である. もう1つはギャングスケジューリングの実践的なアプリケーションによる評価である. 提案された高速化技法により クラスタ並列計算機上でギャングスケジューリングによる時分割スケジューリングが実用になりうることを示すことが本稿の目的である. ネットワークプリエンプションによるギャングスケジューリングの実現は ユーザレベル通信による高性能な通信と 時分割スケジューリングによるマルチプログラミング環境を同時に実現する. 本稿では ネットワークプリエンプション方式におけるスケジューリングオーバヘッドの大半が ネットワークコンテキストのメモリへの退避およびメモリからの復帰にあることを示すと同時に 複数のネットワークコンテキストを単に切り替えることでネットワークコンテキストの切替え時間を短縮する方式を提案する. この高速化技法の効果は NAS並列ベンチマークプログラムを用いて評価され その結果 高速化技法によりスケジューリングオーバヘッドが半減され 同時に2次キャッシュのヒット率も向上することが確認された. 評価の結果では 64ノード 100 msecの時分割間隔において スケジューリングオーバヘッドは4%以下であった.There are two contributions in this paper. One is to propose an efficient gang scheduling implementation technique, and the other is to evaluate gang scheduling overhead using some practical application programs. The purpose of this paper is to demonstrate that the overhead of gang scheduling on a cluster using commodity computers can be low enough for its practical use. Network preemption technique for implementing gang scheduling realizes high-performance communication and multi-programming environment with time-sharing scheduling. In this paper, it is shown that the most of the scheduling overhead comes from saving and restoring network contexts when preempting network. And then, it is proposed to switch network contexts to avoid high-cost saving and restoring network contexts. This proposed technique is evaluated using NAS parallel benchmarks. The results show that the scheduling overhead is almost halved and secondary cache miss ratios are decreased. The evaluated gang scheduling overhead is less than 4% on 64 nodes with a 100 msec time slice.

言及状況

Twitter (1 users, 1 posts, 0 favorites)

こんな論文どうですか? ギャングスケジューリングの高速化技法の提案(掘 敦史ほか),1999 https://t.co/Awm9jN69KS

収集済み URL リスト