著者
松田 元彦 石川 裕 工藤 知宏 手塚 宏史
出版者
一般社団法人情報処理学会
雑誌
情報処理学会論文誌コンピューティングシステム(ACS) (ISSN:18827829)
巻号頁・発行日
vol.45, no.11, pp.14-23, 2004-10-15

大規模クラスタ計算機に向けたMPIを実装するための通信機構であるO2Gドライバの設計・実装を行っている.O2Gでは,TCP/IPプロトコル通信レイヤ自体は変更せず,MPIの実装に必要となる受信キュー操作をプロトコル処理ハンドラに組み込んでいる.割込みで起動されるプロトコル処理ハンドラ内で,TCP受信バッファから受信データを読み出しユーザ空間にコピーする.これによって,TCP受信バッファの溢れにともなう通信フローの停滞が抑制され,通信性能を劣化させることがなくなる.さらに,従来のソケットAPIで必要だったポーリングが不要になり,システムコール・オーバヘッドが低減される.NAS 並列ベンチマークのISベンチマークでは,O2Gを使用することで従来のMPI実装に比べて3倍の性能が得られる.さらに,ソケットによるMPI実装ではコネクション数が増大すると通信バンド幅が低下するが,O2Gではコネクション数に関係なく高性能なデータ受信を達成していることが示される.In order to implement an efficient MPI communication library for large-scale commoditybased clusters, a new communication mechanism, called O2G, is designed and implemented. O2G introduces receive queue management of MPI into a TCP/IP protocol handler without modifying the protocol stacks. Received data is extracted from the TCP receive buffer and copied into the user space within the TCP/IP protocol handler invoked by interrupts. This avoids message flow disruption due to the shortage of the receive buffer and keeps the bandwidth high. In addition, it totally avoids polling of sockets and reduces system call overheads. An evaluation using the NAS Parallel Benchmark IS shows that an MPI implementation with O2G performed three times faster than other MPI implementations. An evaluation on bandwidth also shows that an MPI implementation with O2G was not affected by the number of connections while an MPI implementation with sockets was affected.

言及状況

はてなブックマーク (1 users, 2 posts)

収集済み URL リスト