著者
滝澤 真一朗 松田 元彦 丸山 直也
雑誌
ハイパフォーマンスコンピューティングと計算科学シンポジウム論文集
巻号頁・発行日
vol.2014, pp.1-9, 2013-12-31

計算科学アプリケーションにはアンサンブル計算や多数のデータ処理等,多数のタスクをワークフロー実行できるものが多くある.我々は大規模並列システムで実行されている計算科学アプリケーションのワークフロー実行パターンを抽出し,MapReduce プログラミングモデルにてワークフローを構築するための機能要件を精査した.その機能要件を満たすべく,MapReduce 処理系 K MapReduce に追加機能として実装した.計算科学アプリケーションワークフローの MapReduce 実装事例として,レプリカ交換分子動力学法シミュレーション,ゲノム変異解析アプリケーションを実装した.MapReduce を用いない実装との比較評価を行った結果,両者にて性能面での優位性を,後者では記述面での優位性も確認した.
著者
松田 元彦 石川 裕 工藤 知宏 手塚 宏史
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告ハイパフォーマンスコンピューティング(HPC) (ISSN:09196072)
巻号頁・発行日
vol.2003, no.83, pp.101-106, 2003-08-04
被引用文献数
1

大規模クラスタ計算機やグリッドに向けたMPIを実装するための通信機構としてO2Gドライバの設計・実装を行なった.O2Gは通信レイヤ自体を変更することなく,オーバーヘッドが大きいと考えられるソケットAPIをバイバスする.それにより性能問題が懸念されるselect&readによるポーリングを排除し非同期通信処理の効率化を狙う.そのためO2GではMPIで必要になる受信キュー操作をすべてプロトコル処理ハンドラ内で実装する.O2Gは現在Linuxのローダブル・ドライバとして提供される.評価として,NAS並列ベンチマークを用いたMPICHとの比較を行なう.非同期通信が重要となるISベンチマークではO2Gを用いた実装はMPICHの2.8倍の性能を示す.他のベンチマークの結果も互角の性能であり,O2Gを用いる実装に無駄なオーバーヘッドがないことを示す.O2G is a messaging kernel interface designed to implement MPI for large-scale clusters and networks in the Grid environment. O2G cares asynchronous communication primitives, and totally avoids the select&read system call loops. For this purpose, O2G provides the message queue management of MPI in the driver, where all message processing is completed in the protocol handler. Currently, O2G is provided as a loadable driver module of the Linux kernel. Evaluation using NAS Parallel Benchmarks shows that an MPI implementation with O2G performs better than MPICH for all benchmarks. Especially, it performs 2.8 times faster than MPICH for the IS benchmark. The results show that the O2G's approach is efficient and has no excessive overheads.
著者
松田 元彦 石川 裕 工藤 知宏 手塚 宏史
出版者
一般社団法人情報処理学会
雑誌
情報処理学会論文誌コンピューティングシステム(ACS) (ISSN:18827829)
巻号頁・発行日
vol.45, no.11, pp.14-23, 2004-10-15

大規模クラスタ計算機に向けたMPIを実装するための通信機構であるO2Gドライバの設計・実装を行っている.O2Gでは,TCP/IPプロトコル通信レイヤ自体は変更せず,MPIの実装に必要となる受信キュー操作をプロトコル処理ハンドラに組み込んでいる.割込みで起動されるプロトコル処理ハンドラ内で,TCP受信バッファから受信データを読み出しユーザ空間にコピーする.これによって,TCP受信バッファの溢れにともなう通信フローの停滞が抑制され,通信性能を劣化させることがなくなる.さらに,従来のソケットAPIで必要だったポーリングが不要になり,システムコール・オーバヘッドが低減される.NAS 並列ベンチマークのISベンチマークでは,O2Gを使用することで従来のMPI実装に比べて3倍の性能が得られる.さらに,ソケットによるMPI実装ではコネクション数が増大すると通信バンド幅が低下するが,O2Gではコネクション数に関係なく高性能なデータ受信を達成していることが示される.In order to implement an efficient MPI communication library for large-scale commoditybased clusters, a new communication mechanism, called O2G, is designed and implemented. O2G introduces receive queue management of MPI into a TCP/IP protocol handler without modifying the protocol stacks. Received data is extracted from the TCP receive buffer and copied into the user space within the TCP/IP protocol handler invoked by interrupts. This avoids message flow disruption due to the shortage of the receive buffer and keeps the bandwidth high. In addition, it totally avoids polling of sockets and reduces system call overheads. An evaluation using the NAS Parallel Benchmark IS shows that an MPI implementation with O2G performed three times faster than other MPI implementations. An evaluation on bandwidth also shows that an MPI implementation with O2G was not affected by the number of connections while an MPI implementation with sockets was affected.
著者
滝澤真一朗 松田元彦 丸山直也
出版者
一般社団法人情報処理学会
雑誌
研究報告ハイパフォーマンスコンピューティング(HPC)
巻号頁・発行日
vol.2014, no.16, pp.1-9, 2014-09-25

計算科学アプリケーションには,そのワークフローを MapReduce モデルで容易に記述できるものも多く,MapReduce を採用することにより,実装の容易化,並列実行の自動化等の恩恵を受けられる.一方,計算科学アプリケーションは大規模並列システムで実行されるため,そのワークフローを実行する MapReduce 処理系にも高いスケーラビリティや,並列ファイルシステムに対応した高速 IO の実現が求められる.本研究では MapReduce 実行中の並列ファイルシステムへのアクセスの局所性を高めつつ,スケーラブルに動的負荷分散を行う処理系の実現を目指す.本稿では,並列ファイルシステム上のファイルの位置に基づく,該当ファイルを入力とするタスクを静的に割り振る手法を提案し,大規模並列システム向け MapReduce 処理系 K MapReduce に,京コンピュータを対象システムとして実装した.ファイル読み込み性能の評価を行った結果,N ファイルを N ノードが読み込む評価において,ランダムにファイルをノードに対応させた場合に対して,本提案は平均して 9 %の性能向上を達成した.また,1 ファイルを N ノードが読み込む評価においては,本提案は平均して 4.5 倍の性能向上となった.