著者
香川 俊宗 手塚 宏史 稲葉 真理
雑誌
エンタテインメントコンピューティングシンポジウム2015論文集
巻号頁・発行日
vol.2015, pp.326-333, 2015-09-18

音楽ゲームは計算機とプレイヤーが合奏し曲を完成させるもので, プレイヤーが演奏するパートを 原曲から分離・抽出し, プレイヤーのアクションを指示する譜面を作成することが難しいことが知られて いる. 本研究ではよい譜面の自動生成のための重要音抽出を目指す. 音楽の中で繰り返し現れるフレーズが 重要な部分であると考え,suffix tree を利用してフレーズを抽出する頻出頻度を利用した重要音抽出法を提 案・実装し,メロディ,ハーモニー,リズムそれぞれに適用し,譜面に使用する楽曲を構成し,ユーザーテ ストを行った.
著者
堀 敦史 手塚 宏史 高橋 俊行 住元 真司 曽田哲之 原田 浩 石川 裕
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告ハイパフォーマンスコンピューティング(HPC) (ISSN:09196072)
巻号頁・発行日
vol.1999, no.66, pp.83-88, 1999-08-02
被引用文献数
3

SCoreクラスタシステムソフトウェアは,Myrinetを用いたクラスタを対象とした高性能かつスケーラブルな並列プログラミング環境のソフトウェアパッケージである.本稿は,Myrinet以外のネットワーク,SMPクラスタ,及びクラスタ化されたクラスタという3つの新たな形態のクラスタにSCoreを対応させる方法について提案するものである."Composite"と呼ばれる仮想ネットワークデバイスを設け,compositeネットワークデバイスが複数の実ネットワークデバイスとルーティングテーブルを持つことで,これらの形態のクラスタに対応可能であることを示す.ここで提案された方法は,見方を変えれば,ヘテロなネットワーク構成のクラスタへの対応と考えることができる.提案された方法は,現在SCore 3.0として開発が進められている.A high performance scalable cluster system software package, SCore, was designed for clusters using Myrinet. To adapt it to a cluster using other networks, an SMP cluster, and a cluster of clusters, the notion of "composite" is proposed in this paper. The "composite" is a virtual network device which consists of a routing table and several physical network devices. From the viewpoint of seamless computing, the "composite" is to handle heterogeneity. New SCore 3.0 is under development for implementing the "composite".
著者
堀 敦史 手塚 宏史 石川 裕 曽田 哲之 原田 浩 古田 敦 山田 務 岡 靖裕
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告システムソフトウェアとオペレーティング・システム(OS) (ISSN:09196072)
巻号頁・発行日
vol.1996, no.79, pp.121-126, 1996-08-26
被引用文献数
3

我々は並列マシンにおける時分割空間分割スケジューリング方式を提案し、ワークステーションクラスタ用のスケジューリングシステムSCore?DをUNIXのデーモンプロセスとして開発した.現在,対話的な並列プログラミング環境実現方式の研究の最初のステップとして,オンライン並列デバッガSCDBの設計開発を行ってきている.一般に,デバッガプロセスはシステムコールによってデバッグ対象のプロセスの実行制御を行う.このような環境では、SCore?Dはユーザプロセスの状態を制御できず,スケジューリングシステムが正常に動作しない.そこで,SCore?Dがユーザプロセスに対してOS機能をサービス可能とするための機構を,プロセス間共有メモリおよびUNIXのシグナルを用いて設計開発した.We have been proposing Time-Space-Sharing Scheduline (TSSS) and developed a scheduling system, named SCore-D, as demon processes on UNIX. As a first step towards the research and development of an interactive parallel programming environment, we are designing a parallel online debugger, named SCDB. Generally debugger process has a control of debugee process. In the case of SCore-D, however, SCore-D can not control debugger and debugee processes, and the sceduling of SCore-D and the control of debugger can conflict. To avoid this situation, we design and develop a mechanism for SCore-D to support OS functions using inter-process shared memory and UNIX signals.
著者
尾崎 直人 稲葉 真理 手塚 宏史
出版者
一般社団法人 人工知能学会
雑誌
人工知能学会全国大会論文集 第29回全国大会(2015)
巻号頁・発行日
pp.1C54, 2015 (Released:2018-07-30)

現在最も高速かつ精度の高いコミュニティ抽出手法として知られているLouvain(BGLL)法に対し,コミュニティの併合先探索処理においてヒューリスティックな枝刈りを行うことにより,精度を同程度に保ちつつ計算時間を半分以下に削減する新しい高速化手法を提案する.
著者
掘 敦史 手塚 宏史 石川 裕
出版者
一般社団法人情報処理学会
雑誌
情報処理学会論文誌 (ISSN:18827764)
巻号頁・発行日
vol.40, no.5, pp.2072-2083, 1999-05-15
参考文献数
36
被引用文献数
2

本稿の貢献は2つある. 1つはギャングスケジューリングの高速化技法の提案である. もう1つはギャングスケジューリングの実践的なアプリケーションによる評価である. 提案された高速化技法により クラスタ並列計算機上でギャングスケジューリングによる時分割スケジューリングが実用になりうることを示すことが本稿の目的である. ネットワークプリエンプションによるギャングスケジューリングの実現は ユーザレベル通信による高性能な通信と 時分割スケジューリングによるマルチプログラミング環境を同時に実現する. 本稿では ネットワークプリエンプション方式におけるスケジューリングオーバヘッドの大半が ネットワークコンテキストのメモリへの退避およびメモリからの復帰にあることを示すと同時に 複数のネットワークコンテキストを単に切り替えることでネットワークコンテキストの切替え時間を短縮する方式を提案する. この高速化技法の効果は NAS並列ベンチマークプログラムを用いて評価され その結果 高速化技法によりスケジューリングオーバヘッドが半減され 同時に2次キャッシュのヒット率も向上することが確認された. 評価の結果では 64ノード 100 msecの時分割間隔において スケジューリングオーバヘッドは4%以下であった.There are two contributions in this paper. One is to propose an efficient gang scheduling implementation technique, and the other is to evaluate gang scheduling overhead using some practical application programs. The purpose of this paper is to demonstrate that the overhead of gang scheduling on a cluster using commodity computers can be low enough for its practical use. Network preemption technique for implementing gang scheduling realizes high-performance communication and multi-programming environment with time-sharing scheduling. In this paper, it is shown that the most of the scheduling overhead comes from saving and restoring network contexts when preempting network. And then, it is proposed to switch network contexts to avoid high-cost saving and restoring network contexts. This proposed technique is evaluated using NAS parallel benchmarks. The results show that the scheduling overhead is almost halved and secondary cache miss ratios are decreased. The evaluated gang scheduling overhead is less than 4% on 64 nodes with a 100 msec time slice.
著者
堀 敦史 手塚 宏史 石川 裕
出版者
一般社団法人情報処理学会
雑誌
情報処理学会論文誌 (ISSN:18827764)
巻号頁・発行日
vol.39, no.9, pp.2705-2717, 1998-09-15
参考文献数
25

我々はシステムコールのオーバヘッドを削除したユーザレベル通信と,並列処理に有効とされるギャングスケジューリングに着目し,時分割多重並列プログラミング環境を構築した.本稿では,そのような並列プログラミング環境を構築する際の問題点を明らかにし,ユーザレベル通信とギャングスケジューリングという両者の利点を最大限に活かす手法として,「ネットワークプリエンプション」を提案する.ネットワークプリエンプションとは,並列プロセス切替え時に,プロセスのコンテキストのみならずネットワークのコンテキストをも退避/復帰しようとするものである.PCクラスタ上の評価結果では,500msecの時分割間隔において約2%のスケジューリングオーバヘッドであることが判明した.本稿で提案されたネットワークプリエンプションは,ギャングスケジューリングだけでなく,分散プロセスの大域状態検出などへの応用が考えられる.The goal of this research is the implementation of high-performance and easy-to-use parallel programming environment. We focus on the user-level communication technique and gang scheduling.In this paper,first we clarify some problems when implementing the user-level communication and gang scheduling,and then we propose network preemption that can extract the both benefits of the user-level communication and gang-scheduling.The network preemption is to save and restore network context when switching parallel processes.The proposed scheme is implemented on our PC cluster.On our evaluation on the PC cluster,gang-scheduling overhead is about 2% when the time slice interval is 500 msec.The proposed network preemption can be applied for not only gang scheduling,but also global state detection.
著者
堀 敦史 手塚 宏史 石川 裕
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告ハイパフォーマンスコンピューティング(HPC)
巻号頁・発行日
vol.1997, no.75, pp.79-84, 1997-08-19
参考文献数
13
被引用文献数
4

我々は,メッセージ通信型のプログラミングを対象としたギャングスケジューラを開発した.本稿は,開発したギャングスケジューラのスケジューリングオーバヘッドについて,PCクラスタ上で評価した結果について報告するものである.評価の目的は,アプリケーションの通信特性の違いがギャングスケジューリングのオーバヘッドに与える影響,実装された方式のスケーラビリティ,および co?scheduling skewの3点に注目した.今回の評価の結果,通信の量による違いよりも.co?scheduling skewの影響が大きいことが判明した.スケーラビリティの面においては,2プロセッサで動作する並列アプリケーションで比較的大きなオーバヘッドが見られたが,多くの場合,100 msecの量子時間でオーバヘッドは10%以下であり,4台以上の場合では,スケーラビリティに問題は見られなかった.We have developed a gang-scheduler for message passing programs. This paper reports on evaluation results of our gang-scheduler running on a PC cluster. We focus on, i) how communication patterns affects gang scheduling overhead, ii) scalability, and iii) co-scheduling skew. Through the evaluation, we found that effect of co-scheduling skew can be larger than effect of the amount of messages communicating. Also we found larger overhead with applications running on two processors, however, we could not find any scalability problem with applications running more than two processors. In most cases, implemented gang scheduling overhead is less than 10% with 100 msec time quantum.
著者
松田 元彦 石川 裕 工藤 知宏 手塚 宏史
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告ハイパフォーマンスコンピューティング(HPC) (ISSN:09196072)
巻号頁・発行日
vol.2003, no.83, pp.101-106, 2003-08-04
被引用文献数
1

大規模クラスタ計算機やグリッドに向けたMPIを実装するための通信機構としてO2Gドライバの設計・実装を行なった.O2Gは通信レイヤ自体を変更することなく,オーバーヘッドが大きいと考えられるソケットAPIをバイバスする.それにより性能問題が懸念されるselect&readによるポーリングを排除し非同期通信処理の効率化を狙う.そのためO2GではMPIで必要になる受信キュー操作をすべてプロトコル処理ハンドラ内で実装する.O2Gは現在Linuxのローダブル・ドライバとして提供される.評価として,NAS並列ベンチマークを用いたMPICHとの比較を行なう.非同期通信が重要となるISベンチマークではO2Gを用いた実装はMPICHの2.8倍の性能を示す.他のベンチマークの結果も互角の性能であり,O2Gを用いる実装に無駄なオーバーヘッドがないことを示す.O2G is a messaging kernel interface designed to implement MPI for large-scale clusters and networks in the Grid environment. O2G cares asynchronous communication primitives, and totally avoids the select&read system call loops. For this purpose, O2G provides the message queue management of MPI in the driver, where all message processing is completed in the protocol handler. Currently, O2G is provided as a loadable driver module of the Linux kernel. Evaluation using NAS Parallel Benchmarks shows that an MPI implementation with O2G performs better than MPICH for all benchmarks. Especially, it performs 2.8 times faster than MPICH for the IS benchmark. The results show that the O2G's approach is efficient and has no excessive overheads.
著者
松田 元彦 石川 裕 工藤 知宏 手塚 宏史
出版者
一般社団法人情報処理学会
雑誌
情報処理学会論文誌コンピューティングシステム(ACS) (ISSN:18827829)
巻号頁・発行日
vol.45, no.11, pp.14-23, 2004-10-15

大規模クラスタ計算機に向けたMPIを実装するための通信機構であるO2Gドライバの設計・実装を行っている.O2Gでは,TCP/IPプロトコル通信レイヤ自体は変更せず,MPIの実装に必要となる受信キュー操作をプロトコル処理ハンドラに組み込んでいる.割込みで起動されるプロトコル処理ハンドラ内で,TCP受信バッファから受信データを読み出しユーザ空間にコピーする.これによって,TCP受信バッファの溢れにともなう通信フローの停滞が抑制され,通信性能を劣化させることがなくなる.さらに,従来のソケットAPIで必要だったポーリングが不要になり,システムコール・オーバヘッドが低減される.NAS 並列ベンチマークのISベンチマークでは,O2Gを使用することで従来のMPI実装に比べて3倍の性能が得られる.さらに,ソケットによるMPI実装ではコネクション数が増大すると通信バンド幅が低下するが,O2Gではコネクション数に関係なく高性能なデータ受信を達成していることが示される.In order to implement an efficient MPI communication library for large-scale commoditybased clusters, a new communication mechanism, called O2G, is designed and implemented. O2G introduces receive queue management of MPI into a TCP/IP protocol handler without modifying the protocol stacks. Received data is extracted from the TCP receive buffer and copied into the user space within the TCP/IP protocol handler invoked by interrupts. This avoids message flow disruption due to the shortage of the receive buffer and keeps the bandwidth high. In addition, it totally avoids polling of sockets and reduces system call overheads. An evaluation using the NAS Parallel Benchmark IS shows that an MPI implementation with O2G performed three times faster than other MPI implementations. An evaluation on bandwidth also shows that an MPI implementation with O2G was not affected by the number of connections while an MPI implementation with sockets was affected.
著者
手塚 宏史 堀 敦史 O-CarrollFrancis 石川 裕
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告計算機アーキテクチャ(ARC) (ISSN:09196072)
巻号頁・発行日
vol.1998, no.18, pp.25-30, 1998-03-05
参考文献数
20
被引用文献数
8

我々はPentium Pro 200MHzのPC64台をMyrinetギガビットネットワークによって接続したPCクラスタシステム"RWC PC Cluster II"を構築し,その上にマルチユーザの並列プログラミング環境SCoreを開発している.PCC2上の通信ライブラリPMは通常のメッセージ転送だけでなくリモートメモリライトによるゼロコピーデータ転送をサポートしており,約119Mバイト/秒(Kバイトデータ)のメッセージ転送バンド幅と約109Mバイト/秒(同8Kパイト)のリモートメモリライトバンド幅,および約7.5マイクロ秒(同8バイト)の通信レイテンシを持っている.また,PMのこれらの機能を用いたMPI/PMはPCC2上で約104Mバイト(同1Mバイト)のデータ転送バンド幅と約11マイクロ秒(同8バイト)の通信レイテンシを得ている.MPI/PMを用いたNASパラレルベンチマークの結果によって,PCC2の高い性能とスケーラビリティが実証された.We have built a PC cluster "RWC PC Cluster II" consisting 64 Pentium Pro 200MHz PCs connected by a Myrinet giga-bit network, and have been developing a multi-user parallel programming environment SCore on it. A communication library PM on PCC2 supports a message passing and a remote memory write using zero-copy data transfer. PM achieves 119M bytes/s (8K byte data) message passing bandwidth, 109M bytes/s (8K byte data) remote memory write bandwidth and 7.5 micro second communication latency. MPI/PM that uses these PM facilities achieves 104M bytes/s (1M byte data) data transfer bandwidth and 11 micro second communication latency on PCC2. The NAS parallel benchmark results using MPI/PM have shown PCC2's high performance and scalability.
著者
原田 浩 石川 裕 堀 敦史 手塚 宏史 住元 真司 高橋 俊行
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告ハイパフォーマンスコンピューティング(HPC) (ISSN:09196072)
巻号頁・発行日
vol.1999, no.66, pp.89-94, 1999-08-02
被引用文献数
6

既存のUnixオペレーティングシステムと低通信遅延かつ高通信バンド幅を有するネットワークシステム上にSCASHと呼ぶソフトウエア分散共有メモリを開発している。SCASH上に、ページ管理ノードの動的再配置機構を実装し、SPLASH2のLUを用いて評価を行った。その結果、管理ノードをノードに固定的にラウンドロビンに配置した場合との比較では64台の実行で1.17倍の性能向上を達成したが、管理ノードを固定的に最適化した場合との比較では、0.722倍の性能を得るに留まった。We have been developing a software distributed shared memory system called SCASH on top of a Unix with a low latency and high bandwidth network system. A dynamic owner node reallocation mechanism is introduced to SCASH and evaluated using the LU benchmark from SPLASH2 suits. LU under the dynamic ower node reallocation mechanism is 1.17 times faster than that of using round robin fashion node allocation. It is 0.722 times faster than that of using statically optimized owner node.