著者
村松 一弘 武井 利文 松本 秀樹 土肥 俊
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告ハイパフォーマンスコンピューティング(HPC)
巻号頁・発行日
vol.1996, no.50, pp.27-32, 1996-05-24
参考文献数
8
被引用文献数
1

大規模流体解析と同時に解析結果を可視化する、実時間可視化システムを開発した。本システムはUNIXベースのネットワーク分散環境に対応しており、計算サーバとしての分散メモリ型並列マシンCenju?3と、XおよびMotifが装備されているクライアントワークステーション()で動作する。並列計算サーバ上で、流体解析とイメージデータ生成までの処理を行ない、解析結果の可視化表示と可視化のための諸パラメータの制御をクライアントで実行する。またJPEGのような画像圧縮技術を実装することにより、サーバからクライアントへの転送データの削減を図っている。これにより、バンド幅の狭いネットワークでもサーバからクライアントへのデータ転送がネックにならないと考えられる。A real-time visualization software system has been developed for concurrent visualization of on-going large-scale flow simulation. This software runs in UNIX-base distributed environment composed of a Cenju-3 distributed-memory parallel computing server and a client workstation equipped with X and Motif. The flow simulation and generation of pixel images for display are performed on the parallel server, while graphical monitoring of the simulation results and steering of visualization parameters are performed on the client. Image compression techniques (such as JPEG) are also employed for the data transfer from the server to the client, so that the software can work on a standard low-cost network such as the Ethernet.
著者
美添一樹 松本 尚 平木 敬
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告ハイパフォーマンスコンピューティング(HPC)
巻号頁・発行日
vol.1998, no.72, pp.1-6, 1998-08-06
参考文献数
10
被引用文献数
1

命令レベルより大きい粒度のブロックにプログラムを分割し、各ブロックを投機実行することによりブロックレベル並列性を得るハードウェアについて、いくつかの論文で提案がなされている。我々は投機実行の手法を適用したJava仮想マシンを共有メモリマシン上で実装した。投機実行の対象はループに限定した。単純なループについて実験を行なった結果、インタプリタJava仮想マシンでも10000命令以上のループであれば高速化が可能であった。There have been several proposals about hardware speculative executions, in a larger granularity than instruction level parallelism, by partitioning the target program into blocks. We have applied speculative execution onto Java Virtual Machine. We implemented it on a shared memory machine. The target for speculative execution is limited to loops. We measured speedups for simple loops and found that it is possible to gain speedups for loops which contains more than 10000 instructions by an interpreter Java Virtual Machine.
著者
河野洋一 西松 研 福盛 秀雄 村岡 洋一
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告ハイパフォーマンスコンピューティング(HPC)
巻号頁・発行日
vol.1996, no.22, pp.43-48, 1996-03-04
参考文献数
5
被引用文献数
1

有限要素法の要素分割には、有限要素法の解に信頼性が増すため、ボロノイ分割と双対なdelaunay三角形(elaunayy四面体)が非常に有効である。しかしボロノイ分割の処理は非常に重いため、ボロノイ分割の高速化が望まれている。そこで、本論文ではボロノイ分割の高速化のため、並列計算機を用いたアルゴリズムを提案する。さらに、要素数の多い時に有効な要素分割の並列化手法の提案を行なう。本手法を富士通の分散メモリ型並列計算機AP1000に実装した結果、母点数6000個の2次元ボロノイ分割を、PE数32台で約11倍の高速化を達成することができた。This paper presents two parallel algorithms for constructing Voronoi diagram and Delaunay triangulation. One algorithm using both a incremental method for inside PEs, and a divide-and-conquer method for merging Voronoi Diagrams between neighboring PEs is proposed. And the other algorithm for many generators which needs only one step of communication for merging Voronoi Diagrams is proposed. With 32 PEs configuration, the second method achieved speed-up ratio of 11 for 6000 generators.
著者
須田 礼仁 小柳 義夫
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告ハイパフォーマンスコンピューティング(HPC)
巻号頁・発行日
vol.1997, no.37, pp.31-36, 1997-05-09
被引用文献数
1

可変長指数部浮動小数点数表現形式とは指数の大きさによって指数部の長さが変化することにより、通常の浮動小数点数よりも高い精度や広い表現範囲が実現できる浮動小数点数の諸形式である。本論文では従来の方式の問題点を考察し、誤差解析やハードウェアへ実装などを考慮して、表現形式の設計基準の中に()変換にシフトが不要である ()指数部のビット長の変化が最大1であるの2点を盛り込むことを提案する。そしてこの基準を満たす表現形式をいくつか提示し、従来のものをも含めて精度や表現範囲を比較検討した。また、Kraftの不等式を用いた二重指数分割方式に関するいくつかの理論的な結果を示した。Some researchers proposed floating point number formats that attain higher precision and wider representation range than the usual formats by varing the length of the exponent. This paper consider the problems of those formats, and proposes to require that (1) encoding and decoding need no shifter and (2) the length of the exponent increases by at most one bit. Some new formats that meets those requirements are presented, and their precisions are evaluated. Some analytical results obtained from the Kraft's in equation about the double exponential cut formats are also presented.
著者
富松 剛
雑誌
情報処理学会研究報告ハイパフォーマンスコンピューティング(HPC)
巻号頁・発行日
vol.1995, no.97(1995-HPC-058), pp.57-62, 1995-10-18

浜田の提案したURR(niversal Representation of Real number)は1から離れるに従って,急速に精度が悪化するという欠点がある.この欠点を改善するためにURRを一般化し,拡張した二重指数分割表現を提案する.URRは二重指数±2^<±2^m>で実数を大まかに近似するが,本表現では二重指数を±p^<±q^m>と一般化する.本表現により,pとqを大きくするとで,より大きな実数に対しては,より少ないビット数で近似できること,pとqを適切に選ぶことによって,URRに比べより広範囲にわたって,IEEE表現よりも精度の良い表現方法があることがわかった.さらに本表現はURRの欠点でもある急激な精度の悪化も抑えることがわかった.
著者
須田 礼仁 小柳 義夫
雑誌
情報処理学会研究報告ハイパフォーマンスコンピューティング(HPC)
巻号頁・発行日
vol.1997, no.37(1997-HPC-066), pp.31-36, 1997-05-09

可変長指数部浮動小数点数表現形式とは指数の大きさによって指数部の長さが変化することにより、通常の浮動小数点数よりも高い精度や広い表現範囲が実現できる浮動小数点数の諸形式である。本論文では従来の方式の問題点を考察し、誤差解析やハードウェアへ実装などを考慮して、表現形式の設計基準の中に()変換にシフトが不要である ()指数部のビット長の変化が最大1であるの2点を盛り込むことを提案する。そしてこの基準を満たす表現形式をいくつか提示し、従来のものをも含めて精度や表現範囲を比較検討した。また、Kraftの不等式を用いた二重指数分割方式に関するいくつかの理論的な結果を示した。
著者
石川 裕
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告ハイパフォーマンスコンピューティング(HPC) (ISSN:09196072)
巻号頁・発行日
vol.2004, no.81, pp.115-120, 2004-07-30
参考文献数
12
被引用文献数
5

並列研究基盤ソフトウェアを実現するとともに、アプリケーションユーザにも使用できる完成度の高いMPI通信実装を提供することを目標に、YAMPII(Yet Another Implementation)と呼ばれるMPI通信ライブラリが開発されている。様々な並列計算機環境に容易にポーティング出来るように、プロセス生成機構、通信機構をモジュール化している。現在、YAMPIIは、低レベル通信機構として、TCP/IPならぴにSCoreクラスタシステムソフトウェア上のPMv2通信機構が使用できる。NAS並列ベンチマークによる予備評価では、YAMPIIは既存MPIと同等あるいはそれ以上の性能を達成している.YAMPII, Yet Another MPI Implementation, has been designed and implemented in order to be a research vehicle as well as providing the application users a stable high performance MPI implementation. YAMPII consists of several portable modules including process creation and point to point communication so that it is easily ported to any parallel computing environment. The current YAMPII supports the TCP/IP communication layer and the PMv2 communication layer of the SCore cluster system software. The preliminary evaluation result using the NAS parallel benchmarks shows that YAMPII achieves comparable or better performance than existing MPI implementations.
著者
西川 武志 長嶋 雲兵 関口 智嗣
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告ハイパフォーマンスコンピューティング(HPC) (ISSN:09196072)
巻号頁・発行日
vol.2002, no.51, pp.43-48, 2002-05-27
被引用文献数
5

Gaussian(http://www.gaussian.com/)は量子化学の専門/非専門を問わず科学者に広く使われる計算科学コードである。従ってGaussianジョブは、殆どのスーパーコンピュータセンターにおいてキューに投入されたジョブの圧倒的多数を占めるが、幾分かは不適切な計算資源、すなわちキューや計算機に投入されたりしている。Gaussianジョブが消費するCPUサイクルは入力パラメータに依存して際立って変化するので、ローカルな計算環境からの最も適切な計算のリソースを選択するすることにはユーザーにとって困難である。我々はグリッド技術を適用することにより高速ネットワーク環境上に「Quantum Chemistry GRID/Gaussian Portal」を構築し、個々のシステム環境の仕様を知らずとも高価な計算資源を能率的に利用することを目指している。「Quantum Chemistry GRID/Gaussian Portal」はWebインターフェイス、メタスケジューラー、計算資源、アーカイブ資源、グリッドインフラウェアから構成されている。Gaussian (http://www.gaussian.com/) is a code widely used in computational chemistry research by quantum and non-quantum chemists. So, Gaussian jobs are the majority of the number of queued, but some are queued inadequate computational resources, queues or machines for the job at almost supercomputer center. Since consuming CPU cycles of Gaussiar jobs vary significantly depending on the input parameter, it is difficult for users to chose the most adequate computational resources from local computing enviroment. By deploying grid technology on a top of high speed network environment. "Quantum Chemistry GRID/Gaussian Portal" attempt efficiently to utilize costly computational resources without knowing the specifications of each system environment. "Quantum Chemistry GRID/Gaussian Portal" consists of Web interface, Meta-schduler, computational resources, archival resources, and Grid Infrawares.
著者
堀 敦史 手塚 宏史 石川 裕
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告ハイパフォーマンスコンピューティング(HPC)
巻号頁・発行日
vol.1997, no.75, pp.79-84, 1997-08-19
参考文献数
13
被引用文献数
4

我々は,メッセージ通信型のプログラミングを対象としたギャングスケジューラを開発した.本稿は,開発したギャングスケジューラのスケジューリングオーバヘッドについて,PCクラスタ上で評価した結果について報告するものである.評価の目的は,アプリケーションの通信特性の違いがギャングスケジューリングのオーバヘッドに与える影響,実装された方式のスケーラビリティ,および co?scheduling skewの3点に注目した.今回の評価の結果,通信の量による違いよりも.co?scheduling skewの影響が大きいことが判明した.スケーラビリティの面においては,2プロセッサで動作する並列アプリケーションで比較的大きなオーバヘッドが見られたが,多くの場合,100 msecの量子時間でオーバヘッドは10%以下であり,4台以上の場合では,スケーラビリティに問題は見られなかった.We have developed a gang-scheduler for message passing programs. This paper reports on evaluation results of our gang-scheduler running on a PC cluster. We focus on, i) how communication patterns affects gang scheduling overhead, ii) scalability, and iii) co-scheduling skew. Through the evaluation, we found that effect of co-scheduling skew can be larger than effect of the amount of messages communicating. Also we found larger overhead with applications running on two processors, however, we could not find any scalability problem with applications running more than two processors. In most cases, implemented gang scheduling overhead is less than 10% with 100 msec time quantum.
著者
杉原 正顕
雑誌
情報処理学会研究報告ハイパフォーマンスコンピューティング(HPC)
巻号頁・発行日
vol.1991, no.26, pp.1-10, 1991-03-15

本稿においては,交代級数の収束加速法に関する4つの話題について述べる.第一の話題はEuler変換の振動的関数の無限積分計算への適用可能性である.第二の話題は交代級数の部分和に対する(漸近)展開公式である.第三の話題はEuler変換vs Aitken加速(ler変換とAitken加速では,どちらが交代級数の加速法として有効か?)最後の話題は交代級数に対する普遍的加速法の非存在(すべての交代級数の収束を加速することはできない.)である.In this note we discuss four topics on convergence acceleration methods for alternating series. The first is applicability of the Euler transformation to numerical integration of oscillatory functions over the infinite interval. The second is an asymptotic expansion of the partial sum of alternating series. The third is the Euler transformation versus the Aitken δ^2-process (Which is the better acceleration method for alternating series, the Euler transformation or the Aitken δ^2-process?). The last is non-accelerability of alternating series (All alternating series are not accelerable.).
著者
遠藤 敏夫 松岡 聡 橋爪 信明 長坂 真路 後藤 和茂
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告ハイパフォーマンスコンピューティング(HPC) (ISSN:09196072)
巻号頁・発行日
vol.2006, no.87, pp.43-48, 2006-07-31
参考文献数
8
被引用文献数
5

TSUBAMEスーパーコンピュータは,655ノード10480 Opteron coreと360枚の ClearSpeed SIMDアクセラレータボードを備えるヘテロ型の大規模クラスタシステムである.TSUBAMEはLinpackベンチマークで38.18TFlopsを記録し,この結果により2006年6月のTop500ランキングに7位としてランクされた.しかしその測定にはOpteronのみが使われ,アクセラレータは用いられていない.本論文は汎用CPUとアクセラレータによる不均一な環境においてLinpack 性能を得る上での課題について論じ,解決法を述べる.16ノード256 CPU coreを用いた予備実験では,アクセラレータ8枚を加えたときに8.2 %,16枚を加えたときに19%の性能向上が観測された.The TSUBAME supercomputer is a heterogeneous large-scale cluster system, which is equipped with 10480 Opteron CPU cores on 655 nodes and 360 ClearSpeed SIMD accelerator boards. The TSUBAME system has achieved 38.18TFlops with Linpack benchmark and is ranked 7th in the Top500 supercomputer ranking in June 2006, even though the measurement is done without any accelerator boards. This paper discusses issues to obtain high Linpack performance on heterogeneous systems with general purpose processors and accelerators, and describes solutions. Through preliminary experiments with 256 CPU cores on sixteen nodes, we observed +8.2% speed-up when eight accelerators are added, and +19% with sixteen accelerators.
著者
松田 元彦 石川 裕 工藤 知宏 手塚 宏史
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告ハイパフォーマンスコンピューティング(HPC) (ISSN:09196072)
巻号頁・発行日
vol.2003, no.83, pp.101-106, 2003-08-04
被引用文献数
1

大規模クラスタ計算機やグリッドに向けたMPIを実装するための通信機構としてO2Gドライバの設計・実装を行なった.O2Gは通信レイヤ自体を変更することなく,オーバーヘッドが大きいと考えられるソケットAPIをバイバスする.それにより性能問題が懸念されるselect&readによるポーリングを排除し非同期通信処理の効率化を狙う.そのためO2GではMPIで必要になる受信キュー操作をすべてプロトコル処理ハンドラ内で実装する.O2Gは現在Linuxのローダブル・ドライバとして提供される.評価として,NAS並列ベンチマークを用いたMPICHとの比較を行なう.非同期通信が重要となるISベンチマークではO2Gを用いた実装はMPICHの2.8倍の性能を示す.他のベンチマークの結果も互角の性能であり,O2Gを用いる実装に無駄なオーバーヘッドがないことを示す.O2G is a messaging kernel interface designed to implement MPI for large-scale clusters and networks in the Grid environment. O2G cares asynchronous communication primitives, and totally avoids the select&read system call loops. For this purpose, O2G provides the message queue management of MPI in the driver, where all message processing is completed in the protocol handler. Currently, O2G is provided as a loadable driver module of the Linux kernel. Evaluation using NAS Parallel Benchmarks shows that an MPI implementation with O2G performs better than MPICH for all benchmarks. Especially, it performs 2.8 times faster than MPICH for the IS benchmark. The results show that the O2G's approach is efficient and has no excessive overheads.
著者
建部修見 曽田 哲之
雑誌
情報処理学会研究報告ハイパフォーマンスコンピューティング(HPC)
巻号頁・発行日
vol.2007, no.122(2007-HPC-113), pp.7-12, 2007-12-07

Gfarm v2ファイルシステムは,小規模環境から大規模PCクラスタ,広域分散環境までスケールすることを目指した広域分散ファイルシステムである.コモデイテイの利用,ファイル容量の動的増減,ファイル複製による高信頼性,分散アクセスによる高性能化に特徴がある.さらに,ファイルアフィニティを利用することにより,スケーラブルで効率的な分散データ処理も可能となる.本論文では,Gfarm v2の実装について述べると共に性能評価を行う.
著者
藤野 清次 GarryJ.Tee R&uumldiger Weiss
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告ハイパフォーマンスコンピューティング(HPC)
巻号頁・発行日
vol.1998, no.115, pp.7-12, 1998-12-11

学術用語"eigenvalue"は,固有値問題などに現れる「固有値」に対する用語として現在英語圏でよく使われている.しかし,"eigen"という冠頭の言葉は,もともとドイツ語で「固有の」または「特有の」という意味を表す言葉である.そこで,「固有値」に対する学術用語として"eigenvalue"が現在英語圏で何故使われているかを入手資料を元に考察する.As you know well, in English the word of 'eigenvalue' is often used in the eigenvalue problem as compared with the other words, e.g. 'proper value' and 'characteristic value'. Then we become to have the following questions from this tendency. Who used first the word of 'eigenvalue' ? Who influenced greatly to the spread of 'eigenvalue' ? In this article, one answer will be shown based upon consideration from a number of references.
著者
小林 賢一 大鎌広 藤原 祥隆
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告ハイパフォーマンスコンピューティング(HPC)
巻号頁・発行日
vol.2000, no.23, pp.149-154, 2000-03-02
被引用文献数
2

メッセージプーリング方式のPCクラスタを用いた分散処理システム"Clop"における、プログラム開発を支援するためのリアルタイムログシステムについて論じている。PCクラスタにおけるプログラム開発では、全計算サーバのイベント(計算開始、データ送信等)の実時間上の正確な順序を知り、かつそのイベントの種類と時刻の記録(イベントログ)を得ることが必要となる。しかしながら、分散処理している複数計算機は時刻が一致しているとは限らない。よって、イベントログを正確な順序で得ることは困難である。本稿では、ユーザのプログラム実行中に、計算機間の時刻のずれを計測することで、イベントログの発生時刻を補正できることが示されている。This paper presents a real-time logging system to develop programs on "Clop". "Clop" is a distributed computing system of Message-Pooling for a PC cluster. For developing the programs on the PC cluster, it is required of obtaining the exact sequence of events(starting of computation, sending of the data, etc.) and recording event log that includes type and time-stamp of the occurred events. However, each clock of the computers on the PC cluster is not always equivalent to others. Therefore, it is difficult to obtain the event log with the exact sequence. It is shown to adjust the time-stamps in the event logs by the measuring offset of each of the computers during the execution of a user program.
著者
青山 智夫 井須 芳美 長嶋 雲兵
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告ハイパフォーマンスコンピューティング(HPC)
巻号頁・発行日
vol.1995, no.118, pp.13-18, 1995-12-11
被引用文献数
1

階層型ニューラルネットワークと関数の巡回表現を用いて時系列現象の予想を行った.この方法は,離散化した関数を小区間に分解し.その部分断片を組み合わせて外挿時の関数の形を予想する.断片の中に関数の将来の形と同じものが存在すれば精度良く予想できる,同じ断片がない場合,小区間の学習から元関数の近似関数がネットワーク内に構成できれば(この可能性は低くない)精度良く予想できる.Extrapolations for time-dependent phenomena are studied on use of multi-layered-neural-networks and recurrent representations of functions. Adopted theories are based on principles which the function can be constructed of many vectorized-fragments, and the fragments can be related to a set, which is a representation for an extrapolated-part of the function.
著者
小谷 裕基 伊野 文彦 萩原 兼一
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告ハイパフォーマンスコンピューティング(HPC) (ISSN:09196072)
巻号頁・発行日
vol.2006, no.106, pp.37-42, 2006-10-06

本稿では,GPUグリッドにおける遊休資源の定義を示し,資源選択手法を提案する.ここでGPUグリッドとは,GPUを装備するPCを計算資源とするデスクトップグリッドを指し,GPUを用いる大規模な汎用計算処理の実現を目的とする.定義は次の2つの観点に基づいて実験的に定める.(1)資源所有者への外乱を最小化すること,および(2)グリッドユーザへ提供する演算性能を最大化すること.提案手法は低オーバヘッドで遊休GPUを検出することを目的として,スクリーンセーバを基とし,資源のVRAM便用量およびCPU使用率を調べる.また,ベンチマークおよびマッチメイキングを組み合わせることで資源選択を実現する.実験の結果,遊休資源の定義が妥当であることを示せた.また,高々262ミリ秒の低オーバヘッドで遊休資源を検出できた.This paper presents a resource selection method and shows a definition of idle resources for the GPU Grid. The GPU grid here consists of desktop computers at home and the office, utilizing idle GPUs and CPUs as computational engines for GPGPU applications. We experimentally define the idle state that minimizes interference to resource owners and maximizes application performance provided to grid users. Our method is based on a screensaver-based approach with low overhead sensors. The sensors detect idle GPUs by checking video random access memory (VRAM) usage and CPU usage on each computer. Detected resources are then selected according to a matchmaking framework and benchmark results. The experimental results show that the definition is reasonable. We also find that our method achieves a low overhead of at most 262 ms, minimizing interference to resource owners.
著者
合田 憲人 大澤 清 大角 知孝 笠井 武史 小野 功 實本 英之 松岡 聡 斎藤 秀雄 遠藤 敏夫 横山 大作 田浦 健次朗 近山 隆 田中 良夫 下坂 久司 梶原広輝 廣安 知之 藤澤克樹
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告ハイパフォーマンスコンピューティング(HPC) (ISSN:09196072)
巻号頁・発行日
vol.2006, no.87, pp.49-54, 2006-07-31
被引用文献数
3

本稿では,2005年12月から2006年5月にかけて実施されたGrid Challenge in SACSIS2006において使用されたグリッド実験環境の構築・運用事例を報告する.Grid Challengeは,大学,研究所が提供する複数の計算資源からなるグリッド実験環境上で,参加者がプログラミング技術を競う大会であり,今大会では1200CPU超の計算資源からなるグリッド実験環境が運用された.本稿では,実験環境ハードウェアおよびソフトウェアの仕様を紹介するとともに,ユーザ管理,ジョブ管理,障害対応といった運用事例についても報告する.This paper presents a case study to operate the Grid testbed for the Grid Challenge in SACSIS2006. The Grid Challenge is a programming competition on a Grid testbed, which is organized by multiple computing resources installed in universities and laboratories. In the last competition, the Grid testbed with more than 1200 CPUs was operated. The paper shows hardware/software specifications of the Grid testbed, and reports experience of the operation, which includes accounting, job management, and troubleshooting.
著者
小沢 一文 海野 啓明
雑誌
情報処理学会研究報告ハイパフォーマンスコンピューティング(HPC)
巻号頁・発行日
vol.1990, no.24(1989-HPC-032), pp.1-8, 1990-03-17

多倍長浮動小数点数の高速な除算法を提案する。この計算法を用いると乗算と同じ速さで除算が実行できる。ここで提案するのは、O(n^2)(nは桁数)のアルゴリズムであり、我々が紙と鉛筆によって行なう方法(divide-and-correct法)を用いている。divide-and-correct法では、(単精度数)×(多倍長数)という演算がn回行なわれるが、ここではこの計算過程を省力化することによって高速化を達成している。時間計算量の解析を行なった結果、本アルゴリズムはニュートン法を用いる方法の3倍高速であることが判明した。また誤差解析の結果、本アルゴリズムの相対誤差はmachineεのオーダであることが判明した。
著者
濱口 信行
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告ハイパフォーマンスコンピューティング(HPC) (ISSN:09196072)
巻号頁・発行日
vol.2007, no.122, pp.19-24, 2007-12-07
被引用文献数
2

理論物理学の計算にIR-vertexダイアグラムがある.ここで IR-vertexダイアグラムは ファイマンパラメータの解析積分を使用せずに 直接導き出される積分を言う.多倍長ライブラリを使用する事により 非常に小さい光子質量10-160GeVで 解析解と10桁 10-24GeVで8桁まで一致する積分結果を得る事が出来た.We have succeeded in obtaining very precise integration results for IR-vertex diagrams, where the integration is carried out directly without per forming any analytic integration of Feynman parameters. Applying the Multi-precision library to numerical integration, we have obtained integra tion results which agree with the analytic solution to 10 digits even for such a very small photon mass as 10-160 GeV and 8 digits for 10-240 GeV in the IR-vertex diagram.