著者
前田 拓人
雑誌
日本地震学会2019年度秋季大会
巻号頁・発行日
2019-08-15

WINファイルは卜部・他(1990)により開発された地震波検測システム(WINシステム)の地震波形ファイルである.防災科学技術研究所よって制定されたWIN32を含めたWIN/WIN32(以下まとめてWINと略す)ファイル形式は,現代の日本国内における連続地震波形流通おける事実上の標準である.WINはデータ容量の小ささやデータの結合性など優れた点を持つが,その反面ファイル形式はやや難解であり,WINシステムで地震波形を使う場合以外には,他フォーマットへの波形記録変換ツールを介するのが常であった.しかし,観測網が稠密化したいま,大容量・連続地震波形記録の解析においては,この波形フォーマットの変換がデータ解析における最大のボトルネックであり,その傾向は今後ますます顕著になっていくと予想される.そこで本研究では,これまでよりもはるかに高速にWINファイルの読み出しができるライブラリを作成した.本ライブラリは,Fortran2008言語のモジュールとして作成した.FORTRANは古典的な言語ではあるが,Fortran2003/2008といった最近の規格では,動的なメモリ確保やオブジェクト指向といった現代的な機能が含まれている.特に,Fortran2008で規格が制定され,最近になって多くのコンパイラで実装された非同期入出力は,WINファイルのような複雑かつ多数のファイルの入力にきわめて有効である.本研究で開発したライブラリでは,他形式へのファイルの変換・保存や,複数のWINファイルの結合などの処理を一切必要とせず,時間的に連続した複数のWINファイルから目的のチャネルの記録をFortranの配列として直接取得できる.中間処理が不要になったことで,処理の単純化のみならず高速化に対して劇的な効果が見込まれる.さらに,本ライブラリはWIN形式とWIN32形式の両方に対応し,ファイル形式の簡易自動判定機能も備えている.また,開発したライブラリでは,WINファイルのファイル内容をそのままメモリイメージとして読み込むロード部分と,メモリ上に格納されたWINファイルから必要なデータを抽出するデコード部分を分離実装した.これらとFortran2008の非同期入出力機能を用いて,あるファイル内容のデコード中に次のファイルをメモリに読み込む並列動作を実現した.このことにより,ロードとデコードのうち片方の処理時間を隠蔽することができ,多数のファイルを読み込む場合に高速化が期待される.このような隠蔽処理は並列数値計算においてCPUやGPU間の通信時間の隠蔽にしばしば用いられてきたが,本報告ではこれをファイル入力に対して活用した.開発したライブラリの性能を評価するため,WIN32波形を読み込むdewin_32プログラムを比較対象とした実験を行った.防災科学技術研究所Hi-net により収録された任意の日付時刻の連続速度波形ファイル1時間分を対象とし,そこに含まれる全てのチャネルを読み出す.WIN32ファイルはLAN上のNASに格納されているものとする.dewin_32と同等の機能を持つツールを今回開発したライブラリに基づいて作成し,読み込み速度を比較した.実験の結果,dewin_32で1時間分のファイルの全チャネルの読み込みと出力に最大621秒かかったところ,本ツールでは,非同期入力なしで267秒,非同期入力ありで236秒で読み込めた.また,Fortran言語上で利用する場合は,そもそも読み込んだデータを一旦ファイルに保存する必要がない.そこでデータの出力に掛かる時間を無視すると,読み込み時間は非同期入力なしで38秒,ありで21秒まで短縮された.実際の解析でHi-net全チャネル1時間分データが利用可能になるまでの時間は,本研究で開発したツールではdewin_32と比べて最大約20倍短縮されたことになる.読み込みのみに限定すると,非同期入力の導入によって性能がおおむね倍になった.比較に用いたWIN32ファイルの1時間分の総容量は約1GBであり,この結果はデータ通信速度に換算すると約400Mbpsに相当する.これは実験環境におけるLAN(1Gbps)の通信の実効速度の上限に近い.すなわち,ネットワークファイルシステムに連続記録が配置されている環境においては,もはやこれ以上の劇的な速度向上は望めない.本研究で開発したライブラリは,周辺ツールや利用マニュアル等を整備の上,オープンソースとして公開する予定である.講演ではアルゴリズムの詳細の説明,高速データ読み込みとその利用の実演,およびコードの公開を行う.謝辞 本研究では防災科学技術研究所により登録ユーザーに対して配布されているwin32toolsを利用しました.記して謝意を表します.
著者
大峡 充己 古村 孝志 前田 拓人
出版者
日本地球惑星科学連合
雑誌
日本地球惑星科学連合2019年大会
巻号頁・発行日
2019-03-14

本研究では、強震観測データと地震波伝播シミュレーションの同化に基づく長周期地震動の即時予測の実現に向け、データ同化手法の高速化に向けた検討を行った。これまでFurumura et al. (2019)は、K-NETとKiK-net強震観測と3次元差分法による地震波伝播シミュレーションのデータ同化に基づき、2007年新潟県中越沖地震と2011年東北地方太平洋地震における、都心の長周期地震動の即時予測実験を行った。データ同化には、震度の即時予測(Hoshiba and Aoki, 2015)や津波の即時予測(Maeda et al., 2015; Gusman et al., 2016)などで広く用いられている最適内挿法が用いられ、長周期地震動の計算は3次元地下構造モデルを用いた差分法計算により行われている。近年の高速計算機により、日本列島規模の長周期地震動のシミュレーションは、地震波(表面波の基本モード)の伝播速度の数倍以上の速度で行うことは十分可能になった。しかし、長周期地震動の予測から揺れが実際に始まるまでの十分な時間的猶予を確保するためには、コストの高い地震波伝播計算を、より高速に行うための研究開発が必要である。そこで、本研究は従来のデータ同化・予測に表面波伝播のGreen関数を活用して高速化する手法の有効性を検討した。この手法はWang et al. (2017)でGreen’s Function-Based Tsunami Data Assimilation (GFTDA)として、沖合津波計を用いた津波の高速データ同化・予測手法として提案されている。GFTDAでは、予めデータ同化地点と最終予測地点の間の津波伝播のGreen関数を計算しておき、これをデータ同化地点での観測データとシミュレーション結果との残差に畳み込み積分することで、予測地点の波形を計算する。差分法によって残差を時間発展させていく計算過程を予め計算されたGreen関数で代用するため、最終予測地点の津波波形を瞬時に求めることができる。通常のデータ同化に基づく予測手順と数学的に等価であることはWang et al. (2017)により証明されている。 本研究では、まずこの手法の長周期地震動への適用性を確かめるために、2004年紀伊半島南東沖地震(M7.4)のK-NET, KiK-net強震観測データを用いたデータ同化の数値実験を行い、K-NET新宿地点(TKY007)の長周期地震動の予測を行った。同化・予測計算はJ-SHIS地下構造モデルに対して行った。Green関数の計算を効率的に進めるために、相反定理を用いた震源と観測点を入れ替えた計算を行った。実験より、従来のデータ同化手法による予測とGreen関数を併用した本手法による予測が同一となることを確認した。本手法の活用により、震源域近傍の和歌山県〜三重県の観測データの同化後、直ちに遠地の最終予測地点の長周期地震動が得られることから、猶予時間を大幅に拡大することができる。さらに、熊野灘沖のDONET観測網を利用することで、より即時予測の精度の向上と猶予時間の確保が期待できることも確認した。 続いて、Green関数を併用した手法を用いた南海トラフ地震の長周期地震動の即時予測実験を行った。最終予測地点はKiK-net此花(OSKH02)、K-NET津島(AIC003)、新宿(TKY007)の3点である。震源モデルに内閣府(2016)の1944年東南海地震と1946年南海地震、そして想定最大級(M9)のものを用いた。それぞれの地震の長周期地震動は3次元差分法計算により求め、これを想定観測データとみなして実験に用いた。本実験ではK-NET, KiK-netに加え、DONET、気象庁海底ケーブル地震計、及び高知県沖〜日向灘に展開が計画されている海底津波地震観測網N-netの予想地点での想定観測データも用いた。最終予測地点の長周期地震動の強さは、水平動の速度応答スペクトルのGMRotD50 (水平2成分の波形記録を0~90°回転させたときのそれぞれの速度応答スペクトルの幾何平均のメディアンの値; Boore et al., 2006)により評価した。また、長周期地震動の継続時間の影響を評価するために、地動の累積変動量も計算した。これらの長周期地震動の予測精度は同化の経過とともに一様に高まる。例えば昭和南海地震の震源断層モデルと破壊が東側(熊野灘沖)から進行する地震シナリオでは、地震発生から70秒後の新宿地点の速度応答スペクトル(固有周期10秒)と累積変動量の予測は、大きな揺れが始まる約80秒前に実際の7割のレベルまで達成することを確認した。一方、破壊が西(足摺岬沖)から始まるシナリオでは、最終予測地点が遠い分、同等の予測精度を得る時点でより長い猶予時間(約120秒)が確保できることがわかった。しかしながら、断層破壊が都心に近づくにつれ、長周期地震動レベルが増大するため、より長時間(100秒間)の同化時間が必要であった。いずれにせよ、精度の高い予測と猶予時間の両方を確保するためには、震源域近傍での強震観測とともに、巨大地震の断層破壊の拡大に合わせてデータ同化を一定時間続け、予測を更新し続けることが必要である。
著者
王 宇晨 佐竹 健治 三反畑 修 前田 拓人
出版者
日本地球惑星科学連合
雑誌
日本地球惑星科学連合2019年大会
巻号頁・発行日
2019-05-17

The 2015 Torishima earthquake (M5.9) occurred at the Smith caldera, on May 2, 2015. It had a CLVD-type focal mechanism and generated larger tsunami waves compared to its seismic magnitude (Sandanbata et al., 2018). Therefore, it was regarded as a ‘volcanic tsunami earthquake’ – a tsunami earthquake with volcanic origin. The tsunami reached Hachijo Island, Boso Peninsula and Shikoku Island, and were recorded by tide gauges and ocean bottom pressure gauges (Kubota, 2018). Fukao et al. (2018) proposed an opening horizontal sill model to explain its origin. The abnormal mechanism makes it difficult to forecast tsunami from its seismic magnitude.Tsunami data assimilation forecasts the tsunami by assimilating offshore observed data into a numerical simulation, without the need of calculating the initial sea surface height at the source (Maeda et al., 2015). In the Nankai region, the Dense Oceanfloor Network System for Earthquakes and Tsunamis (DONET) records the water pressure and has real-time data transmission. Synthetic experiments showed that this observational system was able to forecast the waveforms at Shikoku Island by tsunami data assimilation approach (Wang et al., 2018). Here, we performed this method to retroactively forecast the tsunami of the 2015 Torishima earthquake. We assimilated the observations of 16 DONET stations and two ocean bottom gauges off Muroto. The tsunami waveforms at the tide gauges Tosashimizu and Kushimoto were forecasted, and compared with the actual records.The comparison between forecasted and observed waveforms at two tide gauges suggested that our method could forecast the tsunami amplitudes and arrival time accurately. The tsunami warning could be issued to local residents of Shikoku Island more than one hour before its arrival. Our method is merely based on offshore observations, and could be implemented for future tsunami warning systems.
著者
吉光 奈奈 前田 拓人 William Ellsworth
出版者
日本地球惑星科学連合
雑誌
日本地球惑星科学連合2019年大会
巻号頁・発行日
2019-05-17

Stress drop is important parameter to understand earthquake source characteristics and to improve hazard assessment. Many studies use the spectral ratio method to measure the moment ratio and two corner frequencies by comparing theoretical and observed spectral ratio in the frequency domain and obtain the stress drop. Accurate stress drop estimates are difficult to make because it depends on the accuracy of the three parameters. The Markov Chain Monte Carlo (MCMC) method is effective to estimate high dimensional parameters. In this study, we evaluate the uncertainty of the estimation and trade-off among parameters from a statistical perspective.We analyzed five clusters of events near Cushing, Oklahoma, each containing a M 4+ event. Empirical Green’s function events used as the denominator all locate within 2 km of the target event. We analyzed 5.12 seconds of the time-aligned seismogram from twice the S wave arrival time. Spectral ratios between a large event (ML > 4) and small events were formed by stacking all stations to remove path effects. Then, analyzed spectral ratios between event pairs using the Metropolis-Hastings algorithm to estimate moment ratio and two corner frequencies for the Brune model. We updated the value of moment ratio and two corner frequencies with 300,000 iterations which first 100,000 calculations was ignored as burn-in.In most cases, the distribution of the sampling showed ellipsoidal shape in the 3D parameter space. We searched the axial direction of the sampling distribution by principal component analysis (PCA), and estimated loadings of the principal component and contribution rate. Some spectral ratio showed irregular shape from ideal shape because of small magnitude difference or contamination by noise. The percentage of the contribution rate indicates how well the sampling distribution is explained by each component. The contribution rate of the first principal component with irregular shape of the spectral ratio was lower than 80 % while it was higher than 80 % with normal shape of the spectral ratio. The loadings among three parameters and three principal components also showed different pattern in the case of normal shape and irregular shape of the spectral ratio. These different trend of the contribution rate and the loadings indicates different pattern of the sampling distribution of a spectral ratio that have irregular shape. Thus, the combination of MCMC and PCA analysis have a possibility that to automatically classify spectral ratios which have irregular shape and ideal shape.
著者
井上 俊介 堤 重信 前田 拓人 南 一生
出版者
一般社団法人情報処理学会
雑誌
情報処理学会論文誌コンピューティングシステム(ACS) (ISSN:18827829)
巻号頁・発行日
vol.6, no.3, pp.22-30, 2013-09-25

理化学研究所では,スーパーコンピュータ「京」の高性能化を目的とし,6本の重点アプリケーションを選定し,高性能化,高並列化を進めてきた.うち地球科学の分野から選択された地震動シミュレーションコードであるSeism3Dについては,比較的高いByte/Flop値を要求する演算と,隣接プロセス間のみの通信という特徴があげられる.よって,Seism3Dの高性能化,高並列化のポイントとして,メモリバンド幅を最大限に生かすこと,キャッシュの効率的な利用をすること,6次元メッシュ上での最適な隣接通信を実現すること,に絞られる.我々はコードの持つ要求Byte/Flopから求まるピーク比性能の推定を実施し,詳細プロファイラ機能を活用することにより問題点を把握し,実測,チューニングを実施し,CPU単体性能向上策の検証と通信部の検証を進めた結果,82,944並列で理論ピーク比17.9%(1.9PFLOPS)に達したため,本稿で報告する.In order to optimize performance of the K computer, we selected six applications from various scientific fields. We optimized CPU performance and massively parallelization to them. Seism3D which was selected from earth science field is seismic wave simulation code. It has calculation parts which demands high Byte/Flop and communication parts between neighborhood processes. So optimization points are using enough memory bandwidth, using cache effectively and realization of optimal neighborhood communications on six-dimensional mesh/torus network. We estimated theoretical performance from required Byte/Flop of code and utilized advanced profiler to have a clear grasp of bottle neck. As a result, we achieved 17.9% per peak performance by using 82,944 cpus.