著者
須田 一哉 森 悠太 山岡 晶 八田原 慎吾 片寄 晴弘
雑誌
情報処理学会研究報告音楽情報科学(MUS)
巻号頁・発行日
vol.2006, no.19(2006-MUS-064), pp.41-46, 2006-02-23

本件ではf-NIRSを用いた音楽聴取時における没入感についての検討を行う.筆者らは,音楽における没入感に関して技能の拡張と身体性の視点から研究している.我々は,先行実験において,聴取者が音楽を積極的に聴取する際に前頭前野の活動が低下している現象をとらえた.本報告では,この現象をより精繊な計画によって追試を行った結果について述べる実験の結果 先行研究を支持する結果が得られたのに加え,f-NIRSのデータから,被験者の音楽経験より音楽的嗜好が音楽聴取に対する没入に優位に働いている状況がとらえられた.
著者
日高 伊佐夫 後藤 真孝 村岡 洋一
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告音楽情報科学(MUS) (ISSN:09196072)
巻号頁・発行日
vol.1996, no.19, pp.29-36, 1996-02-24
参考文献数
11
被引用文献数
12

本稿では、ジャズセッションシステムにおけるベーシストとドラマーの実現方法について述べる。従来の研究では、人間のソロ演奏への追従が中心であり、計算機が演奏上どう主張するかについては十分考慮されていなかった。本研究では、すべてのプレーヤーが対等となる合奏を実現するために、計算機上のプレーヤーが演奏での主張の仕方を自ら決定することを提案する。また、曲のおおまかな流れを事前に決め、その部分ごとに主張の仕方を変えることを提案する。そのために、セッションの中でどの程度主導権を握りたいかを算出して、自分が主張する程度を決定する。本システムを実装し、ジャズピアニストとセッションを行なった結果、起伏に富んだセッションが実現できた。This paper presents implementation of a bassist and a drummer in our jazz session system where each player is independent and interplays with others. In most previous systems, computer players only followed a human solist and did not play with a certain intention. In our system, each computer player can dynamically determine his musical intention by considering the whole musical relationships among players. Moreover, we introduce a song form called scenario, which enables the player to change his way of playing according to where he plays in it. Experimental results showed that interaction among a human pianist and the computer players made the performance expressive and interesting.
著者
後藤 真孝 日高 伊佐夫 松本 英明 黒田 洋介 村岡 洋一
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告音楽情報科学(MUS) (ISSN:09196072)
巻号頁・発行日
vol.1996, no.19, pp.21-28, 1996-02-24
被引用文献数
15

本稿では,すべてのプレーヤーが対等な立場でインタラクションし,即興演奏するジャズセッションシステムについて述べる.従来の多くのシステムでは,人間のソロ演奏に対して計算機が他のプレーヤー全員の演奏を伴奏としてまとめて生成していたため,ソロに追従する域を出なかった.我々は,計算機内のプレーヤー同士も人間同様にお互いの演奏を聞き合い反応することができ,さらにジェスチャーも視覚的に交換することができるシステムを提案する.対象はジャズのピアノトリオとし,人間がピアニスト,計算機がベーシストとドラマーを担当する.両計算機プレーヤーは独立したプロセスとして複数の計算機上に実装され,実際にプレーヤーが対等な立場で演奏できた.This paper presents a jazz session system where each player is independent and can interplay with other players. Most previous systems reacted to only human player's performance with the fixed master-and-servant relationship. Our system enables computer players to listen to other computer player's performance as well as human performance, and to interact each other. Moreover, all players can communicate not only by listening other's performance, but by looking at other's bodies and gestures. In our current implementation, the system deals with jazz piano trio consisting of a human pianist, a computer bassist and a computer drummer. These computer players have been implemented as independent processes on several distributed workstations.
著者
後藤 真孝
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告音楽情報科学(MUS) (ISSN:09196072)
巻号頁・発行日
vol.2002, no.100, pp.27-34, 2002-10-25
参考文献数
17
被引用文献数
11

本稿では、ポピュラー音楽の音響信号に対して、サビの区間の一覧を求める手法を提案する。従来、楽曲の音響信号中に何度も出現するサビのどこか一箇所を、指定した長さだけ切り出して提示する研究はあったが、サビ区間の開始点と終了点はわからず、サビの転調も扱えなかった。本手法は、様々な繰り返し区間の相互関係を調べることで、楽曲中で繰り返されるすべてのサビ区間を網羅的に検出し、それらの開始点と終了点を推定できる。また、転調後でも繰り返しと判断できる類似度を導入することで、転調を伴うサビも検出できる。この検出結果は、リアルタイム音楽情景記述システムにおける大局的な記述に相当する。RWC研究用音楽データベース100曲を用いて本手法を評価したところ、80曲のサビが検出できた。This paper describes a method for obtaining a list of chorus sections in popular-music audio signals. Most previous methods detected a repeated section of a given length as a chorus and had difficulty in identifying both ends of a chorus section and in dealing with modulations (key changes). By analyzing relationships among various repeated sections, our method can detect all the repeated chorus sections in a song and estimate their both ends. It can also detect modulated chorus sections by introducing a similarity measure that enables correct judgement in finding modulated repetition. The detected results correspond to global music descriptions in our real-time music scene description system. Experimental results with the RWC Music Database showed that our method correctly dealt with 80 out of 100 songs.
著者
ローロバート シンガーエリック L.
雑誌
情報処理学会研究報告音楽情報科学(MUS)
巻号頁・発行日
vol.1997, no.122(1997-MUS-023), pp.39-43, 1997-12-13

実時間音楽解析と動画を組み合わせた二つのシステムについて述べる。一つは6人の演奏家によるアンサンブルとライブ・ビデオ映像を伴う舞台演奏の為のものである。もう一つはユーザが動画化された仮想ジャズバンドのメンバーと一緒に演奏できるというものである。舞台作品、「A Flock of Woods」では、入力された音楽を分析し、それに呼応して実時間で動くグラフィック・オブジェクトを生成する。このグラフィック・オブジェクトは、同時に映写されるビデオ、照明、大型のホログラム、そしてアルゴリズムによって生成されるコンピュータ音楽と組み合わされる。インタラクティブ仮想ミュージシャン・プロジェクトはMIDI楽器を演奏するユーザと共に即興演奏を行なう動くジャズ・ミュージシャンを提示する。
著者
伊藤 直樹 西本 一志
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告音楽情報科学(MUS) (ISSN:09196072)
巻号頁・発行日
vol.2008, no.127, pp.53-58, 2008-12-12
参考文献数
12

ギターの MIDI フレーズ作成を行う際に発音タイミングやベロシティなどのばらつきを意識してエディットするのは手間がかかる.MIDI ギターシステムが市販されているが,ギターをある程度弾けたり,弦を押さえられる必要がある.また楽譜情報がないフレーズの場合,音高が分からず押さえるポジションの特定が難しいこともある.そこで我々は,鼻歌入力機能と市販のギター型電子楽器インタフェイスを組み合わせ,歌唱から音高を,弾弦からタイミングやベロシティを取得して,パワーコードによるギターフレーズや単音フレーズの入力(および演奏)が可能なシステム 「吟たぁ」 を開発した.ギター上級者 1名にシステムの試用を依頼し,評価を行った.VOUITAR is a Voice-to-MIDI system that employs a guitar like user interface. VOUITAR merges two kinds of input; singing voice for obtaining pitch data and picking/cutting strings for obtaining rhythm data. VOUITAR can input not only monophonic melody data but also chord backing accompaniment data: it provides a function to add the 5th note to the input note to make it a power-chord by natural string cutting performances. Using VOUITAR, the user can input his/her cool phrases as well as backings by the hot guitar-like performances only if he can sing the phrases, even if he/she does not know fret positions of the guitar. We evaluate VOUITAR with a guitarist.
著者
奥平 啓太 平田 圭二 片寄 晴弘
雑誌
情報処理学会研究報告音楽情報科学(MUS)
巻号頁・発行日
vol.2006, no.19(2006-MUS-064), pp.53-58, 2006-02-23

ポップス系音楽においてドラムのグルーブ感は,楽曲全体の印象を変えるような重要な要素の 1 つと考えられる.我々はこれまで,タイトとルーズのグルーブ感を与えたドラム演奏から,スネア,ベースドラム,ハイハットの打点時刻と音量を測定し,これらのグルーブ感との関連を調べてきた.この結果からグルーブ感の違いは,実際の打点時刻や音量からも読み取ることが出来た.本研究では,グルーブ感を含んだ様々な演奏意図と打点時刻及び音量との関係を分析した.その分析結果をふまえてドラム演奏生成システムを実装した.そのシステムは連続する打点の相関を考慮すること,ゴーストノート付加できることなどの特徴を持つ.
著者
長嶋 洋一
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告音楽情報科学(MUS) (ISSN:09196072)
巻号頁・発行日
vol.2008, no.78, pp.21-26, 2008-07-30
参考文献数
19
被引用文献数
5

理工系でないデザイン系の学生でも、サウンド・インスタレーション作品やインタラクティブ作品を実現できる汎用インターフェースの新しい提案である。リアルタイム処理のために必要な「割り込み」や「モニタ/カーネル」を不要とする並列処理プロセッサ (Parallax 社 Propeller チップ) の活用によって、ソフトウェア部品を単純に連結するプログラミングで、複雑な高速多重処理を容易に実現できるようになった。This is a report of universal interfaces for media arts - sound installations and interactive installations. The Propeller chip makes it easy to develop universal interfaces. Its eight processors (cogs) can operate simultaneously, either independently or cooperatively, sharing common resources through a central hub. We have full control over how and when each cog is employed; mere is no compiler-driven or operating system-driven splitting of tasks among multiple cogs. The Propeller can execute at up to 160 MIPS.
著者
平野 砂峰旅
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告音楽情報科学(MUS) (ISSN:09196072)
巻号頁・発行日
vol.1996, no.19, pp.43-48, 1996-02-24
参考文献数
2
被引用文献数
5

大域結合カオスのアルゴリズムを用いて制作された、2つの作品"Emergination","Ping?Bang"を紹介することによって、作品に共通して使われている大域結合カオスのコンピュータミュージックへの応用例を示す。また、その他の応用の可能性について考察する。Chaos elements which is connected by "globally coupled map" (=GCM) are used in my computer music works "Emergination" and "Ping-Bang". This paper introduces GCM itself. Next it explains how to use GCM for the two works. And we discuss about possibility of the other GCM application for music.
著者
吉田 由紀 中嶌 信弥
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告音楽情報科学(MUS) (ISSN:09196072)
巻号頁・発行日
vol.1998, no.14, pp.45-46, 1998-02-13
参考文献数
4
被引用文献数
1

規則音声合成技術を用いて,MIDI対応の歌声合成システムを開発した.Standard MIDI Fileを利用して入力された楽譜から,各音符のピッチと時間長を自動的に抽出後,付与された歌詞を音素系列に分解,波形編集型音声合成法により歌声を合成,その後,MIDIと同期を取りBGMと合成された歌声を同時に出力する.本システムの特徴としては,単に音符に歌詞を当てはめて歌声を出力するだけではなく,歌詞入力時に,パワー調整や声質変換,ビブラートなどの情報を付加することができ,歌声を自由に演出できる点があげられる.さらに,歌詞を付与するトラックを複数用意することで,ハーモニやデュエットなども実現可能とした.We developed a singing voice synthesis system correspond to MIDI using Text-to-Speech. The system first accepts a score from a standard MIDI file as input, then pitch and duration of each musical note are extracted automatically. Next phonological series are analyzed from given lyrics, and singing voice is synthesized by waveform speech synthesis. It is played together with BGM by synchronizing with MIDI format data. In this system, users can add other information such as power modulation, speech quality modification or vibrato, and can direct the singing voice. Furthermore, if lyrics is given at two or more trucks, harmony and duet can be also performed.
著者
馬場 貴之 山田 武志 北脇 信彦
雑誌
情報処理学会研究報告音楽情報科学(MUS)
巻号頁・発行日
vol.2005, no.82(2005-MUS-061), pp.79-84, 2005-08-05

自動採譜や音楽検索において,楽器音の音源同定は重要な要素技術である.本稿では,単一楽器の孤立発音を対象とした,HMM とMFCC を用いた楽器音の音源同定について述べる.まず,適切なHMM のパラメータを決定するために,RWC の楽器音データベースを用いて同定実験を行った.その結果,HMM の状態数と混合分布数が各々9,12 のときに88.65%の同定率が得られることが分かった.次に,学習データの量が同定率に及ぼす影響を調査し,学習データの量と同定率の関係を明らかにした.
著者
平野 砂峰旅 宇佐見 義之 北岡 正敏
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告音楽情報科学(MUS) (ISSN:09196072)
巻号頁・発行日
vol.1998, no.47, pp.39-42, 1998-05-27
被引用文献数
1

デジタルロストワールド計画のデジタルスタジオの構成を概説する。またそのインタラクティブシステムを実現するソフトウエア開発環境としてのPureDataの概略とその有効性を示す。そして絶滅した生物を3D-CGをPureData上への実装した例を紹介する。We describe the digital syudio's compositon. And advantation of the "PureData" software to realize its interactive system. We intorduce how to develop extinct animals by 3D Computer Graphics on "PureData".
著者
平賀 瑠美 大島 千佳 西本 一志
出版者
情報処理学会
雑誌
情報処理学会研究報告音楽情報科学(MUS) (ISSN:09196072)
巻号頁・発行日
vol.2003, no.48, pp.33-38, 2003-05-16
参考文献数
10
被引用文献数
1

演奏生成システムの評価方法の確立を目指すワークショップ ``Rencon'' (Performance Rendering Contest) が2002 年より始まった.演奏生成システムは楽譜や人間の演奏を参考に,生成すべき楽曲の楽譜情報やその構造についての情報を入力として,表情のある演奏を生成するソフトウェアシステムである.一般に演奏は主観により判断されてきたため,演奏生成システムの評価をその出力から行うことは困難である一方,論文のみでシステムを評価することは技術面での優秀さしか知ることができない.また,演奏生成システムの研究には情報科学のみならず,音楽学,心理学,認知科学といった幅広い分野の研究者の共同作業が必要となる.そこで,Rencon は,演奏生成システムの評価の確立とともに,多くの関連分野の研究者が意見を交換し合う場としての意味も持ち得る.本稿では,2002年のRenconに主催者,発表者,参加者として関わった3名がそれぞれの立場および異なる研究背景から2002年のRencon から得た教訓,感想,提案について述べる.``Rencon'' (Performance Rendering Contest) has started from 2002 as a workshop to establish evaluation methods for performance rendering systems. Expressive performance is rendered by a software system with the data of musical scores and corresponding performances and their musical structures as well, as input. Performance has been considered to include subjective matters so that it is not possible to evaluate such a system only from technical papers. Rencon also has the meaning as a forum for researchers of various areas --computer science, musicology, psychology, and perception-- to meet and discuss on their interests in musical performance. In this paper, three authors, who participated two Rencons in 2002 as a steering member, a paper speaker and music entrant, and a participant, describe each of their opinions from different relationships with Rencon and research backgrounds.
著者
野池 賢二 平田 圭二 片寄 晴弘
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告音楽情報科学(MUS) (ISSN:09196072)
巻号頁・発行日
vol.2003, no.48, pp.45-50, 2003-05-16
被引用文献数
4

蓮根(Performance Rendering Contest)の演奏コンテストに参加するための"Rencon エントリキット第 1 版"の仕様について述べる."Rencon エントリキット"に含まれる,共通の土俵上でシステムを評価するための学習用データのファイル形式,提供するツールの機能について述べる.This paper reports a Rencon-Kit for Performance Rendering Contest. In this paper, we are going to examine an environment on which, the performance of the rendering systems are compared and evaluated. We illustrate the file format to describe the score and performance data and some tools, aiming at the competition of the Performance Rendering systems, which are equipped with learning or reasoning functions.
著者
橋田 光代 野池 賢二 片寄 晴弘
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告音楽情報科学(MUS) (ISSN:09196072)
巻号頁・発行日
vol.2002, no.100, pp.65-70, 2002-10-25
参考文献数
4
被引用文献数
6

本稿では,演奏ルールを与えて音楽に表情を付けた場合と,人間がマニュアルで表情付けを行った場合における各パラメータの与え方の差異について述べる.比較のために,あらかじめ手入力(打ち込み)で作成した演奏事例を用意し,次にその演奏を目標としたルールを考案し,音高,発音時刻,音価のみ記述したStandard MIDI File (以下,SMF)に適用した.今回はショパンの「別れの曲」に記述されている記号情報,楽語について検討を行ったところ,その多くは一般化できるのではないだろうかという手ごたえがあった.This paper describes an analysis of music performance rendering of differences between manual rendering and rule-based rendering. We rendered two types of MIDI sequences; we first made a MIDI sequence by manual with complete expressions, and then made another one by rule-based processing for targeting the manual data. This time the information clearly including a score such as slur, dynamics, and articulations are considered. We could except some of the rules created for Chopin's Etude Op.10-3 would generalize for other pieces...
著者
土橋 佑亮 片寄 晴弘
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告音楽情報科学(MUS) (ISSN:09196072)
巻号頁・発行日
vol.2006, no.90, pp.31-36, 2006-08-07
参考文献数
11
被引用文献数
4

音楽ジャンルはWeb上での楽曲検索において有力な指標となる.これまで音響信号を用いての様々な音楽ジャンル解析の研究がなされてきたが そのほとんどは様々なパートが混成する音楽を対象していた.本稿では複音からの音源分離が比較的容易なベースパートに注目したジャンル推定を取り扱う.まずスケール リズム 音色の等の特徴量の設定と有効性の考察をし それらを用いてマハラノビス距離 F値最大境界による実験を行う.更にMusic Islandを利用し ジャンルの可視化と島の変化を調べる.マハラノビス距離による音楽ジャンル解析において Metal/Punkでは73% Jazz/Bluesでは80%の認識率を得た.Music Islandにおいては 注目する特徴量に応じて島が変化することを確認した.Musical genre helps us to search for songs on the web. Most of the previous works have focused on audio signal analysis for the pieces composing of various instruments. This paper presents an approach to music genre classification focusing on base part,the fundamental frequency of which is comparatively easy to be estimated. First, the paper describes features regarding scale, rhythm, timber, and examine those validity. Next, this paper describes about twe experiments based on maharanobis distance and one song to multi-genre correspondence. Finally, we illustrated music genre visualization with Music Island based on SOM. Experimental results by using mahalanobis distance show success rates of 78% for Metal/Punk, and 80% for Jazz/Blues. And we confirmed transformation of Music Island depending on each features.
著者
土橋 佑亮 片寄 晴弘
雑誌
情報処理学会研究報告音楽情報科学(MUS)
巻号頁・発行日
vol.2006, no.90(2006-MUS-066), pp.31-36, 2006-08-07

音楽ジャンルはWeb上での楽曲検索において有力な指標となる.これまで音響信号を用いての様々な音楽ジャンル解析の研究がなされてきたが そのほとんどは様々なパートが混成する音楽を対象していた.本稿では複音からの音源分離が比較的容易なベースパートに注目したジャンル推定を取り扱う.まずスケール リズム 音色の等の特徴量の設定と有効性の考察をし それらを用いてマハラノビス距離 F値最大境界による実験を行う.更にMusic Islandを利用し ジャンルの可視化と島の変化を調べる.マハラノビス距離による音楽ジャンル解析において Metal/Punkでは73% Jazz/Bluesでは80%の認識率を得た.Music Islandにおいては 注目する特徴量に応じて島が変化することを確認した.
著者
武田 晴登 西本 卓也 篠田 浩一 嵯峨山 茂樹
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告音楽情報科学(MUS) (ISSN:09196072)
巻号頁・発行日
vol.2003, no.48, pp.21-26, 2003-05-16
参考文献数
12
被引用文献数
4

多重音を含む楽曲の演奏のMIDI(Musical Instruments Digital Interface)信号からの自動採譜に確率モデルを用いる。MIDI信号を対象とした場合は演奏の音高情報は既知であるので、リズム推定が必要である。演奏の速度が一定である場合は量子化によるリズム推定が容易であるが、演奏中にテンポが変動する曲では難しい。我々は、多声部に跨るIOI(発音時刻の間隔)から得られる相対的な音長情報であるリズムベクトルを確率モデルの特微量とし、モデルのパラメータ値を楽譜や演奏から学習する。実際の採譜手順は、同時発音の検出の後にIOIの時系列を求め、HMM(隠れマルコフモデル)を用いてIOIの時系列から最適なリズム譜を推定し、そしてリズム譜をもとに各音価の推定する。5人の奏者による電子ピアノの演奏に対して性能評価実験を行い、音価復元率として「フーガ」に対して92.2%、「トロイメライ」に対して52.1%を得た。This paper proposes an automatic transcription method for polyphonic musical performances in MIDI signals. Pitches and rhythms are basic information which is necessary to write scores. From the MIDI signals of human performance, we just need to recognize rhythms from time information in MIDI signals because pitches are already known in MIDI signals. We propose a method on rhythm recognition, especially targeting at polyphonic music performances. In the proposed probabilistic models for rhythm recognition, we use rhythm vectors, which are obtained from IOI(Inter- Onset Interval) sequence across the multi voices, as a feature of probabilistic models. Thevalues of parameters in our model can be optimized by the learning from scores and human performances. In experiments on performances by 5 piano players with an electronic piano, we obtained score restoration rates of 92.2% for"Fuga"and 52.1% for "Traumerai".
著者
米田 隆一 西本 卓也 嵯峨山 茂樹
雑誌
情報処理学会研究報告音楽情報科学(MUS)
巻号頁・発行日
vol.2005, no.129(2005-MUS-063), pp.31-36, 2005-12-23

本研究では、Standard MIDI File 楽譜等のシンボリックな音楽情報を入力として対旋律、和音、調等のラベルを付与する汎用的な手法を提案する。このような音楽のラベル付与問題は、音声認識における言語モデルとの類似性から、マルコフモデル、および生成モデルとしての HMM (hidden Markov models) を適用することが多かった。本研究でも確率モデルを踏襲するが、MIDI、楽譜などは、縦の和音、横の声部進行等、2次元的な情報であり、マルコフ連鎖のような一次元的なモデリングでは不十分である。このような背景のもと、より広いコンテキストを重視すべきであるという考えが生まれる。マルコフ確率場(Markov random field)モデルは、ノード間の関連をエッジであらわす一種の無向グラフモデルであり、エッジを設計することにより広いコンテキストを柔軟に設定できる。また、マルコフ確率場では我々の持つ音楽的知識を素性関数の設計(エッジの設計)という操作に還元することが可能、という利点を持つ。さらに、識別モデルであるという点でHMMとは異なり、可能なすべての出力系列を入力系列の条件付き確率として求めることができるという点で、条件付き確率場(conditional random fields)とも呼ばれる。本研究ではマルコフ確率場モデルに基いたさまざまな音楽情報処理に対するアプローチを論じる。本手法は汎用であり、応用範囲は多岐にわたるが、本稿では対旋律付け、和声付け、ドミナント定型句の同定、和声解析、調認識に対するアプローチを述べる。考えられる他の応用としては、リズム認識、楽曲のパージング、音楽情報検索など広範囲にわたる。
著者
臼井 淑晃 松島 俊明
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告音楽情報科学(MUS) (ISSN:09196072)
巻号頁・発行日
vol.1997, no.100, pp.13-18, 1997-10-18
被引用文献数
4

手書き入力による尺八譜の手書き入力・編集システムの研究を行っている.従来のシステムは,日本語MS?DOS上で動作するシステムとして開発を始めたが,パーソナルコンピュータの急速な性能向上とWindowsの普及により,システムのプラットフォームとしてIBM PC/AT互換機とWindows環境への移植を行うことにした.従来,海外からの使用希望者への対応ができなかったが,新たに作成した尺八譜フォントを組み込むことにより,日本語版以外のWindows上でも動作可能となったため,これらの要望にも対応が可能である.本システムをWindows環境へ移殖すると伴に,機能の改善を行ったので報告する.We are developing a system which can input and edit the Shakuhachi tablature by handwriting input device. In addition to the editing facilities, the system has the ability for sound output, fingering display, SMF file input/output. The system was originally developed for the PCs with Japanese environment. By the rapid improvement for the PC and its OS, we started to implement the system to the IBM PC/AT compatible machines and Windows95 environment. In this paper, we introduce new system which will run on the both Japanese and English Windows95 operating system.