著者
南高純一
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告音楽情報科学(MUS) (ISSN:09196072)
巻号頁・発行日
vol.2006, no.90, pp.129-133, 2006-08-08

楽曲の演奏情報から楽譜化を行う手法確立のために,試作と検証をすすめている.演奏情報として,Midiファイルを利用する.Midiファイルは,ある発音に対して,ノート番号と発音時刻と消音時刻についての情報を持つイベントデータの並びである.一方楽譜は,ある発音に対して,音符として表されるが,通常の音符や連符,また装飾音など発音時刻の解釈が異なるルールをもつものが混在する.さらに楽譜には,複数の音の動きを表すための声部概念があるが,Midiファイルにはその声部情報はない.このような演奏情報と楽譜のルールの違いを考慮し,本件では,まず声部情報と,連符情報を抽出する手段について試した結果を報告する.We push forward development and inspection of prototype to establish technique of scoring from performance information of a song. We use MIDI file as musical performance. Midi file is the row of the event data which has the information about a note number, note on time, and note off. On the other hand, a score is expressed as a note to a certain pronunciation. In a score, a thing with the rule from which the interpretation about note on time, such as a note, a triplet mark, an ornament mark, etc., differs is intermingled. Furthermore, there is a thing called the voice part for expressing two or more melody in a score. There is no information equivalent to the voice part in Midi. In consideration of the difference in the rule of such a performance information and a score, we report the result that we tested about means to extract voice part information and triplet information.
著者
平賀 譲
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告音楽情報科学(MUS)
巻号頁・発行日
vol.1994, no.48, pp.15-24, 1994-05-28
被引用文献数
2

計算的アプローチによる音楽認知研究では、音楽認知をどのような過程としてとらえ、それに基づいてどのような問題設定を行い、何を実現すべきかについて、明確な認識を持つことが重要である。認知という観点から眺めた場合、通常の音楽分析などで扱われる概念そのものの見直しが必要となることも少なくない。本稿では音楽認知研究で扱われる課題について、批判的見地から検討を行う。取り上げるトピックは、楽譜レベルへの記号化、調性・拍節構造、グループへの分節、階層構造、類似性の認識などである。全体を通じて、協調的・競合的分散処理としての音楽認知観を示す。In a computational approach to music cognition, it is essential to hold a clear, rigid view of how music cognition is to be characterized, what problems are to be pursued, and what should be realized. From a cognitive viewpoint, it is often the case that the concepts incorporated in traditional styles of music analysis must themselves be totally revised. This paper presents a critical introduction to the issues raised in music congnition research. The discussed topics include score-level symbolization, tonal and metrical structures, group segmentation, hierarchical structures, and detection of conformance. The presented view is based on the recognition of music congnition as cooperative-competitive distributes processing.
著者
冨林 豊 竹川 佳成 寺田 努 塚本 昌彦
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告音楽情報科学(MUS) (ISSN:09196072)
巻号頁・発行日
vol.2008, no.78, pp.39-44, 2008-07-30

近年,人と音楽との新たな関わり方として,クラブやイベント会場における BGM の選曲や再生をコントロールする DJ (Disc Jockey) が現れた. DJ は選曲を行い,曲と曲のスムーズなつなぎ合わせやエフェクトの選択を行い,聴衆を盛り上げる重要な役割を持つ一方,行動範囲は機器が設置されているブース内に限られている.そこで本研究では,ウェアラプルコンピューティング技術を活用することで,この問題を解決した新たな DJ 支援システムを提案する.提案システムでは装着型の無線通信機能付き加速度センサとジェスチャ認識技術を活用することで,場所を問わずに直観的な操作で DJ パフォーマンスを行える.本研究では,2007年神戸ルミナリエのイベントステージにて実際にシステムを試用し,BGM の制御を行った.また,評価実験により,状況認識用のセンサを新たに装着することで認職精度を損なうことなく自由度の高いジェスチャ認識が行えることを確認した.In recent years, DJ (Disc Jockey) who selects and plays music has attracted a great deal of attention. DJ selects music, changes the playing music to another music smoothly, applies the effect, and excites audience. DJ cannot get away from the booth where there are DJ equipments. Therefore, in this study, we propose a new DJ system that solves this problem by using wearable computing and behavior recognition technologies. The system proposed enables DJ to perform DJ techniques by intuitive gesture operations using wearable acceleration sensors. We have actually used our prototype system on an event stage of Kobe Ruminarie in 2007. We have evaluated the accuracy of the gesture recognition by changing the parameters, and we confirmed the effectiveness of the proposed system.
著者
加藤大貴 神谷善三 星野 佑一 真殿 隼 奥野 竜平 赤澤堅造
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告音楽情報科学(MUS) (ISSN:09196072)
巻号頁・発行日
vol.2007, no.127, pp.25-27, 2007-12-15

現在,中高年者で楽器の演奏を楽しみたいという希望を持つ人が増えている.本研究室では,開発コンセプトを,"難しい楽曲でも簡単に演奏できる","演奏を楽しめる","上達が出来る"の3つとした,楽譜内蔵型電子楽器 Cymis(Cyber musical instrument with score) の基本システムを開発してきた.本稿では,従来の Cymis の機能に加え,呼気の強さにより音量を制御することでより豊かな演奏表現を可能としたウェルネス電子楽器 Cymis-tube の設計及び試作を行った.また,4名の被験者による演奏実験を行い,試作した Cymis-tube を用いて楽曲が演奏可能であることを示した.We have been developing a new musical instrument "Cyber musical instrument with score (Cymis)", that the middle and elderly people could play music easily, skillfully and joyfully. However, it was difficult for players to control volume of sound with finger pressure. The purpose of this study was to develop electronic wind instrument "Cymis-tube" with that the players can control volume of sound by changing his breath strength. Four subjects played various sorts of musical compositions for an experiment. As a result, it was shown that the players can play music with Cymis-tube.
著者
浜中 雅俊 平田 圭二 東条 敏
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告音楽情報科学(MUS) (ISSN:09196072)
巻号頁・発行日
vol.2004, no.84, pp.1-8, 2004-08-02
被引用文献数
5

本研究報告では,音楽理論Generative Theory of Tonal Music (GTTM)に基づき,楽曲のグルーピング構造および拍節構造を自動で獲得するシステムについて述べる.GTTMは計算機上への実装が期待される音楽理論の1つであるが,ルール適用の優先順位やアルゴリズムが決められていないため,ルールの競合が起こるという問題がある.この問題の解決法として本研究では,ルールの優先順位を決めるためのパラメータを導入する.そして,ボトムアップに求めた局所的なグルーピング境界の強さおよび拍点の強さを用いて,トップダウンに階層的な構造を獲得する手法を提案する.実験の結果,パラメータの調節により,性能が向上することが確認できた.This report describes an automatic music analyzing system, which acquire grouping structures and metrical structures, based on the Generative Theory of Tonal Music (GTTM). The GTTM is considered to be one of the most promising theories of music in regard to computer implementation; however, no order in applying those rules is given and thus, more often then not, may result in conflict among them. To solve this problem, we introduce adjustable parameters, which enable us to give priority among rules. Our system based on the GTTM makes it possible to construct hierarchical grouping and metrical structures in a top-down process using bottom-up detection of local boundary strength and local metrical strength. The experimental results show that our method outperformed the baseline performance by tuning the parameters.
著者
西村 憲
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告音楽情報科学(MUS) (ISSN:09196072)
巻号頁・発行日
vol.2007, no.15, pp.51-56, 2007-02-23

本稿では、著者の提案する SAMUEL という並行スクリプト言語について、その概要を述べる。SAMUEL は、音楽データ入力、アルゴリズミック作曲、音楽情報処理における研究、およびプログラミング教育のために設計されたオブジェクト指向プログラミング言語である。SAMUEL は、並行処理の簡便な記述や、表情情報を伴った音符の簡潔な表記などを特徴とする。開発した SAMUEL インタプリタは、リアルタイム・スケジューラを内臓し、時間に従った MIDI シンセサイザ等の制御やインタラクティブ処理を行う。This paper introduces a concurrent scripting language named SAMUEL proposed by the author. SAMUEL is an object-oriented programming language designed for music data entry, algorithmic composition, research on music information processing, and programming education. It features concise description of concurrent processing and brief syntax for describing notes and rests with expressive information. The SAMUEL interpreter developed by the author, incorporating a real-time scheduler, is capable of timed control of MIDI synthesizers and interactive processing.
著者
長嶋 洋一 中村 文隆 片寄 晴弘 井口 征士
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告音楽情報科学(MUS) (ISSN:09196072)
巻号頁・発行日
vol.1997, no.67, pp.25-30, 1997-07-20
被引用文献数
2

ネットワークで相互接続された24台のUnixワークステーションを用いて、「アルゴリズム作曲」および「音楽における即興」について体験的に演習するための音楽教育システムを構築している。Ethernet上の24台のSGI Indy上にOpen?GLのGUI環境で対話的に即興演奏/音楽生成するプロセスを走らせて、相互の情報交換にRMCP (emote Music Control Protoco)を用いた。本稿では、他の参加者に音楽情報をbroadcastしてセッションするモードに加えて、自分のマシンだけでモニタしながら簡易的なフレーズを生成するモードを加えた最新のバージョンについて、技術的な実現方法と音楽科の学生による演習の模様の報告を行う。This paper describes a peformance support system for improvisational sessions with networks. We call this system "Improvisession", and this paper reports its the latest version. The system run swith 24 SGI Indy computers through FDDI LAN, and softwares were developed with Open-GL, OSF/Motif, and RMCP (Remote Music Control Protocol) by C language. All performers can play their own phrases, and can broadcast their phrases to other performers with improvisation via RMCP. We report the technical points of this system and the experimental lectures of students of music course of Kobe Yamate College.
著者
西村 拓一 橋口 博樹 関本 信博 張建新 後藤 真孝 岡 隆一
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告音楽情報科学(MUS) (ISSN:09196072)
巻号頁・発行日
vol.2001, no.103, pp.7-14, 2001-10-26
被引用文献数
1

我々は,音楽音響信号のデータベースから,鼻歌のメロディーに類似した区間を見つけ出す音楽検索システムを提案している.本システムでは,個人的に収集したビデオデータからの検索も可能である.しかし,このシステムで用いていた「Model driven path 連続DP」呼ぶマッチング手法は,クエリーの時間軸,データベースの時間軸,音高の軸からなる3次元空間中において,局所類似度を連続DPに基づいて累積し,極大となる累積類似度を計算するもので,その計算量が大きい.そこで,クエリーの始端周辺の音高が正しく推定できたと仮定することで,音高軸を削減した2次元空間における局所類似度の累積に基づく「始端特徴依存連続DP」を提案する.本稿では,ポピュラー音楽20曲について鼻歌検索実験を行い,約7割の検索率を維持しつつ,計算量を従来法の約1/40に低減できることを示す.We have developed a music retrieval method that takes a humming query and finds similar audio intervals (segments) in a music audio database. This method can also address a personally recorded video database containing melodies in its audio track. Our previous retrieving method took too much time to retrieve a segment: for example, a 60-minute database required about 10-minute computation on a personal computer. In this paper, we propose a new high-speed retrieving method, called start frame feature dependent continuous Dynamic Programming, which assumes that the pitch of the interval start point is accurate. Test results show that the proposed method reduces retrieval time to about 1/40 of present methods.
著者
大石康智 後藤 真孝 伊藤 克亘 武田 一哉
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告音楽情報科学(MUS) (ISSN:09196072)
巻号頁・発行日
vol.2006, no.113, pp.3-8, 2006-10-27
被引用文献数
5

メロディを歌っても,曲名を読み上げても検索可能な楽曲検索システムを提案する.このシステムは,歌声と曲名の読み上げ音声(朗読音声)を自動識別するため,ユーザはシステムの入力モードを切り替えるのではなく,入力音声の発話様式を切り替えるだけで,シームレスに楽曲を検索することができる.これまでに我々が提案した音声識別器を実装し,歌声と識別されれば,ハミング検索手法によってメロディから曲を検索する.一方,朗読音声と識別されれば,音声認識によって書き起こされた曲名から曲を検索する.大規模な歌声データベースを利用して提案システムの評価実験を行った結果,歌声と朗読音声の自動識別性能は96.1%であった.さらに,検索キーのハミング検索,音声認識によって100曲中10位以内に正解の曲が含まれる平均検索率は,それぞれ50.5%と96.7%であった.We propose a music retrieval system that enables a user to retrieve a song by two different methods: by singing its melody or by saying its title. To allow the user to use those methods seamlessly without changing a voice input mode, a method of automatically discriminating between singing and speaking voices is indispensable. We therefore designed an automatic vocal style discriminator and built a music retrieval system that retrieves a song by query-by-humming for singing voice or by dictating the song title by automatic speech recognition (ASR) for speaking voice. Experimental results with a large music database built for singing research show that our system is able to discriminate between singing and speaking voices with 96.1%. The average retrieval rates of correct songs in the top 10 of 100 songs by query-by-humming and ASR for song titles are 50.5% and 96.7% respectively.
著者
阿部 亮介 後藤 敏行 田村 直良
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告音楽情報科学(MUS) (ISSN:09196072)
巻号頁・発行日
vol.2006, no.90, pp.123-128, 2006-08-08

点字楽譜は,視覚障害者が楽譜を理解するために考案された記譜法である.近年,計算機の普及に伴い視覚障害者が従来以上に音楽に親しむ環境が整備されたことから,本格的な音楽知識獲得のために点字楽譜を学ぶ機会と人口は増加している.我々はこれまで,五線譜を点字楽譜に変換する自動点訳システムと,点字楽譜を解析し五線譜に変換する校正支援システムを構築し,特に校正支援システムにおいては,点字楽譜特有の曖昧性を解決し一意に特定の音楽記号として出力することは困難であることを確認した.また,現在点字楽譜の統合的なデータベースの構築が進められているが,印刷のためのデータ形式である既存の点字楽譜データフォーマットでは,蓄積や検索,再利用などの面で制限が多く,より柔軟に保存できる保存形式が必要であると考えられる.本稿では,従来の研究より得られた点字楽譜特有の曖昧性について議論し,次に点字楽譜の保存に適したXMLによる表現を提案する.最後に,既存の楽譜保存形式との比較を行い,曖昧性への対応について議論する.Braille music (Braille Musical Notation) is a musical notation designed so that a visually handicapped person may understand music. Recently, it is expected to increase the opportunity in which braille music is used as so that a visually handicapped person may learn music in earnest from the environment where a visually handicapped person was familiar with music beyond before having been prepared caused by the diffusion of the computer. By the usual research, we have built an automatic transcription system which can change 5-line music into braille music and the proofreading support system which can analyzed braille music and produce 5-line music. However, as for the proofreading support system, it was difficult to solve ambiguity of braille music and output it as a music sign in one meaning. And, though it proceeds with building of the integrative database of braille music at present, we think that the preservation form which can be preserved more flexibly is necessary, because an existent braille music data format is for the printing, and there are many limitations by accumulation, reference, reuse, and so on. In this paper, we discuss the ambiguity which is characteristic of the braille music which could get it more than usual research. Next, we propose an expression by the XML which is suitable for the preservation of braille music, and we compare it with an existent music preservation form, and discuss correspondence to the ambiguity.
著者
浜中 雅俊 築根 秀男
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告音楽情報科学(MUS) (ISSN:09196072)
巻号頁・発行日
vol.1998, no.74, pp.53-60, 1998-08-07
被引用文献数
1

アドリブ等によりテンポが微妙に変化するドラマーの生演奏にMIDIの再生音をリアルタイムでシンクロさせ、演奏音と再生音の双方で一つの楽曲を構成することを考える。従来このようなテンポ変化を伴う知的伴奏システムは、データベース等を用いてパターン認識を行うことにより実現しようとするものが多かった。しかし、これらのものは、アドリブ(即興)等の音楽的可能性に対して、少なからず制約を与えるものが多かった。これに対し筆者らは、小節円の円周表示法を新たに提案し、演奏音のテンポおよびその変化をリアルタイムで算出し、MIDIの再生速度をシンクロさせるシステムを開発した。システムは、演奏する曲や演奏者によらず、汎用的に動作するものである。本稿では、ドラマーの生演奏にMIDI再生音のシンクロを行うことにより、システムの有効性を実証した。This paper describes a system which synchronizes a live drummer performance with MIDI track in real time. Our system differs from other intelligent accompaniment systems using data base pattern recognition. Which restricts the variety of music such as an improvisation. We propose a method to calculate tempo and tempo change in real time called 'bar circle perimeter indication' and developed a system that synchronizes the tempo with MIDI Regenerated track. The system isn't based on a particular MIDI tune, and it works generally. We prove the validity of the system by synchronizing MIDI sound with a live drummer performance in real time.