著者
大島 千佳 宮川 洋平 西本 一志
出版者
情報処理学会
雑誌
情報処理学会研究報告音楽情報科学(MUS) (ISSN:09196072)
巻号頁・発行日
vol.2001, no.103, pp.69-74, 2001-10-26
被引用文献数
10

ピアノレッスンでは、先生は言葉で説明したり、歌って聞かせたりといった間接的な手がかりを用いて指導を行う。先生による模範演奏は大事な手がかりの一つであるが、生徒の勉強する曲が技巧的に難しくなると、先生によってはたとえ過去に弾いた曲でも練習をせずに弾くことができない。そのような状況でも先生は、その作品を演奏表現するための知は備えている。そこで本稿では、技巧的な難しさや譜読みのおぼつかなさからくる、音の間違えやミスタッチを気にせずに、表情付けに専念できるピアノとして、Coloring-in Piano を提案する。ノーマルのピアノで弾いた場合の演奏と比較するために、演奏者が練習を積んでいる曲で評価実験とMIDIデータの分析を行ったところ、有意な差が認められなかった。一方練習していない技巧的な曲を通常のピアノとColoring-in Piano で演奏比較したところ、Coloring-in Piano ではミスが激減しただけでなく、演奏者のイメージに近い演奏ができた。In a piano lesson, a teacher teaches a way of performance by indicating some indirect cues, e.g., metaphors and singing. A model performance is one of the important cues. Meanwhile, it is difficult for the teacher to perform a very technical piece without enough practices, even if he/she had formerly performed it. Howerer, the teacher retains his/her knowledge for preforming the piece. Accordingly, we propose "Coloring-in Piano" that is a piano lesson supporting system. It allows the teacher to concentrate on expressions without paying attention not to play a wrong note. We conducted experiments to subjectively evaluate the performances and analyzed them. As a result, we could not find significant difference between the performances played by the nomal piano and Coloring-in Piano. Moreover, Coloring-in Piano can facilitate to perform even a unpracticed piece to his/her satisfaction.
著者
岸田 良朗 大林 幹生 林 恒俊
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告音楽情報科学(MUS) (ISSN:09196072)
巻号頁・発行日
vol.1999, no.51, pp.1-6, 1999-05-29
被引用文献数
1

当研究は、ロック等のポピュラー音楽におけるアドリブを自動生成するプログラムBoP3の開発をパーソナルコンピュータ上で行うものである。コンピュータ上のGUIや、コンピュータに接続されたMIDI楽器を用いて演奏家のフレーズデータを収集し、そのデータを材料として、楽曲の伴奏に合わせてアドリブを自動生成するプログラムである。各フレーズデータは伴奏との関係を表す属性値を持ち、楽曲の進行とともにその属性値を基にした計算を行なってフレーズを選出していくことにより、アドリブの自動生成を行なっている。We have been developing a program which automatically generates improvisations in popular music on a personal computer such as Apple Macintosh. We call our developing project Boogie Project 3 (BoP3). BoP3 generates improvisations by simulating the improvisation process of actual musicians. BoP3 gathers phrases those are exploited when generating improvisations. Improvisation is generated reffering to information flow of an accompaniment tune.
著者
石毛 大悟 堀内 靖雄 市川 熹
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告音楽情報科学(MUS) (ISSN:09196072)
巻号頁・発行日
vol.2003, no.16, pp.7-12, 2003-02-21

本論文では、独奏に休符がある場合の人間の合奏制御のふるまいについて述べる。まず、休符がある分析用の楽譜を作成し、計算機の独奏と人間の伴奏者が合奏を行うデータを収録した。独奏に休符がある場合の伴奏者の合奏制御についていくつかの仮説を立て、重回帰分析によりモデル式を作成し、人間の演奏データとの誤差により評価を行い合奏制御の推定を行った。結果、ある時点において、その直前の独奏者との「ずれ」など差の情報を用いることができる部分では、その差の情報を利用しているが、相手が休符で差の情報を使うことができない部分では、1小節程度過去の演奏情報に従い演奏を行っていることが示唆された。This paper describes behavior human performance when there is some rests in his/her partner's score. 96 ensembles by acoputer and a human performance were recorded. Some hypotheses were formed sbout a model of human performance for synchronicity when a rest exisits in his/her pertner's part and multiple regression analysis is applied the recorded data. It is suggested that when the difference between two performance can be used, a human performer plays using the information for good synchronicity, but when the difference between two performers cannot be used of a rest, a human performer plays based on the information at about one bar line past.
著者
武田 晴登 篠田 浩一 嵯峨山 茂樹
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告音楽情報科学(MUS) (ISSN:09196072)
巻号頁・発行日
vol.2002, no.63, pp.23-28, 2002-07-07
被引用文献数
6

本稿では、MIDIキーボードによる人間の演奏から自動採譜を行うシステムについて述べる。鍵盤楽器からMIDI信号を入力するため、ピッチについての情報は正確に得られるのに対し、リズムについては音の長さが得られるだけなので、音の長さを音符に変換する処理が必要である。市販ソフトではメトロノームなどによりテンポを強制された演奏に対する自動採譜が実現されているが、テンポの指定を行わず自由に弾かれた演奏に対するリズム認識についは有効な手法は確立されていない。我々はテンポの指定のない演奏に対するリズム認識を行うために、音楽の時間構造をテンポとリズムパターンに分けて考え、リズムパターンを表す特徴量である「リズムベクトル」に注目する。リズムベクトルとテンポ変動は、隠れマルコフモデルを用いてモデリングを行い、リズム認識の問題の推定のの問題として扱う。本稿では、本稿では、リズムベクトルに基づくリズム認識のための確立モデルを提案する。さらに、提案されるモデルを用いた実験として3人の被験者のMIDIキーボードによる単旋律の曲の演奏について認識実験を行い、有効性を示唆する実験結果として認識率93.2%が得られたことを報告する。This paper proposes a rhythm recognition method for MIDI signal performed by MIDI keyboard. An usual way of automatic transcription from MIDI signals is to play MIDI keyboard with metronome to perform in constant tempo and quantize the note durations in a resolution level which is given by the user. A new method proposed in this paper, however, does not require performer to obey the beats of metronome and can recognize rhythm pattern for automatic transcription. We define ratio of note durations as a new feature "Rhythm vector" .Rhythm Vector and tempo variation are integrated in Hidden Markov Model, which is used in modern speech recognition, and we deal with rhythm recognition as a stochastic estimating problem. Experimental result is also reported.
著者
加藤充美
雑誌
情報処理学会研究報告音楽情報科学(MUS)
巻号頁・発行日
vol.2003, no.127(2003-MUS-053), pp.31-36, 2003-12-21

コンピュータが進歩し、比較的容易にMAX/MSPなどを使って様々に自然楽器の音をリアルタイムで加工した音楽作品が制作されるようになった。FFTなども容易に用いられているが、信号処理の理論からみると問題のありそうな応用もみられる。この報告では、クロスシンセシスのなかで特にFFTの使い方が歪みなどにどの程度影響しているか考察する。
著者
真栄城 哲也 樋口 直史 中口 孝雄
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告音楽情報科学(MUS) (ISSN:09196072)
巻号頁・発行日
vol.1999, no.68, pp.61-66, 1999-08-07
被引用文献数
1

MorPHは,SMFで記述された楽譜通りのポップス系の楽曲に,自動表情付を行うシステムであり,インターネットで公開している.対応している楽器は,ベース,ギター,サクソフォンおよびドラムである.1小節分の好みのドラムパターンをユーザーが指定すると,そのパターンに基づいて,曲の部分毎に合ったドラムパターンを,自動生成する.ユーザーの指定パターンが無ければ,自動的にドラムパターンを生成する.初心者用のWebでアクセス可能なMorPH light 1mgと,細かい設定が可能なMorPH Rhapsodyの2種類のクライアントシステムがある.初期段階でのユーザーの反応は,特にドラムに関して評価が高い.MorPH : Musical Performance Humanizer processes popular musics in SMF format generated precisely from musical scores, and it is open for Internet. Supported musical instruments are bass, guitar, saxophone, and drums. Given the preferred drum pattern of one measure from the user, MorPH generates automatically drum patterns that matches each part of music. Two types of the client system are available: MorPH light 1mg, for beginners, accessible through web browsers, and MorPH Rhapsody, which allows detailed specifications of parameters. Initial responce from the users is affirmative, particularly the drums.
著者
野池 賢二 橋田 光代 平田 圭二 片寄 晴弘 平賀 留美
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告音楽情報科学(MUS) (ISSN:09196072)
巻号頁・発行日
vol.2005, no.14, pp.71-76, 2005-02-18
被引用文献数
10

NIME04のデモセッションとして行ったRencon聴き比べコンテストの模様とその投票結果、および、Rencon研究発表セッションの様子について報告する。投票結果の順位について統計的分析を加えた考察も、あわせて報告する。さらに、考慮していくべき課題と、今後の開催予定についても述べる。This paper reports NIME04 Rencon (Performance Rendering Contest) and its paper session held at the International Conference on New Interfaces for Musical Expression. This paper shows the result of NIME04 Rencon with some statistical analysis,and discusses future works.
著者
谷井 章夫 後藤 真孝 片寄 晴弘
雑誌
情報処理学会研究報告音楽情報科学(MUS)
巻号頁・発行日
vol.2003, no.82(2003-MUS-051), pp.19-24, 2003-08-04

ミキシングにおけるエフェクタや音量,音像定位の設定情報が異なれば,同じ音素材を用いても,楽曲の印象は大きく異なるため,的確なミキシングを行うには,高度な技能と経験を要する.そのため,アマチュアがミキシングに取り組んでも意図した結果を得ることは難しい.近年,商用音楽制作において,計算機上のソフトウェアを利用してミキシングが行われることが多くなったが,基本的に,ミキシングエンジニアが旧来のハードウェアミキサーやエフェクターを用いて実施していた作業を計算機上で可能にするものであり,技能と経験の乏しいアマチュアがミキシングを行う上での支援はなかった.本研究では,経験豊富なミキシングエンジニアの持つミキシングのノウハウをテンプレート化しておき,経験の乏しいアマチュアが自分の制作過程で再利用できるシステムを提案する.
著者
堀内 靖雄 三井 卓 財津 茜 市川 熹
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告音楽情報科学(MUS) (ISSN:09196072)
巻号頁・発行日
vol.1998, no.74, pp.103-108, 1998-08-07
被引用文献数
4

本論文では人間二人の演奏およびテンポ一定で演奏を行なう計算機と人間による演奏を収録し、人間の演奏制御がどのように行なわれているのかということを調査する。相手に合わせるように教示された演奏者(伴奏者)は、ずれに敏感に反応し、テンポを修正して合わせようとすることが示された。また、テンポを早くしたいという欲求があるとき、その分をバイアスしてテンポ変化を行なうということが示唆された。相手をリードするように教示された独奏者は、伴奏者ほど敏感にテンポ変化をせず、テンポをキープしようとする意図がみられた。さらにずれが小さい場合には、ずれとはあまり相関のないテンポ変化を行なうことが観察された。We recorded several performances where two performers play together or one performer plays with a computer which can play with a fixed tempo. We analyzed the timing information of these performances. The result shows a performer who is instructed to be an accompanist changes her tempo according to the time lag between her and another performer (soloist). A performer who is instructed to be a soloist does not change her tempo according to the lag so much in order to keep their tempo. When the lag is very short, they change their tempo regardless of their time lag.
著者
長嶋 洋一
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告音楽情報科学(MUS)
巻号頁・発行日
vol.1994, no.71, pp.39-44, 1994-08-06
被引用文献数
10 3

Computer Musicのマルチメディア・パフォーマンス作品として、1993年から1994年にかけて実験的に作曲された2つの作品について、理論的考察、音楽的コンセプト、作品創造の過程等について報告する。第一の作品は、ICMC1993の関連イベントである「芸術と知識工学に関する国際ワークショップ」と「神戸国際現代音楽祭'93」で発表された"CIS(aotic Interaction Sh)"であり、第二の作品は音楽情報科学研究会と共に開催の「眼と耳の対位法」で発表された"Muromachi"である。いずれの作品も「Computer Music:長嶋洋一、Computer Graphics:由良泰人」という、音楽と映像のコラボレーションとして実現されたリアルタイム・インタラクティブな構成をもつが、パフォーマーによる進行の駆動形態はまったく逆のコンセプトをとった。また音楽の部分では、カオス理論を適用したアルゴリズム作曲の手法を用いて、演奏のたびに異なる音楽となるように作曲されている。This paper describes two experimental compositions of computer music with multi media technology. One is "CIS (Chaotic Interaction Show)" which is performed at IAKTA (International Association for Knowledge Technology in the Art) Workshop and Kobe International Modern Music Festival '93, and the other is "Muromachi" which is performed at "Kontrapunkt fur Augen und Ohren" in Kyoto. Both compositions are produced by Yoichi Nagashima (Computer Music) and Yasuto Yura (Computer Graphics), and are performed interactively in real-time. The music is composed with chaotic concept and algorithmic composition technique.
著者
吉井 和佳 後藤 真孝 駒谷 和範 尾形 哲也 奥乃 博
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告音楽情報科学(MUS) (ISSN:09196072)
巻号頁・発行日
vol.2005, no.82, pp.91-96, 2005-08-05

本稿では、認識誤りを含むドラム音の発音時刻列からドラムパターンを推定し、認識誤り補正を行う手法について述べる。本稿におけるドラムパターンとは、バスドラム音およびスネアドラム音の発音時刻列のペアで構成される周期的な時間構造のことを指す。まず、我々が提案したドラム音認識手法を音楽音響信号に適用してドラム音の発音時刻列を得る。次に、発音時刻列を短時間フーリエ解析しても止まる周期長に基づき、ドラムパターンを切り出す。ここで、同じドラムパターンは連続して反復されやすいという仮定をおき、各ドラムパターン区間における実際の発音時刻列を推定する。最後に、切り出されたドラムパターンと推定された発音時刻列との比較により、認識誤りの可能性が高い時刻を検出し、再検証を行う。ポピュラー音楽50曲を用いたドラム音認識実験で、補正手法により認識率が77.4% から80.7%に改善することを確認した。may include recognition errors and corrects them by using the drum patterns. In this paper, drum patterns are defined as periodic temporal structures which are pair of onset-time sequences of bass and snare drum sounds. First, we apply our drum sound recognition method to musical audio signals, and obtain onset-time sequences of drum sounds. Next, we calculate the period length of those sequences by applying short-time Fourier transform, and extract drum patterns from them. Under the assumption that the same drum patterns tend to be repeated, we estimate an actual onset-time sequences in duration of each drum pattern. Finally, by comparing each drum pattern with its corresponding estimated onset-time sequences, we detect time points where recognition errors may have been made, and verify those points. The experiments of drum sound recognition with 50 popular songs showed that our correction method improved the recognition accuracy from 77.4% to 80.7%.
著者
Akira Takaoka
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告音楽情報科学(MUS) (ISSN:09196072)
巻号頁・発行日
vol.1997, no.18, pp.35-39, 1997-02-20

The present paper proposes a hypothesis that when listen to atonal music we try to refer every pitch-class set to a certain diatonic set. If this hypothesis is correct it would be possible of fifths according to some probabilistic model so that what Richmond Browne calls POSITION FINDINGS are systematically controlled in atonal contexts. In my piece Dum veneris a "modulation" (transposition) of trichords or tetrachords occurs every measure in accordance with Poisson distribution.The present paper proposes a hypothesis that, when listen to atonal music we try to refer every pitch-class set to a certain diatonic set. If this hypothesis is correct, it would be possible of fifths according to some probabilistic model so that what Richmond Browne calls POSITION FINDINGS are systematically controlled in atonal contexts. In my piece Dum veneris, a "modulation" (transposition) of trichords or tetrachords occurs every measure in accordance with Poisson distribution.
著者
加藤浩介 安藤 四一
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告音楽情報科学(MUS) (ISSN:09196072)
巻号頁・発行日
vol.2002, no.40, pp.121-126, 2002-05-18

建築音響と音楽音響の橋渡しの研究として、音源の時間的なファクターを定量的に評価し、音楽とホール音響の融合を試みる。聴者と演奏者に最適な音場条件が、音源の自己相関関数(ACF)の有効継続時間の最小値(te)minから求まるというAndoの理論[安藤四一著・酒井博之・佐藤伸一共訳,建築音響学?音楽演奏・音響空間と聴衆との融合,シュプリンガーフェアラーク東京,2000]に基づき、声楽の楽譜と演奏スタイルから歌声の(te)minを予測することを本研究の目的とした。特に本稿では、歌詞の違いと演奏テンポの違いがte(遅れ時間ごとの信号の繰り返し成分の減衰)にどの程度影響を及ぼすかに着目し、4人の被験者の歌声を無響室録音してACFの解析を行った実験結果を報告する。最も重要な発見は、1)歌詞の種類によってhumming > melisma singing > lyric singing >non-voiced singingの順に (te)minは短くなる;2)演奏のテンポが3倍になっても(te)minはほとんど変化しない;3)音の高さが変動しないモチーフは、音の高さが変動するモチーフと比べて(te)minが有意に長い(p < 0.05)という点である。Concert halls do not have ideal conditions for all music programs. It is well known that the most preferred conditions for both listener and performer are determined by the minimum value of the effective duration of the running autocorrelation function (ACF) of sound signals, (te)min [Y. Ando 1998 Architectural Acoustics-Blending Sound Sources, Sound Fields, and Listeners. AIP/Springer-Verlag, New York]. An attempt is made here to estimate (te)min of vocal music by rating various kinds of interpretation styles of singers. The present results showed that (te)min of the ACF of a voice source varies with lyrics and fluctuation of pitch but not music tempo. Significant findings are 1) Values of (te)min are relatively longer in order of: humming > melisma singing (singing with "la" syllables) > singing with lyrics > non-voiced (breath noise) singing; 2) Values of (te)min of fast vocal music may not be shorter than those of slow tempo music; 3) Values of (te)min of vocal music with pitch fluctuation is shorter than those of music with constant pitch (p < 0.05).
著者
齋藤 毅 後藤 真孝 鵜木 祐史 赤木 正人
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告音楽情報科学(MUS) (ISSN:09196072)
巻号頁・発行日
vol.2008, no.12, pp.25-32, 2008-02-08
被引用文献数
7

本稿では,歌詞の朗読音声(話声)を歌声に変換する歌声合成システムSingBySpeakingについて述べる.このシステムは,音声分析合成系STRAIGHTによる分析/合成処理過程において,基本周波数(F0),スペクトル,音韻長を制御するモデルによって歌声特有の音響特徴を操作することで話声を歌声に変換する.F0 制御モデルは,楽譜情報から得られるメロディの遷移の概形に対して,4種類の動的変動成分(オーバーシュート,ヴィブラート,プレパレーション,微細変動)を付与することで歌声のF0変化パターンを生成する.スペクトル制御モデルは,話声のスペクトルに対して,歌唱ホルマントとヴィブラートに同期したホルマントの振幅変調を付与することで歌声のスペクトル形状を生成する.音韻長制御モデルは,楽曲のテンポに基づいて,話声中の各音韻長を歌声の音韻長に伸長する.システムで合成された音声を聴取実験によって評価した結果,各種音響特徴を制御することで話声から歌声に変換され,すべての特徴を制御した合成音の音質は原音声と同程度であることを示した.This paper describes a novel singing voice synthesis system SingBySpeaking that can synthesize a singing voice, given a speaking voice reading the lyrics of a song and its musical score. The system is based on the speech manipulation system STRAIGHT and comprises three models controlling three acoustic features unique to singing voices: the fundamental frequency (F0), phoneme duration, and spectrum. Given the musical score and its tempo, the F0 control model generates the F0 contour of the singing voice by controlling four types of F0 fluctuations: overshoot, vibrato, preparation, and fine fluctuation. The duration control model lengthens the duration of each phoneme in the speaking voice by considering the duration of its musical note. The spectral control model converts the spectral envelope of the speaking voice into that of the singing voice by controlling both the singing formant and the amplitude modulation of formants in synchronization with vibrato. Experimental results show that the proposed system can convert speaking voices into singing voices whose naturalness is almost the same as actual singing voices.
著者
谷井 章夫 後藤 真孝 片寄 晴弘
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告音楽情報科学(MUS) (ISSN:09196072)
巻号頁・発行日
vol.2003, no.82, pp.19-24, 2003-08-04

ミキシングにおけるエフェクタや音量,音像定位の設定情報が異なれば,同じ音素材を用いても,楽曲の印象は大きく異なるため,的確なミキシングを行うには,高度な技能と経験を要する.そのため,アマチュアがミキシングに取り組んでも意図した結果を得ることは難しい.近年,商用音楽制作において,計算機上のソフトウェアを利用してミキシングが行われることが多くなったが,基本的に,ミキシングエンジニアが旧来のハードウェアミキサーやエフェクターを用いて実施していた作業を計算機上で可能にするものであり,技能と経験の乏しいアマチュアがミキシングを行う上での支援はなかった.本研究では,経験豊富なミキシングエンジニアの持つミキシングのノウハウをテンプレート化しておき,経験の乏しいアマチュアが自分の制作過程で再利用できるシステムを提案する.If the setting information on mixing differs, even if it uses the same sound material, the impressions of a musicalpiece differ greatly. For this reason, in order to do exact mixing, high skill and experience are required. Therefore, it is difficult to obtain the result meant although amateur do mixing. In recent years, in commercial music work,mixing was performed more often using the software on a computer. The work which the mixing engineer was doing using ahardware mixer and a effector is enabled on a computer, and there was no support for amateur. In this research, know-how of mixing which a mixing engineer with abundant experience has is template-ized, and the amateur proposes a system reusable in his work process.
著者
田口 友康
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告音楽情報科学(MUS) (ISSN:09196072)
巻号頁・発行日
vol.2002, no.40, pp.67-72, 2002-05-18
被引用文献数
4

音楽作品は演奏表現によって異なる印象を与える。本研究は、演奏上の物理的な変量を制御することによってどのような演奏表現の表出が可能かという問題を取り扱う。表題のピアノ曲について主としてその運動感が得られるような速度、音量、継切、非同時打鍵、ダンパーペダル深さの各パラメータを時間発展的に与えることを筆者自身の実験によって行った。ここに速度は記譜音価の伸縮、音量はラウドネスの等感曲線に基づく変量の大小、継切は発音音価と記譜音価との比で定義される充填率によって記述する。対象とする曲について意図する演奏表現をまず言語的に記述して、次にそれを実現すると考えられる上記の5パラメータを拍時刻の関数として与えて具体的な演奏を生成した。報告では、第1楽章第1主題と移行部について、速度、音量、継切の3パラメータの時間発展図を示す。Music compositions give us different impressions when they are presented with different performace practices. This study deals with the problem on what effects the physical variables in piano performance, i.e., agogics, dynamics, articulation, non-synchorous key depression, and the depth of damper pedal, induce in the musical expression. The main concern is the realization of author's intention of musical exression in verbal statement that includes the expression of motion such as vividness, lightness, etc. The temporal change of agogics, dynamics and articulation is shown graphically from a realization of First theme and Transition of the first movement of Piano Sonata K. 311 by Mozart.
著者
藤本 貴之 西本 一志
出版者
情報処理学会
雑誌
情報処理学会研究報告音楽情報科学(MUS) (ISSN:09196072)
巻号頁・発行日
vol.2002, no.100, pp.47-52, 2002-10-25
被引用文献数
1

本論文では、単調な選曲作業に陥りがちなDJという演奏様式に対し、DJ機器をソフトウェア化し、利用音源をレコードやCDからデータとすることで、DJのオリジナリティを発揮させ、ひいてはそのクリエイテビティをも支援するシステムについて論じ、そのプロトタイプを紹介する.また、単に既存のハード機器をソフトウェア化するのではなく、ツールをソフトウェア化することや音源をデータ化することの意味についても検討し、データとソフトウェアと言う形式において強化拡張されるDJのクリエイティビティについても提案する.This paper describes a system that augments creativity of a DJ(DiscJockey) who tends a mere "song selector".We introduce a prototype system that is not a simple replacement for the ordinary hardware-DJ-system by software. We illustrate meanings of implementation of the DJ-system as software, not as hardware. Additionary, we also discuss how the combination of the software-DJ-system and digital music data can augment the DJ's creativity.
著者
奥平 啓太 片寄 晴弘 橋田 光代
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告音楽情報科学(MUS) (ISSN:09196072)
巻号頁・発行日
vol.2003, no.82, pp.13-18, 2003-08-04
被引用文献数
6

本論文では,表情のある演奏をテンプレートとして利用し,1)モーフィングを含む演奏表現意図のリアルタイム操作,2)演奏表現の理解の手がかりとなる情報の可視化を行う演奏インタフェースiFP について述べる.iFP は,拍打と演奏テンプレート中の微細な逸脱(deviation) のスライダ操作,すなわち,抽象化したレベルによって演奏を行うインタフェースである.予測制御を用いることによって,拍打といった単純な操作で,テンポと音量を与え,また,間を表現するインタフェースを用意している.これらの機能により,iFP のユーザは名演奏家の指揮を行ったり,あるいは,名ピアニストの手を使って演奏を楽しむような感覚を味わうことが出来る.iFP には,エンタテイメントシステムとしての使用の他,音楽教育,音楽解釈研究など,幅広い使用法が想定される.This paper reports a performance system: iFP, which supports 1) real-time playing include morphing, and 2) visualization of expressions. iFP is the music interface, the player of which control music performances with tapping and handling sliders, based on expression deviation described in templates, in other words the player performs music with the abstracted control. The scheduler based on predictive control contribute in independence of tapping detection and notes arrangement. Players are allowed to tap on spontaneous beat, and to. express "rest" with simple tapping operation. These functions lets the players to enjoy playing the piano using pianist's hands, or conducting the virtuosi. iFP are expected to be used for entertainment, music education, and musicology.
著者
齊藤翔一郎 亀岡 弘和 小野 順貴 嵯峨山 茂樹
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告音楽情報科学(MUS) (ISSN:09196072)
巻号頁・発行日
vol.2006, no.90, pp.85-92, 2006-08-08
被引用文献数
1

本稿では 音楽音響信号の多重ピッチ推定を行う手法であるSpecmurt分析をMAP推定の観点から定式化し 事後確率を最大化することによって基本周波数分布と共通調波構造パターンを求めるアルゴリズムについて述べる.我々はこれまでに非線型写像を用いて基本周波数分布に関する先験情報を利用しつつ共通調波構造パターンを推定する手法を提案してきた. この手法は直感的には理解がしやすいが アルゴリズムが何を目的関数としているかなどの見通しが立ちにくく アルゴリズムの収束も保障されなかった. そこで我々はSpecmurt分析における多重ピッチ推定を事後確率を最大化する推定として定式化し直し 今までの反復推定に新たな解釈を加えるとともに そこで明らかになった問題を踏まえ事後確率を最大化するような新たなアルゴリズムを提案する.評価実験によって平均で64.11%のMIDI変換正解率を得た.This paper describes a iterative algorithm for estimating a fundamental frequency distibution and a harmonic structure pattern by reformulating Specmurt analysis form a standpoint of maximum a posteriori probability. We have proposed specmurt Analysis which calculate the fundamental frequency distribution of multi-pitch music signals by iterative estimation algorithm using non-linear mapping function based on prior information. This iterative algorithm is easy to understand, but it is not obvious what the algorithm considers as an objective function, and the convergence is not ensured. Therefore, we make a explanation of the algorithm from the standpoint of maximum a posteriori probability, and propose a new algorithm based on MAP estimation. Evaluation result shows an avarage 64.11% accuracy of WAV to MIDI conversion.
著者
三輪眞弘
雑誌
情報処理学会研究報告音楽情報科学(MUS)
巻号頁・発行日
vol.1997, no.18(1996-MUS-019), pp.47-48, 1997-02-20

楽器によって演奏された音をピッチ検出し文字に変換する、という基本コンセプトによって構想された作品「Send Mail」の制作課程の報告と挫折した作曲家の嘆きを紹介する。