東北大学ボイスメイドプロジェクト (@vmpmember)

投稿一覧(最新100件)

RT @yo_ehara: 1年間に日本の人工知能分野全体で20人しか博士号取らないんですね、その方が危機感ある。そりゃ人材不足になるわ... これ、人工知能の研究をちゃんとしている人であれば、当該期間に博士号取れば基本載せてくれるはずなので... https://t.co/7…
RT @mima_tea: 光田さんとの共著の論文が言語処理学会論文誌に載りました!!! https://t.co/mszfbReIL2
RT @korguchi: 利用価値の高い音声データの録音手順 https://t.co/jLeeijyuwQ
RT @mknakano: JSAI2023で発表した「情報技術の教材としての対話システム構築フレームワークDialBB」の論文が一般公開になりました。対話システムを手軽に作ってみたい方、お時間があればご覧ください。 https://t.co/nFRypBd7iX
RT @mima_tea: 2020年から実施した「なりきりAI 京町セイカ」の実証実験の取り組みが人工知能学会の論文誌(実践AI論文)に採録されました ご当地広報キャラと実用対話システムの融合・実用化を目指し、実証実験で得られたノウハウも色々詰め込んだ論文になります http…
RT @ZeniYuki0922: @goto_yuta_ 敬語変換は東北大さんのがありますね https://t.co/GS02aFiwwK https://t.co/SwsCKtKa4d
RT @mknakano: 1年前にロボット学会誌に書いた解説「対話ロボットの技術と課題:対話システム研究者の観点から」が一般公開になりました。 https://t.co/CqCPoxbe5u この解説で言いたかったことは ・対話システムにはいろんなタイプがあって技術課題もいろ…
RT @ceekz: 人工知能学会論文誌で、技術開発以外の論文を初めて見た。 欧州AI動向からみる知的対話システムの倫理的リスク https://t.co/7kKZseY5u4
RT @yatabe_: 「音響信号処理における位相復元」という解説論文がオンラインで出版されました!誰でも無料で読めます! https://t.co/PGz5roians 「位相復元」という処理について,光と音の両方から解説を試みました!めっちゃサーベイ頑張って124本も文…
RT @KoshStorm: 音声研究会で発表してきた 「事前学習したvq-wav2vecの音声特徴表現を用いたボコーダフリーのAny-to-Many音声変換」 https://t.co/wG4WijHCgz
RT @ballforest: Prosodic Features Control by Symbols as Input of Sequence-to-Sequence Acoustic Modeling for Neural TTS https://t.co/LIOidpn…
RT @ballforest: 必読ですぜ / 《第9回》機械学習と音声生成:音声波形モデリングの進展 https://t.co/EmrC0M5OvA
RT @takashi_nose: おそらくですが、下記の手法は私が約10年前に提案したHMM+量子化F0に基づく任意話者声質変換法と似たようなことをやっているのでは、と想像。一番大きな違いは合成をニューラルベースにしたことかなと。https://t.co/ZgZBr7BV1Y…
RT @mayasuke: M2の学生の古市さんが書いた論文が情報処理学会の論文誌に掲載されました。「ブロック型ビジュアルプログラミング機能を有する音声対話シナリオ編集システム」15ページもある意欲作です
RT @hidekikawahara: 掲載から6ヶ月経ったので、Open Accessになった。 https://t.co/Khf9eMN4gc この記事で触れた周波数領域ベルベットノイズによるインパルス応答測定を簡単に試すことができるツールやソースへのリンクは以下の説明書か…
RT @ballforest: Joint Adversarial Training of Speech Recognition and Synthesis Models for Many-to-One Voice Conversion Using Phonetic Poste…
RT @ballforest: 小特集―話す・歌う・奏でる音の合成技術― 歌声の合成における応用技術 ——歌声合成システム—— https://t.co/3Vrevu5X9i
RT @ballforest: 音楽情報処理のための深層学習 https://t.co/ulpckBDq8G
RT @MB_20012: 音声分析変換合成法STRAIGHTの再構築について https://t.co/kptXfxSihy
RT @hiroosa: ポスター、こちらの発表が面白かった。演技しづらい顔部位の変化を生成し、感情抑圧表現を自動生成できそう。VTuber応用も https://t.co/NOlatb7C57 #JSAI2019 https://t.co/hzOX0hT4Oh
RT @sussusu_wenah: 声優さんの音声を使わせていただいて行った実験に関する論文が、前所属の大学リポジトリで公開されました。論文タイトルは「声優のキャラクター演技音声を用いた音声知覚に関する実験研究」です。色々な方に読んでいただけると嬉しいです。 https://…
RT @yu4u: 下記のサーベイ論文の正式版が公開されました。和文Dのサーベイ論文は無償公開論文として公開されるようなので、誰でも閲覧頂けます! https://t.co/ZocvifoGnH https://t.co/jmfGA3pRW5
RT @heiga_zen: 音響学会誌2018年7月号に載った音声合成に関する記事、PDFがネットに上がってました -- テキスト音声合成技術の変遷と最先端 https://t.co/KSVMZDptFY
RT @KeiichiTokuda: システム制御情報学会誌の2月号に掲載された、オープンソースの日本語音声合成システム「Open JTalk」https://t.co/LufOTA2y5mの解説のpdfが公開されています→https://t.co/ssz85sJqph 同号に…
合成音声の多様化についてまとめた解説論文「統計モデルに基づく多様な音声の合成技術」が先月の信学会和文DLランキングに入っていました。https://t.co/wHHPaiwsgs HMMが中心ですがDNN他でも参考になるかと思います。入門的内容で無償で見れますので興味のある方はどうぞ。https://t.co/jCFUVV2XSp
@alfredplpl @Qiita 面白いシステムですね!似たような研究をやっていますので、興味深く拝見させていただきました。https://t.co/KA8pGSg2cZ
音声合成における感情表現・発話様式(スタイル)の制御について初めて発表したのはもう10年以上前になります。重回帰隠れセミマルコフモデルとスタイルベクトルにより複数スタイルの直観的制御を実現しました。今でも受けの良いデモの一つです。https://t.co/rUKeknXwVk https://t.co/sEu1IBGO88
@nat0468 確かにそのようなことは言えそうですね。参考情報ですが、我々も関係している、「自然な非人間性」に着目した新たな歌唱デザイン論の研究https://t.co/j60pdEEmkHはそのような点にも着目した研究です。

お気に入り一覧(最新100件)

京大加嶋先生et al.のこの強化学習の解説はすばらしい。 https://t.co/jXLQHjFIKh 既存の強化学習の解説の大半は、たぶんゲームとかの応用が頭に入っている人はいいのかもしれないけど、ゲーマーじゃないおれには理解不能だった。こういう風にズバっと問題設定を言ってほしかった。さすが。
K. Matsubara et al., "Comparison of real-time multi-speaker neural vocoders on CPUs" now officially published. Multi-speaker HiFi-GAN with LPCNet features is investigated and compared with MWDLP. https://t.co/ROSUkLapBw
ERICAの傾聴対話システムに関する論文が人工知能学会論文誌に採録・公開されました。人間による傾聴との比較評価を実施し、人間と同等な点・及ばない点を詳しく調べました。https://t.co/0FV4tOb9cW

フォロー(281ユーザ)の投稿一覧(直近7日間)

フォロワー(803ユーザ)の投稿一覧(直近7日間)