論文・実績

Before 2019

After 2020

ジャーナル・国際会議論文 – Journal and international conference papers

  1. 亀山 京右,駒谷 和範:
    個人の傾向を反映した対話システム自動評価手法の提案.
    人工知能学会論文誌, Vol. 41, No. 2,  IDS26-C_1-8, 2026.[doi]
  2. Atsuto Ajichi, Takato Hayashi, Kazunori Komatani, Shogo Okada:
    Adaptive Multimodal Sentiment Analysis with Stream-Based Active Learning for Spoken Dialogue Systems.
    International Workshop on Spoken Dialogue Systems (IWSDS), pp.326-337, Feb. 28, 2026. [URL]
  3. Ryu Takeda, Kazunori Komatani:
    Retrospective Speech Recognition for Spoken Dialogue System: Exploiting Subsequent Utterances to Enhance ASR Performance.
    International Workshop on Spoken Dialogue Systems (IWSDS), pp.182-192, Feb. 28, 2026. [URL]
  4. Kenta Yamamoto and Kazunori Komatani:
    Personality Expression in Spoken Dialogue Systems: From Text to Speech.
    International Workshop on Spoken Dialogue Systems (IWSDS), pp.34-42, Feb. 27, 2026. [URL]
  5. Daichi Yukizawa, Kenta Yamamoto, Ryu Takeda, Kazunori Komatani:
    Estimating User Sentiment at Sub-exchange Granularity from Exchange-level Annotations.
    Asia Pacific Signal and Information Processing Association Annual Summit and Conference (APSIPA ASC), pp.855-860, Oct. 23, 2025. [PDF]
  6. Ryu Takeda, Kazunori Komatani:
    Reducing Orthographic Dependency on Paired Data by Probabilistic Integration via Syllabogram for Japanese Dialogue Speech Recognition.
    Asia Pacific Signal and Information Processing Association Annual Summit and Conference (APSIPA ASC), pp.549-554, Oct. 22, 2025. [PDF]
  7. Mikio Nakano, Kazunori Komatani, Hironori Takeuchi:
    Generating Diverse Personas for User Simulators to Test Interview Dialogue Systems.
    Annual SIGDIAL Meeting on Discourse and Dialogue (SIGDIAL), pp. 678-696, Aug. 27, 2025. [URL]
  8. Issei Waki, Ryu Takeda and Kazunori Komatani:
    Learning to Ask Efficiently in Dialogue: Reinforcement Learning Extensions for Stream-based Active Learning.
    Annual SIGDIAL Meeting on Discourse and Dialogue (SIGDIAL), pp. 431-440, Aug. 26, 2025. [URL]
  9. Yunosuke Kubo, Ryo Yanagimoto, Mikio Nakano, Kenta Yamamoto, Ryu Takeda, Kazunori Komatani:
    Developing Classifiers for Affirmative and Negative User Responses with Limited Target Domain Data for Dialogue System Development Tools.
    International Workshop on Spoken Dialogue Systems (IWSDS), pp. 309–317, May 30, 2025. [URL]
  10. Kenta Yamamoto, Ryu Takeda, Kazunori Komatani:
    Analysis of Voice Activity Detection Errors in API-based Streaming ASR for Human-Robot Dialogue.
    International Workshop on Spoken Dialogue Systems (IWSDS), pp. 245–253, May 29, 2025. [URL]
  11. Mikio Nakano, Hironori Takeuchi, Kazunori Komatani:
    A Methodology for Identifying Evaluation Items for Practical Dialogue Systems based on Business-Dialogue System Alignment Models.
    International Workshop on Spoken Dialogue Systems (IWSDS), pp. 225–237, May 28, 2025. [URL]
  12. 大塩 幹,武田 龍,駒谷 和範:
    ユーザ返答パターンを用いた音節列と単語境界の同時推定に基づく音声対話中の未知語認識.
    電子情報通信学会論文誌D, Vol. J108-D, No. 4, pp.128-137, 2025.[doi]

解説 – Explanatory Articles

  1. 駒谷 和範,岡田 将吾:
    マルチモーダル対話コーパスを活用した研究の実践と展開.(小特集:音声情報処理におけるマルチモダリティの活用とクロスモーダル技術)
    日本音響学会誌,第81巻11号,pp.761-768,2025. [doi]
  2. 山本 賢太:
    対話システムにおけるキャラクタ表現.(特集:対話エージェントとステレオタイプ)
    人工知能,40巻5号,pp.642-648,2025.[doi]

国内学会発表 – Domestic Conference Presentations

  1. 竹内 広宜,伊藤 ひらり,大塚 玲奈,柏原 佐那,五島 りこ,相馬 海人,塚本 啓太朗,富永 彩渚,中野 幹生,駒谷 和範: 生成AIを用いた対話アプリケーションのサービス設計手法の検討,KSN-038,p. 02-,3/16発表,2026. [doi]
  2. 合原 一究,武田 龍,粟野 皓光,小南 大智,村田 正幸: 音声可視化システムとマイクロフォンアレイに基づくカエルの合唱構造解析,日本生態学会第73回全国大会, P2-150, 3/15発表, 2026.
  3. 古川 温馬,川口 奏音,武田 龍,合原 一究, 青柳 富誌生: 位相振動子モデルによるニホンアマガエルの同期発声戦略の実験的解析,日本生態学会第73回全国大会, L03-04, 3/13発表, 2026.
  4. 亀山 京右,中野 幹生,駒谷 和範: ユーザシミュレータを用いた対話システムのデバッグ支援に向けた対話評価指標の設計.言語処理学会年次大会, P5-21, 3/11発表, 2026.
  5. 久保 裕之輔,山本 賢太,駒谷 和範: ターン終端の曖昧性を捉えた話者交替確率予測とその評価.情報処理学会全国大会, 7ZE-02, 3/8発表, 2026.
  6. 沼田 晃士朗,山本 賢太,駒谷 和範:多人数対話での次話者予測における対話構造の有効性検証.情報処理学会全国大会, 7ZE-01, 3/8発表, 2026. (学生奨励賞受賞)
  7. 大谷 蒼太,武田 龍,駒谷 和範: 部分的な声質変換により話者性を維持した難聴者の明瞭度改善.情報処理学会全国大会, 5ZE-09, 3/7発表, 2026.
  8. 石田 晃大,山本 賢太,駒谷 和範: 音声対話システムにおけるユーザ心象の低下を引き起こす要因の定量化.情報処理学会全国大会, 5ZE-08, 3/7発表, 2026.
  9. 深澤 俊介,武田 龍,駒谷 和範: 条件付き発話区間検出における登録音声圧縮手法の対話コーパスでの評価, 5ZE-04, 3/7発表, 2026.
  10. 古田 拓己,武田 龍,駒谷 和範: 対話システムにおける未知語獲得のための音節認識確信度を利用した不要な聞き返し抑制.情報処理学会全国大会, 5ZE-03, 3/7発表, 2026. (学生奨励賞受賞)
  11. 小川 優介,山本 賢太,駒谷 和範: 長期対話記憶のための対話データの自動生成.情報処理学会全国大会, 4X-07, 3/7発表, 2026.
  12. 阿慈地 惇人,林 貴斗,駒谷 和範,岡田 将吾: 対話システムにおける適応的なマルチモーダル感情分析のためのストリーム型能動学習,A-2-1,12/10発表,2025. 特集テーマセッション賞(ソーシャルインタラクション)
  13. 山本 賢太,堀口 勇輝,駒谷 和範: 多人数対話システムにおける発話重複に対する修復行動選択.第105回言語・音声理解と対話処理研究会, pp.109-114, 11/11発表, 2025. [doi]
  14. 中野 幹生,駒谷 和範: オープンソース対話システム構築フレームワークDialBBとテキスト・マルチモーダル対話アプリケーション.第105回言語・音声理解と対話処理研究会, pp.86-87, 11/10発表, 2025. [doi]
  15. 亀山 京右,駒谷 和範,中野 幹生: ユーザシミュレータとの対話におけるシステム発話のエラー類型と自動検出.第105回言語・音声理解と対話処理研究会, pp.37-42, 11/10発表, 2025. [doi]
  16. 堀口 勇輝,山本 賢太,武田 龍,駒谷 和範: 発話交替の競合修復のためのシステム行動選択に向けた多人数対話データの収集.FIT2025 (第24回情報科学技術フォーラム) ,F-033,9/4発表,2025.

Before 2019 – Main publications only

国際会議論文 – International Conference Papers

  1. Ryu Takeda, Kazunori Komatani: Attribute Prediction of Unknown Lexical Entities Based on Mixture of Bayesian Segmentation Model. Life Long Learning for Spoken Language Systems Workshop, 7 pages, Dec. 14, 2019.
  2. Yuki Hirano, Shogo Okada, Haruto Nishimoto, Kazunori Komatani: Multitask Prediction of Exchange-level Annotations for Multimodal Dialogue Systems. International Conference on Multimodal Interaction (ICMI), pp.85-94, Oct. 15, 2019. (Best Paper Runner-ups Award)
  3. Kazunori Komatani, Shogo Okada, Haruto Nishimoto, Masahiro Araki, Mikio Nakano: Multimodal Dialogue Data Collection and Analysis of Annotation Disagreement. International Workshop on Spoken Dialogue Systems (IWSDS), 12 pages, Apr. 25, 2019.
  4. Koki Kishimoto, Katsuhiko Hayashi, Genki Akai, Masashi Shimbo, Kazunori Komatani: Binarized Knowledge Graph Embeddings. 41st European Conference on IR Research (ECIR 2019), pp.181-196, Apr. 2019.

招待講演 – Invited Lectures

  1. Kazunori Komatani: User-aware dialogue systems with adaptive responses (Invited Talk). International Conference on Natural Language Generation (INLG), Oct. 30, 2019.