Affiliation Department |
情報工学科 メディア情報分野
|
Title |
Professor |
Contact information |
|
Homepage |
|
External Link |
LEE Akinobu
|
|
Research Interests
-
Speech Recognition
-
Information Processing on Avatar Communication
-
Spoken Dialog System
-
Spoken Language Processing
-
Humanoid Agent Interaction
Research Areas
-
Informatics / Perceptual information processing
-
Informatics / Intelligent informatics
-
Informatics / Human interface and interaction
-
Informatics / Database
From School
-
Kyoto University Graduate School, Division of Information and Communication Department Intelligence Science and Technology Graduated
- 2000.09
Country:Japan
-
Kyoto University Faculty of Engineering Department of Information Science Graduated
- 1996.03
Country:Japan
-
Kyoto University Graduate School, Division of Engineering Department of Information Science Graduated
- 1998.03
Country:Japan
From Graduate School
-
Kyoto University Graduate School, Division of Information and Communication Department Intelligence Science and Technology Doctor's Course Completed
- 2000.09
Country:Japan
-
Kyoto University Graduate School, Division of Engineering Department of Information Science Master's Course Completed
- 1998.03
Country:Japan
External Career
-
Nara Institute of Science and Technology Research Assistant
2000.10 - 2005.03
Country:Japan
-
Nagoya Institute of Technology Associate Professor
2005.04 - 2016.03
Country:Japan
-
Nara Institute of Science and Technology Research Assistant
2000.10 - 2005.03
Country:Japan
-
Nagoya Institute of Technology Associate Professor
2005.04 - 2016.03
-
Nagoya Institute of Technology Associate Professor
2005.04 - 2016.03
Research Career
-
Information Processing on Avatar Communication / R&D on CG-specific avatar commuinication
The Other Research Programs
Project Year: 2020.12 - 2025.12
JST Moonshot R&D Goal 1 Avatar Symbiotic Society Project
-
Speech Recognition, Spoken Language Processing and Understanding, Spoken Dialog System, Voice interaction
(not selected)
Project Year: 2000.10
General topics of speech recognition, spoken language understanding, dialog systems and interactions, incorporating signal, language and perceptions.
Papers
-
Data generation for speaker diarization by speaker transition information Reviewed
Keigo Ichikawa, Sei Ueno, and Akinobu Lee
Asia Pacific Signal and Information Processing Association (APSIPA) 2024.12
Authorship:Last author Language:English Publishing type:Research paper (international conference proceedings)
Other Link: https://www.apsipa2023.org/tprogram.html
-
大規模事前学習モデルによる笑い声表現を用いたspeech-laugh音声の生成
木全亮太朗, 上乃 聖, 李 晃伸
日本音響学会講演論文集 2024.09
Authorship:Last author Language:Japanese Publishing type:Research paper (other academic)
-
Sei Ueno, Akinobu Lee, Tastuya Kawahara
IEEE/ACM Transactions on Audio, Speech, and Language Processing 32 3924 - 3933 2024.09
Language:English Publishing type:Research paper (scientific journal)
DOI: 10.1109/TASLP.2024.3451982
Other Link: https://repository.kulib.kyoto-u.ac.jp/dspace/handle/2433/289487
-
Multi-setting acoustic feature training for data augmentation of speech recognition Reviewed
Sei Ueno, Akinobu Lee
Acoustical Science and Technology 45 ( 4 ) 195 - 203 2024.07
Authorship:Last author Language:English Publishing type:Research paper (scientific journal)
DOI: https://doi.org/10.1250/ast.e23.70
Other Link: https://www.jstage.jst.go.jp/article/ast/45/4/45_e23.70/_article/-char/ja
-
経験情報収集および伝達を主目的とする雑談対話による関係性維持支援システム
志満津 奈央, 上乃 聖, 李 晃伸
言語処理学会 第30回年次大会 発表論文集 1394 - 1399 2024.03
Authorship:Last author Language:Japanese Publishing type:Research paper (other academic)
Other Link: https://www.anlp.jp/proceedings/annual_meeting/2024/index.html
-
大規模言語モデルを用いたEmotional Support Conversation システムの構築とその評価
藤田 敦也, 上乃 聖, 李 晃伸
言語処理学会 第30回年次大会 発表論文集 1378 - 1383 2024.03
Authorship:Last author Language:Japanese Publishing type:Research paper (other academic)
Other Link: https://www.anlp.jp/proceedings/annual_meeting/2024/index.html
-
酒井 健壱, 上乃 聖, 李 晃伸
言語処理学会 第30回年次大会 発表論文集 1119 - 1124 2024.03
Authorship:Last author Language:Japanese Publishing type:Research paper (other academic)
Other Link: https://www.anlp.jp/proceedings/annual_meeting/2024/index.html
-
3 話者以上の話者交替情報を用いたSpeaker Diarization のためのデータ生成
市川 奎吾, 上乃 聖, 李 晃伸
日本音響学会講演論文集 2024.03
Authorship:Last author Language:Japanese Publishing type:Research paper (other academic)
-
日本語日常会話の潜在的な発話スタイルに基づく対話シーンに応じた音声合成
嶋崎 純一, 上乃 聖, 李 晃伸
日本音響学会講演論文集 2024.03
Authorship:Last author Language:Japanese Publishing type:Research paper (other academic)
-
暗黙的な非線形処理を導入した拡散モデルを用いた音声合成
岡本 海, 上乃 聖, 李 晃伸
日本音響学会講演論文集 2024.03
Authorship:Last author Language:Japanese Publishing type:Research paper (other academic)
Books and Other Publications
-
Pythonと大規模言語モデルで作るリアルタイムマルチモーダル対話システム (エンジニア入門シリーズ128) Reviewed
東中 竜一郎, 光田 航, 千葉 祐弥, 李 晃伸( Role: Joint author , 第4章 マルチモーダル対話システム)
科学情報出版株式会社 2024.06 ( ISBN:4910558306 )
Total pages:256 Responsible for pages:第4章 マルチモーダル対話システム Language:jpn Book type:Scholarly book
-
Akinobu Lee( Role: Sole author)
2023.12
Total pages:約14万字 Language:eng
-
Human-Harmonized Information Technology, Volume 2
Keiichi Tokuda, Akinobu Lee, Yoshihiko Nankaku, Keiichiro Oura, Kei Hashimoto, Daisuke Yamamoto, Ichi Takumi, Takahiro Uchiya, Shuhei Tsutsumi, Steve Renals, Junichi Yamagishi( Role: Contributor)
Springer 2017.04 ( ISBN:978-4-431-56535-2 )
Total pages:293 Responsible for pages:77-114 Language:eng Book type:Scholarly book
Other Link: https://www.amazon.co.jp/dp/B071DHMMB9/
-
河原達也 編著( Role: Contributor)
オーム社 2016.09 ( ISBN:978-4-274-21936-8 )
Total pages:208 Responsible for pages:7章, 付録 Language:jpn Book type:Scholarly book
-
音響キーワードブック
日本音響学会( Role: Contributor)
コロナ社 2016.03 ( ISBN:433900880X )
Total pages:494 Responsible for pages:音声におけるオープンソース Language:jpn Book type:Dictionary, encyclopedia
-
Chapter 7.2-2 Common platform of Japanese LVCSR assessment in "Resources and Standards of Spoken Language Systems - Advances in Oriental Spoken Language Processing"
( Role: Joint author)
World Scientific Publishing Co. 2010.04
Language:jpn
Misc
-
汎用大語彙音声認識ソフトウェア入門 Invited Reviewed
李 晃伸
62 ( 2 ) 50 - 56 2018.02
Authorship:Lead author Language:Japanese Publishing type:Article, review, commentary, editorial, etc. (scientific journal)
-
On-Campus, User-Participatable, and Voice-Interactive Digital Signage
Keiichiro Oura, Daisuke Yamamoto, Ichi Takumi, Akinobu Lee, Keiichi Tokuda
Academic Journal of The Japanese Society of Artifical Intelligence 28 ( 1 ) 60 - 67 2013.01
Language:Japanese Publishing type:Article, review, commentary, editorial, etc. (international conference proceedings) Publisher:The Japanese Society of Artifical Intelligence
Other Link: http://id.nii.ac.jp/1004/00008160/
-
Technical Advances of Speech-Oriented Guidance System "Takemaru-kun" by 10 Years of Long-Term Operation
Ryuichi Nisimura, Nao Hara, Hiromichi Kawanami, Akinobu Lee, Kiyohiro Shikano
Academic Journal of the Japanese Society for Artificial Intelligence 28 ( 1 ) 52 - 59 2013.01
Language:Japanese Publishing type:Article, review, commentary, editorial, etc. (international conference proceedings) Publisher:The Japanese Society for Artificial Intelligence
Other Link: http://id.nii.ac.jp/1004/00008159/
-
An Open-Source Toolkit Realizing Attractive Voice Interaction Systems : MMDAgent
LEE Akinobu, OURA Keiichiro, TOKUDA Keiichi
IEICE technical report. Natural language understanding and models of communication 111 ( 364 ) 159 - 164 2011.12
Language:Japanese Publisher:The Institute of Electronics, Information and Communication Engineers
The main and unique property of a spoken language interface that attracts people is the mutual, intuitive and lively interaction via speech. In order to reveal the actual effectiveness of speech interface, the user-oriented analysis of attractiveness in spoken dialog system should be investigated in various ways and explore the technical factors that may contributes to the appearance of attractiveness through practical examinations at various systems. This paper describes development of an open-source toolkit "MMDAgent," which makes it possible to build a variety of spoken dialog systems and speech interfaces freely. The toolkit tightly incorporates the speech recognition engine "Julius" and speech synthesis tool "Open JTalk" with a 3-D CC rendering module that can manipulates modern embodied agent characters. Techniques such as on-line motion composition and HMM-based speech synthesis with speaking style-adaptive training are implemented to provide high ability to express various aspect through interaction. The interfaces and the license are designed to make the toolkit simple, flexible, and open.
-
Evaluation of spotting algorithm constrained by keyword co-occurrence for dialogue systems
Technical Report of IEICE 2010 ( 5 ) 1 - 6 2011.02
-
音声認識ソフトウェアJulius
河原 達也, 李 晃伸
25 1 - 9 2011
-
Evaluation of spotting algorithm constrained by keyword co-occurrence for dialogue systems
KATO Aki, NANKAKU Yoshihiko, LEE Akinobu, TOKUDA Keiichi
IEICE technical report 110 ( 356 ) 25 - 30 2010.12
Language:Japanese Publisher:The Institute of Electronics, Information and Communication Engineers
Question-answering dialogue system often choose a response sentence based on recognized keywords in a user's utterance. In such case, a robust utterance understanding can be achieved by recognizing only the keywords, skipping irrelevant part of speech, rather than decoding the whole input speech. Also, since the intention of an utterance can be expressed as combination of keywords (keyword set) rather than a set of single keyword, it is desirable to extract the keywords as keyword sets. In this study, we propose an algorithm which directly applies the keyword set constraints by consulting their co-occurrences during search using a large vocabulary garbage model. By applying the constraints dynamically while search, it suppresses unnecessary hypotheses and thus expected to perform more efficiently and result in more robust intention detection. The proposed keyword-set spotting algorithm is implemented on large vocabulary continuous speech recognition decoder "Julius" fully on both passes. We evaluated the performance of the proposed method. It was confirmed that the recognition rate of keywords by spotting was superior to the dictation-based method. In addition, keyword spotting constrained by co-occurrences improved the keyword extraction rate by about 12.5 % relatively at the maximum. In this paper, we report the evaluation results in a small task of 150 keywords and the Takemaru task.
-
Evaluation of Successive Rapid Hypothesis Determination Algorithm for Continuous Word Recognition
OHNO Hiroyuki, KOJIMA Hiroshi, NANKAKU Yoshihiko, LEE Akinobu, TOKUDA Keiichi
IEICE technical report 110 ( 356 ) 77 - 82 2010.12
Language:Japanese Publisher:The Institute of Electronics, Information and Communication Engineers
Minimizing response delay of speech recognition system and giving rapid feed backs are important properties for an intuitive, easy-to-use speech interfaces. Many studies has been conducted to improve the response delay, such as making progressive outputs while recognition process "after" the words are half-determined in the context. In order to achieve higher speed input responses, we have proposed an algorithm to determine the most likely hypothesis "before" the utterance ends. The method has been examined for isolated word recognition, and this paper extends it for continuous word recognition. Experimental evaluations were performed for tasks of various vocabulary size. The result at a small vocabulary task with 14 words has shown that our proposed algorithm can determine each word for about 0.053 second prior to the actual end of speech on average, without any degradation of recognition accuracy. Another result on a station names recognition task with vocabulary size of 8738 has shown that our proposed algorithm can determine each word for about 0.48 second on average after the actual end of speech. The comparison results on various acoustic models are also reported.
-
A speech-oriented information kiosk based on user-generated dialog contents
FUKUTA Toshinori, YOSHIMI Yoshitaka, NANKAKU Yoshihiko, LEE Akinobu, TOKUDA Keiichi
IEICE technical report 109 ( 356 ) 207 - 212 2009.12
Language:Japanese Publisher:The Institute of Electronics, Information and Communication Engineers
On the development of a spoken dialog system, the system developer has to build and customize the contents for the target task. On the other hand, a Web-based "user generated" contents such as Wikipedia has been recently arisen as a new contents providing paradigm. This paper describes our trial to build a question-answering dialog system with user generated dialog contents. A user can add a response sentence freely to the system with the corresponding keywords via the Web using cellular phone or PC. The system will be updated as soon as the sentence has been added. The user can give a feedback to the system through touch panel interface, and the feedback will be reflected to the scoring of the answer sentence so that unwanted output will be suppressed. Field test for a month on public space showed the possibility of user generated dialog contents.
-
Speaker Adaptation Using Nonlinear Spectral Transformation For Speech Recognition
HAYASHI Toyohiro, NANKAKU Yoshihiko, LEE Akinobu, TOKUDA Keiichi
IEICE technical report 109 ( 356 ) 1 - 6 2009.12
Language:Japanese Publisher:The Institute of Electronics, Information and Communication Engineers
This paper proposes a speaker adaptation technique using nonlinear spectral transform based on GMMs. One of the most popular forms of speaker adaptation is based on linear transforms, such as maximum likelihood linear regression (MLLR). In MLLR, model parameters of HMMs are linearly transformed based on the maximum likelihood (ML) fashion by using a small amount of adaptation data. Although multiple transform matrices are used according to the regression class information, only a single linear transform is applied to each state within a regression class. In the proposed technique, we define a new likelihood function combining HMMs for recognition with GMMs for spectral transform and speaker adaptation based on nonlinear transform is performed in the ML fashion. In phoneme recognition experiments, the proposed technique shows better performance than the conventional MLLR approaches.
Presentations
-
金子優, 上乃聖, 李晃伸
NLP若手の会 (YANS) 第19回シンポジウム 2024.09 NLP若手の会運営委員会
Event date: 2024.09
Language:Japanese Presentation type:Poster presentation
Venue:梅田スカイビル Country:Japan
-
マルチエージェント協働による TRPG ゲームマスターの実現
箕成侑音, 上乃聖, 李晃伸
NLP若手の会 (YANS) 第19回シンポジウム 2024.09 NLP若手の会運営委員会
Event date: 2024.09
Language:Japanese Presentation type:Poster presentation
Venue:梅田スカイビル Country:Japan
-
大規模言語モデルを用いた効果的な物語のあらすじ生成手法の検討
酒井健壱, 上乃聖, 李晃伸
NLP若手の会 (YANS) 第19回シンポジウム 2024.09 NLP若手の会運営委員会
Event date: 2024.09
Language:Japanese Presentation type:Poster presentation
Venue:梅田スカイビル Country:Japan
-
大規模言語モデルによる感情極性に着目した小説からの人物関係抽出
齋藤大輔, 上乃聖, 李晃伸
NLP若手の会 (YANS) 第19回シンポジウム 2024.09 NLP若手の会運営委員会
Event date: 2024.09
Language:Japanese Presentation type:Poster presentation
Venue:梅田スカイビル Country:Japan
-
大規模事前学習モデルによる笑い声表現を用いたspeech-laugh音声の生成
木全 亮太朗, 上乃 聖, 李晃伸
日本音響学会 研究発表会 2024.09 一般社団法人 日本音響学会
Event date: 2024.09
Language:Japanese Presentation type:Poster presentation
Venue:関西大学 Country:Japan
-
リアリティを体現するアバターコミュニケーション研究 Invited
李 晃伸
第18回VNV年次大会 2024.03 電子情報通信学会 HCG 第2種研究会
Event date: 2024.03
Language:Japanese Presentation type:Oral presentation (invited, special)
Venue:国立情報学研究所
-
酒井健壱, 上乃聖, 李晃伸
言語処理学会 2024.03 言語処理学会
Event date: 2024.03
Language:Japanese Presentation type:Oral presentation (general)
Venue:神戸国際会議場 Country:Japan
-
経験情報収集および伝達を主目的とする雑談対話による関係性維持支援システム
志満津奈央, 上乃聖, 李晃伸
言語処理学会 2024.03 言語処理学会
Event date: 2024.03
Language:Japanese Presentation type:Oral presentation (general)
Venue:神戸国際会議場 Country:Japan
-
大規模言語モデルを用いたEmotional Support Conversation システムの構築とその評価
藤田敦也, 上乃聖, 李晃伸
言語処理学会 2024.03 言語処理学会
Event date: 2024.03
Language:Japanese Presentation type:Oral presentation (general)
Venue:神戸国際会議場 Country:Japan
-
暗黙的な非線形処理を導入した拡散モデルを用いた音声合成
岡本海, 上乃聖, 李晃伸
日本音響学会 研究発表会 2024.03 一般社団法人 日本音響学会
Event date: 2024.03
Language:Japanese Presentation type:Poster presentation
Venue:拓殖大学 Country:Japan
Industrial Property Rights
-
音声対話システム用画像 ニルヴァ デバイスモード
李晃伸
Applicant:名古屋工業大学
Application no:2022-025587 Date applied:2022.11
Patent/Registration no:1749626 Date registered:2023.07
Rights holder:名古屋工業大学
-
音声対話システム用画像 ニルヴァ ソーシャルモード
李晃伸
Applicant:名古屋工業大学
Application no:2022-025588 Date applied:2022.11
Patent/Registration no:1749627 Date registered:2023.07
Rights holder:名古屋工業大学
-
音声対話システム用画像 ジェネ
李晃伸, 石黒浩
-
音声対話システム用画像 Rubica
李晃伸, 石黒浩
Works
-
Avatar control software for MMDAgent-EX: Valles
Akinobu Lee
2024.09
Work type:Software Location:https://github.com/avatar-ss-cgca/valles
Other Link: https://github.com/avatar-ss-cgca/valles
-
東中 竜一郎, 光田 航, 千葉 祐弥, 李 晃伸
2024.06
Work type:Software Location:https://github.com/remdis/remdis
-
Akinobu Lee
2023.12
Work type:Software Location:https://mmdagent-ex.dev/
Other Link: https://github.com/mmdagent-ex/MMDAgent-EX
-
李 晃伸
2020.09
Work type:Software Location:http://julius.osdn.jp/
Julius のバージョン 4.6 を公開しました。4.6 ではDNN-HMM 計算部の GPU 対応 (CUDA) を行い、 デコーディングが3倍ほど速くなりました。そのほか、1パス文法認識への対応やバグ修正、アップデートが含まれています。 主な変更点は以下のとおりです。
・DNN-HMM 計算での CUDA サポート (Linux + CUDA-8,9,10 でのみ動作確認)
・1パス文法認識の実装
・Visual Studio 2017 でのビルド全面対応 (msvc/Julius.sln)
・修正BSDライセンスへ移行
・不具合の修正 -
2019.06 - 2023.12
Work type:Software Location:第33回人工知能学会全国大会およびWeb / https://mmdagent.lee-lab.org/
MMDAgent-EX は音声インタラクション構築ツールキット [MMDAgent](http://mmdagent.jp/) をスマートフォンに向けて拡張したアプリケーションです。キャラクターエージェントとのお喋りややりとりの内容を定義したスクリプトファイル、3-Dモデル、動作ファイルを自在に組み合わせて、エージェントと音声で会話するシステムを、誰でも構築しスマートフォンへ配信することができます。iOS、Android 用アプリのほか、各種デスクトップOS (Win/Mac/Linux) でも動作するマルチプラットフォームアプリケーションです。
-
音声対話インタラクション基盤アプリ MMDAgent-EX の公開
2019.06
MMDAgent-EX は音声インタラクション構築ツールキット [MMDAgent](http://mmdagent.jp/) をスマートフォンに向けて拡張したアプリケーションです。キャラクターエージェントとのお喋りややりとりの内容を定義したスクリプトファイル、3-Dモデル、動作ファイルを自在に組み合わせて、エージェントと音声で会話するシステムを、誰でも構築しスマートフォンへ配信することができます。iOS、Android 用アプリのほか、各種デスクトップOS (Win/Mac/Linux) でも動作するマルチプラットフォームアプリケーションです。
-
2018.09 - 2023.12
Work type:Software Location:日本音響学会2018年秋季全国大会 / https://mmdagent.lee-lab.org/
Pocket MMDAgent は MMDAgent のスマートフォン向け拡張版アプリです。Webで公開されている音声対話システムのダウンロード、サーバ側からのコンテンツ自動更新、メニュー・ダイアログ・ボタンなどのUIのサポート、汎的なログ収集・フィードバック機能を有しています。
Pocket MMDAgentは音声対話コンテンツ再生・配信のマルチプラットフォームアプリケーションであり、無償で利用可能です。iOS 用アプリと Android 用アプリがそれぞれベータ版公開されているほか、デスクトップOS版 (Win/Mac/Linux) もあります。 -
音声対話コンテンツ配信プラットフォーム Pocket MMDAgent の公開
2018.09
Pocket MMDAgent は MMDAgent をスマートフォンに向けて拡張した音声対話コンテンツ配信プラットフォームである。Web上で公開されている音声対話コンテンツの直接ダウンロードとサーバ側からのプッシュ更新機能、コンテンツ配信者へのログ収集・フィードバック機能を備えたクラウド音声対話システムのアプリケーションである。
Other research activities
-
音声対話インタラクション基盤アプリ MMDAgent-EX の公開
2019.06
MMDAgent-EX は音声インタラクション構築ツールキット [MMDAgent](http://mmdagent.jp/) をスマートフォンに向けて拡張したアプリケーションです。キャラクターエージェントとのお喋りややりとりの内容を定義したスクリプトファイル、3-Dモデル、動作ファイルを自在に組み合わせて、エージェントと音声で会話するシステムを、誰でも構築しスマートフォンへ配信することができます。iOS、Android 用アプリのほか、各種デスクトップOS (Win/Mac/Linux) でも動作するマルチプラットフォームアプリケーションです。
-
音声対話コンテンツ配信プラットフォーム Pocket MMDAgent の公開
2018.09
Pocket MMDAgent は MMDAgent をスマートフォンに向けて拡張した音声対話コンテンツ配信プラットフォームである。Web上で公開されている音声対話コンテンツの直接ダウンロードとサーバ側からのプッシュ更新機能、コンテンツ配信者へのログ収集・フィードバック機能を備えたクラウド音声対話システムのアプリケーションである。
-
オープンソース音声インタラクション構築ツールキットMMDAgentの開発と公開
2011.12
-
オープンソース音声認識エンジンJuliusの開発および公開
2005.04
Awards
-
2024.03 言語処理学会 大規模言語モデルを用いたEmotional Support Conversation システムの構築とその評価
藤田敦也, 上乃聖, 李晃伸
Award type:Award from Japanese society, conference, symposium, etc. Country:Japan
-
電気通信普及財団 第24回テレコムシステム技術賞
2006.05 電気通信普及財団
H.Saruwatari,T.Kawamura,T.Nshikawa,A.Lee,K.Shikano
Award type:International academic award (Japan or overseas) Country:Japan
Scientific Research Funds Acquisition Results
-
Grant number:24H00170 2024.04 - 2029.03
Japan Society for the Promotion of Science Grants-in-Aid for Scientific Research Grant-in-Aid for Scientific Research (A)
Authorship:Coinvestigator(s) Grant type:Competitive
Grant amount:\48360000 ( Direct Cost: \37200000 、 Indirect Cost:\11160000 )
-
音声対話におけるタスク完了率の最適化
2022.04 - 2025.03
株式会社 AI Shift
李晃伸, 上乃聖
Authorship:Coinvestigator(s) Grant type:Collaborative (industry/university)
-
「しゃべって」つくる音声インタラクションシステム
2014 - 2016
日本学術振興会 科学研究費補助金 挑戦的萌芽研究
徳田 恵一
Grant type:Competitive
-
超巨大データに基づくユニバーサル音声モデル構築のための技術的・社会的基盤の確立
2013 - 2015
日本学術振興会 科学研究費補助金 基盤研究(B)
徳田 恵一
Grant type:Competitive
-
コンテンツ生成の循環系を軸とした次世代音声技術基盤の確立
2011.04 - 2017.03
科学技術振興機構 戦略的創造研究推進事業
徳田 恵一, 李 晃伸, 南角 吉彦, 山本 大介, 打矢隆弘
Authorship:Collaborating Investigator(s) (not designated on Grant-in-Aid) Grant type:Competitive
Other External Funds
-
コンテンツ生成の循環系を軸とした次世代音声技術基盤の確立
2011.04 - 2017.03
科学技術振興機構 戦略的創造研究推進事業
徳田 恵一、李 晃伸, 南角 吉彦, 山本 大介, 打矢隆弘 他
Grant type:Competitive
-
講演音声翻訳のための多言語音声合成技術に関する研究開発
2009 - 2011
総務省 戦略的情報通信研究開発推進制度
Grant type:Competitive
-
Effective Multilingual Interaction in Mobile Environments
2008 - 2011
European Commission European Commission
Grant type:Competitive
-
ユーザ負担のない話者・環境適応性を実現する自然な音声対話処理
2003 - 2007
文部科学省 e-Society 基盤ソフトウェアの総合開発
Grant type:Competitive
Past of Cooperative Research
-
音声対話におけるタスク完了率の最適化
2022.04 - 2025.03
株式会社 AI Shift Collaboration in Japan
李晃伸,上乃聖
Authorship:Coinvestigator(s) Grant type:Collaborative (industry/university)
Committee Memberships
-
電子情報通信学会 音声研究会 副委員長
2018.06 - 2020.03
Committee type:Academic society
-
情報処理学会 音声言語情報処理研究会運営委員
2016.04
Committee type:Academic society
-
日本音響学会 秋季研究発表会座長
2015.09
Committee type:Academic society
-
人工知能学会 論文誌論文特集「知的対話システム」編集委員
2015
Committee type:Academic society
-
情報処理学会 音声言語情報処理研究会運営幹事
2014.04 - 2016.03
Committee type:Academic society
Social Activities
-
ZIP-FM サマーキャンプ @ CODE FRIENDS 開催協力
Role(s): Appearance, Commentator, Lecturer, Advisor, Planner, Organizing member, Demonstrator
ZIP-FM / CODE FRIENDS ZIP-FM 2019.04 - 2019.08
Audience: Schoolchildren, Junior students, Guardians, Company
Type:Seminar, workshop
-
ZIP-FM サマーキャンプ @ CODE FRIENDS / 名古屋市発明少年少女 開催協力
Role(s): Appearance, Commentator, Lecturer, Advisor, Planner, Organizing member, Demonstrator
ZIP-FM / 中京テレビ / 名古屋市 ZIP-FM 2018.04 - 2019.03
Audience: Schoolchildren, Junior students, Guardians, Company
Type:Seminar, workshop
Media Coverage
-
“アバター”と共生へ 体験・実験イベント 大阪 北区 TV or radio program
NHK NHK関西 ニュース TV放映 https://www3.nhk.or.jp/kansai-news/20240910/2000087526.html 2024.09
Author:Other
-
100体以上のアバターが働く「アバターまつり」--共生社会目指し実証実験 Internet
CNET Japan CNET Japan ニュース https://japan.cnet.com/article/35206361/ 2023.07
Author:Other
-
ロボット遠隔操作し「アバターまつり」 大阪・南港ATCで接客などの実証実験 高齢者の社会参加にも期待 TV or radio program
朝日放送 ABCニュース https://www.asahi.co.jp/webnews/pages/abc_20670.html 2023.07
Author:Other
-
ムーンショット型研究開発事業「アバター共生社会」プロジェクトの オフィシャルCGアバターを開発 ―誰もが自在に活躍できる次世代アバター社会の実現を目指して―
名古屋工業大学 プレスリリース https://www.nitech.ac.jp/news/press/2022/9607.html 2022.06
Author:Myself