所属学科・専攻等 |
情報工学教育類 / メディア情報分野
|
職名 |
教授 |
ホームページ |
|
外部リンク |
玉木 徹 (タマキ トオル)
TAMAKI Toru
|
|
学外略歴
-
新潟大学 助手
2001年04月 - 2005年09月
国名:日本国
-
広島大学 准教授
2005年10月 - 2020年10月
国名:日本国
-
ESIEE Paris, France 客員研究員
2015年05月 - 2016年01月
国名:フランス共和国
論文
-
ObjectMix: Data Augmentation by Copy-Pasting Objects in Videos for Action Recognition 査読あり 国際誌
Jun Kimata, Tomoya Nitta, Toru Tamaki
ACM MM 2022 Asia (MMAsia '22) 2022年12月
担当区分:最終著者, 責任著者 記述言語:英語 掲載種別:研究論文(国際会議プロシーディングス)
-
Temporal Cross-attention for Action Recognition 査読あり 国際誌
Ryota Hashiguchi, Toru Tamaki
2022年12月
担当区分:最終著者, 責任著者 記述言語:英語 掲載種別:研究論文(国際会議プロシーディングス)
Feature shifts have been shown to be useful for action recognition with CNN-based models since Temporal Shift Module (TSM) was proposed. It is based on frame-wise feature extraction with late fusion, and layer features are shifted along the time direction for the temporal interaction. TokenShift, a recent model based on Vision Transformer (ViT), also uses the temporal feature shift mechanism, which, however, does not fully exploit the structure of Multi-head Self-Attention (MSA) in ViT. In this paper, we propose Multi-head Self/Cross-Attention (MSCA), which fully utilizes the attention structure. TokenShift is based on a frame-wise ViT with features temporally shifted with successive frames (at time t+1 and t-1). In contrast, the proposed MSCA replaces MSA in the frame-wise ViT, and some MSA heads attend to successive frames instead of the current frame. The computation cost is the same as the frame-wise ViT and TokenShift as it simply changes the target to which the attention is taken. There is a choice about which of key, query, and value are taken from the successive frames, then we experimentally compared these variants with Kinetics400. We also investigate other variants in which the proposed MSCA is used along the patch dimension of ViT, instead of the head dimension. Experimental results show that a variant, MSCA-KV, shows the best performance and is better than TokenShift by 0.1% and then ViT by 1.2%.
-
Model-agnostic Multi-Domain Learning with Domain-Specific Adapters for Action Recognition 査読あり 国際誌
Kazuki Omi, Jun Kimata, Toru Tamaki
IEICE Transactions on Information and Systems E105-D ( 12 ) 2022年12月
担当区分:最終著者, 責任著者 記述言語:英語 掲載種別:研究論文(学術雑誌) 出版者・発行元:IEICE
In this paper, we propose a multi-domain learning model for action recognition. The proposed method inserts domain-specific adapters between layers of domain-independent layers of a backbone net- work. Unlike a multi-head network that switches classification heads only, our model switches not only the heads, but also the adapters for facilitating to learn feature representations universal to multiple domains. Unlike prior works, the proposed method is model-agnostic and doesn’t assume model structures unlike prior works. Experimental results on three popular action recognition datasets (HMDB51, UCF101, and Kinetics-400) demonstrate that the proposed method is more effective than a multi-head architecture and more efficient than separately training models for each domain.
DOI: 10.1587/transinf.2022EDP7058
その他リンク: https://search.ieice.org/bin/summary_advpub.php?id=2022EDP7058&category=D&lang=E&abst=
-
動作行動認識の最前線:手法,タスク,データセット 招待あり
玉木徹
画像応用技術専門委員会 研究会報告 34 ( 4 ) 1 - 20 2022年11月
担当区分:筆頭著者, 最終著者, 責任著者 記述言語:日本語 掲載種別:研究論文(研究会,シンポジウム資料等)
その他リンク: http://www.tc-iaip.org/research/
-
Performance Evaluation of Action Recognition Models on Low Quality Videos 査読あり 国際誌
Aoi Otani, Ryota Hashiguchi, Kazuki Omi, Norishige Fukushima, Toru Tamaki
IEEE Access 10 94898 - 94907 2022年09月
担当区分:最終著者, 責任著者 記述言語:英語 掲載種別:研究論文(学術雑誌) 出版者・発行元:IEEE
In the design of action recognition models, the quality of videos is an important issue; however, the trade-off between the quality and performance is often ignored. In general, action recognition models are trained on high-quality videos, hence it is not known how the model performance degrades when tested on low-quality videos, and how much the quality of training videos affects the performance. The issue of video quality is important, however, it has not been studied so far. The goal of this study is to show the trade-off between the performance and the quality of training and test videos by quantitative performance evaluation of several action recognition models for transcoded videos in different qualities. First, we show how the video quality affects the performance of pre-trained models. We transcode the original validation videos of Kinetics400 by changing quality control parameters of JPEG (compression strength) and H.264/AVC (CRF). Then we use the transcoded videos to validate the pre-trained models. Second, we show how the models perform when trained on transcoded videos. We transcode the original training videos of Kinetics400 by changing the quality parameters of JPEG and H.264/AVC. Then we train the models on the transcoded training videos and validate them with the original and transcoded validation videos. Experimental results with JPEG transcoding show that there is no severe performance degradation (up to −1.5%) for compression strength smaller than 70 where no quality degradation is visually observed, and for larger than 80 the performance degrades linearly with respect to the quality index. Experiments with H.264/AVC transcoding show that there is no significant performance loss (up to −1%) with CRF30 while the total size of video files is reduced to 30%. In summary, the video quality doesn’t have a large impact on the performance of action recognition models unless the quality degradation is severe and visible. This enables us to transcode the tr...
-
Object-ABN: Learning to Generate Sharp Attention Maps for Action Recognition 国際誌
Tomoya Nitta, Tsubasa Hirakawa, Hironobu Fujiyoshi, Toru Tamaki
2022年07月
担当区分:最終著者, 責任著者 記述言語:英語 掲載種別:研究論文(その他学術会議資料等)
In this paper we propose an extension of the Attention Branch Network (ABN) by using instance segmentation for generating sharper attention maps for action recognition. Methods for visual explanation such as Grad-CAM usually generate blurry maps which are not intuitive for humans to understand, particularly in recognizing actions of people in videos. Our proposed method, Object-ABN, tackles this issue by introducing a new mask loss that makes the generated attention maps close to the instance segmentation result. Further the PC loss and multiple attention maps are introduced to enhance the sharpness of the maps and improve the performance of classification. Experimental results with UCF101 and SSv2 shows that the generated maps by the proposed method are much clearer qualitatively and quantitatively than those of the original ABN.
-
On the Performance Evaluation of Action Recognition Models on Transcoded Low Quality Videos 国際誌
Aoi Otani, Ryota Hashiguchi, Kazuki Omi, Norishige Fukushima, Toru Tamaki
2022年04月
担当区分:最終著者, 責任著者 記述言語:英語 掲載種別:研究論文(その他学術会議資料等)
In the design of action recognition models, the quality of videos in the dataset is an important issue, however the trade-off between the quality and performance is often ignored. In general, action recognition models are trained and tested on high-quality videos, but in actual situations where action recognition models are deployed, sometimes it might not be assumed that the input videos are of high quality. In this study, we report qualitative evaluations of action recognition models for the quality degradation associated with transcoding by JPEG and H.264/AVC. Experimental results are shown for evaluating the performance of pre-trained models on the transcoded validation videos of Kinetics400. The models are also trained on the transcoded training videos. From these results, we quantitatively show the degree of degradation of the model performance with respect to the degradation of the video quality.
-
Model-agnostic Multi-Domain Learning with Domain-Specific Adapters for Action Recognition 国際誌
Kazuki Omi, Toru Tamaki
2022年04月
担当区分:最終著者, 責任著者 記述言語:英語 掲載種別:研究論文(その他学術会議資料等)
In this paper, we propose a multi-domain learning model for action recognition. The proposed method inserts domain-specific adapters between layers of domain-independent layers of a backbone network. Unlike a multi-head network that switches classification heads only, our model switches not only the heads, but also the adapters for facilitating to learn feature representations universal to multiple domains. Unlike prior works, the proposed method is model-agnostic and doesn't assume model structures unlike prior works. Experimental results on three popular action recognition datasets (HMDB51, UCF101, and Kinetics-400) demonstrate that the proposed method is more effective than a multi-head architecture and more efficient than separately training models for each domain.
-
Vision Transformer with Cross-attention by Temporal Shift for Efficient Action Recognition 国際誌
Ryota Hashiguchi, Toru Tamaki
2022年04月
担当区分:最終著者, 責任著者 記述言語:英語 掲載種別:研究論文(その他学術会議資料等)
We propose Multi-head Self/Cross-Attention (MSCA), which introduces a temporal cross-attention mechanism for action recognition, based on the structure of the Multi-head Self-Attention (MSA) mechanism of the Vision Transformer (ViT). Simply applying ViT to each frame of a video frame can capture frame features, but cannot model temporal features. However, simply modeling temporal information with CNN or Transfomer is computationally expensive. TSM that perform feature shifting assume a CNN and cannot take advantage of the ViT structure. The proposed model captures temporal information by shifting the Query, Key, and Value in the calculation of MSA of ViT. This is efficient without additional coinformationmputational effort and is a suitable structure for extending ViT over temporal. Experiments on Kineitcs400 show the effectiveness of the proposed method and its superiority over previous methods.
-
ObjectMix: Data Augmentation by Copy-Pasting Objects in Videos for Action Recognition 国際誌
Jun Kimata, Tomoya Nitta, Toru Tamaki
2022年04月
担当区分:最終著者, 責任著者 記述言語:英語 掲載種別:研究論文(その他学術会議資料等)
In this paper, we propose a data augmentation method for action recognition using instance segmentation. Although many data augmentation methods have been proposed for image recognition, few methods have been proposed for action recognition. Our proposed method, ObjectMix, extracts each object region from two videos using instance segmentation and combines them to create new videos. Experiments on two action recognition datasets, UCF101 and HMDB51, demonstrate the effectiveness of the proposed method and show its superiority over VideoMix, a prior work.
書籍等出版物
-
玉木徹, 小出哲士, 吉田成人( 担当: 分担執筆 , 範囲: Chapter 12 下部拡大内視鏡(NBI)AI ②)
オーム社 2022年11月 ( ISBN:978-4-274-22564-2 )
総ページ数:250 担当ページ:8 記述言語:日本語 著書種別:学術書
-
Tetsushi Koide, Toru Tamaki, Shigeto Yoshida, and Shinji Tanaka( 担当: 共著 , 範囲: Chapter: A Hierarchical Type Segmentation Hardware for Colorectal Endoscopic Images with Narrow Band Imaging Magnification)
Jenny Stanford Publishing 2021年11月 ( ISBN:9789814877633 )
総ページ数:396 担当ページ:21 記述言語:英語 著書種別:学術書
Several developed countries are facing serious problems in medical environments owing to the aging society, and extension of healthy lifetime has become a big challenge. Biomedical engineering, in addition to life sciences and medicine, can help tackle these problems. Innovative technologies concerning minimally invasive treatment, prognosis and early diagnosis, point-of-care testing, regenerative medicine, and personalized medicine need to be developed to realize a healthy aging society.
This book presents cutting-edge research in biomedical engineering from materials, devices, imaging, and information perspectives. The contributors are senior members of the Research Center for Biomedical Engineering, supported by the Ministry of Education, Culture, Sports, Science and Technology, Japan. All chapters are results of collaborative research in engineering and life sciences and cover nanotechnology, materials, optical sensing technology, imaging technology, image processing technology, and biomechanics, all of which are important areas in biomedical engineering. The book will be a useful resource for researchers, students, and readers who are interested in biomedical engineering.その他リンク: https://www.amazon.co.jp/Biomedical-Engineering-Akihiro-Miyauchi/dp/9814877638/
-
玉木徹( 担当: 単訳)
講談社 2021年03月 ( ISBN:978-4-06-516196-8 )
総ページ数:536 担当ページ:536 記述言語:日本語 著書種別:学術書
-
人工知能学会 編( 担当: 分担執筆 , 範囲: 9-3 パターン認識・理解(グラフィカルモデル))
共立出版 2017年07月 ( ISBN:978-4-320-12420-2 )
総ページ数:1580 担当ページ:709-713 記述言語:日本語 著書種別:学術書
-
Pythonで体験するベイズ推論 : PyMCによるMCMC入門
Davidson-Pilon Cameron, 玉木 徹( 担当: 単訳)
森北出版 2017年 ( ISBN:9784627077911 )
記述言語:日本語 著書種別:学術書
-
スパースモデリング : l1/l0ノルム最小化の基礎理論と画像処理への応用
Elad Michael, 玉木 徹( 担当: 単訳)
共立出版 2016年 ( ISBN:9784320123946 )
記述言語:日本語 著書種別:学術書
-
Szeliski Richard, 玉木 徹( 担当: 共訳)
共立出版 2013年 ( ISBN:9784320123281 )
記述言語:日本語 著書種別:学術書
MISC
-
効率的な動作認識のためのシフトによる時間的な相互アテンションを用いたVision Transformer 招待あり
橋口凌大, 玉木 徹
2023年02月
担当区分:最終著者, 責任著者 記述言語:日本語 掲載種別:記事・総説・解説・論説等(商業誌、新聞、ウェブメディア)
-
移動軌跡のデータサイエンス 招待あり
玉木徹
生物の科学 遺伝 74 ( 2 ) 236 - 240 2020年03月
記述言語:日本語 掲載種別:記事・総説・解説・論説等(商業誌、新聞、ウェブメディア) 出版者・発行元:株式会社エヌ・ティー・エス
その他リンク: http://www.nts-book.co.jp/item/detail/summary/bio/20051225_42bk.html
講演・口頭発表等
-
卓球映像中の選手の死角における打球コース推定手法の提案
加藤祥真, 鬼頭明, 玉木徹, 澤野弘明
映像情報メディア学会 2022年冬季大会 2022年12月 映像情報メディア学会
開催年月日: 2022年12月
記述言語:日本語 会議種別:口頭発表(一般)
開催地:東京理科大学, 東京・オンライン 国名:日本国
-
加藤祥真, 鬼頭明, 玉木徹, 澤野弘明
第20回情報学ワークショップ 2022年12月 WiNF事務局
開催年月日: 2022年12月
記述言語:日本語 会議種別:口頭発表(一般)
開催地:愛知工業大学, 愛知 国名:日本国
-
ObjectMix: Data Augmentation by Copy-Pasting Objects in Videos for Action Recognition
Jun Kimata, Tomoya Nitta, Toru Tamaki
ACM MM 2022 Asia (MMAsia '22) 2022年12月 ACM MM 2022 Asia
-
加藤祥真, 鬼頭明, 玉木徹, 澤野弘明
映像情報メディア学会スポーツ情報処理研究会(SIP) 2022年12月 映像情報メディア学会スポーツ情報処理研究会(SIP)
開催年月日: 2022年12月
記述言語:日本語 会議種別:口頭発表(一般)
開催地:名古屋工業大学, 愛知 国名:日本国
-
Temporal Cross-attention for Action Recognition 国際会議
Ryota Hashiguchi, Toru Tamaki
ACCV2022 Workshop on Vision Transformers: Theory and applications (VTTA-ACCV2022) 2022年12月
開催年月日: 2022年12月
記述言語:英語
開催地:Galaxy Macau, Macau 国名:マカオ(澳門)特別行政区
Feature shifts have been shown to be useful for action recognition with CNN-based models since Temporal Shift Module (TSM) was proposed. It is based on frame-wise feature extraction with late fusion, and layer features are shifted along the time direction for the temporal interaction. TokenShift, a recent model based on Vision Transformer (ViT), also uses the temporal feature shift mechanism, which, however, does not fully exploit the structure of Multi-head Self-Attention (MSA) in ViT. In this paper, we propose Multi-head Self/Cross-Attention (MSCA), which fully utilizes the attention structure. TokenShift is based on a frame-wise ViT with features temporally shifted with successive frames (at time t+1 and t-1). In contrast, the proposed MSCA replaces MSA in the frame-wise ViT, and some MSA heads attend to successive frames instead of the current frame. The computation cost is the same as the frame-wise ViT and TokenShift as it simply changes the target to which the attention is taken. There is a choice about which of key, query, and value are taken from the successive frames, then we experimentally compared these variants with Kinetics400. We also investigate other variants in which the proposed MSCA is used along the patch dimension of ViT, instead of the head dimension. Experimental results show that a variant, MSCA-KV, shows the best performance and is better than TokenShift by 0.1% and then ViT by 1.2%.
-
Action recognition with generated sequences
Taiki Sugiura, Toru Tamaki
The 7th International Symposium on Biomedical Engineering (ISBE2022) 2022年11月
開催年月日: 2022年11月
記述言語:英語 会議種別:口頭発表(一般)
国名:日本国
-
玉木徹
精密工学会 画像応用技術専門委員会(IAIP)2022年度第4回定例研究会 2022年11月 精密工学会 画像応用技術専門委員会(IAIP)
開催年月日: 2022年11月
記述言語:日本語 会議種別:口頭発表(招待・特別)
開催地:中央大学, 東京・オンライン 国名:日本国
人物の行動認識(action recognition)はコンピュータビジョンの重要なトピックの一つです。本講演では,代表的な手法やタスク,データセットなどを俯瞰し,最新の研究についても紹介します。
-
卓球競技映像におけるスイング動作区間推定手法の提案
加藤祥真, 鬼頭明, 玉木徹, 澤野弘明
令和四年度 電気・電子・情報関係学会 東海支部連合大会 2022年08月
開催年月日: 2022年08月
記述言語:日本語 会議種別:ポスター発表
開催地:オンライン 国名:日本国
-
ObjectMix:動画像中の物体のコピー・ペーストによる動作認識のためのデータ拡張
木全潤, 仁田智也, 玉木 徹
第28回画像センシングシンポジウム(SSII2022) 2022年06月 画像センシング技術研究会
開催年月日: 2022年06月
記述言語:日本語 会議種別:ポスター発表
開催地:パシフィコ横浜, 神奈川 国名:日本国
-
深層学習を用いたNICE/JNET分類に基づく大腸内視鏡画像診断支援の一手法
片山大輔, 呉泳飛, 道田竜一, 小出哲士, 玉木徹, 吉田成人, 岡本由貴, 岡志郎, 田中信治
第28回画像センシングシンポジウム(SSII2022) 2022年06月 画像センシング技術研究会
開催年月日: 2022年06月
記述言語:日本語 会議種別:ポスター発表
開催地:パシフィコ横浜, 神奈川 国名:日本国
産業財産権
-
川村 健介, 玉木 徹, 小櫃 剛人, 黒川 勇三
出願人:国立大学法人広島大学
出願番号:特願2014-188656 出願日:2014年09月
公開番号:特開2016-059300 公開日:2016年04月
出願国:国内 取得国:国内
-
小出 哲士, ホアン アイン トゥワン, 吉田 成人, 三島 翼, 重見 悟, 玉木 徹, 平川 翼, 宮木 理恵, 杉 幸樹
出願人:国立大学法人広島大学
出願番号:特願2014-022425 出願日:2014年02月
公開番号:特開2015-146970 公開日:2015年08月
出願国:国内 取得国:国内
-
田中 慎也, 土谷 千加夫, 玉木 徹, 栗田 多喜夫
出願人:日産自動車株式会社, 国立大学法人広島大学
出願番号:特願2012-267267 出願日:2012年12月
公開番号:特開2014-115706 公開日:2014年06月
出願国:国内 取得国:国内
-
玉木 徹, 山村 毅, 大西 昇
出願人:理化学研究所
出願番号:特願2001-054686 出願日:2001年02月
公開番号:特開2002-158915 公開日:2002年05月
特許番号/登録番号:特許第3429280号 登録日:2003年05月 発行日:2003年05月
出願国:国内 取得国:国内
受賞
-
2020年度IPSJ-CGVI優秀研究発表賞
2021年06月 情報処理学会コンピュータグラフィックスとビジュアル情報学研究発表会 スペクトル類似度を考慮した深層学習によるRGB画像からスペクトル画像への変換手法
坂本真啓, 金田和文, 玉木徹, Bisser Raytchev
受賞区分:国内外の国際的学術賞 受賞国:日本国
-
電子情報通信学会情報・システムソサイエティ功労賞
2021年06月 電子情報通信学会情報・システムソサイエティ
玉木徹
受賞区分:国内学会・会議・シンポジウム等の賞 受賞国:日本国
-
平成17年度金森奨励賞
2006年06月 医用画像情報学会
玉木徹
受賞区分:学会誌・学術雑誌による顕彰
-
平成11年度学生奨励賞
1999年11月 電子情報通信学会東海支部
玉木徹
科研費(文科省・学振)獲得実績
-
研究課題/領域番号:22K12090 2022年04月 - 2025年03月
科学研究費補助金 基盤研究(C)
玉木徹
担当区分:研究代表者 資金種別:競争的資金
配分額:4160000円 ( 直接経費:3200000円 、 間接経費:960000円 )
本研究の目的は,動画像理解のための時空間特徴量を取得する新しい方法論を構築することである.様々な動画像認識において空間的な情報と時間的な情報を,時空間情報としてひとまとめで扱う事が多いが,本研究が目指すのは,空間情報と時間情報を高いレベルで分離するというアプローチである.単に別々に特徴量を抽出するのではなく,様々な動画認識タスクに応用するために,時間と空間の情報を関連させつつ分離するために,所望の性質を満たす特徴量を設計するという枠組みを提案する.
-
消化管内視鏡画像解析の客観的指標に基づくリアルタイム診断支援システムの開発
研究課題/領域番号:20H04157 2020年04月 - 2023年03月
科学研究費補助金 基盤研究(B)
小出 哲士, 田中 信治, 玉木 徹
担当区分:研究分担者 資金種別:競争的資金
配分額:900000円 ( 直接経費:900000円 )
-
消化管内視鏡画像解析による客観的指標の構築と汎用診断支援システムの開発
2017年04月 - 2020年03月
科学研究費補助金 基盤研究(B)
玉木 徹、小出 哲士, 田中 信治, 玉木 徹
平成30年度は、これまでに開発している大腸NBI拡大内視鏡画像のためのリアルタイム診断支援ハードウェアをベースシステムとして、非拡大画像と高精細画像をリアルタイム処理が可能なアーキテクチャを開発することを目指した。具体的には、以下のコア技術を開発し、検証により改善を行った。
まず、局所・大域特徴量を融合した特徴抽出手法の開発を行った。非拡大画像や高精細画像では、識別領域が広範囲に及ぶため、これまでに開発しているDSIFTによる局所特徴のみでは、識別がうまく行かない場合がある。そこで,広範囲の病変部位等の構造に着目した大域特徴を抽出することが可能なCNNによる特徴抽出する方式を開発した。提案手法では、一般物体検出のためのImageNet画像データベースで学習済みのCNNとしてAlexNetを特徴抽出器として使用し、内視鏡画像に適用することで多次元の特徴ベクトルの抽出を可能とした。そして得られた特徴量を使用して、SVMによる病理タイプ分類を行う手法を開発した。
開発したCNN特徴とSVM分類を適用した診断支援システムをカスタマイザブルなDSPコアであるTensilica Vision P6 DSPコアに実装し、ソフトウェアとハードウェアの観点から評価・検証を行った。特に本研究では、内視鏡の動画像処理に向けたシステムの処理性能の改善のために、システム全体の処理サイクル数のプロファイリングを行い、改善の影響が大きい処理の特定し、その改良を行った。その結果改良前と比較して処理サイクル数を70%削減することができ、200 MHzでシステムを動作させた場合に約41 fpsのフレームレートを実現することが可能となり、入出力処理のシステムオーバヘッドを加味してもリアルタイム処理が実現可能であることを示すことができた。 -
2016年06月 - 2021年03月
科学研究費補助金 新学術領域研究(研究領域提案型)
玉木 徹、橋本 浩一, 木村 幸太郎, 妻木 勇一, 竹内 一郎, 前川 卓也, 玉木 徹, 依田 憲, 高橋 晋, 飛龍 志津子, 小川 宏人
領域運営協議:計画研究代表者による領域運営会議を開催し、領域全体としての計画や実施方法などに関して議論した。
技術的支援:A01制御工学:橋本G、前川G、依田Gの共同研究を支援し、イベント駆動型防水ログボットによるデータ収集を行った。A02データ科学:竹内 G、前川Gと依田G、飛龍G、高橋G、小川G、木村Gの共同研究を支援し、海鳥、線虫、コオロギなどの動物のナビゲーション解析が可能な機械学習プログラムを開発し、これらの成果は論文として発表済み、あるいは投稿中である。
融合的若手研究者育成支援:領域の共通技術に関して統計解析相談会,イベント駆動型ログボット講習会,深層学習による軌跡分析ツール講習会,無線マイコン講習会、若手横断合宿を実施した。
各分野の学会への組織的な展開:本領域の融合研究のための体制を領域外の関連分野研究者にも広げるため、下記の企画を実施した。領域主催国際シンポジウム(International Symposium on Systems Science of Bio-Navigation 2018@同志社大)、国際会議(HCII2018招待セッション@米国、BiRD2019@京都国際会館)および国内学会(日本動物学会公募シンポジウム「システム科学的アプローチで迫る動物ナビゲーション」(北海道胆振東部地震により大会中止)、日本生態学会シンポジウム「生物移動に対する新たな挑戦」2019年3月19日@神戸)における企画セッションの運営、各学会論文誌・学会誌における連載・特集号(3件:日本ロボット学会誌、生物の科学遺伝、Advanced Robotics)。
広報活動:領域からの研究成果および上項目での分野融合的な取り組みの成果を、領域ウェブ、フェイスブック、ツイッターで発表した。また、サイエンスカフェ、テレビ報道などのアウトリーチ活動を行った。 -
ナビゲーションにおける画像情報分析基盤の整備とヒトの行動分類
2016年06月 - 2021年03月
科学研究費補助金 新学術領域研究(研究領域提案型)
玉木 徹、玉木 徹, 藤吉 弘亘
本研究では,本計画班の構成員が開発してきた最先端の映像認識技術に立脚し,野生動物やペットなどに装着したカメラから得られた映像や,人間が撮影した映 像など,これまでの映像認識技術では処理が困難な自己移動を含む映像を,安定かつ頑健に認識する技術を開発し,本領域における画像・映像情報分析のための 基盤技術を構築する.本年度の実績は以下のとおりである.
・前年度までに,B01生態学チームから提供された海鳥のGPU経路データを学習し,目的地までに至る経路を予測するための逆強化学習を利用した手法を開発している.これをさらに発展させて,GPS経路データの欠損部分を補完する手法を開発した.これにより,これまでは様々な原因で得られなかった経路情報が,データ駆動型モデルによりもっともらしい経路を出力することが可能になり,また補完経路を確率分布として出力することが可能となった.しかしこの手法は膨大な計算時間と多大なメモリ量を必要とするため,制度を保ちつつ計算コストを大幅に削減する手法を考案した.
・映像中の人物移動軌跡をいくつかのグループに分け(クラスタリングし),歩行目的地に応じて分割する手法を,さらに発展させた.これは前年度までに開発したベイズ推定に基づく手法である.それぞれの目的地へと到達する様子カーネル密度推定を用いて可視化し,どのような経路と目的地が頻繁に利用されているのかを把握することが可能となった.
・B01生態学チームから提供されたコウモリの音声データから3次元位置を予測する手法を開発した.屋内で飛行するコウモリの3次元位置を,20chのマイクロホンアレイで録音された音声信号から,回帰によって推定する深層ネットワークを提案し,20cm程度の誤差(RMSE)で推定することが可能となった.
担当経験のある授業科目(学外)
-
科学技術計算
2022年04月 - 現在 機関名:名古屋工業大学
科目区分:学部専門科目 国名:日本国
-
画像処理特論IV
2021年10月 - 現在 機関名:名古屋工業大学
科目区分:大学院専門科目 国名:日本国
-
メディア系演習II
2021年10月 - 現在 機関名:名古屋工業大学
科目区分:学部専門科目 国名:日本国
-
プログラミング基礎
2021年10月 - 2023年03月 機関名:名古屋工業大学
科目区分:学部専門科目 国名:日本国
-
ソフトウェア工学
2021年04月 - 現在 機関名:名古屋工業大学
科目区分:学部専門科目 国名:日本国
委員歴
-
電子情報通信学会 英文論文誌ED編集委員
2022年05月 - 2024年05月
団体区分:学協会
-
電子情報通信学会 パターン認識・メディア理解研究専門委員会 専門委員
2020年06月 - 2022年06月
団体区分:学協会
-
電子情報通信学会 パターン認識・メディア理解研究専門委員会 副委員長
2018年06月 - 2020年06月
団体区分:学協会
-
情報処理学会 コンピュータビジョンとイメージメディア研究運営委員会 運営委員
2016年04月 - 2020年03月
団体区分:学協会
-
電子情報通信学会 医用画像研究専門委員会 専門委員
2014年06月 - 2022年06月
団体区分:学協会
-
情報処理学会 コンピュータグラフィックスとビジュアル情報学研究運営委員会 運営委員
2013年04月 - 2017年03月
団体区分:学協会
-
電子情報通信学会 パターン認識・メディア理解研究専門委員会 専門委員
2012年05月 - 2014年06月
団体区分:学協会
-
電子情報通信学会 パターン認識・メディア理解研究専門委員会 幹事
2011年05月 - 2012年05月
団体区分:学協会
-
電子情報通信学会 ソサイエティ論文誌編集委員会 査読委員
2010年08月 - 現在
団体区分:学協会
社会貢献活動
-
役割:司会, 企画, 運営参加・支援
connpass 2022年11月
対象: 大学生, 大学院生, 教育関係者, 研究者, 社会人・一般, 学術団体, 企業, 行政機関
種別:セミナー・ワークショップ
-
役割:司会, 企画, 運営参加・支援
connpass 2022年11月
対象: 大学生, 大学院生, 教育関係者, 研究者, 社会人・一般, 学術団体, 企業, 行政機関
種別:セミナー・ワークショップ
-
役割:司会, 企画, 運営参加・支援
connpass 2022年10月
対象: 大学生, 大学院生, 教育関係者, 研究者, 社会人・一般, 学術団体, 企業, 行政機関
種別:セミナー・ワークショップ
-
役割:司会, 企画, 運営参加・支援
connpass 2022年10月
対象: 大学生, 大学院生, 教育関係者, 研究者, 社会人・一般, 学術団体, 企業, 行政機関
種別:セミナー・ワークショップ
-
出張授業
役割:講師
愛知県立旭野高等学校 2022年07月
-
役割:司会, 企画, 運営参加・支援
connpass 2022年06月
対象: 大学生, 大学院生, 教育関係者, 研究者, 社会人・一般, 学術団体, 企業, 行政機関
種別:セミナー・ワークショップ
-
役割:司会, 企画, 運営参加・支援
connpass 2022年04月
対象: 大学生, 大学院生, 教育関係者, 研究者, 社会人・一般, 学術団体, 企業, 行政機関
種別:セミナー・ワークショップ
-
公開講座:コンピュータサイエンス・アドベンチャー~理論計算機科学はこんなに面白い!~
役割:講師
名古屋工業大学 学務課 学務企画係 2021年11月