玉木 徹 (タマキ トオル)

TAMAKI Toru

写真a

所属学科・専攻等

情報工学教育類 / メディア情報分野
情報工学専攻 / メディア情報分野

職名

教授

ホームページ

https://sites.google.com/nitech.jp/tamaki-lab/

外部リンク

学位

  • 博士(工学) ( 2001年03月   名古屋大学 )

研究分野

  • 情報通信 / 知覚情報処理  / コンピュータビジョン

学外略歴

  • 新潟大学   助手

    2001年04月 - 2005年09月

      詳細を見る

    国名:日本国

  • 広島大学   准教授

    2005年10月 - 2020年10月

      詳細を見る

    国名:日本国

  • ESIEE Paris, France   客員研究員

    2015年05月 - 2016年01月

      詳細を見る

    国名:フランス共和国

所属学協会

  • 電子情報通信学会

    1996年10月 - 現在

  • 情報処理学会

    2005年06月 - 現在

  • IEEE

    2002年03月 - 現在

 

論文

  • S3Aug: Segmentation, Sampling, and Shift for Action Recognition

    Taiki Sugiura, Toru Tamaki

    arXiv   1 - 9   2023年10月

     詳細を見る

    担当区分:最終著者, 責任著者   記述言語:英語   掲載種別:研究論文(大学,研究機関等紀要)  

    Action recognition is a well-established area of research in computer vision. In this paper, we propose S3Aug, a video data augmenatation for action recognition. Unlike conventional video data augmentation methods that involve cutting and pasting regions from two videos, the proposed method generates new videos from a single training video through segmentation and label-to-image transformation. Furthermore, the proposed method modifies certain categories of label images by sampling to generate a variety of videos, and shifts intermediate features to enhance the temporal coherency between frames of the generate videos. Experimental results on the UCF101, HMDB51, and Mimetics datasets demonstrate the effectiveness of the proposed method, paricularlly for out-of-context videos of the Mimetics dataset.

    DOI: 10.48550/arXiv.2310.14556

    DOI: 10.48550/arXiv.2310.14556

    その他リンク: https://arxiv.org/abs/2310.14556

  • Joint learning of images and videos with a single Vision Transformer 査読あり 国際誌

    1 - 6   2023年08月

     詳細を見る

    担当区分:最終著者, 責任著者   記述言語:英語   掲載種別:研究論文(国際会議プロシーディングス)  

    DOI: 10.23919/MVA57639.2023.10215661

    DOI: 10.23919/MVA57639.2023.10215661

    その他リンク: https://ieeexplore.ieee.org/document/10215661/authors#authors

  • 効率的な動作認識のためのシフトによる時間的な相互アテンションを用いたVision Transformer

    橋口凌大, 玉木徹

    画像ラボ   34 ( 5 )   9 - 16   2023年05月

     詳細を見る

    担当区分:最終著者, 責任著者   記述言語:日本語   掲載種別:研究論文(大学,研究機関等紀要)  

    効率的な動作認識のために時間的な相互アテンション機構を導入したマルチヘッド自己・相互アテンション(Multi-head Self/Cross-Attention、MSCA)を提案する。これは追加の計算量がなく効率的であり、ViTを時間的に拡張するために適した構造となっている。Kineitcs400を用いた実験により提案手法の有効性と、従来手法に対する優位性を示す。

    その他リンク: https://www.nikko-pb.co.jp/products/detail.php?product_id=5529

  • Object-ABN: Learning to Generate Sharp Attention Maps for Action Recognition 査読あり

    Tomoya Nitta, Tsubasa Hirakawa, Hironobu Fujiyoshi, Toru Tamaki

    IEICE Transactions on Information and Systems   E106-D ( 3 )   391 - 400   2023年03月

     詳細を見る

    担当区分:最終著者, 責任著者   記述言語:英語   掲載種別:研究論文(学術雑誌)   出版者・発行元:The Institute of Electronics, Information and Communication Engineers  

    In this paper we propose an extension of the Attention Branch Network (ABN) by using instance segmentation for generating sharper attention maps for action recognition. Methods for visual explanation such as Grad-CAM usually generate blurry maps which are not intuitive for humans to understand, particularly in recognizing actions of people in videos. Our proposed method, Object-ABN, tackles this issue by introducing a new mask loss that makes the generated attention maps close to the instance segmentation result. Further the Prototype Conformity (PC) loss and multiple attention maps are introduced to enhance the sharpness of the maps and improve the performance of classification. Experimental results with UCF101 and SSv2 shows that the generated maps by the proposed method are much clearer qualitatively and quantitatively than those of the original ABN.

    DOI: 10.1587/transinf.2022EDP7138

    DOI: 10.1587/transinf.2022EDP7138

    その他リンク: https://www.jstage.jst.go.jp/article/transinf/E106.D/3/E106.D_2022EDP7138/_article

  • ObjectMix: Data Augmentation by Copy-Pasting Objects in Videos for Action Recognition 査読あり 国際誌

    Jun Kimata, Tomoya Nitta, Toru Tamaki

    ACM MM 2022 Asia (MMAsia '22)   2022年12月

     詳細を見る

    担当区分:最終著者, 責任著者   記述言語:英語   掲載種別:研究論文(国際会議プロシーディングス)  

    DOI: 10.1145/3551626.3564941

    その他リンク: https://www.google.com/url?q=https%3A%2F%2Fdoi.org%2F10.1145%2F3551626.3564941&sa=D&sntz=1&usg=AOvVaw2jqzXXsG8MZbwSm67eCcjm

  • Temporal Cross-attention for Action Recognition 査読あり 国際誌

    Ryota Hashiguchi, Toru Tamaki

    2022年12月

     詳細を見る

    担当区分:最終著者, 責任著者   記述言語:英語   掲載種別:研究論文(国際会議プロシーディングス)  

    Feature shifts have been shown to be useful for action recognition with CNN-based models since Temporal Shift Module (TSM) was proposed. It is based on frame-wise feature extraction with late fusion, and layer features are shifted along the time direction for the temporal interaction. TokenShift, a recent model based on Vision Transformer (ViT), also uses the temporal feature shift mechanism, which, however, does not fully exploit the structure of Multi-head Self-Attention (MSA) in ViT. In this paper, we propose Multi-head Self/Cross-Attention (MSCA), which fully utilizes the attention structure. TokenShift is based on a frame-wise ViT with features temporally shifted with successive frames (at time t+1 and t-1). In contrast, the proposed MSCA replaces MSA in the frame-wise ViT, and some MSA heads attend to successive frames instead of the current frame. The computation cost is the same as the frame-wise ViT and TokenShift as it simply changes the target to which the attention is taken. There is a choice about which of key, query, and value are taken from the successive frames, then we experimentally compared these variants with Kinetics400. We also investigate other variants in which the proposed MSCA is used along the patch dimension of ViT, instead of the head dimension. Experimental results show that a variant, MSCA-KV, shows the best performance and is better than TokenShift by 0.1% and then ViT by 1.2%.

    その他リンク: https://openaccess.thecvf.com/menu_other.html

  • Model-agnostic Multi-Domain Learning with Domain-Specific Adapters for Action Recognition 査読あり 国際誌

    Kazuki Omi, Jun Kimata, Toru Tamaki

    IEICE Transactions on Information and Systems   E105-D ( 12 )   2022年12月

     詳細を見る

    担当区分:最終著者, 責任著者   記述言語:英語   掲載種別:研究論文(学術雑誌)   出版者・発行元:IEICE  

    In this paper, we propose a multi-domain learning model for action recognition. The proposed method inserts domain-specific adapters between layers of domain-independent layers of a backbone net- work. Unlike a multi-head network that switches classification heads only, our model switches not only the heads, but also the adapters for facilitating to learn feature representations universal to multiple domains. Unlike prior works, the proposed method is model-agnostic and doesn’t assume model structures unlike prior works. Experimental results on three popular action recognition datasets (HMDB51, UCF101, and Kinetics-400) demonstrate that the proposed method is more effective than a multi-head architecture and more efficient than separately training models for each domain.

    DOI: 10.1587/transinf.2022EDP7058

    その他リンク: https://search.ieice.org/bin/summary_advpub.php?id=2022EDP7058&category=D&lang=E&abst=

  • 動作行動認識の最前線:手法,タスク,データセット 招待あり

    玉木徹

    画像応用技術専門委員会 研究会報告   34 ( 4 )   1 - 20   2022年11月

     詳細を見る

    担当区分:筆頭著者, 最終著者, 責任著者   記述言語:日本語   掲載種別:研究論文(研究会,シンポジウム資料等)  

    その他リンク: http://www.tc-iaip.org/research/

  • Performance Evaluation of Action Recognition Models on Low Quality Videos 査読あり 国際誌

    Aoi Otani, Ryota Hashiguchi, Kazuki Omi, Norishige Fukushima, Toru Tamaki

    IEEE Access   10   94898 - 94907   2022年09月

     詳細を見る

    担当区分:最終著者, 責任著者   記述言語:英語   掲載種別:研究論文(学術雑誌)   出版者・発行元:IEEE  

    In the design of action recognition models, the quality of videos is an important issue; however, the trade-off between the quality and performance is often ignored. In general, action recognition models are trained on high-quality videos, hence it is not known how the model performance degrades when tested on low-quality videos, and how much the quality of training videos affects the performance. The issue of video quality is important, however, it has not been studied so far. The goal of this study is to show the trade-off between the performance and the quality of training and test videos by quantitative performance evaluation of several action recognition models for transcoded videos in different qualities. First, we show how the video quality affects the performance of pre-trained models. We transcode the original validation videos of Kinetics400 by changing quality control parameters of JPEG (compression strength) and H.264/AVC (CRF). Then we use the transcoded videos to validate the pre-trained models. Second, we show how the models perform when trained on transcoded videos. We transcode the original training videos of Kinetics400 by changing the quality parameters of JPEG and H.264/AVC. Then we train the models on the transcoded training videos and validate them with the original and transcoded validation videos. Experimental results with JPEG transcoding show that there is no severe performance degradation (up to −1.5%) for compression strength smaller than 70 where no quality degradation is visually observed, and for larger than 80 the performance degrades linearly with respect to the quality index. Experiments with H.264/AVC transcoding show that there is no significant performance loss (up to −1%) with CRF30 while the total size of video files is reduced to 30%. In summary, the video quality doesn’t have a large impact on the performance of action recognition models unless the quality degradation is severe and visible. This enables us to transcode the tr...

    DOI: 10.1109/ACCESS.2022.3204755

    その他リンク: https://ieeexplore.ieee.org/document/9878331

  • Object-ABN: Learning to Generate Sharp Attention Maps for Action Recognition 国際誌

    Tomoya Nitta, Tsubasa Hirakawa, Hironobu Fujiyoshi, Toru Tamaki

    2022年07月

     詳細を見る

    担当区分:最終著者, 責任著者   記述言語:英語   掲載種別:研究論文(その他学術会議資料等)  

    In this paper we propose an extension of the Attention Branch Network (ABN) by using instance segmentation for generating sharper attention maps for action recognition. Methods for visual explanation such as Grad-CAM usually generate blurry maps which are not intuitive for humans to understand, particularly in recognizing actions of people in videos. Our proposed method, Object-ABN, tackles this issue by introducing a new mask loss that makes the generated attention maps close to the instance segmentation result. Further the PC loss and multiple attention maps are introduced to enhance the sharpness of the maps and improve the performance of classification. Experimental results with UCF101 and SSv2 shows that the generated maps by the proposed method are much clearer qualitatively and quantitatively than those of the original ABN.

    DOI: 10.48550/arXiv.2207.13306

    その他リンク: https://doi.org/10.48550/arXiv.2207.13306

全件表示 >>

書籍等出版物

MISC

  • 効率的な動作認識のためのシフトによる時間的な相互アテンションを用いたVision Transformer 招待あり

    橋口凌大, 玉木 徹

    画像ラボ   2023年05月

     詳細を見る

    担当区分:最終著者, 責任著者   記述言語:日本語   掲載種別:記事・総説・解説・論説等(商業誌、新聞、ウェブメディア)  

  • 移動軌跡のデータサイエンス 招待あり

    玉木徹

    生物の科学 遺伝   74 ( 2 )   236 - 240   2020年03月

     詳細を見る

    記述言語:日本語   掲載種別:記事・総説・解説・論説等(商業誌、新聞、ウェブメディア)   出版者・発行元:株式会社エヌ・ティー・エス  

    その他リンク: http://www.nts-book.co.jp/item/detail/summary/bio/20051225_42bk.html

講演・口頭発表等

全件表示 >>

産業財産権

  • 計測装置、及び建設機械

    細幸広, 藤原翔, 船原佑介, 玉木徹

     詳細を見る

    出願番号:特願2019-213340  出願日:2019年11月

    公開番号:特開2021-85178  公開日:2021年06月

    特許番号/登録番号:特許第7246294号  登録日:2023年03月  発行日:2023年03月

    権利者:コベルコ建機株式会社, 国立大学法人広島大学   出願国:国内   取得国:国内

    【発明の詳細な説明】
    【技術分野】
    【0001】
    本発明は、腕部材に対して回転可能に取り付けられた容器の収容物の体積を計測する技術に関するものである。
    【背景技術】
    【0002】
    油圧ショベルにおいては、作業当日の作業量を把握するために、バケットが掘削した掘削物の体積が計算される。また、油圧ショベルが掘削物をダンプカーに積み込む作業を行うに場合、掘削物の体積がダンプカーの上限積載量を超えないように掘削物の体積が計算される。このように、掘削物の体積は、種々の用途に適用可能であるため、高精度に計算されることが望ましい。掘削物の体積を計算する技術として、下記の特許文献1、2が知られている。
    【0003】
    特許文献1には、掘削後のバケットの状況を撮影した画像から算出されたバケットの表面形状と、排土後のバケット内の状況を撮影した画像から算出したバケットの内部形状との差を演算することにより、バケットの作業量を算出する技術が開示されている。
    【0004】
    特許文献2には、掘削物が入った状態でバケットの開口面から掘削物表面までの長さと、バケットが空の時のバケットの底からバケットの開口面までの長さとを足すことにより、バケットの底から掘削物の表面までの長さを求め、この長さに基づいて掘削物の体積を計算する技術が開示されている。

  • 牛体診断システムおよび牛体診断方法

    川村 健介, 玉木 徹, 小櫃 剛人, 黒川 勇三

     詳細を見る

    出願人:国立大学法人広島大学

    出願番号:特願2014-188656  出願日:2014年09月

    公開番号:特開2016-059300  公開日:2016年04月

    出願国:国内   取得国:国内

    J-GLOBAL

  • 内視鏡画像診断支援システム

    小出 哲士, ホアン アイン トゥワン, 吉田 成人, 三島 翼, 重見 悟, 玉木 徹, 平川 翼, 宮木 理恵, 杉 幸樹

     詳細を見る

    出願人:国立大学法人広島大学

    出願番号:特願2014-022425  出願日:2014年02月

    公開番号:特開2015-146970  公開日:2015年08月

    出願国:国内   取得国:国内

    J-GLOBAL

  • 物体検出装置及び物体検出方法

    田中 慎也, 土谷 千加夫, 玉木 徹, 栗田 多喜夫

     詳細を見る

    出願人:日産自動車株式会社, 国立大学法人広島大学

    出願番号:特願2012-267267  出願日:2012年12月

    公開番号:特開2014-115706  公開日:2014年06月

    出願国:国内   取得国:国内

    J-GLOBAL

  • 画像のレンズ歪みの補正方法

    玉木 徹, 山村 毅, 大西 昇

     詳細を見る

    出願人:理化学研究所

    出願番号:特願2001-054686  出願日:2001年02月

    公開番号:特開2002-158915  公開日:2002年05月

    特許番号/登録番号:特許第3429280号  登録日:2003年05月  発行日:2003年05月

    出願国:国内   取得国:国内

    J-GLOBAL

受賞

  • 2020年度IPSJ-CGVI優秀研究発表賞

    2021年06月   情報処理学会コンピュータグラフィックスとビジュアル情報学研究発表会   スペクトル類似度を考慮した深層学習によるRGB画像からスペクトル画像への変換手法

    坂本真啓, 金田和文, 玉木徹, Bisser Raytchev

     詳細を見る

    受賞区分:国内外の国際的学術賞  受賞国:日本国

  • 電子情報通信学会情報・システムソサイエティ功労賞

    2021年06月   電子情報通信学会情報・システムソサイエティ  

    玉木徹

     詳細を見る

    受賞区分:国内学会・会議・シンポジウム等の賞  受賞国:日本国

  • 平成17年度金森奨励賞

    2006年06月   医用画像情報学会  

    玉木徹

     詳細を見る

    受賞区分:学会誌・学術雑誌による顕彰 

  • 平成11年度学生奨励賞

    1999年11月   電子情報通信学会東海支部  

    玉木徹

科研費(文科省・学振)獲得実績

  • 動画像理解のための時空間情報設計の方法論構築

    研究課題/領域番号:22K12090  2022年04月 - 2025年03月

    科学研究費補助金  基盤研究(C)

    玉木徹

     詳細を見る

    担当区分:研究代表者  資金種別:競争的資金

    配分額:4160000円 ( 直接経費:3200000円 、 間接経費:960000円 )

    本研究の目的は,動画像理解のための時空間特徴量を取得する新しい方法論を構築することである.様々な動画像認識において空間的な情報と時間的な情報を,時空間情報としてひとまとめで扱う事が多いが,本研究が目指すのは,空間情報と時間情報を高いレベルで分離するというアプローチである.単に別々に特徴量を抽出するのではなく,様々な動画認識タスクに応用するために,時間と空間の情報を関連させつつ分離するために,所望の性質を満たす特徴量を設計するという枠組みを提案する.

  • 消化管内視鏡画像解析の客観的指標に基づくリアルタイム診断支援システムの開発

    研究課題/領域番号:20H04157  2020年04月 - 2023年03月

    科学研究費補助金  基盤研究(B)

    小出 哲士, 田中 信治, 玉木 徹

     詳細を見る

    担当区分:研究分担者  資金種別:競争的資金

    配分額:900000円 ( 直接経費:900000円 )

  • 消化管内視鏡画像解析による客観的指標の構築と汎用診断支援システムの開発

    2017年04月 - 2020年03月

    科学研究費補助金  基盤研究(B)

    玉木 徹、小出 哲士, 田中 信治, 玉木 徹

     詳細を見る

    平成30年度は、これまでに開発している大腸NBI拡大内視鏡画像のためのリアルタイム診断支援ハードウェアをベースシステムとして、非拡大画像と高精細画像をリアルタイム処理が可能なアーキテクチャを開発することを目指した。具体的には、以下のコア技術を開発し、検証により改善を行った。
    まず、局所・大域特徴量を融合した特徴抽出手法の開発を行った。非拡大画像や高精細画像では、識別領域が広範囲に及ぶため、これまでに開発しているDSIFTによる局所特徴のみでは、識別がうまく行かない場合がある。そこで,広範囲の病変部位等の構造に着目した大域特徴を抽出することが可能なCNNによる特徴抽出する方式を開発した。提案手法では、一般物体検出のためのImageNet画像データベースで学習済みのCNNとしてAlexNetを特徴抽出器として使用し、内視鏡画像に適用することで多次元の特徴ベクトルの抽出を可能とした。そして得られた特徴量を使用して、SVMによる病理タイプ分類を行う手法を開発した。
    開発したCNN特徴とSVM分類を適用した診断支援システムをカスタマイザブルなDSPコアであるTensilica Vision P6 DSPコアに実装し、ソフトウェアとハードウェアの観点から評価・検証を行った。特に本研究では、内視鏡の動画像処理に向けたシステムの処理性能の改善のために、システム全体の処理サイクル数のプロファイリングを行い、改善の影響が大きい処理の特定し、その改良を行った。その結果改良前と比較して処理サイクル数を70%削減することができ、200 MHzでシステムを動作させた場合に約41 fpsのフレームレートを実現することが可能となり、入出力処理のシステムオーバヘッドを加味してもリアルタイム処理が実現可能であることを示すことができた。

  • 生物ナビゲーションのシステム科学(総括班)

    2016年06月 - 2021年03月

    科学研究費補助金  新学術領域研究(研究領域提案型)

    玉木 徹、橋本 浩一, 木村 幸太郎, 妻木 勇一, 竹内 一郎, 前川 卓也, 玉木 徹, 依田 憲, 高橋 晋, 飛龍 志津子, 小川 宏人

     詳細を見る

    領域運営協議:計画研究代表者による領域運営会議を開催し、領域全体としての計画や実施方法などに関して議論した。
    技術的支援:A01制御工学:橋本G、前川G、依田Gの共同研究を支援し、イベント駆動型防水ログボットによるデータ収集を行った。A02データ科学:竹内 G、前川Gと依田G、飛龍G、高橋G、小川G、木村Gの共同研究を支援し、海鳥、線虫、コオロギなどの動物のナビゲーション解析が可能な機械学習プログラムを開発し、これらの成果は論文として発表済み、あるいは投稿中である。
    融合的若手研究者育成支援:領域の共通技術に関して統計解析相談会,イベント駆動型ログボット講習会,深層学習による軌跡分析ツール講習会,無線マイコン講習会、若手横断合宿を実施した。
    各分野の学会への組織的な展開:本領域の融合研究のための体制を領域外の関連分野研究者にも広げるため、下記の企画を実施した。領域主催国際シンポジウム(International Symposium on Systems Science of Bio-Navigation 2018@同志社大)、国際会議(HCII2018招待セッション@米国、BiRD2019@京都国際会館)および国内学会(日本動物学会公募シンポジウム「システム科学的アプローチで迫る動物ナビゲーション」(北海道胆振東部地震により大会中止)、日本生態学会シンポジウム「生物移動に対する新たな挑戦」2019年3月19日@神戸)における企画セッションの運営、各学会論文誌・学会誌における連載・特集号(3件:日本ロボット学会誌、生物の科学遺伝、Advanced Robotics)。
    広報活動:領域からの研究成果および上項目での分野融合的な取り組みの成果を、領域ウェブ、フェイスブック、ツイッターで発表した。また、サイエンスカフェ、テレビ報道などのアウトリーチ活動を行った。

  • ナビゲーションにおける画像情報分析基盤の整備とヒトの行動分類

    2016年06月 - 2021年03月

    科学研究費補助金  新学術領域研究(研究領域提案型)

    玉木 徹、玉木 徹, 藤吉 弘亘

     詳細を見る

    本研究では,本計画班の構成員が開発してきた最先端の映像認識技術に立脚し,野生動物やペットなどに装着したカメラから得られた映像や,人間が撮影した映 像など,これまでの映像認識技術では処理が困難な自己移動を含む映像を,安定かつ頑健に認識する技術を開発し,本領域における画像・映像情報分析のための 基盤技術を構築する.本年度の実績は以下のとおりである.
    ・前年度までに,B01生態学チームから提供された海鳥のGPU経路データを学習し,目的地までに至る経路を予測するための逆強化学習を利用した手法を開発している.これをさらに発展させて,GPS経路データの欠損部分を補完する手法を開発した.これにより,これまでは様々な原因で得られなかった経路情報が,データ駆動型モデルによりもっともらしい経路を出力することが可能になり,また補完経路を確率分布として出力することが可能となった.しかしこの手法は膨大な計算時間と多大なメモリ量を必要とするため,制度を保ちつつ計算コストを大幅に削減する手法を考案した.
    ・映像中の人物移動軌跡をいくつかのグループに分け(クラスタリングし),歩行目的地に応じて分割する手法を,さらに発展させた.これは前年度までに開発したベイズ推定に基づく手法である.それぞれの目的地へと到達する様子カーネル密度推定を用いて可視化し,どのような経路と目的地が頻繁に利用されているのかを把握することが可能となった.
    ・B01生態学チームから提供されたコウモリの音声データから3次元位置を予測する手法を開発した.屋内で飛行するコウモリの3次元位置を,20chのマイクロホンアレイで録音された音声信号から,回帰によって推定する深層ネットワークを提案し,20cm程度の誤差(RMSE)で推定することが可能となった.

全件表示 >>

 

担当経験のある授業科目(学外)

  • 科学技術計算

    2022年04月 - 現在 機関名:名古屋工業大学

     詳細を見る

    科目区分:学部専門科目  国名:日本国

  • メディア系演習II

    2021年10月 - 現在 機関名:名古屋工業大学

     詳細を見る

    科目区分:学部専門科目  国名:日本国

  • 画像処理特論IV

    2021年10月 - 2024年02月 機関名:名古屋工業大学

     詳細を見る

    科目区分:大学院専門科目  国名:日本国

  • プログラミング基礎

    2021年10月 - 2023年03月 機関名:名古屋工業大学

     詳細を見る

    科目区分:学部専門科目  国名:日本国

  • ソフトウェア工学

    2021年04月 - 現在 機関名:名古屋工業大学

     詳細を見る

    科目区分:学部専門科目  国名:日本国

全件表示 >>

教育活動に関する受賞

  • IEEE名古屋支部優秀学生賞

    2023年03月   IEEE名古屋支部

    受賞者:大見一樹

  • DEIM2023優秀論文賞

    2023年03月   日本データベース学会

    受賞者:大見一樹

  • DEIM2023学生プレゼンテーション賞

    2023年03月   日本データベース学会

    受賞者:大見一樹

 

委員歴

  • 電子情報通信学会   英文論文誌ED編集委員  

    2022年05月 - 2024年05月   

      詳細を見る

    団体区分:学協会

  • 電子情報通信学会   パターン認識・メディア理解研究専門委員会 専門委員  

    2020年06月 - 2022年06月   

      詳細を見る

    団体区分:学協会

  • 電子情報通信学会   パターン認識・メディア理解研究専門委員会 副委員長  

    2018年06月 - 2020年06月   

      詳細を見る

    団体区分:学協会

  • 情報処理学会   コンピュータビジョンとイメージメディア研究運営委員会 運営委員  

    2016年04月 - 2020年03月   

      詳細を見る

    団体区分:学協会

  • 電子情報通信学会   医用画像研究専門委員会 専門委員  

    2014年06月 - 2022年06月   

      詳細を見る

    団体区分:学協会

  • 情報処理学会   コンピュータグラフィックスとビジュアル情報学研究運営委員会 運営委員  

    2013年04月 - 2017年03月   

      詳細を見る

    団体区分:学協会

  • 電子情報通信学会   パターン認識・メディア理解研究専門委員会 専門委員  

    2012年05月 - 2014年06月   

      詳細を見る

    団体区分:学協会

  • 電子情報通信学会   パターン認識・メディア理解研究専門委員会 幹事  

    2011年05月 - 2012年05月   

      詳細を見る

    団体区分:学協会

  • 電子情報通信学会   ソサイエティ論文誌編集委員会 査読委員  

    2010年08月 - 現在   

      詳細を見る

    団体区分:学協会

社会貢献活動

  • コンピュータビジョン論文読み会2023-6

    役割:司会, 企画, 運営参加・支援

    connpass  2023年10月

     詳細を見る

    対象: 大学生, 大学院生, 教育関係者, 研究者, 社会人・一般, 学術団体, 企業, 行政機関

    種別:セミナー・ワークショップ

  • コンピュータビジョン論文読み会2023-5

    役割:司会, 企画, 運営参加・支援

    connpass  2023年09月

     詳細を見る

    対象: 大学生, 大学院生, 教育関係者, 研究者, 社会人・一般, 学術団体, 企業, 行政機関

    種別:セミナー・ワークショップ

  • コンピュータビジョン論文読み会2023-4

    役割:司会, 企画, 運営参加・支援

    connpass  2023年06月

     詳細を見る

    対象: 大学生, 大学院生, 教育関係者, 研究者, 社会人・一般, 学術団体, 企業, 行政機関

    種別:セミナー・ワークショップ

  • コンピュータビジョン論文読み会2023-3

    役割:司会, 企画, 運営参加・支援

    connpass  2023年06月

     詳細を見る

    対象: 大学生, 大学院生, 教育関係者, 研究者, 社会人・一般, 学術団体, 企業, 行政機関

    種別:セミナー・ワークショップ

  • コンピュータビジョン論文読み会2023-2

    役割:司会, 企画, 運営参加・支援

    connpass  2023年05月

     詳細を見る

    対象: 大学生, 大学院生, 教育関係者, 研究者, 社会人・一般, 学術団体, 企業, 行政機関

    種別:セミナー・ワークショップ

  • コンピュータビジョン論文読み会2023-1

    役割:司会, 企画, 運営参加・支援

    connpass  2023年04月

     詳細を見る

    対象: 大学生, 大学院生, 教育関係者, 研究者, 社会人・一般, 学術団体, 企業, 行政機関

    種別:セミナー・ワークショップ

  • コンピュータビジョン論文読み会2022-6

    役割:司会, 企画, 運営参加・支援

    connpass  2022年11月

     詳細を見る

    対象: 大学生, 大学院生, 教育関係者, 研究者, 社会人・一般, 学術団体, 企業, 行政機関

    種別:セミナー・ワークショップ

  • コンピュータビジョン論文読み会2022-5

    役割:司会, 企画, 運営参加・支援

    connpass  2022年11月

     詳細を見る

    対象: 大学生, 大学院生, 教育関係者, 研究者, 社会人・一般, 学術団体, 企業, 行政機関

    種別:セミナー・ワークショップ

  • コンピュータビジョン論文読み会2022-4

    役割:司会, 企画, 運営参加・支援

    connpass  2022年10月

     詳細を見る

    対象: 大学生, 大学院生, 教育関係者, 研究者, 社会人・一般, 学術団体, 企業, 行政機関

    種別:セミナー・ワークショップ

  • コンピュータビジョン論文読み会2022-3

    役割:司会, 企画, 運営参加・支援

    connpass  2022年10月

     詳細を見る

    対象: 大学生, 大学院生, 教育関係者, 研究者, 社会人・一般, 学術団体, 企業, 行政機関

    種別:セミナー・ワークショップ

全件表示 >>