教職員各位
第24回愛媛大学DS研究セミナー開催のご案内
愛媛大学データサイエンスセンター(CDSE)
愛媛大学データサイエンスセンター(CDSE)は、AI・統計解析・機械学習等の広義でのデータサイエンスと接点のある
研究者、実務家、教育者を学内外から招聘し、講演していただく愛媛大学データサイエンス研究セミナー(愛媛大学DS
研究セミナー)を開催していきます。
この度、下記の要領で第24回愛媛大学DS研究セミナーを開催いたします。
参加を希望する方は下記にあります登録フォームよりお申し込みください。皆様のご参加をお待ち申し上げます。
【日 時】2023年4月28日(金) 16:30~18:00
【開催場所】オンライン開催(Zoom(先着300名)、Youtube同時配信)
【講 演 者】瀧 雅人 氏(立教大学・准教授)
【題 目】MetaFormers:Transformerによるコンピュータビジョンの変革
【概 要】 深層学習の広範な分野での成功・高い性能の秘密は、単に深いニューラルネット
を使うということではなく、
ネットワーク構造のデザインにより様々な帰納バイ
アスを柔軟に実現できる点にある。その典型的な例は、
画像タスクにおける畳み込みニューラルネット(CNN)である。この10年の画像タスクにおける深層学習の
大きな成功も、CNNの持つ帰納バイアスをベースにしていると言って良い。ところが2020年になり、畳み
込み構造に一切依存しない深層学習Transformerによって、
SOTA CNNに匹敵する性能を実現できることが
判明した。この新しいモデルはVision Transformer(ViT)と呼ばれる。ViTは自然言語処理分野において発展
したself-attentionを使うことで、非局所的なパターンも動的に抽出することが可能なアーキテクチャである。
また翌年にはMLP-Mixerと呼ばれる手法で、self-attentionを使わずとも、多層パーセプトロン(MLP)をベー
スにしたモデルだけでも同等の性能の画像認識が可能であることが判明した。
このように、現在CNNパラダイムとは全く別の画像認識の方向性が明らかになりつつある。このViT、及び
MLP-Mixerの発見は、データセットサイズがスケールアップした深層学習では、必ずしもCNNのような強い帰
納バイアスは必要でなくなることを実証している。また訓練データセットがスケールしていくとやがてViTが
CNNを凌駕することから、場合によっては強い帰納バイアスがモデルの性能に限界をもたらすことも具体的に
わかってきた。
このようなpost-CNNコンピュータビジョンモデルは現在、MetaFormerという統一的
な枠組みで研究され
ている。このセミナーでは、MetaFormerの現状とこれまで判明
している興味深い事実、およびその欠点に
ついて議論したい。
【参加登録】事前申込制としています。
参加を希望する方は下記URLよりお申し込みください。
■参加登録:https://forms.gle/x47eD2TG4K7Ve77E9
【登録締切】2023年4月26日(水) 12:00
※定員先着300名となっております。
同時にYouTube配信も行っております。
締め切り後に、先着300名様にはZoom参加用URLとYouTubeのURLを、
301名様以降にはYouTubeのURLをメールでお送りします。
メールが届かない場合は下記問い合わせ先までご連絡ください。
ご登録いただいた内容は、このセミナーに係る諸連絡のみに使用し、
本人の同意なしに第三者に開示・提供、使用はいたしません。
【問い合わせ先】
CDSE事務(石川由美・越智愛) cdse@stu.ehime-u.ac.jp
愛媛大学データサイエンスセンターHP https://www.cdse.ehime-u.ac.jp/
第24回愛媛大学DS研究セミナー案内(ポスター)
https://www.cdse.ehime-u.ac.jp/DS_Seminar/DS_Seminar24_20230428.pdf