【延期】大規模言語モデルとマルチモーダル基盤モデルの技術動向

53,900 円(税込)

※本文中に提示された主催者の割引は申込後に適用されます

※銀行振込

このセミナーの申込みは終了しました。


よくある質問はこちら

このセミナーについて質問する
開催日 10:30 ~ 16:30 
締めきりました
主催者 株式会社トリケップス
キーワード ソフトウェア開発   DI/CSV(医薬品・医療機器等データマネジメント)   AI(人工知能)
開催エリア 全国
開催場所 Zoomを利用したオンライン講座

セミナー講師

速水 悟(はやみずさとる) 氏早稲田大学 研究院教授(博士(工学)) 

<略歴> 1981年 東京大学大学院 工学系研究科 修士課程修了。 同年   通商産業省工業技術院 電子技術総合研究所(現、国立研究開発法人産業技術総合研究所)。 1989年 カーネギーメロン大学 客員研究員。 1994年 フランス国立科学研究院機械情報学研究所 客員研究員。 2002年 岐阜大学 教授。 2021年 早稲田大学 グリーンコンピューティングシステム研究機構 知覚情報システム研究所 上級研究員     研究院教授。  現在に至る。 <研究分野> 知覚情報処理/メディア情報学/機械学習。

セミナー受講料

お1人様受講の場合 53,900円[税込]/1名1口でお申込の場合 66,000円[税込]/1口(3名まで受講可能)

受講申込ページで2~3名を同時に申し込んだ場合、自動的に1口申し込みと致します。

セミナー趣旨

 本セミナーでは、大規模言語モデルについて、画像と言語のマルチモーダル化を中心として、最新の技術動向を解説します。 はじめに、基礎となる自己教師あり学習を解説します。つぎに大規模言語モデルの応用として、推論への適用、社内情報の活用方法、画像と言語のマルチモーダル基盤モデルを解説します。最新の技術動向として 2023年の画像分野の国際会議の論文を中心に関連する研究を紹介します。 受講者として、機械学習と深層学習の基礎知識をお持ちの方を想定しています。

必要な予備知識

機械学習と深層学習の基礎知識をお持ちの方

セミナープログラム

 1 自己教師あり学習の手法  1.1 対比学習による潜在空間への変換  1.2 マスクを用いた学習  1.3 自己回帰型モデル(次の要素を予測する) 2 大規模言語モデル  2.1 機械翻訳モデルとしてのTransformer  2.2 BERT(Bi-directional Encoder Representations from Transformers)  2.3 GPT(Generative Pre-trained Transformer)  2.4 プロンプトによる指示の有効性 3 対話型AI  3.1 強化学習の役割(InstructGPT)  3.2 対話型 AI(ChatGPT) の登場とその後の発展  3.3 思考の連鎖(Chain of Thought)と多段推論への展開  3.4 社内情報の活用方法と留意点 4 マルチモーダル基盤モデル  4.1 画像分野における言語処理の重要性  4.2 画像と言語のマルチモーダル基盤モデル  4.3 画像認識・検出・領域分割における言語の役割  4.4 マルチモーダルエージェントと言語による指示  4.5 異常検知への応用(外観検査・動画像)  4.6 産業分野への適用の可能性 5 最新の技術動向と今後の方向性  5.1 CVPR 2023(Computer Vision and Pattern Recognition)   5.2 ICCV 2023(International Conference on Computer Vision)   5.3 マルチモーダル基盤モデルに関連する研究の紹介  5.4 企業における活用には格差が存在する  5.5 大規模言語モデルの発展の方向性について