AI・人工知能による感情センシングと応用事例
★ テキスト、音声、画像、生体情報、、、 “AIによるデータ解析の高度化” と “マルチモーダルな情報統合!
セミナープログラム
【12:30-14:15】
1.生成AI時代における認知モデルおよび認知アーキテクチャの役割
静岡大学 情報学部 行動情報学科 教授 博士(学術) 森田 純哉 氏
【講座趣旨】 メンタルヘルス診断のDXの観点から、スマートフォンで取得したテキスト、音声、画像などのマルチモーダル情報から日々のメンタル状況を常にモニタリングし、未病段階でユーザ にメンタル不調の気付きを与え、ストレス解消行動の喚起を提供するシステムの実現を目指す。メ ンタル不調の検出はマルチモーダルAIモデルにより実現する。
1. はじめに
2. 最適な覚醒を維持する仕組みと路線追従課題
3. 実験1: 覚醒度の生理的変化
3.1 方法
1) 参加者 2) 課題設定 3) 生体計測
3.2 結果
4. 実験2: 覚醒度推定に基づく
リアルタイムフィードバックの検証
4.1 方法
4.1.1 参加者
4.1.2 覚醒度推定モデルと不注意率
4.3 結果
5. 示唆
【質疑応答】
【14:30-16:00】
2.AIを用いた遠隔メンタルヘスルケアシステムの開発
徳島大学 大学院 社会産業理工学研究部 准教授 松本 和幸 氏
【講座趣旨】
メンタルヘルス診断のDXの観点から、スマートフォンで取得したテキスト、音声、画像などのマルチモーダル情報から日々のメンタル状況を常にモニタリングし、未病段階でユーザ にメンタル不調の気付きを与え、ストレス解消行動の喚起を提供するシステムの実現を目指す。メ ンタル不調の検出はマルチモーダルAIモデルにより実現する。
1.はじめに
2.先行研究
2.1 MELD
2.2 MuSe: a Multimodal Dataset of Stressed Emotion
2.3 IEMOCAP 2.4 CMU-MOSEI
2.5 注意機構に基づく特徴量融合による顔および音声特徴を用いたマルチモーダル感情推定
2.6 音声・テキスト・表情・動作のマルチモーダル感情推定
2.7 IEMOCAPやMELDデータセットを比較した研究
2.8 マルチモーダル感情推定における非接触技術
2.9 生体信号による感情推定の精度向上の可能性
3.感情ラベル付きカウンセリングマルチモーダルデータセット
3.1 マルチモーダルデータの収集方法
3.2 アノテーションを行うための前処理(匿名化処理)
3.3 マルチモーダル特徴量の抽出
3.4.感情ラベルのアノテーションと評価
4.データセットの分析
4.1 モダリティごとに感情推定した結果と
アノテーションされた感情との相関分析
4.2 特徴量間の相関分析
4.3 特徴量とストレスレベルの相関分析
4.4 特徴量と感情との相関分析
4.5 感情とストレスレベルの相関分析
5.モデル構築と評価
5.1 感情推定モデルの構築
5.2 感情推定モデルの評価
【質疑応答】
セミナー講師
1.静岡大学 情報学部 行動情報学科 教授 博士(学術) 森田 純哉 氏
2.徳島大学 大学院 社会産業理工学研究部 准教授 松本 和幸 氏
セミナー受講料
1名につき 49,500円(消費税込、資料付)
〔1社2名以上同時申込の場合のみ1名につき44,000円〕
主催者
開催場所
全国
受講について
Live配信セミナーの接続確認・受講手順はこちらをご確認下さい。