【中止】生体情報計測による感情の可視化と活用事例【Live配信セミナー】

60,500 円(税込)

※本文中に提示された主催者の割引は申込後に適用されます

※銀行振込、会場での支払い

このセミナーの申込みは終了しました。


よくある質問はこちら

このセミナーについて質問する
開催日 10:30 ~ 16:00 
締めきりました
主催者 株式会社 技術情報協会
キーワード 人体計測・センシング   感性工学
開催エリア 全国
開催場所 ZOOMを利用したLive配信 ※会場での講義は行いません

得られた生体計測データやアンケートから
どう感情解析に活かすか、豊富な事例から解説!

セミナー講師

1. (株)夏目綜合研究所 取締役所長 菊池 光一 氏
2. 徳島大学 創成科学研究科 講師 博士(情報学)  西出 俊 氏
2. 日本電気(株) バイオメトリクス研究所 主任 梅松 旭美 氏

セミナー受講料

1名につき 60,500円(税込、資料付)
〔1社2名以上同時申込の場合のみ1名につき55,000円〕

受講について

  • 本講座はZoomを利用したLive配信セミナーです。セミナー会場での受講はできません。
  • 下記リンクから視聴環境を確認の上、お申し込みください。
     → https://zoom.us/test
  • 開催日が近くなりましたら、視聴用のURLとパスワードをメールにてご連絡申し上げます。
    セミナー開催日時に、視聴サイトにログインしていただき、ご視聴ください。
  • Zoomクライアントは最新版にアップデートして使用してください。
    Webブラウザから視聴する場合は、Google Chrome、Firefox、Microsoft Edgeをご利用ください。
  • パソコンの他にタブレット、スマートフォンでも視聴できます。
  • セミナー資料はお申込み時にお知らせいただいた住所へお送りいたします。
    お申込みが直前の場合には、開催日までに資料の到着が間に合わないことがあります。ご了承ください。
  • 当日は講師への質問をすることができます。可能な範囲で個別質問にも対応いたします。
  • 本講座で使用される資料や配信動画は著作物であり、
    録音・録画・複写・転載・配布・上映・販売等を禁止いたします。
  • 本講座はお申し込みいただいた方のみ受講いただけます。
    複数端末から同時に視聴することや複数人での視聴は禁止いたします。
  • Zoomのグループにパスワードを設定しています。
    部外者の参加を防ぐため、パスワードを外部に漏洩しないでください。
    万が一部外者が侵入した場合は管理者側で部外者の退出あるいはセミナーを終了いたします。

セミナープログラム

【10:30‐12:00】  
1.瞳孔反応による情感解析と可能性
(株)夏目綜合研究所 菊池 光一 氏

【講座趣旨】
 無意識の情動反応である瞳孔の計測から解析の最新技術と応用事例、今後の可能性などを説明します。瞳孔反応解析では明るさなどの影響を除去し、さらに独自アルゴリズムを有する表情反応解析との連動で人の情感を数値化します。

1.瞳孔反応とは
 1.1 参考映像 (番組紹介より抜粋)
 1.2 瞳孔に着目した理由
 1.3 注目・関心で瞳孔は開く (ある論文との出会い)
 1.4 明るさや他の生理反応の影響
 1.5 目は心の窓 (嘘を見抜く)
 1.6 情感とは (表情反応との連動)
 1.7 取得及び申請済み特許概要

2.計測から解析
 2.1 計測機器 (視線・瞳孔計測:据え置き型・移動型)
 2.2 計測機器 (表情計測)
 2.3 輝度の重要性 (最新輝度計測システム開発)
 2.4 解析概要 (明るさや他の生理反応除去:瞳孔)
 2.5 解析概要 (独自のアルゴリズム:表情)
 2.6 可視化プログラム紹介 (最新開発版)

3.情感解析の応用
 3.1 何に利用できるか
 3.2 応用事例1 (視覚・マーケティングなど)
 3.3 応用事例2 (嗅覚:自律神経検査実験)

4.応用事例3 (触覚:反応実験)

5.応用事例4 (聴覚:反応実験)

6.応用事例5 (イメージ想起)

7.視認対象効果度とは (視聴の質を数値化:特許取得)

8.番組とCMの注目度変化事例 (同じCMでも番組の影響を受ける)

9.将来への取り組みと可能性
 9.1 デバイスの将来 (研究用から一般向け)
 9.2 事業への取り組みなど

【質疑応答】

【12:45‐14:15】
2.顔表情・音声・会話文のマルチモーダルな感情推定と応用事例
徳島大学 西出 俊 氏  

【習得できる知識】
 本講演では簡単な画像処理・音声処理・自然言語処理を用いた感情推定方法を習得できる。また、各モダリティ情報を数値化するモーダル値と時系列データに対するモーダル値の計算方法の一手法を習得できる。

【講座趣旨】
 本講演では複数のモダリティを統合した感情推定手法について研究事例を紹介する。具体的には顔表情・音声・会話文などのモダリティを統合した感情推定について紹介し、最近の研究内容についても概要を紹介する。

1.はじめに

2.マルチモーダルな感情推定モデル
 2.1 顔表情を用いた感情モーダル値計算
 2.2 音声を用いた感情モーダル値計算
 2.3 会話文を用いた感情モーダル値計算
 2.4 モーダル値を統合した感情推定

3.深層学習モデルを用いた時系列情報のモーダル値計算
 3.1 リカレントニューラルネットワークによる分散表現獲得
 3.2 人物の行動情報によるモーダル値計算
 3.3 未学習行動クラスのモーダル値の分布
 3.4 画像情報と音情報のモーダル値統合に向けて

4.おわりに

【質疑応答】

【14:30‐16:00】
3.人の内面状態推定技術とその応用 -ウェアラブルセンサからの 生体情報を用いたストレス、気分、健康度の予測-
日本電気(株) 梅松 旭美 氏  

【習得できる知識】
 ストレス、感情などの人の内面状態を推定する技術の基礎を学び、その応用事例、最新動向を理解する。

【講座趣旨】
 あなたは、明日のご自身の感情やストレス、健康状態をどの程度予測できますか? もし、それらの内面状態を高精度に予測できるとしたら、生活をどのように変化させたいですか? 近年、多くの方が、腕時計型ウェアラブルデバイスなどを身につけ、個人の日常生活の生体情報を定量化しています。データを取りため可視化する以外に、収集したデータはどう活用できるでしょうか。私は、収集されたデータの意味を理解し、人の内面状態を推定し、さらに未来の内面状態まで予測することで、自身の感情と行動をより良い方向へ導くことが出来るようなシステムの研究に取り組んでいます。本講演では、まず、アフェクティブコンピューティングと呼ばれる心理学、認知科学、社会学などとも結びつく研究分野の概要とその歴史について皆様と共有し、どのような情報から感情が推定できるかを、現在取り組んでいる機械学習を活用した気分、ストレス、健康度の予測の研究と絡めて、ご紹介します。

0.あなたの現在の感情、ストレス、健康状態は?

1.アフェクティブコンピューティング(Affective computing)とは
 1-1 アフェクティブコンピューティングの歴史
 1-2 内面状態の1つ“感情”とは

2.どのように人の内面状態を測るか
 2-1 人の内面状態の計測方法
 2-2 映像からの心拍推定
  1) 顔映像からの心拍推定のフロー図
  2) 顔映像からの心拍推定結果
  3) 応用例
 2-3 皮膚電気活動(EDA:Electrodermal Activity)
  1) 皮膚表面で起こること
  2) 皮膚電気活動を測るセンサ
  3) 皮膚電気活動による感情分類
  4) 運転中のストレス検出
  5) 応用例

3.ストレスの未来予測はできるか
   ~ウェアラブルセンサからの生体情報を用いたストレス、気分、健康度の予測~
 3-1 社会課題
  1) WHO報告によるうつ病
  2) ストレス
 3-2 ストレス脆弱性モデル
 3-3 目指すシステム
 3-4 明日のストレス予測
  1) 実験に用いたデータ
  2) 評価手法
  3) 実験結果 1:ストレス予測精度
 3-5 明日の気分・健康度予測
  1) 実験結果 2:気分予測精度
  2) 実験結果 3:健康度予測精度

4.おわりに
 4-1 人々を健康でより良い方向へ導くために -実応用例-
 4-2 まとめ

【質疑応答】