Azure Kinectと距離画像センサの測距原理、3Dセンサの応用

3Dセンサの基本機能、ソフトウェアで実現できる応用事例を
デモを通して紹介!


方式別の測距原理、非接触生体センシングを中心とする応用とその原理について解説!


Azure Kinect(Kinect v4)のTime of Flight方式、RealSense(D415, D435, SR305) のStructured Light方式、LiDAR等、非接触生体センシングの原理とその応用まで!

【項目】※クリックするとその項目に飛ぶことができます

    セミナー趣旨

     Azure Kinect(Kinect v4)が2019年7月に北米・中国で発売開始され、デプスカメラの視野角もWFoVモードで120度、解像度は1024×1024画素となった。SDKはオープンソースであり、C言語ベースのDLL、C++ラッパー、C#ラッパーを備える。
     360°マイクロフォンアレイの他、3軸加速度・ジャイロセンサも備える。これまでのゲーム機用モーションキャプチャセンサではなく、工業用、健康見守りなどの本格的な応用を視野に入れたものとなっている。近年、自動車分野では、自動運転化を実現するための探索センサとしてだけでなく、搭乗者の健康状態モニタやユーザーインターフェースとしても、距離画像センサを組み込んだ3Dセンサにも関心が集まっている。また、世界的な先進国少子高齢化を踏まえ、2025年開催予定の大阪万博のテーマは『健康と医療』に決まり、病院または老人ホームだけでなく、独居老人見守り・看取りやスマートホームとしてのシステムに対する関心も高い。
     本セミナーでは距離画像センサとカラーカメラを組み込んだ3Dセンサの基本機能、ソフトウェアで実現できる応用事例をデモを通して紹介するとともに、方式別に測距原理の説明を行い、非接触生体センシングを中心とする応用とその原理について解説を行う。また、Shannonのチャンネル容量の法則を利用した増感処理やマッチング処理の原理や応用についても触れる。

    セミナープログラム

    第1章 『Azure Kinect(Kinect v4)の概要』
     【イントロダクション編】
      2019年7月から北米・中国で発売されたAzure Kinectの概要をデモを行いながら紹介します。
     1 3Dセンサとは?
      1.1 画素単位に測距を行う機能を有するイメージデバイス
      1.2 デプスカメラの応用分野
      1.3 主な低価格市販デプスカメラ
     2 Azure Kinect(Kinect v4)の概要
      2.1 Azure Kinect vs. Kinect v2
      2.2 Color(16:9/4:3のアスペクト比のMJPEGフォーマット4Kカメラ)
      2.3 Depth(ToF方式)
       2.3.1 NFoVモード(75°×65°)とWFoVモード(120°×120°)
       2.3.2 Unbinnedモード(短距離高解像度)と2×2 binnedモード(長距離低解像度)
       2.3.3 Passive IRモード
      2.4 Azure Kinectの内部構造
       2.4.1 7個のマイクロフォンからなる360°マイクロフォンアレイ
       2.4.2 IMU:慣性測定ユニット(3軸加速度、3軸ジャイロ)
       2.4.3 多チャンネル同期
      2.5 オープンソースのSDK(Windows10/Linux)
       2.5.1 C言語ベースのDLL
       2.5.2 Sensor SDK
       2.5.3 Body Tracking SDK(プレビュー)
       2.5.4 Computer Vision サービス SDK(Azure)
       2.5.5 Speech SDK(Azure)
       2.5.6 C++ラッパー
       2.5.7 C#のラッパー
      2.6 稼働に必要なシステム要件


    第2章 『3Dセンサの機能』
     Azure KinectまたはKinect v2でデモを行いながら、3Dセンサに可能なあるいは要求される機能について説明を行います。

     【3Dセンサの基本機能】
     1 Color…カラー映像を撮影するカメラ
     2 Depth…画素単位にデプス(奥行き距離)を取得するカメラ、距離はmm単位整数で出力するものが多い。
      0:モノクロ(256階調)表示、1:カラーLUT表示、2:光計算(Lighting)による反射光表示、デプス⇒法線ベクトル⇒反射光画像、3:ポイントクラウド、4:ポリゴン表示
     3 BodyIndex…人検出(人物のいる領域)を取得する機能
     4 Infrared…環境オフセットを除去し、照明による反射画像を取得する機能(アクティブ赤外線)
     5 Body…骨格トラッキング(人体の姿勢を25点の関節3次元座標で取得、手のグー、チョキ、パー検出)
     6 Audio…音声データ(音源方向検出とビームフォーミング、音声認識に利用)

     【3Dセンサの拡張機能】
     7 Face…5つ(両眼、鼻、口角)の特徴点の3次元座標と数種類の表情や状態を検出
     8 HD Face…2,000点の顔モデルと多数の特徴点のキャプチャ
     9 Kinect Fusion…3Dスキャナ

     【ソフトウェアで実現可能な拡張機能】
     10 AfterImage…骨格トラッキングされた関節の軌跡(残像)
     11 BodyBalance…平衡感覚の老化測定を行う
     12 AR Sensing…1チャンネルのセンサで空間に分布状態を可視化
     13 Acceleration…非接触3軸加速度センシング、関節3次元座標{ x(t), y(t), z(t) }を要素ごとに放物線近似。O(t) = a*t*t + b*t + c とすれば、時刻t=0の加速度は2a, 速度はb
     14 PointCloud…床法線ベクトルの検出。点群データの活用により観察方向を任意変更。沈水、転倒、うずくまり、横たわり。
     15 Face3D…3次元顔認証(顔の3次元形状の切り出し)
     16 Body3D…実測デプス値に基づいて3D Bodyポリゴンモデルをフィッティング。体重参照があれば非接触体脂肪率測定が行える。
     17 HandGesture…NUI(Natural User Interface)。Air Tap, Bloom
     18 Cyber Eye…距離を音に変換する視覚障碍者向けデバイス

     【非接触バイタルセンシング…第1世代】
     19 FaceHeartBeat…顔の観測(Color or Infrared)で心拍を観測
     20 Breathing…胸部観測(Depth)で呼吸・心拍を観測

     【HyperSenseによる機能…第2世代】
     チャンネル容量の法則を利用して高感度化。カラーカメラ画像をマルチスペクトルカメラとして取り扱う。
     21 ColorVector…色をベクトルとして精密分析
     22 ColorMap…ヘモグロビン、メラニン色素、ビリルビン、ウロビリノーゲン等の色変化を観測
     23 VesselVisualizer…血管の可視化(BとGから真皮層の毛細血管分布を、GとRから皮下組織内の血管を可視化)
     24 Hyper_HeartBeat…脈波の2次元観測(血流等も)
     25 BumpVisualizer…指紋・掌紋の可視化

     【3Dセンサ応用】
     26 EyeTracking…瞳孔輪郭を検出し、視線ベクトルを算出
     27 RobotEyeContact…前に立った人を見つめるロボット制御
     28 VirtualMusicalInstrument…仮想楽器
     29 HomeControl…家電制御

     【付録…PC間通信、ToFセンサの特性】
     30 WebSocket…サーバー⇔クライアント
     31 UDP…一方的送信
     32 DepthPrecision…ToFデプス精度の検証


    第3章 『3Dセンサの動作原理』
     【Structured Light法】
     1 光源と観測位置の座標の違いを利用する(光三角法)
      1.1 光切断法
      1.2 モアレ法
      1.3 Structured Light法
       1.3.1 Structured Light固定パターン投影法
         ・ランダムドットパターンを用いた相関方法(KinectV1, Carmine)
         ・高速高分解能カメラで各ドットを追尾するHyper Depth
      1.3.2 Structured Light時分割パターン法

     【Time of Flight法】
     2 光パルスの往復時間または位相遅れを利用する(Time of Flight)
      2.0 地球から月面までの距離を精密測定するのに使われたLiDAR(カウンタ方式)
      2.1 ToF方式(位相遅れを測定する)
       2.1.0 単純2値の位相差を用いる方式
       2.1.1 3パターン測定法(照明指向性、吸光度、法線ベクトルの影響を補正する方法)
       2.1.2 距離によって、照明強度とフェーズを変更する方式
       2.1.3 マルチフェーズで高精度補正を行う方式
      2.2 LiDAR(Light Detection and Ranging) [Laser Imaging Detection and Ranging]
       2.2.1 メカニカルスキャン法
       2.2.2 メカニカルスキャン法の欠点
       2.2.3 高速・低価格な非メカニカルスキャン法 Multi-beams LiDAR

     【Infrared Depth法】
     3 拡散反射光の性質を利用する(Infrared Depth)

     【その他のデプスアルゴリズム】
     4 カメラ位置の違いから特徴点/テクスチャのマッチングを利用
      4.1 PTAM(Parallel Tracking and Mapping)
      4.2 SLAM(Simultaneous Localization and Mapping)
       自己位置推定と環境地図作成を同時に行う
      4.3 マルチカメラ
      4.4 自己位置推定用シートマーカーを用いる方法(Qlone)
     5 ステレオ・マッチング
     6 機械学習から静止画から3D顔モデルを再構成する
       cvl-demos.cs.nott.ac.uk/vrn/
     7 Make3D(視覚処理の模倣)
     8 カラー開口フィルタ(東芝)

     【Appendix】
     9 Hyper Depth
       Structured Light法とToF法の比較により、ToFカメラの欠点を説明


    第4章 『HyperSense方式の動作原理』
     特殊なカメラを使用せずに、デプスセンシングと非接触生体センシングを行う方式の提案(CQ出版インターフェース誌5月号記事に関連)
     1 CMOSイメージセンサについて
     2 C.E.Shannonのチャンネル容量の法則
       メガ級センサ・アレイで、超高感度を実現する
     3 チャンネル容量の法則の適用例
       JPEG圧縮に伴うブロックノイズやモスキートノイズも抑制する。高感度化アルゴリズムとその結果。
     4 波長による透過深度(表皮深さ)の違いを利用する
       通常のカメラをマルチスペクトルカメラととらえ、波長間の僅かな違いを可視化する抽出アルゴリズムと事例紹介
     5 色ベクトルとメラニン色素
     6 単眼3Dセンシング
     7 単眼3Dセンシングの問題点
     8 ステレオ3Dセンシング
     9 まとめ


    第5章 『非接触バイタルセンシング』
     【心拍・呼吸に関する基礎知識】
     1 心臓の構造と心電図
     2 呼吸動作と酸素供給の関係
     3 呼吸と心拍揺らぎの関係
     4 入浴中の心拍揺らぎと年齢
     5 脈波から何がわかるのか
      5.1 加速度脈波と血管年齢(動脈硬化)
      5.2 大動脈脈波伝搬速度
      5.3 2波長観測でSpO2(動脈血中のヘモグロビンの酸素濃度)
      5.4 脈波伝搬遅延と血圧

     【心拍・呼吸センシングの原理】
     6 カラー画像または赤外線画像からの心拍センシング
     7 デプスデータからの呼吸・心拍センシング
     8 KinectV1での非接触呼吸・心拍センシング
     9 スポット光方式
      反射光強度分布を放物面関数で近似して精密測距
     10 マーカー方式
      濃度分布関数または円形マーカーを用いた精密測距


    ★以下はテキストに含まれますが時間の関係で割愛します。

    第6章 『アルゴリズムの原理』
     1 FIFOアルゴリズム
      1.1 FIFO
      1.2 高速移動平均
      1.3 矩形波相関法
     2 基底遷移アルゴリズム
      2.1 放物線補間と3軸加速度検出やノイズ除去
      2.2 放物面補間(輝度分布中心の推定)
      2.3 線スペクトルとDCオフセットノイズ除去
      2.4 適応フィルタ
      2.5 デコンボリューション(逆畳み込み演算)
      2.6 2次元ポイントクラウド⇒円の中心座標⇒半径
      2.7 3次元ポイントクラウド⇒円の中心座標⇒半径
      2.8 3次元ポイントクラウド⇒球の中心座標⇒半径
     3 最小2乗法
      3.1 放物線補間
      3.2 放物面補間
      3.3 2Dデータのマッチング
      3.4 1Dデータのマッチング

    第7章 『3次元グラフィックスの基礎知識』
     1 3D−CGモデル
     2 ポリゴン描画
     3 透視変換と光源計算
     4 Kinect Fusionと光源計算
     5 光源計算
     6 Bone
     7 Boneと物理演算

    第8章 『付録』
     【付録1】 赤外線ハンドモーションセンサ
     【付録2】 カメラで回転角度を検出する方法
     【付録3】 Webカメラで心拍センシング

    Appendix D 『Mixed RealityとHololens』

    Appendix E 『Leap Motion』 

    セミナー講師

    上田智章(うえだともあき)氏 株式会社フォスメガ 代表取締役社長

    東京工業大学の教授、准教授、助教らからなる有志7名で受託研究会社(フォスメガ)を登記設立。
    東京工業大学発ベンチャーの認定を受けました。計測に関連した試作品の製作、技術コンサルティングなどを行っています。
    …私設研究所ネオテックラボ 所長

    <経歴>
    1982年 同志社大学工学部電子工学科 卒
    1984年 同志社大学大学院工学研究科電気工学専攻 修了
    1984-1998年 ダイキン工業株式会社 電子技術研究所 勤務
    1998-2000年 株式会社計測器センター 開発部長
    2000年 株式会社関西新技術研究所 SQUID研究部 主任研究員 / 株式会社KRI センシング技術部 主席研究員
    2006年12月〜2010年3月 東京工業大学 統合研究院 ソリューション研究機構 特任教授
    2010年4月〜2012年3月 東京工業大学 ソリューション研究機構 特任教授

    セミナー受講料

    お1人様受講の場合 47,000円[税別]/1名
    1口でお申込の場合 59,000円[税別]/1口(3名まで受講可能)
    受講申込ページで2~3名を同時に申し込んだ場合、自動的に1口申し込みと致します。


     

    受講料

    51,700円(税込)/人

    ※セミナーに申し込むにはものづくりドットコム会員登録が必要です

    開催日時


    10:00

    受講料

    51,700円(税込)/人

    ※本文中に提示された主催者の割引は申込後に適用されます

    ※銀行振込

    開催場所

    東京都

    MAP

    【千代田区】オームビル

    【地下鉄】神保町駅・竹橋駅・小川町駅・新御茶ノ水駅

    主催者

    キーワード

    情報技術   光学技術   人体計測・センシング

    ※セミナーに申し込むにはものづくりドットコム会員登録が必要です

    開催日時


    10:00

    受講料

    51,700円(税込)/人

    ※本文中に提示された主催者の割引は申込後に適用されます

    ※銀行振込

    開催場所

    東京都

    MAP

    【千代田区】オームビル

    【地下鉄】神保町駅・竹橋駅・小川町駅・新御茶ノ水駅

    主催者

    キーワード

    情報技術   光学技術   人体計測・センシング

    関連記事

    もっと見る