【中止】Visual SLAMの概要とAR Foundationを用いた実装演習

55,000 円(税込)

※本文中に提示された主催者の割引は申込後に適用されます

※銀行振込

このセミナーの申込みは終了しました。


よくある質問はこちら

このセミナーについて質問する
開催日 10:00 ~ 16:00 
締めきりました
主催者 株式会社トリケップス
キーワード ソフトウェア開発   計測工学   VR(仮想現実)/AR(拡張現実)
開催エリア 全国
開催場所 お好きな場所で受講が可能

~VSLAMの導入可否を迅速に検討するための~

■ 「理論」 と 「プロトタイピング作成」 の両方を解説します。

■ 「Windows PC と Android スマホ」、または 「MacBook と iPhone」、2つの組み合わせに対応。 

 <Windows PC と iPhone の組み合わせ等は不可>

■ Androidは以下のリストに掲載されたARCore対応のデバイスを対象とします。  https://developers.google.com/ar/devices

C / C++ / Python等のプログラミング言語を習ったことがある方に向けてのセミナーです。

開発環境構築のためのダウンロードやインストールは、セミナー内で行うには時間がかかりますので事前に準備していただくことになります。関係する資料は1週間前頃にお送りする予定です。

セミナー講師

内山 英昭 氏    奈良先端科学技術大学院大学 先端科学技術研究科 情報科学領域                   サイバネティクス・リアリティ工学研究室(CAREラボ) 准教授

< 略 歴 >2006年3月 慶應義塾大学 理工学部 情報工学科 卒業2007年9月 慶應義塾大学大学院 開放環境科学専攻 修士課程 修了2010年9月 慶應義塾大学大学院 開放環境科学専攻 博士課程 修了2010年10月-2012年6月 フランス国立情報学自動制御研究所 博士研究員2012年7月-2014年3月 株式会社 東芝 研究開発センター2014年4月 九州大学 大学院システム情報科学研究院 助教2018年4月 九州大学 附属図書館 准教授2021年4月 現職

拡張現実感のためのコンピュータビジョン技術の研究に従事.2012年より3年間,拡張現実感に関する国際会議International Symposium on Mixed and Augmented Reality(ISMAR)の論文選定委員を歴任.2015年のISMAR及び2016年のVR学会で開催されたvisual SLAMの性能を競うトラッキングコンペティションを運営.visual SLAMのオープンソースのライブラリであるATAM(Abecedary Tracking andMapping)を開発[1].拡張現実感に用いられる位置合わせ技術に関する本[2]や解説論文[3]を執筆.[1] https://github.com/CVfAR/ATAM[2] AR(拡張現実)技術の基礎・発展・実践 (設計技術シリーズ),科学情報出版(第一章担当)[3] E.Marchand, H.Uchiyama and F. Spindler, “Pose Estimation for Augmented Reality:A Hands-On Survey,” IEEE Transactions on Visualization and Computer Graphics,vol.22, pp.2633-2651, 2016.

セミナー受講料

お1人様受講の場合 55,000円[税込]/1名1口でお申込の場合 82,500円[税込]/1口(3名まで受講可能) 受講申込ページで2~3名を同時に申し込んだ場合、自動的に1口申し込みと致します。

受講について

  • 本セミナーの受講にあたっての推奨環境は「Zoom」に依存しますので、ご自分の環境が対応しているか、お申込み前にZoomのテストミーティング(http://zoom.us/test)にアクセスできることをご確認下さい。
  • インターネット経由でのライブ中継ため、回線状態などにより、画像や音声が乱れる場合があります。講義の中断、さらには、再接続後の再開もありますが、予めご了承ください。
  • 受講中の録音・撮影等は固くお断りいたします。

セミナー趣旨

 SLAMは,ドローン,ロボットや自動車の自動走行からスマートフォン向けAR/VRにいたるまで,多岐にわたるアプリケーションの基盤技術です.特に,カメラを用いたものはvisualSLAM(VSLAM),さらに,IMUを併用したものはvisual-inertialSLAM(VIS)と呼ばれています.近年では,ARCoreやARKitに代表されるスマートフォン向けライブラリも登場しており,簡単なプログラミングでVSLAMを試すことができます.

 本セミナーは,VSLAMを手軽に試したい,VSLAMを用いたシステムのプロトタイプを簡単に作りたい,スマートフォンのVSLAMに基づくARアプリケーションを作ってみたい方を対象に,VSLAMの座学と実装演習を行います.初めに,座学としてVSLAMの基礎理論を解説します.VSLAMを理解する上で必要な画像処理技術とカメラ幾何を説明し,VSLAMの処理の流れまでを総合的に紹介します.次に,スマートフォンを用いた実装演習を行います.UnityとAR Foundationを利用し,VSLAMの性能を体験できるアプリケーションを開発します.AR Foundationは,ARKitやARCore等のVSLAMライブラリのラッパーであり,スマートフォンのOSに依存しないコーディングが可能です.

 今回,開発環境はWindowsPCとAndroid搭載のスマートフォン,またはMacBookとiPhone,の2つの組み合わせに対応します(WindowsPCとiPhoneの組み合わせでは開発ができません).なお、ケーブルは少し長めに1m程度のものがお薦めです。

セミナープログラム

  1. VSLAMの歴史       2. VSLAMに用いられる画像処理    2.1. 特徴点マッチング    2.2. 画像検索  3. VSLAMに用いられるカメラ幾何    3.1. 透視投影モデル    3.2. PnP問題    3.3. 三角測量  4. VSLAMの処理の流れ    4.1. Initialization    4.2. Localization    4.3. Mapping    4.4. Loop closure    4.5. Relocalization  5. AR Foundationを用いた実装演習    5.1. Unityの設定    5.2. Device Tracking    5.3. Plane Tracking