やらなイカ?

たぶん、iOS/Androidアプリの開発・テスト関係。

Unite 2015 TokyoにおけるVR・AR関係ネタまとめ #unite2015tokyo

Unite 2015 Tokyo に行ってきました。主にVR・ARに関する講演についてざっくりメモのみ。 講演資料等は公開されるはずなので*1、詳しくは公式サイトをご確認ください。

f:id:nowsprinting:20150414135953j:plain

Unity 5.1でのVRサポート

パルマー氏の基調講演から。まもなくリリースされるUnity 5.1では、さらにVR連携が強化される。

  • Oculus Rift, Gear VR向けの出力は、Player Settingのインスペクタでチェックを入れるだけ
  • HMDに出力しながらも、Unityのゲームビューは分割・樽型歪みでなく、通常の一画面表示で確認できる

Morpheus

SCEさんの講演にて。

  • 2016/上に発売目標
  • 1920x1080
  • リフレッシュレート 120Hz
  • レイテンシ 18ms以下
  • 5.7inch
  • 視野角 約100度
  • 9点のトラッキング用LED
  • Re-projection mode (60Hzのコンテンツを120Hzで動いているように見せられる)
  • Morpheus向けのビルドは、playerに"for PS4"を選択し、ディスプレイに"1920x1080_vr"を選択するだけ

VRコンテンツ開発の勘所

Oculus井口さんの講演。

Gear VR

  • 一般向けは2015/12月予定
  • アクセラレータは端末ものではなく、Gear VR側に高精度のものを搭載している

Oculus Platform

  • これまでのOculus Shareは開発者同士をつなぐものだが、Oculus Platformは開発者とユーザをつなぐもの
  • 米国ではすでにオープンしている。日本でもGear VR Innovator Editionの発売にあわせて公開
  • アプリ公開にはOculusの審査あり。ガイドラインはOculus Dev Center参照。一発で通ったコンテンツは皆無。
  • Gear VRには専用のネイティブアプリがあり、アプリの検索から購入までVR空間内で完結できる
  • Gear VRでのデバッグ実行には端末シリアルIDをDeveloperサイトに登録し、シグニチャファイルを生成する必要がある
  • Unity 5.1ではUnity Integration plugin不要に。

Oculus Remote Monitor

  • Gear VRと同一ネットワーク上のPCで、Gear VRで表示しているものと同じ画面を表示できる
  • 最近のSDKには入っている?

視覚誘導性自己運動感覚(ベクション)

  • 必殺技みたいな名前
  • 止まっている電車に乗っていて、目の前の車両が動き出したら自分が動き出したように錯覚する。VR酔いの原因。
  • 低速のほうが(高速に動くより)酔いにくい
  • 等速のほうが(速度が変化するより)酔いにくい
  • 直線運動のほうが(曲線より)酔いにくい
  • 壁や地面が遠くにあるほうが酔いにくい

操作系

  • Gaze Cursor(注視カーソル) マウスカーソルなどの代わりに視線でオブジェクトを選択する。Gear VRはパッドでタップできるので、Gazeしてタップ*2
  • Bluetoothケームパッドが使用できる(「コントロールR」がいい感じらしい)

白猫プロジェクトでの事例

コロプラの「白猫プロジェクト」のOculus Rift版、Gear VR版の制作(改善)に関して。

  • 三人称視点、プレイヤーキャラの後ろから見る形。
  • Oculus Rift版では、プレイヤーキャラの動きとピーキーに連動し、かつカメラから近かった。連続攻撃によるキャラの前進やノックバックでもカメラが動いていた。
  • Gear VR版ではキャラが画面中央付近にいる間はカメラが動かないよう改善。カメラとの距離も遠目にした。酔いは軽減したはずだが、臨場感は薄れてしまったのでバランスが大事。
  • 操作はAndroidアプリ(colopad)で行なう。Gear VR側面のパッドでも操作できる。
  • 側面のバックボタンは、ショートタップ、ロングタッブが可能。
    • ショートタップでは一つ前の画面に戻る(AndroidのBACKキーと同じ)
    • ロングタップでGear VRのユニバーサルメニュー*3を表示。この挙動はガイドラインに書いてある

Qualcomm Vuforia

Qualcomm社のリリースしている、ARライブラリの紹介。

3D Objects

  • 最新*4SDK 4.0では立体物の認識もできる
  • 認識できる(向いている)もの
    • Rigid: 硬い、変形しないもの
    • Details: 特徴点が多いもの
    • Table top: テーブルに載る程度のスケール
  • スキャンツールAndroidアプリとして配布している(developerサイトから、apkと認識時に使う紙のpdfがダウンロードできる)
  • 特徴点のスキャンに色は関係ない。形状のみで判断(質疑応答にて)

Smart Terrain

  • 空間認識。Environment
  • SDK 3.xから利用可能

Digital Eyewear向けSDK

  • モバイルデバイスだけでなく、Eyewear向けのSDKも(SDK 4.1 Betaから)
    • Gear VR
    • Moverio BT-200
    • ODG R-7
  • Stereo rendering
  • Background removal(透過型向けに背景を消して描画)
  • Virtual Buttons
  • Unityのサンプルも配布している

SDK

  • モバイルデバイス:Android 4.0以降、iOS 7以降
    • Android向けは、スライドでは"Eclipse"とありましたが普通にNDKでビルドできる
    • もちろんUnity pluginもあり
  • EyewearはAndroidのみ

開発者登録・ダウンロードは下記サイトから。

developer.vuforia.com

費用など

  • 3D Objectsの認識をアプリにバンドルし、かつQualcommロゴを表示するならば、無償で利用可能
  • ロゴを消す、もしくはクラウド認識を利用する場合は有償($99/moから)

その他、ブースで聞いた話

  • 端末にKinectのような深度を測れるカメラが搭載されると、認識率は上がる。その場合でもアプリ側は同じように利用できる(SDK側で処理する)
  • 部屋に家具などを置くシミュレーションでは、深度が取れればサイズも再現できる。現状ではマーカーを使えばサイズは再現できる。
  • 日本語でもサポートが受けられる。 mailto: AskVuforiaJapan at qce.qualcomm.com
  • その他、デモも見せてもらいつつ色々伺いましたが、テキストで表現できない。

Crescent Bay デモ

Oculus Riftの次世代機、Crescent Bayのデモを体験できたので、その感想。

  • 被った感じ、DK2に比べて軽さを感じた
  • 解像度は良い。それなりに明るいシーンでも、網目状に見えたりしなかった
  • 追随性も良い。ただこれはコンテンツやマシン性能もあると思う
  • デモの中では、崖上に立っているシーンがなかなかヒュンと来て良かった

その他

ステッカー、貼っちゃうよね

f:id:nowsprinting:20150414220908j:plain

*1:スライドの写真撮ってる人いっぱいいましたが

*2:パッドが無いHMDでは1〜2秒注視する方式が多いですね

*3:パススルーカメラを起動できたり、輝度調整できたりする(5/1実機で確認)

*4:2月にリリースされた