AR Foundationのサンプルプロジェクト(arfoundation-samples-main)にある幾つかサンプルシーンだけをつらつら読んでいてわかったことの覚書。
自分用の覚書なので間違ってたり変なこと書いてたらごめんなさい。
■ Assets > Scenes > SimpleAR
平面検出(Plane)と特徴点検出(Cloud Point)とレイキャスト(AR Raycast Manager)のサンプルとしてとても勉強になりました。
とりあえずMaterialの設定をいじることで、コードの記述は一切無しでPlaneの描画を任意のテクスチャに変えることができました。
■ Assets > Scenes > ImageTracking > BasicImageTracking
画像マーカーの使い方のサンプル。
特定の画像を認識して画像上にオブジェクトを出現させる。
特定の画像を認識させてオブジェクトを表示させるだけならコードの記述などは不要で実装できる。サンプルは画像を認識してその画像の情報をコードでオブジェクト上のUIに追記するようなもので多少複雑だったので自分なりに簡単に記述し直してみることをしてみた。ハンドラ(リスナー)の追加とtrackedImage(という名前でサンプルで使われている変数)の使い方が肝ですかね。画像ごとに別のオブジェクトを表示させるのに苦心したけど、スクリプトに数行追加するだけで実装できました。
■ Assets > Scenes > FaceTracking (> FacePose.unity)
顔認識のサンプル。
サンプルがシンプル。顔の位置にオブジェクト表示させて追跡させるだけならコードの記述不要で、自分で実装するのもとてもとても簡単。
■ Assets > Scenes > Depth (> SimpleOcclusion.unity)
オクルージョンのサンプル。
深度に対応して現実世界の物体の奥にオブジェクトがあるときは隠れる。面白い。サンプルはボール落とすだけであんまり面白くないけど。
サンプルプロジェクトと自分の作ったプロジェクトで、AR Occlusion Manager(Script)コンポーネントの設定項目が違うのでなんでかなーと思ったら、AR Foundationのバージョンが Unity 2020.2.4f1 のVerified版である AR Foundation 4.0.12 ではなく 新しい AR Foundation 4.1.15ではなかったからでした。
これらの作り方(入門編)の記事はいつか書くかも。
とりあえずここまで。