やらなイカ?

たぶん、iOS/Androidアプリの開発・テスト関係。

PLATEAU 3D都市モデルの水ぜんぶ抜く大作戦

国土交通省 Project PLATEAU で、横浜市の3D都市モデルが公開されました。 このデータを使用する際、水面にあたる部分に面が張られており使いづらかったので*1Blenderで水面をすべて削除して、改めて水面用のメッシュを用意しました。 本記事はこの手順メモです。

3D都市データファイルをBlenderにインポート

今回使用したのは、横浜市(2020年度)のOBJデータです*2。 こちらをダウンロード・解凍して、目当てのエリアのデータをBlenderにインポートします。今回使用したのはBlender 2.93です。

www.geospatial.jp

Project PLATEAUのOBJデータは以下の4つに別れています。それぞれフォルダ内にエリアごとのファイルがありますが、今回は、みなとみらいエリアを含む 533915 のみ使用します。

  • bldg(建築物)
    • LOD1(全域)
    • LOD2(一部のみ)
  • dem(地形)
  • tran(道路)

なお、インポート時はTransformを Y Forward, Z Up に設定します。 また、原点が離れた位置に設定されているので移動しておくと便利です*3

今回加工するdemは次のように水面まですべて面が張られています。

f:id:nowsprinting:20210612010420p:plain

ランドマークタワー近辺を拡大すると、地面には細かく頂点があり、水面は地面のキワから対岸などに長い辺が伸びて面が張られていることがわかります。

f:id:nowsprinting:20210612010547p:plain

水面を削除する

地面と水面のキワにあたる頂点は、実際には測量された地面の端と思われ、このあたりでZ = 2m〜2.2mほどあります。 頂点の高さで水面を判断することは難しいので、「辺の長さが20m以上のものは水面」と判断して削除するPythonスクリプトを書いて処理します。

該当部分だけ抜粋すると次のコードです。

def expose_water_surface(target_pattern=r"^\d+_dem_\d+$", edge_length=20.0):

(snip)

    pattern = re.compile(target_pattern)
    for obj in bpy.context.scene.objects:
        if not pattern.match(obj.name):
            continue

(snip)

        for edge in mesh.edges:
            if edge.calc_length() >= edge_length:
                mesh.edges.remove(edge)

(snip)

これをBlenderのScriptsワークスペースで開き、実行します(詳しくは後述)。

処理後はこうなりました。左上のくぼみはドックヤードガーデンなので、削除されなくて正解です。

f:id:nowsprinting:20210612011159p:plain

この時点で俯瞰して見ると、海上に格子状に頂点が残っています。

f:id:nowsprinting:20210612012408p:plain

これはエリアの切れ目に置かれた頂点ですので、面積0の面および孤立した頂点というルールで削除します。 この処理は、次のブログ記事にあるスクリプトをほぼそのまま使用しました。

bluebirdofoz.hatenablog.com

削除後がこちら。まだ細かいゴミは残っていますが、自動処理はここまでとしました*4

f:id:nowsprinting:20210612012425p:plain

このデータをFBX形式でエクスポートしてUnityにインポート、clusterワールドとして公開したのがこちらです。水色は改めて追加した水面メッシュです*5

f:id:nowsprinting:20210612021746p:plain

cluster.mu

今回使用したスクリプトはこちらに公開しています。 Blender初心者の書いたコードなので無駄なステップがあるかもしれませんし事故を起こす恐れもあります。ご利用は自己責任で、バックアップを必ず取ってから使ってください。

github.com

Blender上でPythonスクリプトを実行する方法

以下は補足です。

Blender上でPythonスクリプトを実行するには、まずScriptingワークスペースを選択し、中央のエディタ上部にあるOpen Textアイコンで実行するPythonスクリプトを開きます。 次いで、Run Scriptアイコンで実行します。

f:id:nowsprinting:20210612014203p:plain

macOSの場合はGUI上にログが出ないため*6、実行ログを参照するためにはコマンドプロンプトからBlenderを実行する必要があります。

PyCharmでBlender向けスクリプトを書く

新規プロジェクト作成の際、Base interpreterにはBlenderが内包しているPythonを指定します。 Homebrewでインストールした場合、次のパスにあるはずです。

/Applications/Blender.app/Contents/Resources/2.90/python/bin/python3.7m

続いて、BlenderAPIであるbpyパッケージのFakeをインストールします。Fakeなので実行はできませんが、コード補完が効くようになります。

Preferences... | Python Interpreter を開き、 fake-bpy-module-x.xx を追加します。末尾はBlenderバージョンと合わせてください。

github.com

リダクションとFBXエクスポート設定

前述のように地表には約5m間隔で頂点が配置されており、特にみなとみらい地区のような平地では贅沢です。 今回は、demにのみDecimateモディファイアを追加、Ratioは0.01に設定して、△約3,000,000から30,000に削減しました*7

モディファイアを含めたFBXエクスポート設定は以下のようにしています。

  • Object Types: Meshのみ選択
  • Transform
    • Apply Scalings: FBX All
    • -Z Forward, Y Up(FBXのデフォルト)
  • Geometry
    • Apply Modifiers: on
  • Armature
  • Bake Animation: off

ファイルサイズは、モディファイアなしで約110MBだったところ、42.3MBになりました。

参考

bluebirdofoz.hatenablog.com

zenn.dev

*1:横浜市の3D都市モデルを基準にしています。他の都市にはあてはまらない可能性がありますのでご注意ください

*2:先に公開されていた東京都23区はFBX形式のデータが提供されていましたが、横浜市ではCityGMLとOBJのみ提供されています

*3:エリアの中央もしくはVRChat/clusterなどのワールドで使用するのであればスポーン地点など

*4:本来はここから温かみのある手作業で消していきますが、今回は手作業なしでフィニッシュしました

*5:正しく処理されたはずのドックヤードガーデンに水面が張られているのは、一律平面の水面メッシュを追加したためです。そのうち対処しなければ

*6:調べた範囲では

*7:元町方面を見るとだいぶカクカクしているのがわかります

Unity Automated QA の Recorded Testing機能 トラブルシュート

Unity Automated QA パッケージのRecorded Testing機能を試していて遭遇したトラブルと解消方法をまとめます。 バージョンは 0.2.0-preview.3 および 0.3.0-preview.8*1 で確認しています。

Recorded Testing機能とは、UnityエディタのPlay modeでuGUIの操作を記録したjsonファイルをPlay modeテストとして実行できる機能です。

Unity Automated QAパッケージ全体については先のエントリ参照。

www.nowsprinting.com

FileNotFoundException: Could not find config.json

テスト実行時、下記スタックトレースが出て失敗するケース。

FileNotFoundException: Could not find file "/Users/***/Library/Application Support/DefaultCompany/UnityTestFramework/config.json"
System.IO.FileStream..ctor (System.String path, System.IO.FileMode mode, System.IO.FileAccess access, System.IO.FileShare share, System.Int32 bufferSize, System.Boolean anonymous, System.IO.FileOptions options) (at <fb001e01371b4adca20013e0ac763896>:0)
(snip)
System.IO.File.ReadAllText (System.String path) (at <fb001e01371b4adca20013e0ac763896>:0)
Unity.RecordedTesting.Manager.GetDeviceFarmConfig (Unity.RecordedTesting.DeviceFarmOverrides dfOverrides) (at Library/PackageCache/com.unity.automated-testing@0.2.0-preview.3/RecordedTesting/Runtime/Manager.cs:31)
Unity.RecordedTesting.TestResults.RunStarted (NUnit.Framework.Interfaces.ITest testsToRun) (at Library/PackageCache/com.unity.automated-testing@0.2.0-preview.3/RecordedTesting/Runtime/TestTools/TestResults.cs:33)

これは、ローカル環境でテスト実行しようとしているのに、AWS Device Farmで実行するルートに入っているため発生しています。

Edit | Project Settings... を開き、Playerタブ、Other Settings下にあるScripting Define Symbolsの中に CLOUD_TEST_UTF シンボルが定義されていれば、それを削除すれば解消します。

Cloud Test Runnerウィンドウを開いて操作しようとした際にシンボルが設定されたままになっていたようです。

SetUp : System.Reflection.ReflectionTypeLoadException

テストのSetupですべてのアセンブリから型情報を取り出している処理があるのですが、型を含まないアセンブリでこの例外が出ています。

CanPlayToEnd (3.571s)
---
SetUp : System.Reflection.ReflectionTypeLoadException : Exception of type 'System.Reflection.ReflectionTypeLoadException' was thrown.
---
--SetUp
  at (wrapper managed-to-native) System.Reflection.Assembly.GetTypes(System.Reflection.Assembly,bool)
  at System.Reflection.Assembly.GetTypes () [0x00000] in <fb001e01371b4adca20013e0ac763896>:0
  at Unity.RecordedTesting.RecordedTesting.GetAllRecordedTests () [0x00023] in /Users/****/Documents/UnityTestWorkspace/Library/PackageCache/com.unity.automated-testing@0.2.0-preview.3/RecordedTesting/Runtime/RecordedTesting.cs:55
(snip)

遭遇したアセンブリMicrosoft.CodeAnalysis.Scripting で、これはImmediate Window (com.unity.immediate-window) パッケージの依存先になっています。 今回はImmediate WindowパッケージをPackage Managerから削除することで解消しましたが、Automated QA側で対応されるまでは他のアセンブリで発生する恐れもあります。

Scene couldn't be loaded because it has not been added to the build settings or the AssetBundle has not been loaded

Recorded Testingでは、再生しようとするjsonに記録されているSceneをロードしてから操作を開始します。 しかし対象のSceneがビルド設定のScenes in Buildに入っていない場合、この例外が発生します。

SetUp : System.NullReferenceException : Object reference not set to an instance of an object
SetUp : Unhandled log message: '[Error] Scene '***' couldn't be loaded because it has not been added to the build settings or the AssetBundle has not been loaded.
To add a scene to the build settings use the menu File->Build Settings...'. Use UnityEngine.TestTools.LogAssert.Expect

ビルドに含めるSceneであればScenes in Buildに含めればよいのですが、テスト専用やアセットバンドルに格納するものは別の手段でロードする必要があります。

Unityエディタでの実行であれば、SceneManager.LoadSceneAsyncでなくEditorSceneManager.LoadSceneAsyncInPlayModeを使うことで回避できます。

Standalone playerでの実行では、テスト実行前のビルドにフックするITestPlayerBuildModifierを実装して、ビルド対象Sceneを書き換えることで回避できます。

実装例はこちらを参考にしてください。 github.com

いずれの問題もForumで報告済みなので、そのうち対応されるはず。

参考

docs.unity3d.com

forum.unity.com

*1:本稿執筆時点でPackage Managerからはインポートできますが、マニュアルサイトには未反映

Unity Automated QA 雑感

Unity Automated QA パッケージが公開されました。 まだアルファリリース (0.2.0-preview.3) ですが、少し触ってみたメモ。

概要

Unityエディタ上で動く、uGUI操作のキャプチャ&リプレイ機能です。 Required: Unity 2019.4+

操作記録はjsonで保存され、エディタ上で再生できます。 また、Play mode testsに組み込んで実行でき、さらにAWS Device Farm上のAndroid端末で実行することもできます。

細かいところはまだ発展途上という感ですが、再生機能がかしこくなってくれればそれ単独で使いではありそうですし、 コンポジット機能が実用的になってくれれば(具体的にはuGUI以外も扱えるようになれば)Unityアプリの統合テストフレームワークとして有力になりそうです*1

以下、検証したときのメモです。

Recorded Playback

  • Window | Automated QA | Recorded Playback でウィンドウ表示
  • RecordクリックでPlay modeになり、StopクリックまでのuGUI操作がjsonに記録される
  • 記録したjsonはリスト表示され、Playクリックで再生
  • jsonファイル名はデフォルトでタイムスタンプ、リネーム可能
  • Assertの機構はない
  • 対象オブジェクトが無いなど操作できない場合、コンソールに Warning Error *2 メッセージを出して再生が継続される
  • 実行時にスクショを取っている(~/Library/下に出力され、参照するUIは無い)

jsonフォーマットについて

  • 時間(timeDelta)、座標、object name, tag, hierarchy, offset が記録されている。いい感じに再生時に解釈してくれていることを期待
  • イベントはpointer-down/upで記録しているので、長押しやドラッグも表現できている
  • ButtonのTextやImageは(要するに子オブジェクトまでは)拾っていない
  • idも保持していない。都度変わるので保存しても仕方ないから?
  • Sceneも記録されているがRecorded Playbackでは使用されない(PlayでそのSceneを開いたりはしない)。後述のRecorded Testing機能で使用される

Composite Recordings

  • Window | Automated QA | Advanced | Composite Recordings でウィンドウ表示
  • 複数の操作記録jsonを選択し、つなげたjsonを生成(マージされるのでなく各jsonをポイントするjsonを生成)
  • 部分操作を記録できる(上記Recorded PlaybackだとPlay modeのライフサイクルでしか撮れないので)
  • こちらもAssertの機構はない
  • 将来的に、記録した操作だけでなくC#スクリプトやML-Agentsのエージェントを組み込めるようにしたいとのこと

Recorded Testing

  • Tools*3 | Automated QA | Generate Recorded Tests で、 Assets/AutomatedTesting/GeneratedTests下にPlay modeテストコードが出力される
  • asmdefも作られる
  • テストコードは操作記録jsonと1:1で、中身はjsonを読んで再生している。再生終了後にAssertを自分で追加することは可能
  • テストケースごとに、jsonに記録されているSceneをロードしてから再生してくれる
  • 対象オブジェクトが無いなど操作できない場合、コンソールに Warningメッセージを出して再生が継続される(Recorded Playbackウィンドウでの再生と同様) Errorログを出力して再生は継続されるが、このログのためテストはFailする *4

生成されるテストコードの例

[UnityTest]
[RecordedTest("Recordings/composite-recording-2021-04-19-T01-05-01.json")]
public IEnumerator CanPlayToEnd()
{
    yield return RecordedTesting.TestPlayToEnd();
    Assert.IsTrue(true);
}

この機能で遭遇したエラーとその回避方法はこちらのエントリを参照。

www.nowsprinting.com

Running Recorded Tests on a Cloud Device Farm

  • AWS Device Farm上のAndroid端末でもテスト実行できる*5AWSとの直接契約・操作は不要
    • アーリーアクセス機能
    • 2021/6まで、Unity Proアカウントに100hのクラウドテストを無料トライアル
    • 以降 $10/device/hour *6 *7
  • アップロードなどのUIは実装されている(権利がなくて未検証)

参考

docs.unity3d.com

forum.unity.com

blogs.unity3d.com

*1:到達点は統合テストだと思うので、QAという名前は違和感ありますが。それはそれ

*2:v0.3.1で変更された

*3:なぜ一箇所にまとめてくれないのか

*4:v0.3.1で変更された。もし操作不能を無視してテストを成功させたければ、LogAssertを使えばいい

*5:Automated QAのテストに限らず、and other Unity testsが実行可能。であればパッケージ分けてほしかった

*6:AWS Device Farmを直接使っても $0.17/device/minute == $10.2/device/hour なのでむしろ少し安い。see: https://aws.amazon.com/device-farm/pricing/

*7:表記がhourなのでhour単位に切り上げられる恐れはあるかも。要確認

Unity 2020.2時点のRoslyn Analyzerサポート状況まとめ

Unity 2020.2でRoslynアナライザによる静的解析が動作するようになりました。しかし、まだ色々と制限があるようなので現時点のサポート状況を検証してまとめてみました。

検証に使用したプロジェクト も公開していますので、認識違い等あれば教えていただると嬉しいです。

アナライザのスコープ/ .csprojへの反映

Unity 2020.2+ JetBrains Rider Editor v2.0.6+ Visual Studio Code Editor v1.2.0+ Code Editor Package for Visual Studio v2.0.7
asmdefのReferenceを反映 *1 *2 *3 *4
Packages下のDLLs (Embedded package) *5
Packages下のDLLs (Local package, UPM registry, Git URL) *6 *7

Unity 2020.2+ 列は、Unity Editor GUIで診断実行する際のアナライザのスコープ(適用範囲)について。

その他は、Assets | Open C# Project でIDEを開くときに生成される.csprojへの反映状況です。 JetBrains Rider Editorはv2.0.6で、Visual Studio Code Editorはv1.2.0で、Unityエディタ向けに設定されたRoslynアナライザのDLLがあると.csprojに <Analyzer> ノードが追加されるようになっています。

Unityエディタ (GUI) / IDEでの診断実行

Unity 2020.2+ JetBrains Rider 2021.1 VSCode VS 2019
診断実行 *8
重要度設定(Rulesets) *9 *10
重要度設定(IDE独自) - *11
診断の抑止(シンボル単位) *12
診断の抑止(行単位)*13 *14

空欄は未検証です

CLIでの診断実行

Unity 2020.2+ Batch mode build JetBrains ReSharper CLT 2021.1 (inspectcode) dotnet build Standalone Analyzer
診断実行 *15 *16
重要度設定(Rulesets) *17 -
重要度設定(IDE独自) - -
診断の抑止(シンボル単位) -
診断の抑止(行単位) -

空欄は未検証です

所感

もうなにも信じられない

参考

docs.unity3d.com

forum.unity.com

github.com

docs.microsoft.com

docs.microsoft.com

*1:https://docs.unity3d.com/2020.2/Documentation/Manual/roslyn-analyzers.html のAnalyzer scopeセクション参照

*2:asmdefの依存関係に関わらず、全てのアナライザが全ての.csprojに設定される

*3:asmdefの依存関係に関わらず、全てのアナライザが全ての.csprojに設定される

*4:代わりに /Applications/Visual Studio.app/Contents/Resources/lib/monodevelop/AddIns/MonoDevelop.Unity/Analyzers/Microsoft.Unity.Analyzers.dll が追加される

*5:https://docs.unity3d.com/2020.2/Documentation/Manual/roslyn-analyzers.html に記述のある、Plugin Inspectorでラベルの設定がPackages下のDLLでは表示されない。右は、Assets下でラベル設定した後にPackages下に移動したアナライザの振る舞い

*6:.csprojにAnalyzerノードは追加されるが、パスがUnityエディタ上のPackages下を指すためDLLの実体が無く無効

*7:.csprojにAnalyzerノードは追加されるが、パスがUnityエディタ上のPackages下を指すためDLLの実体が無く無効

*8:ただし診断は当該ファイルのコンパイルもしくはReimportの契機でのみ実行される → Unity 2020.3.4で通常のコンパイルステップで動作するように修正された

*9:ただし変更を反映するにはReimportが必要 → Unity 2021.1でRuleset適用タイミングを早める修正が入っており、この問題も解消

*10:https://blog.jetbrains.com/dotnet/2018/09/24/roslyn-analyzer-rulesets-stylecop-json-support-rider-2018-2/ によるとインポートできるはずなんですが

*11:Preferences...で設定して.sln.DotSettingsに保存、もしくは、.editorconfigに設定

*12:SuppressMessageアトリビュート

*13:#pragma warning disable/restoreディレクティブ

*14:Rider 2021.1以前ではクイックフィックス候補に(Riderのインスペクションを抑止する) // ReSharper disableコメントが出るが、Roslynアナライザの診断結果には無効。Rider 2021.2 EAP1以降では Disable with #pragma が選択可能になった

*15:ビルドログに出るのでパースが必要

*16:https://youtrack.jetbrains.com/issue/RSRP-480257 voteしましょう

*17:Unity 2021.1でRuleset適用タイミングを早める修正が入ったことで解消

『ソフトウェア品質を高める開発者テスト アジャイル時代の実践的・効率的なテストのやり方』レビュー

昨日発売された『ソフトウェア品質を高める開発者テスト アジャイル時代の実践的・効率的なテストのやり方』、ざっくりと読んだので簡単にレビューします。

対象読者

まず対象読者について。タイトルにある「開発者テスト」や「ユニットテスト」というものを実践している方はもちろん、言葉は知っていて良いテストを書きたいを思っている方などには 向きません *1

そうではなく、旧来の、開発の後工程としてテストを実施し、バグを潰しきれずに疲弊している組織の方におすすめしたい書籍です。

早期工程でのバグ検出・品質作り込み(本書では「上流品質向上」と表現)、ユニットテストリファクタリング、CI(継続的インテグレーション)といったモダンな開発手法に馴染みのない方にとって、一通りの知識をこの一冊でざっくり得られるはずです。

おすすめできる点

  • はじめにモチベーションとして、上流品質向上やShift Leftの効果についてしっかり語られている
  • コードカバレッジについて、ステートメントカバレッジ (C0) とブランチカバレッジ (C1) の違いについて詳しく書かれている
  • サイクロマティック複雑度(本書では単に「複雑度」や「McCabe数」と表現)について、詳しく書かれている
  • Googleのバグ予測(修正回数の多いファイルはバグ混入率が高い)に触れられている
  • テストケースを作るためのテスト技法について触れられている(ただし境界値テストと状態遷移テストのみ。これを目的にするのであれば後述する別書籍をおすすめします)
  • システムテストなど後工程のテストにも言及、全体を俯瞰できるはず
  • Android Studioを使ったユニットテスト、コードカバレッジ採取、Circle CIによるCIなど、実践的なサンプルやスクリーンショット(ただし巻末の1割程度のボリューム)

おすすめできない点

  • 用語が独自なので、この書籍を読んだ次のステップで調べたり、他のテストエンジニアと交流する段階でギャップが出そう。本書を読んだ後、 JSTQB認定テスト技術者資格-シラバス(学習事項)・用語集- などを参照してテスト用語の認識を合わせたほうがよさそうです *2 *3
  • リファクタリングの根拠がファイルの大きさとサイクロマティック複雑度のみなので、もう少し内部品質やSOLID原則あたりに言及してほしかった
  • 「7.5 出口は1つ」は鵜呑みにしてほしくない。サイクロマティック複雑度を根拠にしているので仕方ないが、関数/メソッドから早期リターンすることはネストを下げて可読性向上につながるので

テスト技法についてのおすすめ資料・書籍

ユニットテストを書く開発者が、テストケースを作るために参考となる「テスト技法」についての資料・書籍を紹介します。

JaSST'21 Tokyoでの河野哲也さんのセッション資料。ユニットテストで使える「同値分割」「デシジョンテーブル」「状態遷移図」が例題とともに紹介されています。

www.slideshare.net

こちらも各テスト技法を解説している書籍です。

各テスト技法の事例・問題集。

所感

書籍などでユニットテストについて紹介するとき、テストケースを作るためのテスト技法は省略されがちです*4。 しかし、開発者もテストを書くならば持つべきスキルだと考えており、その点で本書のように開発者テストとテスト技法を結びつける書籍に期待していました。

本書は残念ながら方向性の異なるものでしたが、「開発者テスト」の概念を知らない方に向けて、薄く広く、俯瞰して理解できる書籍ですので、最初の一冊としてはおすすめできそうです。

*1:内容が悪いという意味ではなく、タイトルがミスリードなのでは感

*2:ISTQB/JSTQBが絶対ということではないのですが

*3:私が「単体テスト」でなく「ユニットテスト」という言葉を使うのは、「単体テスト」が人によって様々なバリエーションを持っているため無用な混乱を避けるためです。この点、本書p.34でも言及されていながら「単体テスト」の語を使っていたりする

*4:自著『iOSアプリテスト自動化入門』では、同値クラス、境界値テスト、デシジョンテーブルについては紹介していましたが

ML-Agentsに入門するならUnity LearnのML-Agents: Penguinsがおすすめ

個人差があるとは思いますが、最初のチュートリアルとして良いサイズだと思うので(そしてUnity Learnの検索で出てこないので)紹介します。

おすすめポイントは、

  • ダウンロードするファイルはペンギン等のfbxのみ
  • コードは説明付きで小分けに提示されていて、コピペするにしても内容を把握しながらできる*1
  • 学習用Python環境のセットアップも解説されている(Anacondaを使用)

なお、Unity Learnは無料で提供されています。

ML-Agents: Penguins

learn.unity.com

このコンテンツ、内容が古いためかUnity Learnの検索で出てきません。 Unity ML-Agents Toolkitは2020年5月に晴れてバージョン1.0がリリースされ、最新版はRelease 12です*2 *3。 一方、このPenguinsチュートリアルはBeta 0.13をベースとしています。

そのため、上記ページそのままではなく、チュートリアルを提供しているImmersive Limit LLCが別に公開しているアップデート情報*4を元に進めます。

www.immersivelimit.com

以下、個人的な補足です。

  • Unity packageはUPM、Python packageはpipで取得できるため、Unity ML-Agents Toolkit リポジトリのclone取得は不要です*5
  • UnityのPackage Managerウィンドウでは ML-Agents 1.0.6 (verified) までしか出ませんが、Packages/manifest.jsonを直接編集すれば 1.7.2-preview も指定できます
  • Anacondaは必須ではありません。ただし何かしらのPythonパッケージ+環境管理ソリューション*6は使ったほうがよさそう
  • Anacondaで環境を作るとき、名前は ml-agents より、Python packageのバージョンを加えて ml-agents-0.23 などとするのがよさそう
  • gitリポジトリで管理するとき、ML-Agentsの生成するファイルは.gitignoreに下記を追加することでトラッキング対象外にできます
Assets/ML-Agents*
results/

自分で学習させたペンギンが動くのはかわいくて、ずっと見てても飽きないですね。

f:id:nowsprinting:20210223225822p:plain

その他のUnity Learnコンテンツについて

Karting Mod:スマートカートのトレーニングガイド

learn.unity.com

日本語対応しているものですが、以下の理由で最初にはおすすめしません。

  • Penguins同様 0.13 ベースで古い(ML-Agentsはプロジェクトに内包しているので動かしてみるだけなら問題はない)
  • Penguinsに比べて要素が多い

ML-Agents: Hummingbirds

learn.unity.com

こちらはバージョン1.0 (Release 1) 時点でのコンテンツです。 動画による前提の説明もあり、「強化学習なんもわからん」人にはこちらから入ってもいいかもしれません。

ただ、説明がほとんど動画で時間もかかるので途中までで止めてしまいました。 続きを進めたらこの記事を更新するつもりです。

参考

Unity ML-Agents Toolkit に入ってるexamplesの解説

ml-agents/Learning-Environment-Examples.md at release_12_docs · Unity-Technologies/ml-agents · GitHub

Unity ML-Agents Toolkit のマイグレーション情報

ml-agents/Migrating.md at main · Unity-Technologies/ml-agents · GitHub

ML Agents 1.0以降に入った変更などの話

https://blogs.unity3d.com/jp/2020/12/28/happy-holidays-from-the-unity-ml-agents-team/blogs.unity3d.com

*1:完成プロジェクトで説明される場合、どこまでML Agentsでどこから自作した機能なのかわからないことが起こりがち

*2:Unity packageとPython packageで別々のバージョンが振られているためこの表現。ちなみにRelease 12のUnity packageは1.7.2、Python packageは0.23.0

*3:これを書いた2日後にRelease 13が出ました

*4:ML-Agents Release 10 向けアップデートとなっていますが、Release 12でもそのまま動きました

*5:多数のExamplesがあるので次のステップとして触ってみるには良いと思います

*6:Minicondaとかvenvとか

#cluster 勉強会・イベント登壇Tips

yokohama.unity をはじめ、オンライン勉強会の会場として cluster が使われることも珍しくなくなりました。 つまり、clusterで登壇する機会も増えているということです。

clusterでの登壇には、リアル会場やZoomなどWeb会議サービスとは異なる特性があります。 本記事では主に、はじめてclusterで登壇する方向けのTipsをまとめます。

f:id:nowsprinting:20210126001157p:plain

機材の準備

PC

clusterのイベントにはスマートフォン (iOS, Android) でも参加できますが、スライドや動画の再生操作を行なうためにはPC (Windows, Mac) からのログインが必要です。

もちろん、スライド操作を誰かに代行してもらって自分はスマートフォンで話すという選択肢もあります。どうしてもPCが使えない場合など、主催者に相談してみてもいいでしょう。

ヘッドホン / イヤホン

音声のループバック対策は重要です。 ループバックは、スピーカーから出た音をマイクが拾ってしまうことで再びスピーカーから同じ音声が(遅延して)出力されてしまう現象です。 Zoomではサービス側でノイズリダクションが効いているのでノートPC内蔵のスピーカーとマイクでも大丈夫ですが、clusterではこの機能が弱いため、あらかじめユーザ側で対策しておく必要があります。

具体的には、ヘッドホンやイヤホンを使うことで、clusterからの音声出力がマイクに入らないようにする対策が効果的です。

スマートフォンに同梱されているイヤホンで十分ですが、Bluetooth接続やノイズキャンセリングなどあれば快適さは増します。 あえておすすめと言われるとこれですね。

Apple AirPods Pro

Apple AirPods Pro

  • 発売日: 2019/10/30
  • メディア: エレクトロニクス

もしくは、Krispのようなノイズリダクションできるソフトウェアを導入する方法もあります。

krisp.ai

マイク(任意)

環境音やエコーを防ぐため、外付けのマイクの使用が望ましいです。 指向性のあるコンデンサマイク(数千円のもので十分)で自分の声のみ拾うようにするだけで、ハウリングやタイプ音が軽減できます*1

私が使っているのはこれ。

VRヘッドセット(任意)

これは任意ですが、VRヘッドセットを使ってVR登壇する体験はおすすめです。デスクトップに比べ、以下のメリットがあります。

  • 見回しやすい:オーディエンスの反応と投影されているスライドを交互に見ることも簡単です*2
  • 指し棒が使いやすい:会場によっては指し棒が用意されています。デスクトップ版でも手に持って指すことはできますが、VRのほうが断然、扱いやすいです
  • 細かいリアクション:デスクトップでは移動でしかアバターが動きませんが、VR登壇であれば身振り手振りを交えたプレゼンテーションが可能です(意識して動かすのでなく、自然な動きがアバターにも反映される)
  • 会場のギミックで遊べる:会場によってはギミックやアイテムが転がっていたりします。デスクトップでも遊べますが、VRのほうが楽しいです

PC向けVRヘッドセットは色々と出ていますが、今なら(PCのグラボが要件を満たしているならば)Oculus Quest 2をUSBケーブルで接続して使う (Oculus Link) のがおすすめです*3

support.oculus.com

なお、オーディエンスとして参加する場合はPCデスクトップのほうがキーボードでコメントを打てるので楽しいと思います。

プレゼンテーション資料

スライドはpdf、動画はmp4形式で準備し、あらかじめclusterにアップロードしておきます。

会場のスクリーン比率はほとんど16:9ですが、一部4:3やオリジナルな比率である可能性もあります。念のため主催者に確認することをおすすめします。

文字サイズは、リアル会場で投影するものと同じ感覚で作るのが良さそうです。 ただ、リアル会場と異なり、見づらい場合は自由に前に来て見ればいいわけなので、遠くからでも読める必要はありません。

また、スライドの途中に動画を挟む場合、pdfファイルは動画の前と後ろで分割しておくことをおすすめします。 ファイルを切り替えたときにスライドのページが先頭に戻ってしまいますので、動画再生後スムーズに続きのスライドを表示できるようにしておきます。

ファイルサイズ上限は下記ページを参照してください。

アップロードできるファイルとサイズ上限 – ヘルプセンター | cluster(クラスター)

アバター(任意)

clusterのイベントでは 「スタッフ」に割り当てられていると独自アバターを使うことができます。 ほとんどのイベントでは登壇者は「スタッフ」になるはずですが、アバターが使えない「ゲスト」を割り当てるケースも考えられます。事前に主催者に確認することをおすすめします。 2021年3月26日より、イベント参加者全員が独自アバターを使用できるようになりました。

アバター使用は任意ですが、SNSアイコンのようにオーディエンスに印象づける効果が見込めます。

アバターは、主に以下いずれかの方法で用意できます。

1. REALITYアバターをコンバート

REALITY の自分のアバターをclusterに持ち込めます。カスタマイズ幅は限定されてしまいますが、もっともお手軽な方法です。

コンバート手順は下記記事を参照してください。

note.com

2. VRoid Studio

VRoid Studio を使ってオリジナルのアバターを作り、VRM形式にエクスポートしてclusterにアップロードします。 BOOTH などでVRoid対応の服テクスチャやアクセサリなども販売されており、独自のアバターを作りたいのであればこれが最有力です。

なお、cluster準拠のVRMにするためにエクスポート時にリダクションする必要があります。概ね、

  • マテリアル数: 8
  • テクスチャ解像度: 2048x2048

に設定してエクスポートすれば大丈夫なはずです。

vroid.com

ただし、リッチなアバターになるとVRoid Studio標準のエクスポート機能だけではcluster準拠にまで落とせないケースもあります。 下記記事などを参考にリダクションしてみてください。

qiita.com

3. その他

BOOTH などでアバターを購入したり、自分でフルスクラッチしたモデルをUnityと UniVRM を使ってVRM形式にエクスポートしてclusterにアップロードします。

販売されているアバターには、あらかじめVRMファイルが同梱されているものもありますが、clusterにアップロードできる要件を満たしているとは限らないので注意してください。 自分でリダクションができない場合、cluster準拠と明記されていないVRMファイルは使えないと思ったほうが良いです。

詳しいスペックは下記ページを参照してください。

カスタムアバターの制限 – ヘルプセンター | cluster(クラスター)

会場の下見

イベント会場には「スタッフ」であれば開場前に入ることができます。 登壇慣れしていない場合など特に、事前に会場の様子、スクリーンのサイズやオーディエンスからの見え方などを確認しておくと良いでしょう。 手軽に下見できるのはclusterの良いところです*4

なお、デスクトップ版およびスマートフォンの場合、デフォルトで「三人称モード」がオンになっているためやや遠い視点になっています。これをオフにした一人称視点での見え方でプレゼンテーションは調整することをおすすめします。

当日

clusterクライアントは頻繁にアップデートされているため、「ログインしようとしたらアップデート待ち」ということもよく起こります。 時間に余裕を持ってログインするとよいでしょう。

登壇してみよう!

clusterイベントへの登壇は、リアル登壇と比べても、Zoom等による登壇と比べても*5、ハードルが低いです。ぜひ機会を見つけて登壇してみましょう!

ちょうど良いところに、たいへん「ユルい」ことで有名な yokohama.unity が募集しているようですよ?

meetup.unity3d.jp

トラブルシュート

まれに、会場に入っても他の参加者が見えないというトラブルがあります。再ログインしても解消しない場合、そもそものインターネット接続経路の問題である可能性があります。

clusterを利用するには、以下のポートが開放されている必要があります。
TCPポート:80, 443, 1883

他の人が表示されない・すぐに切断される(ポート設定) – ヘルプセンター | cluster(クラスター)

この問題がイベント当日に発覚しても、すぐ対処できることは稀でしょう。 登壇者向けの接続確認会が設けられているときは、極力イベント当日に接続する環境からログインして確認しましょう。

その他の参考記事

bibinbaleo.hatenablog.com

www.crossroad-tech.com

*1:タイピングするわけではないので(clusterではライブコーディングはできないので)必須とまでは言いませんが、部屋の壁の反響などもあるのでやはり音声品質には影響します

*2:投影しているスライドは別ウィンドウで表示されるのですが解像度低いので実際に投影されているものを見たくなります。会場によっては返しのモニターが設置されていることもあります

*3:Oculus Quest 2のマイクはかなり音を拾うので、イヤホンを使いましょう

*4:リアルイベントだとなかなか下見できる機会がない

*5:オーディエンスの反応が見えない状態でプレゼンするのはとてもつらいです