Inochi2D(nijilive)で無料でVTuberになろう
Live2D形式は2Dアニメーションソフトとしてすばらしいソフトウェア群です。
- 日本語のドキュメントやチュートリアルが豊富
- イラストを描ける人であれば容易に操作が習得可能
- Live2Dに対応しているフェイストラッキングソフトが豊富
しかし一方で、本格的に商用利用していくためには(企業の規模にもよりますが、)Live2D形式は高いライセンス料が必要になります。
(Live2D Cubism自体は数万円、それを動かすSDKでは数十万円~売上の数% etc...)
Inochi2D系列は、Live2Dのライセンス料を払いたくない人にとっては最高の選択肢となります。
すばらしいライブラリですが、まだまだ日本語ドキュメント少ないので、Inochi2D系列の普及の一助になればと思い、この記事を書きました。
Inochi2Dはどういうのが作れるか
実際に見てもらった方が早いと思うので、動画を貼ります。
以下は「Puppetstring Vtuber Tracking」というInochi2Dアバターを動かす為のソフトの紹介動画です。
もちろんこのアバターも、Inochi2D形式で作成されています。
Live2Dと遜色ないレベルで動いています。すごい。
Inochi2Dとnijiliveの違い
Inochi2Dとは
デンマークのKitsunebi Games(Lunaさん)を中心に開発されたライブラリ。
オープンソース(BSD 2-Clauseライセンス)。
Live2D Cubism Editorにあたるのが、Inochi Creator。
nizima LIVEやAnimazeにあたるのが、Inochi Session。
nijiliveとは
Inochi2Dとの技術的思想の違いから、Inochi2D(v0.8)から派生したライブラリ。
日本人のseagetchさんを中心に開発。
同じくオープンソース(BSD 2-Clauseライセンス)。
Inochi2D v0.8までは互換性がありますが、それ以降についてはInochi2Dと互換性がなくなる可能性が高いっぽいです。
(現状ではInochi-creatorv0.8で作成したinxをnijigenerateで読み込める。nijigenerateで作成したinxは、nijigenerate特有の機能などを利用していればInochi-creatorで読み込む事はおそらく不可。)
現在は完全に分岐しているっぽいので、nijiliveで発生した不具合や質問等はInochi2Dではなくnijiliveに直接Issueを投げましょう。
Live2D Cubism Editorにあたるのが、nijigenerate。
nizima LIVEやAnimazeにあたるのが、nijiexpose。
その他の違い(推測を含みます)
開発者お二方のX(旧Twitter)のつぶやきから私の拙い知識で推測した違いは以下です。
当方アバター制作初心者かつ英語弱者なので細かいコンテキストまでは分かりません。もし間違った知識があれば申し訳ないです。
観点 | Inochi2D | nijilive |
---|---|---|
今後の開発方針 | VTubingだけでなくゲーム用途にも耐えうるようにグラフィックを発展させていく(Spine方面?) | VTubingに必要な各種機能をまずは揃えていく(Live2D方面) |
利用料 | 無料で利用可能だが、4,700円程度で支援が可能。(支援しないと起動時10秒ポップアップが毎回でる) | 今のところ完全無料 |
ライセンス | BSD 2-Clause | BSD 2-Clause |
ソフトの安定性 | 割と安定している | nightly buildでは、作業によっては頻繁にクラッシュする |
どちらもまだバージョン1に達していない、開発中の段階という状況ですが、
開発中でも結構使えるのですばらしいプロジェクトだと思っています。
用語集(Inochi2DとLive2Dの対応)
Live2D Cubism Editorを使っている人であれば、10時間ぐらいで慣れそうなUIです。
Inochi2D | Live2Dで類似の概念 | 説明 |
---|---|---|
ノード | デフォーマ | |
ソート | 描画順 | レイヤーの表示順を並び替えるやつ。インスペクターのところから調整可能。 |
Welding | グルー | nijilive形式(nijigenerateで作成)のみ対応 |
ノードの種類は以下に書きました。
Inochi2D系の良い点
- 無料で使用可能。BSDライセンスで商用利用等も可能。
- live2Dと似た操作感で扱える。
- 2次元パラメータ(角度X/Yなど)四隅の形状は勝手に補完してくれる。
- デフォーマ編集以外の、移動や回転、拡大縮小が、
transform.t.y(-30.00)
などというように数式化されて表示されるので、再現性が高い。 - オープンソースなので、特殊な用途が必要になっても、自分で改変可能。(ただし、D言語での開発が必要)
Inochi2D系の悪い点
- ワープデフォーマが無いので、メッシュを手動でつくらないといい感じに動いてくれない。(ここはLive2Dがかなり扱いやすくてすごい)
- どのようなパラメータ構成が良いかのノウハウがまだネット上に少ない。
- まだドキュメントが少ないので、Live2Dでのリグ作成経験者じゃないとなかなか使いこなせない。
- ランダムパラメータでデバッグする機能はまだない。
- グルー機能もまだない。(nijiliveのみ、weldingという似た機能があるっぽい)
- デフォルトの「目 開閉」などのパラメータが存在しないので、自分で考えて作る必要がある。
- Inochi session(もしくはnijiexpose)単体ではフェイストラッキングができない。(puppetstring vtuber trackingや、OpenSeeFace、VTube Studio等から顔座標パラメータを送る必要がある。)
- さらに、フェイストラッキングするには、顔座標データをアバターのパラメータと対応させるために、自分でLuaの数式で表現しないといけない場合もある。
逆に、上記以外はLive2Dと遜色ないと思います。
使ってみた所感
私個人で使ってみた感じでは、最終的にInochi-creatorで安定した環境でリギングして、nijiexposeで動かすという形に落ち着きました。nijiexpose、パラメータを調整する時に使いやすいんですよね。まあ、Inochi2dとnijiliveが互換性を保っている現時点だけの使い方ですが、、、
パラメータはPuppetstringに最初から入っているサンプルアバターのを参考にして作るのがおすすめです。
みんな、Inochi2D(nijillive)使ってみよう!!
Discussion