1. はじめに
今回は別記事にて実装したPBD(Position-Based Dynamics) の改善をしたXPBD(Extended position-Based Dynamics)を論文を読みながら実装してみたいと思います。
論文は以下になります。
https://matthias-research.github.io/pages/publications/XPBD.pdf
本記事は例としてUnityでの実装をしておりますが、論文の内容に関することがメインです。ゲームエンジンに依存した話はありません。以下はUnityのサンプル動画です。最後にGithubのURLを載せています。他にもUE5とGodotのサンプルプロジェクトも用意しておきました。
2. PBDとの違い
アルゴリズムに入る前に、まずは「PBDにどのような問題があり、XPBDではどう改善したのか」について抑えたいと思います。まずはAbstractを読んで探っていきたいと思います。
【Abstract】
We address the long-standing problem of iteration count and time step dependent constraint stiffness in position-based dynamics (PBD). We introduce a simple extension to PBD that allows it to accurately and efficiently simulate arbitrary elastic and dissipative energy potentials in an implicit manner.
イテレーション回数と時間ステップが制約剛性に左右されてしまうPBDにおける問題に取り組んだ。任意の弾性とポテンシャルエネルギーの散逸のシミュレーションを正確で効率的にできるようにしたシンプルなPBDの拡張を提案する。
制約に使っている剛性がイテレーション回数と時間ステップに左右される
PBDのシンプルな拡張で解決できた
ということのようです。そのシンプルな拡張についてはここではまだ触れられていないようなので、次の 【1 Introduction】 も読んでみたいと思います。
【1. Introduction】
Our method addresses the problems of iteration and time step dependent stiffness by introducing a new constraint formulation that corresponds to a well-defined concept of elastic potential energy. We derive our method from an implicit time discretization that introduces the concept of a total Lagrange multiplier to PBD.
我々の手法は、弾性ポテンシャルエネルギーの概念が成立するよう定義されている(well-defined ) 新しい制約の定式化を導入することで、イテレーションと時間ステップが剛性に依存する問題に取り組んでいる。我々の手法は、ラグランジュ乗数の概念をPBDに導入した陰的離散時間により導出している。
キーワードになりそうな用語が出てきました。それらの詳細はまだよく分かりませんが、分かったことをまとめます。
新しい制約の定式化をしたこと
「ラグランジュ乗数」というものをPBDに導入していること
「ラグランジュ乗数」が何かも分かりませんし、まだ漠然としていますね。気になるところではありますが、詳細は 【4 Our Method】 できっと分かるのではないかと思います。
【4 Our Method】 にて、PBDの課題を解決したアルゴリズムについて見ていく前に、まずはそのPBDの課題についてもう少し理解を深めたいと思います。その上で、その解決手法について見ていきましょう。
3. PBDの課題
PBDの問題は「制約に使っている剛性がイテレーション回数と時間ステップに左右される」ということでした。「そうなのか」「なぜなのか」を確認してきたいと思います。
■ そうなのか
まずは事実として「そうなのか」に関する記述があるので見てみます。PBDとXPBDのイテレーション回数の違いによる比較がありました。図は論文から引用させていただいております。
引用:Macklin, Miles, Matthias Müller, and Nuttapong Chentanez. "XPBD: position-based simulation of compliant constrained dynamics." Proceedings of the 9th International Conference on Motion in Games . 2016.
上段がPBDで下段がXPBDの図となります。どちらも k = 0.01 k=0.01 k = 0.01 で固定し、左から20, 40, 80, 160回だそうです。PBDはだいぶ回数によって剛性が変わってしまっていますね。
この比較には時間ステップについては記述がありません。あくまでイテレーション回数の問題の比較をしています。
■ なぜなのか
次に「なぜなのか」を確認してきたいと思います。
まずPBDについて思い出してみます。基本の考えは、制約( C ( p ) = 0 C(p) = 0 C ( p ) = 0 )を満たすように、制約距離からのズレを修正しようというものでした。制約を満たすという条件のもとで、どのぐらい移動させていけばいいのかが未知の値です。それを制約を満たす傾き方向へ徐々に近づけていくというニュートン法による繰り返し計算によって解に近い値を求めるという方法でした。
また、剛性を与えるために、シンプルな方法として、この修正のための移動距離に対して剛性 k k k を掛けていました。つまり、あくまで単純化した方法によるもの であり、本来の剛性係数が含まれる弾性力 F = k x F = kx F = k x に基づいて計算されるものではないと思われます。
直接的に修正移動距離を0.1倍にして、制約を満たす距離まで修正せずにだるんだるんにして剛性を与えています。
関連記述をXPBDの論文から探してみます。
【3 Background】
An undesirable side-effect of simply scaling the position change by k k k is that the effective constraint stiffness is now dependent on both the time step and the number of constraint projections performed. Muller et al. [2007] attempted to address this by exponential scaling of the stiffness coefficient. However this does not take into account the time step, and does not converge to a well-defined solution in the presence of multiple constraints.
単純に座標変化にて k 倍してしまうことの望ましくない副次効果は、制約剛性が時間ステップと制約射影の実行回数に影響されてしまうことである。 Mullerらは剛性係数の指数スケーリング (exponential scaling of the stiffness coefficient) によりこの問題の対処を試みた。しかし、時間ステップを考慮に入れておらず、複数の制約がある場合に明確な解に収束しない。
ここで言う「剛性係数の指数スケーリング」は前回記事でも触れたイテレーション回数と剛性の話かと思います。これは繰り返し計算時に剛性 k i k_i k i をそのままかけてしまうと、変化が非線形になってしまうので、線形にするための工夫についてでした。加工した k ’ k’ k ’ がイテレーション回数だけ掛けられて、最終的には k k k 倍の結果になる、というものでイテレーション回数を経てちゃんと k k k 倍になるなら問題ないように思えます。
しかし、単純に座標変化に対して k k k 倍してしまっているということに変わりはありません。また、その座標変化自体はイテレーションを通してニュートン法で逐次的に更新される値で、拘束を満たすようにする座標変化は数値解析の過程における値であり、物理的に意味のないような経過的な値に k ‘ k` k ‘ 倍していっているので、何かしら副作用はあるように思えます。
この部分がおそらくPBDの剛性がイテレーション回数に依存してしまっている問題の原因ではないかと思います。しかし、あまり確証がなく、「これだ!」と明言できないので、さらに調査が必要な部分ではありますが今後の課題にしておき、次に進みます。
■ XPBDでの剛性の扱いについて
ここまでPBDの課題であるイテレーション回数に剛性が影響する理由について調査・考察してきました。
それらを踏まえて、先ほど見た 【1 Introduction】 でもう一度XPBDの記述を思い出してみます。XPBDでは 【1 Introduction】 で述べられているように弾性ポテンシャルエネルギーの概念が成立するような定式を用いて、イテレーションが剛性に依存する問題に対処しているとのことでした。
Our method addresses the problems of iteration and time step dependent stiffness by introducing a new constraint formulation that corresponds to a well-defined concept of elastic potential energy.
我々の手法は、弾性ポテンシャルエネルギーの概念が成立するよう定義されている(well-defined ) 新しい制約の定式化を導入することで、イテレーションと時間ステップが剛性に依存する問題に取り組んでいる。
おそらくPBDのように「制約を満たすようにする修正移動距離に対して k k k 倍して剛性をコントロール」するのではなく、制約距離からのズレにかかる弾性力 F = k x F=kx F = k x を考え、その弾性力による拘束のポテンシャルエネルギーに関する式を解いて位置を修正していると思われます。
■ PBDの課題についてまとめ
まとめます。
イテレーション回数によってPBDの剛性が変化することを論文から読み取った
なぜPBDはイテレーション回数に影響されるのか考察した
XPBDは剛性係数 k k k の使い方がPBDとは異なるのではないか、と論文の記述から読み取った
では、次は実際にXPBDの手法について読み進めていきたいと思います。ここで考察した剛性係数 k k k の扱いについても着目していきたいと思います。
4. XPBDの手法について読んでいく
4.1. アルゴリズムの概要
アルゴリズムを見てみると、冒頭でも触れたラグランジュ乗数 λ \lambda λ を用いています。ラグランジュ乗数に関する行だけハイライトしました。ざっくり雰囲気だけ見ると、イテレーションの中で式 ( 18 ) , ( 17 ) (18), (17) ( 18 ) , ( 17 ) を解き、 x x x を更新しています。
実装だけであれば、このアルゴリズムと示された式さえあればできそうです。ただ、どういう仕組みで解いているのかに関心があるのでそこを丁寧に論文から探っていきたいと思います。
引用:Macklin, Miles, Matthias Müller, and Nuttapong Chentanez. "XPBD: position-based simulation of compliant constrained dynamics." Proceedings of the 9th International Conference on Motion in Games . 2016.
4.2. ポテンシャルエネルギーから運動方程式を立てる
論文を読んでいく前に、前回のPBDの記事にて、制約関数ポテンシャルエネルギーやそれを微分することで力が計算できることについて説明をしています。以降はそれを前提に説明をしたいと思います。
https://zenn.dev/nrdev/articles/141dbc5774f666
先に論文の全体像を述べておくと、PBDでは扱わなかった運動方程式から始めていき、制約条件の式なども入れて方程式を解いていきます。運動方程式といえば F = m a F=ma F = ma の式でした。つまり「質点に作用する力」と「その力による加速度」に関しての式です。
ではどのような力について考えているのか。PBDでは制約関数 C ( x ) C(x) C ( x ) を定義します。この制約関数 C ( x ) C(x) C ( x ) の例としては「距離」制約です。決め方によりますが「2点間の距離が 1 c m 1cm 1 c m である」のような制約です。制約を満たしている状態では C ( x 1 , x 2 ) = 0 C(x_1, x_2) = 0 C ( x 1 , x 2 ) = 0 となります。では、2点( x 1 x_1 x 1 と x 2 x_2 x 2 )がズレて 1.5 c m 1.5cm 1.5 c m になってしまったとします。この時、制約関数 C ( x 1 , x 2 ) C(x_1, x_2) C ( x 1 , x 2 ) は制約 1 c m 1cm 1 c m からのズレ 0.5 0.5 0.5 を返します。制約から外れると その「外れ距離」に応じたバネのような弾性力 を加えて、初期の安定した制約距離に戻します。このように 制約を満たすような状態にするような力を考えて運動方程式を立てて います。
また、重要な点としては、まず弾性ポテンシャルエネルギーを考え、 それを微分することで弾性力が計算 できます。この辺りの詳細は前回の記事に任せます。
問題を解く上で弾性力を直接使わず、ポテンシャルエネルギーを扱います。調べたところ、解析力学では定義が座標に依存しないよう一般化するためにポテンシャルエネルギーを用いて、運動方程式と同じような関係式であるラグランジュ方程式を使ったりするようです。込み入った話になりそうだったので 「ポテンシャルエネルギーを微分したら力が計算できる」 という点だけ記憶に留めて進めていきたいと思います。
それでは 【4 Out Method】 を読んでいきます。
We derive our extended position-based dynamics algorithm (XPBD) by starting with Newton’s equations of motion subject to forces derived from an energy potential U ( x ) U(x) U ( x ) :
M x ¨ = − ∇ U T ( x ) (3)
\bold{M} \ddot{\bold{x}} = -\nabla U^{T}(\bold{x}) \tag{3}
M x ¨ = − ∇ U T ( x ) ( 3 )
ポテンシャルエネルギー U ( x ) U(x) U ( x ) から力を求める力に従うニュートンの運動方程式から始めることで、XPBDアルゴリズムを導出した。
ここで表記に注意します。 x \bold{x} x は太字になっており、ベクトルを表しています。 x = [ x 1 , x 2 , … , x n ] T \bold{x} = [x_1, x_2, \dots, x_n]^T x = [ x 1 , x 2 , … , x n ] T となっており、各要素 x n x_n x n はパーティクルの位置です。
もう一つ表記について。 x ¨ \ddot{\bold{x}} x ¨ の上の点々は微分を表す表記です。2つあるので x \bold{x} x の2階微分を表しています。 x \bold{x} x の2階微分は加速度です。
そして右辺の力は「ポテンシャルエネルギーを微分(勾配)した形」になっていますね。
■ ポテンシャルエネルギー
式 ( 3 ) (3) ( 3 ) のポテンシャルエネルギー U ( x ) U(x) U ( x ) は、式 ( 5 ) (5) ( 5 ) に記述されています。
U ( x ) = 1 2 C ( x ) T α − 1 C ( x ) (5)
U(\bold{x}) = \frac{1}{2}C(\bold{x})^T \alpha^{-1}C(\bold{x}) \tag{5}
U ( x ) = 2 1 C ( x ) T α − 1 C ( x ) ( 5 )
弾性ポテンシャルエネルギー 1 2 k x 2 \frac{1}{2}kx^2 2 1 k x 2 の形に近いように見えます。しかし、なんか見慣れない形をしていますね…。しっかりと確認して、これが弾性ポテンシャルエネルギーの式であることを確認していきましょう。
ここでも表記に注意します。 C ( x ) = [ C 1 ( x ) , C 2 ( x ) , … , C m ( x ) ] T C(\bold{x}) = [ C_{1}(\bold{x}), C_{2}(\bold{x}), \dots, C_{m}(\bold{x}) ]^T C ( x ) = [ C 1 ( x ) , C 2 ( x ) , … , C m ( x ) ] T というベクトルになっています。個々の制約 C m ( x ) C_m(\bold{x}) C m ( x ) を表すときは添字が付いているので注意です。見慣れなかったのは単にベクトルの入った行列計算の式になっていたからですね。
そして制約関数 C ( x ) C(\bold{x}) C ( x ) について、おさらいとして簡単に説明しておきます。 C i ( x ) = C i ( x 1 , x 2 , … , x n ) C_i(\bold{x}) = C_i(x_1, x_2, \dots, x_n) C i ( x ) = C i ( x 1 , x 2 , … , x n ) という形で、引数のパーティクル座標を計算して制約からのズレの値を返します。PBDの論文では紐のような2点間の制約関数の具体例が示されていました。
C N ( p i , p j ) = ∣ p j − p i ∣ − D 0 D 0 { D 0 : p i と p j の 2 点間の初期の距離
C_N(p_i, p_j) = \frac{|p_j-p_i| - D_0}{D_0}
\\
\begin{aligned}
\begin{cases}
D_0 &: p_iとp_jの2点間の初期の距離\\
\end{cases}
\end{aligned}
C N ( p i , p j ) = D 0 ∣ p j − p i ∣ − D 0 { D 0 : p i と p j の 2 点間の初期の距離
次に α − 1 \alpha ^{-1} α − 1 とはなんでしょうか。
where α \alpha α is a block diagonal compliance matrix corresponding to inverse stiffness.
α \alpha α はコンプライアンス (compliance) ブロック対角行列 (a block diagonal matrix) であり、剛性値の逆数と対応している。
ブロック対角行列は対角行列の要素がさらに行列になっているような形式のようです。
https://math-fun.net/20210523/14188/
コンプライアンスは弾性率の逆数のことです。コンプライアンスは法務系で聞きますがそれとは別です。
https://ja.wikipedia.org/wiki/弾性率#弾性コンプライアンス定数
また、対角行列を逆行列にすると、対角成分が逆数になります。
https://risalc.info/src/diagonal-matrix.html
よって、 α \alpha α は剛性値 k k k の逆数を成分に持つとのことなので α − 1 \alpha^{-1} α − 1 は剛性値 k k k をそのまま成分に持つ行列となります。なお、ブロック対角行列とのことだったので、下式の k m k_m k m はさらに行列を表しているかもしれません。が、ひとまず剛性値が入った行列ということが分かりました。
α = [ 1 k 1 ⋯ 0 ⋮ ⋱ ⋮ 0 ⋯ 1 k m ] α − 1 = [ k 1 ⋯ 0 ⋮ ⋱ ⋮ 0 ⋯ k m ]
\begin{aligned}
\alpha
=&
\begin{bmatrix}
\frac{1}{k_{1}} & \cdots & 0 \\
\vdots & \ddots & \vdots \\
0 & \cdots & \frac{1}{k_{m}}
\end{bmatrix}\\
\\
\alpha^{-1}
=&
\begin{bmatrix}
k_{1} & \cdots & 0 \\
\vdots & \ddots & \vdots \\
0 & \cdots & k_{m}
\end{bmatrix}\\
\end{aligned}
α = α − 1 = k 1 1 ⋮ 0 ⋯ ⋱ ⋯ 0 ⋮ k m 1 k 1 ⋮ 0 ⋯ ⋱ ⋯ 0 ⋮ k m
これで式中の構成要素は分りました。U ( x ) U(\bold{x}) U ( x ) の式を具体的に展開してみて、弾性ポテンシャルエネルギー 1 2 k x 2 \frac{1}{2}kx^2 2 1 k x 2 であるかを確認してみます。各構成要素はベクトルと行列でした。見ていきましょう。具体的に見るために m = 2 m=2 m = 2 とします。
U ( x ) = 1 2 C ( x ) T α − 1 C ( x ) = 1 2 [ C 1 ( x ) C 2 ( x ) ] [ k 1 0 0 k 2 ] [ C 1 ( x ) C 2 ( x ) ] = 1 2 [ C 1 ( x ) C 2 ( x ) ] [ k 1 C 1 ( x ) + 0 C 2 ( x ) 0 C 1 ( x ) + k 2 C 2 ( x ) ] = 1 2 [ C 1 ( x ) C 2 ( x ) ] [ k 1 C 1 ( x ) k 2 C 2 ( x ) ] = 1 2 ( k 1 C 1 ( x ) 2 + k 2 C 2 ( x ) 2 ) = 1 2 k 1 C 1 ( x ) 2 + 1 2 k 2 C 2 ( x ) 2 { C ( x ) : 拘束関数をまとめたベクトル。 C j ( x ) : 拘束関数。スカラー値。
\begin{aligned}
U(\bold{x})
&= \frac{1}{2}C(\bold{x})^T \alpha^{-1}C(\bold{x}) \\
&= \frac{1}{2}
\begin{bmatrix}
C_1(\bold{x}) & C_2(\bold{x})
\end{bmatrix}
\begin{bmatrix}
k_1 & 0 \\
0 & k_2
\end{bmatrix}
\begin{bmatrix}
C_1(\bold{x}) \\
C_2(\bold{x})
\end{bmatrix}
\\
&= \frac{1}{2}
\begin{bmatrix}
C_1(\bold{x}) & C_2(\bold{x})
\end{bmatrix}
\begin{bmatrix}
k_1 C_1(\bold{x})+ 0 C_2(\bold{x}) \\
0 C_1(\bold{x}) + k_2 C_2(\bold{x})
\end{bmatrix}\\
&= \frac{1}{2}
\begin{bmatrix}
C_1(\bold{x}) & C_2(\bold{x})
\end{bmatrix}
\begin{bmatrix}
k_1 C_1(\bold{x})\\
k_2 C_2(\bold{x})
\end{bmatrix}\\
&= \frac{1}{2}
(
k_1 C_1(\bold{x})^2 + k_2 C_2(\bold{x})^2
)
\\
&=
\frac{1}{2} k_1 C_1(\bold{x})^2
+
\frac{1}{2} k_2 C_2(\bold{x})^2
\\
&\begin{cases}
C(\bold{x}) &: 拘束関数をまとめたベクトル。\\
C_j(\bold{x}) &: 拘束関数。スカラー値。\\
\end{cases}
\end{aligned}
U ( x ) = 2 1 C ( x ) T α − 1 C ( x ) = 2 1 [ C 1 ( x ) C 2 ( x ) ] [ k 1 0 0 k 2 ] [ C 1 ( x ) C 2 ( x ) ] = 2 1 [ C 1 ( x ) C 2 ( x ) ] [ k 1 C 1 ( x ) + 0 C 2 ( x ) 0 C 1 ( x ) + k 2 C 2 ( x ) ] = 2 1 [ C 1 ( x ) C 2 ( x ) ] [ k 1 C 1 ( x ) k 2 C 2 ( x ) ] = 2 1 ( k 1 C 1 ( x ) 2 + k 2 C 2 ( x ) 2 ) = 2 1 k 1 C 1 ( x ) 2 + 2 1 k 2 C 2 ( x ) 2 { C ( x ) C j ( x ) : 拘束関数をまとめたベクトル。 : 拘束関数。スカラー値。
制約関数 C j ( x ) C_{j}(x) C j ( x ) は「制約距離からのズレ」であり弾性ポテンシャルエネルギー 1 2 k x 2 \frac{1}{2}kx^2 2 1 k x 2 における x x x でした。ポテンシャルエネルギー U ( x ) U(\bold{x}) U ( x ) の展開後を見てみると、 1 2 k j C j ( x ) 2 \frac{1}{2} k_j C_{j}(\bold{x})^2 2 1 k j C j ( x ) 2 があり、それらの和となっていますね。つまり、各制約のポテンシャルエネルギーの全体合計が U ( x ) U(\bold{x}) U ( x ) ということです。 m = 2 m=2 m = 2 でみましたが仮に m = 1 m=1 m = 1 としたら 1 2 k 1 C 1 ( x ) 2 \frac{1}{2}k_1 C_{1}(\bold{x})^2 2 1 k 1 C 1 ( x ) 2 となります。
式 ( 5 ) (5) ( 5 ) の U ( x ) U(\bold{x}) U ( x ) は行列で表しているものの、制約(弾性)ポテンシャルエネルギーということが分かりました。行列に慣れている人はすぐに正体が見えているかもしれませんが、分かる範囲で展開してちゃんと正体を確認していきたいと思います。
■ ポテンシャルエネルギーから求める力
メインの運動方程式を再掲します。
M x ¨ = − ∇ U T ( x ) (3)
\bold{M} \ddot{\bold{x}} = -\nabla U^{T}(\bold{x}) \tag{3}
M x ¨ = − ∇ U T ( x ) ( 3 )
力を表している右辺は先ほど確認したポテンシャルエネルギー U ( x ) U(\bold{x}) U ( x ) を微分(勾配)して求めています。これは式 ( 6 ) (6) ( 6 ) に記述されています。
f e l a s t i c = − ∇ x U T = − ∇ C T α − 1 C . (6)
\bold{f}_{elastic} = -\nabla_{\bold{x}} U^{T} = -\nabla C^{T} \alpha^{-1} C. \tag{6}
f e l a s t i c = − ∇ x U T = − ∇ C T α − 1 C . ( 6 )
これも丁寧に式を見ていきましょう。先ほどの U ( x ) U(\bold{x}) U ( x ) の勾配 (∇ \nabla ∇ ) の計算過程を見ていきます。
まず ∇ \nabla ∇ (ナブラ)の定義を抑えましょう。
https://ja.wikipedia.org/wiki/ナブラ
∇ = x ^ ∂ ∂ x + y ^ ∂ ∂ y + z ^ ∂ ∂ z = ( ∂ ∂ x , ∂ ∂ y , ∂ ∂ z ) { x ^ : x 方向の単位ベクトル。 y z についても同様。
\begin{aligned}
\nabla
&=
\hat{x} \frac{\partial}{\partial x}
+
\hat{y} \frac{\partial}{\partial y}
+
\hat{z} \frac{\partial}{\partial z}
\\
&=
(\frac{\partial}{\partial x}, \frac{\partial}{\partial y}, \frac{\partial}{\partial z})
\\
&\begin{cases}
\hat{x} &: x方向の単位ベクトル。yzについても同様。
\end{cases}
\end{aligned}
∇ = x ^ ∂ x ∂ + y ^ ∂ y ∂ + z ^ ∂ z ∂ = ( ∂ x ∂ , ∂ y ∂ , ∂ z ∂ ) { x ^ : x 方向の単位ベクトル。 yz についても同様。
各 x y z xyz x yz の単位ベクトルの項の和になっています。 ∂ ∂ x \frac{\partial}{\partial x} ∂ x ∂ は偏微分をするような 演算 を表しています。ベクトル表記にすると式の2行目のように各成分に対して偏微分を行うような演算になります。つまりは この演算の結果はベクトル になります。Wikipediaの説明に「スカラー場の勾配」とありますが、 U ( x ) U(\bold{x}) U ( x ) も C ( x ) C(\bold{x}) C ( x ) も座標 x \bold{x} x によって値が決まるスカラー場でした。よって ∇ U ( x ) T = [ ∂ U ( x ) ∂ x ∂ U ( x ) ∂ y ∂ U ( x ) ∂ z ] T \nabla U(\bold{x})^T = [\frac{\partial U(\bold{x})}{\partial x} \frac{\partial U(\bold{x})}{\partial y} \frac{\partial U(\bold{x})}{\partial z}]^T ∇ U ( x ) T = [ ∂ x ∂ U ( x ) ∂ y ∂ U ( x ) ∂ z ∂ U ( x ) ] T は「スカラー場の勾配」ベクトルとなります。なので転置の T T T が書かれています。
あとは関数 C ( x ) C(\bold{x}) C ( x ) の偏微分が出てくるので、関数の微分についても確認しておきましょう。 d ( f n ) = n f n − 1 d f d(f^n) = nf^{n-1}df d ( f n ) = n f n − 1 df という関係になります。なお、偏微分は多変数のうち1変数を微分することでしたね。
https://ja.wikipedia.org/wiki/関数の微分
では、式 ( 6 ) (6) ( 6 ) を見ていきます。再掲します。
f e l a s t i c = − ∇ x U T = − ∇ C T α − 1 C . (6)
\bold{f}_{elastic} = -\nabla_{\bold{x}} U^{T} = -\nabla C^{T} \alpha^{-1} C. \tag{6}
f e l a s t i c = − ∇ x U T = − ∇ C T α − 1 C . ( 6 )
2次の微分をして 1 2 \frac{1}{2} 2 1 が消えてたりしてそうで、なんとなーく分かる気もしますが、こちらも丁寧に見ていきましょう。 U ( x ) U(\bold{x}) U ( x ) の行列の計算の展開は先ほどやったので省略します。同様に m = 2 m = 2 m = 2 で見ていきましょう。
∇ U ( x ) T = ∇ ( 1 2 C ( x ) T α − 1 C ( x ) ) = ∇ ( 上述の式展開なので省略 ) = ∇ ( 1 2 k 1 C 1 ( x ) 2 + 1 2 k 2 C 2 ( x ) 2 ) = 1 2 k 1 ∇ C 1 ( x ) 2 + 1 2 k 2 ∇ C 2 ( x ) 2 = 1 2 k 1 ( 2 C 1 ( x ) ∇ C 1 ( x ) ) + 1 2 k 2 ( 2 C 2 ( x ) ∇ C 2 ( x ) ) = k 1 C 1 ( x ) ∇ C 1 ( x ) + k 2 C 2 ( x ) ∇ C 2 ( x )
\begin{aligned}
\nabla U(\bold{x})^T
&= \nabla (\frac{1}{2}C(\bold{x})^T \alpha^{-1}C(\bold{x})) \\
&= \nabla (上述の式展開なので省略) \\
&= \nabla (
\frac{1}{2} k_1 C_1(\bold{x})^2
+
\frac{1}{2} k_2 C_2(\bold{x})^2
)
\\
&=
\frac{1}{2} k_1 \nabla C_1(\bold{x})^2
+
\frac{1}{2} k_2 \nabla C_2(\bold{x})^2
\\
&=
\frac{1}{2} k_1 (2 C_1(\bold{x}) \nabla C_1(\bold{x}))
+
\frac{1}{2} k_2 (2 C_2(\bold{x}) \nabla C_2(\bold{x}))
\\
&=
k_1 C_1(\bold{x}) \nabla C_1(\bold{x})
+
k_2 C_2(\bold{x}) \nabla C_2(\bold{x})
\\
\end{aligned}
∇ U ( x ) T = ∇ ( 2 1 C ( x ) T α − 1 C ( x )) = ∇ ( 上述の式展開なので省略 ) = ∇ ( 2 1 k 1 C 1 ( x ) 2 + 2 1 k 2 C 2 ( x ) 2 ) = 2 1 k 1 ∇ C 1 ( x ) 2 + 2 1 k 2 ∇ C 2 ( x ) 2 = 2 1 k 1 ( 2 C 1 ( x ) ∇ C 1 ( x )) + 2 1 k 2 ( 2 C 2 ( x ) ∇ C 2 ( x )) = k 1 C 1 ( x ) ∇ C 1 ( x ) + k 2 C 2 ( x ) ∇ C 2 ( x )
これが式 ( 6 ) (6) ( 6 ) の右辺と一致しているのか、式 ( 6 ) (6) ( 6 ) の右辺の展開をして確認します。
∇ C ( x ) T α − 1 C ( x ) = [ ∇ C 1 ( x ) ∇ C 2 ( x ) ] [ k 1 0 0 k 2 ] [ C 1 ( x ) C 2 ( x ) ] = [ ∇ C 1 ( x ) ∇ C 2 ( x ) ] [ k 1 C 1 ( x ) + 0 C 2 ( x ) 0 C 1 ( x ) + k 2 C 2 ( x ) ] = [ ∇ C 1 ( x ) ∇ C 2 ( x ) ] [ k 1 C 1 ( x ) k 2 C 2 ( x ) ] = k 1 C 1 ( x ) ∇ C 1 ( x ) + k 2 C 2 ( x ) ∇ C 2 ( x )
\begin{aligned}
\nabla C(\bold{x})^{T} \alpha^{-1} C(\bold{x})
&=
\begin{bmatrix}
\nabla C_1(\bold{x}) & \nabla C_2(\bold{x})
\end{bmatrix}
\begin{bmatrix}
k_1 & 0 \\
0 & k_2
\end{bmatrix}
\begin{bmatrix}
C_1(\bold{x}) \\
C_2(\bold{x})
\end{bmatrix}
\\
&=
\begin{bmatrix}
\nabla C_1(\bold{x}) & \nabla C_2(\bold{x})
\end{bmatrix}
\begin{bmatrix}
k_1 C_1(\bold{x})+ 0 C_2(\bold{x}) \\
0 C_1(\bold{x}) + k_2 C_2(\bold{x})
\end{bmatrix}\\
&=
\begin{bmatrix}
\nabla C_1(\bold{x}) & \nabla C_2(\bold{x})
\end{bmatrix}
\begin{bmatrix}
k_1 C_1(\bold{x})\\
k_2 C_2(\bold{x})
\end{bmatrix}\\
&=
k_1 C_1(\bold{x}) \nabla C_1(\bold{x})
+
k_2 C_2(\bold{x}) \nabla C_2(\bold{x})
\\
\end{aligned}
∇ C ( x ) T α − 1 C ( x ) = [ ∇ C 1 ( x ) ∇ C 2 ( x ) ] [ k 1 0 0 k 2 ] [ C 1 ( x ) C 2 ( x ) ] = [ ∇ C 1 ( x ) ∇ C 2 ( x ) ] [ k 1 C 1 ( x ) + 0 C 2 ( x ) 0 C 1 ( x ) + k 2 C 2 ( x ) ] = [ ∇ C 1 ( x ) ∇ C 2 ( x ) ] [ k 1 C 1 ( x ) k 2 C 2 ( x ) ] = k 1 C 1 ( x ) ∇ C 1 ( x ) + k 2 C 2 ( x ) ∇ C 2 ( x )
一致しています。予想通りではありますが、 C i ( x ) 2 C_i(\bold{x})^2 C i ( x ) 2 の偏微分なので、そのまま d ( f n ) = n f n − 1 d f d(f^n) = nf^{n-1}df d ( f n ) = n f n − 1 df の形となり、 2 C i ( x ) ∇ C i ( x ) 2 C_i(\bold{x}) \nabla C_i(\bold{x}) 2 C i ( x ) ∇ C i ( x ) となりました。微分 d d d ではなく、∇ \nabla ∇ は偏微分かつベクトル形式ですが、やっていることは同じかと思います。
これで式 ( 3 ) (3) ( 3 ) の運動方程式の右辺の力 f e l a s t i c = − ∇ x U T \bold{f}_{elastic} = -\nabla{\bold{x}} U^{T} f e l a s t i c = − ∇ x U T の式の概要が分かりました。制約ポテンシャルエネルギーから運動方程式を立てるところまでは押さえました。
4.3. ラグランジュ乗数
【4.2 ポテンシャルエネルギーから運動方程式を立てる】 ことをしました。次に制約を満たすような位置更新の式を作り、それを解いていきますが、その前に方程式を解く道具である ラグランジュ乗数 について調べたいと思います。話が分断されてしまいますが、ちょっと小難しいので話題を分けて、ラグランジュ乗数のみについてまずは見ていきます。
https://ja.wikipedia.org/wiki/ラグランジュの未定乗数法
ラグランジュの未定乗数法 (ラグランジュのみていじょうすうほう、英 : method of Lagrange multiplier)とは、束縛条件のもとで最適化 を行うための数学 (解析学 )的な方法である。いくつかの変数 に対して、いくつかの関数 の値を固定するという束縛条件のもとで、別のある1つの関数の極値を求めるという問題を考える。各束縛条件に対して定数(未定乗数 、Lagrange multiplier)を用意し、これらを係数とする線形結合 を新しい関数(未定乗数も新たな変数とする)として考えることで、束縛問題を普通の極値 問題として解くことができる方法である。
「g ( x ) = 0 g(\bold{x}) = 0 g ( x ) = 0 という束縛条件の下で、目的の関数 f ( x ) f(\bold{x}) f ( x ) の極値を求めるという問題」でラグランジュ乗数 λ \lambda λ を導入することで問題が解けるという数学的な手法だそうです。束縛条件…!!まさに今扱っている問題ですね!
どんなものかと言うと、以下の式が成り立つというものだそうです。
∇ f ( x ) = λ ∇ g ( x )
\nabla f(\bold{x}) = \lambda \nabla g(\bold{x})
∇ f ( x ) = λ ∇ g ( x )
図にして説明してみたいと思います。扱ってるのは3変数ですが、図示するために x , y x,y x , y の2変数関数で説明をします。長々と説明しますが、Wikipediaにもあるような雰囲気をつかむための「幾何的な意味合い」を説明するだけとなります。証明は大変らしいので雰囲気だけ掴み 数式を解くツール として使うに留めておきます。なので、この辺りの文章は飛ばしても大丈夫です。
まず、左図のような座標 ( x , y ) (x, y) ( x , y ) に対して値 z z z が決まるような関数 f ( x , y ) f(x, y) f ( x , y ) を考えます。そして、別の関数 g ( x , y ) g(x, y) g ( x , y ) を考え、この関数が g ( x , y ) = 0 g(x, y) = 0 g ( x , y ) = 0 であるという制約を与えます。これは左図の赤線上の ( x , y ) (x,y) ( x , y ) という制約となります。その制約下での f ( x , y ) f(x,y) f ( x , y ) の値が左図の濃青線です。(※後述しますが左図とは違い、右図の濃青線は極大値での等高線です。ひとまず気にしないでください。)
つまり z = 0 z=0 z = 0 の x y xy x y 平面上の g ( x , y ) g(x,y) g ( x , y ) の曲線を考え、その真上にある f ( x , y ) f(x,y) f ( x , y ) の値ということになります。幾何的な2つの式の関係性が分かったと思います。
続いてラグランジュの未定乗数法の等式についてです。2つの式の勾配を計算したときに極値において、向きが平行になっており、スカラー倍の関係になっているというものです。それが右図です。
まず、2変数では勾配 ∇ = ( ∂ ∂ x , ∂ ∂ y ) \nabla = (\frac{\partial}{\partial x}, \frac{\partial}{\partial y}) ∇ = ( ∂ x ∂ , ∂ y ∂ ) となります。傾きですので、 x x x 方向と y y y 方向の変位を見た時に z z z が最も増加するような値となります。例えば右図の ∇ g ( x , y ) \nabla g(x,y) ∇ g ( x , y ) と書いてある矢印線を見てみてください。下に拡大図を用意しました。便宜的に矢印の起点 ( x a b , y a b ) (x_{ab}, y_{ab}) ( x ab , y ab ) とします。
( x a b , y a b ) (x_{ab}, y_{ab}) ( x ab , y ab ) を x x x 方向にのみ動かした点Aを見ます。この円の赤線は g ( x , y ) = z = 0 g(x, y) = z= 0 g ( x , y ) = z = 0 となる線ですので、この円周上にあるなら z z z は 0 0 0 のままです。つまり x x x 方向の傾きは 0 − 0 Δ x \frac{0 - 0}{\Delta x} Δ x 0 − 0 でざっくり 0 0 0 となります。ということで ∂ ∂ x g ( x a b , y a b ) = 0 \frac{\partial}{\partial x} g(x_{ab}, y_{ab}) = 0 ∂ x ∂ g ( x ab , y ab ) = 0 です。
次に ( x a b , y a b ) (x_{ab}, y_{ab}) ( x ab , y ab ) を y y y 方向にのみ動かした点Bを見ます。g ( x , y ) g(x,y) g ( x , y ) は末広がりの円錐形なのでこの地点では z z z の値は小さくなっています。つまり傾きが発生しています。具体的な値は雑なグラフなのでちょっと分かりませんがなんとなく − 0.3 -0.3 − 0.3 ぐらいということにしておきましょうか。 y y y 方向の傾きは ( − 0.3 ) − 0 Δ y \frac{(-0.3) - 0}{\Delta y} Δ y ( − 0.3 ) − 0 となります。よって、 ∂ ∂ y g ( x a b , y a b ) = − 0.3 \frac{\partial}{\partial y} g(x_{ab}, y_{ab}) = -0.3 ∂ y ∂ g ( x ab , y ab ) = − 0.3 です。
よって、 ∇ g ( x a b , y a b ) = ( 0 , − 0.3 ) \nabla g(x_{ab}, y_{ab}) = (0, -0.3) ∇ g ( x ab , y ab ) = ( 0 , − 0.3 ) となります。結果、近辺の差分を取ってみたときに、もっとも大きく変化する方向のベクトルとなっています。実は点 ( x a b , y a b ) (x_{ab}, y_{ab}) ( x ab , y ab ) における g ( x , y ) g(x,y) g ( x , y ) の接線と垂直方向となっています。最も変化が大きい方向が接線と垂直な方向です。なので他の場所においても勾配は接線と垂直な方向を示します。
図の矢印の向きについて補足
勾配について理解が深まったところで、右図に戻ります。右図は真上から見た図です。こちらも拡大して見てみます。
こちらの濃青線は f ( x , y ) f(x,y) f ( x , y ) 側の等高線(z z z の値が同じとなる ( x , y ) (x,y) ( x , y ) を結んだ線)です。この円の接線を考えます。図のように f ( x , y ) f(x,y) f ( x , y ) と g ( x , y ) g(x,y) g ( x , y ) の接線が一致する箇所が極値となっているそうです。ただし、 g ( x , y ) g(x,y) g ( x , y ) によっては極値が複数ある場合があり、最大・最小が分かるわけではないそうです。
g ( x , y ) = 0 g(x,y) = 0 g ( x , y ) = 0 を x y xy x y 平面で見たとき、そのグラフは接線方向に移動していきます。その方向が、 f ( x , y ) f(x,y) f ( x , y ) において増加があるようなものであれば、まだ極値となるような場所がその増加方向の先にあると考えられます。図のように接線が重なる部分ではそれ以上は f ( x , y ) f(x,y) f ( x , y ) の Δ ( x , y ) \Delta (x,y) Δ ( x , y ) 先で増加はしません。よって極値とみなすことができるのではないかと思われます。しかし、証明までは追えていないので、興味のある方は追ってみるとより身になるかもしれません。
このように接線が一致する場所は以下の式が成り立ちます。傾きベクトルは並行でも向きと大きさは違うので未定乗数 λ \lambda λ としています。「極値を取る地点での勾配の関係式」であり、例えば g ( x , y ) g(x,y) g ( x , y ) の勾配の大きさが違ってもこの極値を取る場所には影響がなく、関係式は成り立つということかと思います。
∇ f ( x ) = λ ∇ g ( x )
\nabla f(\bold{x}) = \lambda \nabla g(\bold{x})
∇ f ( x ) = λ ∇ g ( x )
用意した図が対称性がありシンプル過ぎるので、Wkipediaの図も引用してイメージを深めたいと思います。
引用:https://en.wikipedia.org/wiki/Lagrange_multiplier
g ( x , y ) g(x,y) g ( x , y ) の接線を考えると、極値以外の場所は f ( x , y ) f(x,y) f ( x , y ) の山の斜面になっています。その斜面で f ( x , y ) f(x,y) f ( x , y ) を微分して斜面の傾きを考えると f ( x , y ) f(x,y) f ( x , y ) が増減するので、上か下かまだその先に極値になりそうな場所がありそうで、そんな感じしますね。証明については追いませんが、脳内イメージ的にもそんな感じがします…!!(?) 数学の解説サイトなど探してみると証明などもあるので興味のある人はもっと深堀してみてもいいかもしれません。
次に、この関係式を少し変形します。
∇ f ( x ) = λ ∇ g ( x ) ∇ f ( x ) − λ ∇ g ( x ) = 0 ∇ ( f ( x ) − λ g ( x ) ) = 0 ∇ F ( x , λ ) = 0 { F ( x , λ ) = f ( x ) − λ g ( x ) とおく
\begin{aligned}
\nabla f(\bold{x}) &= \lambda \nabla g(\bold{x}) \\
\nabla f(\bold{x}) - \lambda \nabla g(\bold{x}) &= 0 \\
\nabla (f(\bold{x}) - \lambda g(\bold{x})) &= 0 \\
\nabla F(\bold{x}, \lambda) &= 0 \\
&\begin{cases}
F(\bold{x}, \lambda) = f(\bold{x}) - \lambda g(\bold{x}) とおく
\end{cases}
\end{aligned}
∇ f ( x ) ∇ f ( x ) − λ ∇ g ( x ) ∇ ( f ( x ) − λ g ( x )) ∇ F ( x , λ ) = λ ∇ g ( x ) = 0 = 0 = 0 { F ( x , λ ) = f ( x ) − λ g ( x ) とおく
これにより、「別の関数 g ( x ) g(\bold{x}) g ( x ) で表される条件が付いた関数 f ( x ) f(\bold{x}) f ( x ) の極値問題」を「変数 λ \lambda λ が増えたが1つの関数 F ( x , λ ) F(\bold{x}, \lambda) F ( x , λ ) で表され、別の条件関数がない極値問題」に置き換えて考えることができるという手法だそうです。
これで ラグランジュの未定乗数法 についてはおしまいです。着目している関数とその制約関数について、 「スカラー λ \lambda λ 倍の違いはあれど勾配が等しい場所が極値になっており、関係式が得られる」というイメージを持って、XPBDに戻りましょう。
4.4. ニュートン法のための式を立てる
制約ありの問題にて関係式を立てられるラグランジュの未定乗数法について押さえました。では、元の運動方程式に戻ります。もう一度再掲しておきます。
M x ¨ = − ∇ U T ( x ) (3)
\bold{M} \ddot{\bold{x}} = -\nabla U^{T}(\bold{x}) \tag{3}
M x ¨ = − ∇ U T ( x ) ( 3 )
ここでやりたいことは、 次の時間ステップ Δ t \Delta t Δ t でも制約を満たすようにしたい ということです。
そして Δ t \Delta t Δ t 後の値を近似計算できる数学手法にテイラー展開というものがありました。「テイラー展開というのを使うと、未知の関数であってもすごく近くなら微分を使って近似的に値を計算できる」というもので、別記事にて扱いました。
これを使うことでやりたいことの Δ t \Delta t Δ t 後に関する式を立てることができます。
https://zenn.dev/nrdev/articles/44c5a563846e06
上記の記事では陽解法という「現在の値から未来の値を計算する」というものでシンプルなものでした。XPBDで使う陰解法は「未来の値も式に含んで計算する」というものです。未来の値なんて分からないので、どうやって計算するんだ!という気がしますが、様々な数値計算テクニックを用いて近似的に計算するそうです。なお、未来の値を使うだけあって、陰解法では少し時間ステップ幅が大きくても精度が保たれるそうです。
なので、「近似式を立てる」と「その近似式を数値計算テクニックで解く」を分けて考えていこうと思います。陰解法で未来の値を含んだ「近似式を立てる」ということをしていきます。それが式 ( 4 ) (4) ( 4 ) で、中心差分法というものを使います。
ここでも表記に注意が必要なのですが、右上の n n n はべき乗の指数ではなく、時間ステップのインデックスを表しています。 n n n が時間 t t t であれば、 n + 1 n+1 n + 1 は時間 t + Δ t t + \Delta t t + Δ t となります。一応、補足しておきますがこれは n n n に関してだけで、 Δ t 2 \Delta t^2 Δ t 2 などは通常通り右上は指数です。
M ( x n + 1 − 2 x n + x n − 1 Δ t 2 ) = − ∇ U T ( x n + 1 ) . (4)
\bold{M} (\frac{\bold{x}^{n+1} -2\bold{x}^{n} +\bold{x}^{n-1}}{\Delta t^{2}}) = - \nabla U^{T}(\bold{x}^{n+1}). \tag{4}
M ( Δ t 2 x n + 1 − 2 x n + x n − 1 ) = − ∇ U T ( x n + 1 ) . ( 4 )
この式 ( 4 ) (4) ( 4 ) は次のタイムステップにおける式 ( 3 ) (3) ( 3 ) の加速度 x ¨ \ddot{x} x ¨ を2階中心差分法により近似しています。
M ( x ¨ n + 1 ) = − ∇ U T ( x n + 1 )
\bold{M} (\ddot{\bold{x}}^{n+1}) = - \nabla U^{T}(\bold{x}^{n+1})
M ( x ¨ n + 1 ) = − ∇ U T ( x n + 1 )
x ¨ n + 1 = d 2 x n + 1 d 2 t = d d t d x n + 1 d t = x n + 1 − x n Δ t − x n − x n − 1 Δ t Δ t = x n + 1 − 2 x n + x n − 1 Δ t 2
\begin{aligned}
\ddot{\bold{x}}^{n+1}
&= \frac{d^2 \bold{x}^{n+1}}{d^2 t} \\
&= \frac{d}{dt} \frac{d \bold{x}^{n+1}}{dt} \\
&= \frac{
\frac{\bold{x}^{n+1} - \bold{x}^{n}}{\Delta t}
-
\frac{\bold{x}^{n} - \bold{x}^{n-1}}{\Delta t}
}{\Delta t} \\
&= \frac{ \bold{x}^{n+1} - 2\bold{x}^{n} + \bold{x}^{n-1} }{\Delta t^{2}}
\end{aligned}
x ¨ n + 1 = d 2 t d 2 x n + 1 = d t d d t d x n + 1 = Δ t Δ t x n + 1 − x n − Δ t x n − x n − 1 = Δ t 2 x n + 1 − 2 x n + x n − 1
( t t t の2階微分なので3行目では分母が Δ t \Delta t Δ t で分子に1階微分の差がくる)
中心差分については以下の資料を参考として上げ、説明は割愛します。テイラー展開をもとにしており、考え方は前進差分法(オイラー陽解法)と似ています。
http://www.icehap.chiba-u.jp/activity/SS2016/textbook/SS2016_miyoshi_FD.pdf
http://www.damp.tottori-u.ac.jp/~ooshida/edu/ode/g090427.pdf
ひとまずここまでで、式 ( 4 ) (4) ( 4 ) の変形が分かり、未来の値に関する方程式が得られました。続いて、ラグランジュの未定乗数法を適用して問題を解きます。
ラグランジュの未定乗数法は制約条件を加えつつ ∇ F ( x , λ ) = 0 \nabla F(\bold{x}, \lambda) = 0 ∇ F ( x , λ ) = 0 という式の問題に変えれました。これをニュートン法によって、この等式を満たすような x \bold{x} x と λ \lambda λ を求めるそうです。
ニュートン法について抑えておきます。Wikipediaにイメージが分かりやすいgif画像があるのでぜひ一度確認してみてください。傾きを使って反復的に解いていくと f ( x ) = 0 f(x)=0 f ( x ) = 0 となるような x x x の値を計算できるという手法です。ラグランジュの未定乗数法で得た式は変数が x \bold{x} x と λ \lambda λ の2つがあるので2つの方程式を立てて解いていきます。
https://ja.wikipedia.org/wiki/ニュートン法
論文では割といきなり式 ( 7 ) (7) ( 7 ) でラグランジュ乗数 λ \lambda λ の定義がされて、ニュートン法を解くための2つの方程式 ( 8 ) (8) ( 8 ) ( 9 ) (9) ( 9 ) がでてきます。順を追ってこれを見ていきます。
λ e l a s t i c = − α ~ − 1 C ( x ) . (7)
\bm{\lambda}_{elastic} = -\tilde{\alpha}^{-1}C(\bold{x}). \tag{7}
λ e l a s t i c = − α ~ − 1 C ( x ) . ( 7 )
M ( x n + 1 − x ~ ) − ∇ C ( x n + 1 ) T λ n + 1 = 0 (8)
\bold{M}(\bold{x}^{n+1}-\bold{\tilde{x}}) - \nabla C(\bold{x}^{n+1})^{T} \bm{\lambda}^{n+1} = 0 \tag{8}
M ( x n + 1 − x ~ ) − ∇ C ( x n + 1 ) T λ n + 1 = 0 ( 8 )
C ( x n + 1 ) + α ~ λ n + 1 = 0 (9)
C(\bold{x}^{n+1}) + \tilde{\alpha} \bm{\lambda}^{n+1} = 0 \tag{9}
C ( x n + 1 ) + α ~ λ n + 1 = 0 ( 9 )
それではラグランジュの未定乗数法の出番です。
∇ f ( x ) − λ ∇ g ( x ) = 0
\nabla f(\bold{x}) - \lambda \nabla g(\bold{x}) = 0
∇ f ( x ) − λ ∇ g ( x ) = 0
f ( x ) f(\bold{x}) f ( x ) が対象の関数、 g ( x ) g(\bold{x}) g ( x ) が対象の関数を制約する関数でした。本問題ではそれぞれ次の式が当てはまると思われます。(後ほど f ( x ) f(\bold{x}) f ( x ) 側だけ少し変えます… )
{ f ( x ) : U ( x ) = 1 2 C ( x ) T α − 1 C ( x ) g ( x ) : C ( x ) = 0
\begin{cases}
f(\bold{x}) &: U(\bold{x}) = \frac{1}{2}C(\bold{x})^T \alpha^{-1}C(\bold{x}) \\
g(\bold{x}) &: C(\bold{x}) = 0 \\
\end{cases}
{ f ( x ) g ( x ) : U ( x ) = 2 1 C ( x ) T α − 1 C ( x ) : C ( x ) = 0
これをラグランジュの未定乗数法の式に当てはめると次式になります。
∇ U ( x ) T − λ T ∇ C ( x ) = 0
\nabla U(\bold{x})^{T} - \lambda^{T} \nabla C(\bold{x}) = 0
∇ U ( x ) T − λ T ∇ C ( x ) = 0
式中の項が ∇ U ( x ) = f e l a s t i c \nabla U(\bold{x}) = \bold{f}_{elastic} ∇ U ( x ) = f e l a s t i c でそのまま力ですね。置き換えておきます。
f e l a s t i c − λ T ∇ C ( x ) = 0
\bold{f}_{elastic} - \lambda^{T} \nabla C(\bold{x}) = 0
f e l a s t i c − λ T ∇ C ( x ) = 0
力に関する式になっており、運動方程式の式 ( 4 ) (4) ( 4 ) に若干似ています。どちらも力に関する式なので、 λ \bm{\lambda} λ について式を作れます。
式 ( 4 ) (4) ( 4 ) を変形してこの式の形に持っていき、一部を λ \lambda λ と置くことでこの式と一致します。(論文を読み解くために式から変形を探しているので、本来解くためのアプローチの順序はよく分かりませんが…。なのでよく思いつくなぁという気持ちが高まります…。)
M ( x n + 1 − 2 x n + x n − 1 Δ t 2 ) = − ∇ U T ( x n + 1 ) . (4)
\bold{M} (\frac{\bold{x}^{n+1} -2\bold{x}^{n} +\bold{x}^{n-1}}{\Delta t^{2}}) = - \nabla U^{T}(\bold{x}^{n+1}). \tag{4}
M ( Δ t 2 x n + 1 − 2 x n + x n − 1 ) = − ∇ U T ( x n + 1 ) . ( 4 )
なお、 λ \lambda λ を表す式 ( 7 ) (7) ( 7 ) 、そして式 ( 8 ) (8) ( 8 ) を見るとまだ説明していない α ~ \tilde{\alpha} α ~ と x ~ \tilde{\bold{x}} x ~ が出てきています。これは文中に説明があるので先に説明しておきます。 α ~ \tilde{\alpha} α ~ は扱いやすくなるよう定数をまとめただけかと思います。 x ~ \tilde{\bold{x}} x ~ はこれをさらに後ほど別の形に近似置き換えをするのでまとめているのかと思います。
{ α ~ = α Δ t 2 x ~ = 2 x n − x n − 1
\begin{cases}
\tilde{\alpha} &= \frac{\alpha}{\Delta t^2} \\
\tilde{\bold{x}} &= 2\bold{x}^{n} - \bold{x}^{n-1} \\
\end{cases}
{ α ~ x ~ = Δ t 2 α = 2 x n − x n − 1
しかし、この α ~ \tilde{\alpha} α ~ の置き換えをするためにちょっとごにょごにょします。辻褄はあってると思います…。この置き換えのために f e l a s t i c \bold{f}_{elastic} f e l a s t i c から Δ t 2 \Delta t^2 Δ t 2 を外に出します。
f e l a s t i c = M x n + 1 − x ~ Δ t 2 = f e l a s t i c ′ Δ t 2 { f e l a s t i c ′ = M ( x n + 1 − x ~ )
\begin{aligned}
\bold{f}_{elastic} &= \bold{M}\frac{\bold{x}^{n+1} - \tilde{\bold{x}}}{\Delta t^2} \\
&= \frac{\bold{f}'_{elastic}}{\Delta t^2} \\
&\begin{cases}
\bold{f}'_{elastic} &= \bold{M}(\bold{x}^{n+1} - \tilde{\bold{x}})
\end{cases}
\end{aligned}
f e l a s t i c = M Δ t 2 x n + 1 − x ~ = Δ t 2 f e l a s t i c ′ { f e l a s t i c ′ = M ( x n + 1 − x ~ )
見やすくするため便宜的にこのようにちょっと無理やり外に出してみます。ラグランジュの未定乗数法の式の ∇ U ( x ) = f e l a s t i c \nabla U(\bold{x}) = \bold{f}_{elastic} ∇ U ( x ) = f e l a s t i c もこの f e l a s t i c ′ \bold{f}'_{elastic} f e l a s t i c ′ に置き換えて考えます。式も置き換えて記述しておきます。 ( 式 ( 8 ) (8) ( 8 ) がそのままこの置き換え後の式がでてきます)
f e l a s t i c ′ − λ T ∇ C ( x ) = 0
\bold{f}'_{elastic} - \lambda^{T} \nabla C(\bold{x}) = 0
f e l a s t i c ′ − λ T ∇ C ( x ) = 0
それでは式 ( 4 ) (4) ( 4 ) から始めていき、 λ \lambda λ を表す式 ( 7 ) (7) ( 7 ) を求めてみます。なお、 f e l a s t i c ′ \bold{f}'_{elastic} f e l a s t i c ′ に置き換えた形から始めます。先に分かりやすいように α ~ \tilde{\alpha} α ~ も変形しておきたいと思います。
α ~ − 1 = ( α Δ t 2 ) − 1 = ( Δ t 2 α ) = Δ t 2 ( 1 α ) = Δ t 2 α − 1
\begin{aligned}
\tilde{\alpha}^{-1}
&= (\frac{\alpha}{\Delta t^2})^{-1} \\
&= (\frac{\Delta t^2}{\alpha}) \\
&= \Delta t^2 (\frac{1}{\alpha}) \\
&= \Delta t^2 \alpha^{-1} \\
\end{aligned}
α ~ − 1 = ( Δ t 2 α ) − 1 = ( α Δ t 2 ) = Δ t 2 ( α 1 ) = Δ t 2 α − 1
M ( x n + 1 − x ~ ) Δ t 2 = − ∇ U T ( x n + 1 ) f e l a s t i c ′ Δ t 2 = − ∇ C ( x n + 1 ) T α − 1 C ( x n + 1 ) f e l a s t i c ′ = Δ t 2 ( − ∇ C ( x n + 1 ) T α − 1 C ( x n + 1 ) f e l a s t i c ′ = − ∇ C ( x n + 1 ) T ( Δ t 2 α − 1 ) C ( x n + 1 ) f e l a s t i c ′ = ∇ C ( x n + 1 ) T ( − α ~ − 1 C ( x n + 1 ) ) f e l a s t i c ′ = ∇ C ( x n + 1 ) T λ e l a s t i c n + 1 f e l a s t i c ′ = ( λ e l a s t i c n + 1 ) T ∇ C ( x n + 1 ) f e l a s t i c ′ − ( λ e l a s t i c n + 1 ) T ∇ C ( x n + 1 ) = 0
\begin{aligned}
\frac{\bold{M}(\bold{x}^{n+1} - \tilde{\bold{x}})}{\Delta t^2} &= - \nabla U^{T}(\bold{x}^{n+1}) \\
\frac{\bold{f}'_{elastic}}{\Delta t^2} &= - \nabla C(\bold{x}^{n+1})^{T} \alpha^{-1}C(\bold{x}^{n+1}) \\
\bold{f}'_{elastic} &= \Delta t^2 (- \nabla C(\bold{x}^{n+1})^{T} \alpha^{-1}C(\bold{x}^{n+1}) \\
\bold{f}'_{elastic} &= - \nabla C(\bold{x}^{n+1})^{T} (\Delta t^2 \alpha^{-1})C(\bold{x}^{n+1}) \\
\bold{f}'_{elastic} &= \nabla C(\bold{x}^{n+1})^{T} (-\tilde{\alpha}^{-1} C(\bold{x}^{n+1})) \\
\bold{f}'_{elastic} &= \nabla C(\bold{x}^{n+1})^{T} \bm{\lambda}_{elastic}^{n+1} \\
\bold{f}'_{elastic} &= (\bm{\lambda}^{n+1}_{elastic})^{T} \nabla C(\bold{x}^{n+1}) \\
\bold{f}'_{elastic} - (\bm{\lambda}^{n+1}_{elastic})^{T} \nabla C(\bold{x}^{n+1}) &= 0 \\
\end{aligned}
Δ t 2 M ( x n + 1 − x ~ ) Δ t 2 f e l a s t i c ′ f e l a s t i c ′ f e l a s t i c ′ f e l a s t i c ′ f e l a s t i c ′ f e l a s t i c ′ f e l a s t i c ′ − ( λ e l a s t i c n + 1 ) T ∇ C ( x n + 1 ) = − ∇ U T ( x n + 1 ) = − ∇ C ( x n + 1 ) T α − 1 C ( x n + 1 ) = Δ t 2 ( − ∇ C ( x n + 1 ) T α − 1 C ( x n + 1 ) = − ∇ C ( x n + 1 ) T ( Δ t 2 α − 1 ) C ( x n + 1 ) = ∇ C ( x n + 1 ) T ( − α ~ − 1 C ( x n + 1 )) = ∇ C ( x n + 1 ) T λ e l a s t i c n + 1 = ( λ e l a s t i c n + 1 ) T ∇ C ( x n + 1 ) = 0
計算の過程で目的の式 ( 7 ) (7) ( 7 ) の λ e l a s t i c \bm{\lambda}_{elastic} λ e l a s t i c が出てきましたね。なので置き換えて、ラグランジュの未定乗数法の式の形まで持っていきました。最後は λ \lambda λ も ∇ C \nabla C ∇ C もベクトルで内積になっています。内積は交換法則が成り立つので入れ替えています。
ラグランジュの未定乗数法の式も再掲しておきます。一致していますね。
f e l a s t i c ′ − λ T ∇ C ( x ) = 0
\bold{f}'_{elastic} - \lambda^{T} \nabla C(\bold{x}) = 0
f e l a s t i c ′ − λ T ∇ C ( x ) = 0
これで式 ( 7 ) (7) ( 7 ) は分かりました。続いて本題の連立方程式である 式 ( 8 ) (8) ( 8 ) ( 9 ) (9) ( 9 ) です。が、実はもう出ています…!!この式 ( 7 ) (7) ( 7 ) と今のラグランジュの未定乗数法の式です!
見ればそのままですが式を見ていきます。まずは式 ( 8 ) (8) ( 8 ) からです。(最初にさきほど交換法則で入れ替えたのを戻します)
f e l a s t i c ′ − ( λ n + 1 ) T ∇ C ( x n + 1 ) = 0 f e l a s t i c ′ − ∇ C ( x n + 1 ) T λ n + 1 = 0 M ( x n + 1 − x ~ ) − ∇ C ( x n + 1 ) T λ n + 1 = 0
\begin{aligned}
\bold{f}'_{elastic} - (\bm{\lambda}^{n+1})^{T} \nabla C(\bold{x}^{n+1}) &= 0 \\
\bold{f}'_{elastic} -\nabla C(\bold{x}^{n+1})^{T} \bm{\lambda}^{n+1} &= 0 \\
\bold{M}(\bold{x}^{n+1} - \tilde{\bold{x}}) -\nabla C(\bold{x}^{n+1})^{T} \bm{\lambda}^{n+1} &= 0 \\
\end{aligned}
f e l a s t i c ′ − ( λ n + 1 ) T ∇ C ( x n + 1 ) f e l a s t i c ′ − ∇ C ( x n + 1 ) T λ n + 1 M ( x n + 1 − x ~ ) − ∇ C ( x n + 1 ) T λ n + 1 = 0 = 0 = 0
次に式 ( 9 ) (9) ( 9 ) です。
λ n + 1 = − α ~ − 1 C ( x n + 1 ) α ~ λ n + 1 = α ~ ( − α ~ − 1 C ( x n + 1 ) ) α ~ λ n + 1 = − C ( x n + 1 ) C ( x n + 1 ) + α ~ λ n + 1 = 0
\begin{aligned}
\bm{\lambda}^{n+1} &= -\tilde{\alpha}^{-1}C(\bold{x}^{n+1}) \\
\tilde{\alpha}\bm{\lambda}^{n+1} &= \tilde{\alpha}(-\tilde{\alpha}^{-1}C(\bold{x}^{n+1})) \\
\tilde{\alpha}\bm{\lambda}^{n+1} &= - C(\bold{x}^{n+1}) \\
C(\bold{x}^{n+1}) + \tilde{\alpha}\bm{\lambda}^{n+1} &= 0 \\
\end{aligned}
λ n + 1 α ~ λ n + 1 α ~ λ n + 1 C ( x n + 1 ) + α ~ λ n + 1 = − α ~ − 1 C ( x n + 1 ) = α ~ ( − α ~ − 1 C ( x n + 1 )) = − C ( x n + 1 ) = 0
この式をニュートン法で解いていきます。ニュートン法の形として見やすいように2変数関数とみなして置いただけだと思いますが、それぞれ式 ( 10 ) (10) ( 10 ) ( 11 ) (11) ( 11 ) と置きます。
一応注意書きです。さきほどラグランジュの未定乗数法の説明にて、Wikipediaと揃えて g ( x ) g(\bold{x}) g ( x ) と書いていましたが、この式 ( 10 ) (10) ( 10 ) とは記号かぶりしてしまっておりますが別です。
g ( x , λ ) = 0 (10)
g(\bold{x}, \bm{\lambda}) = 0 \tag{10}
g ( x , λ ) = 0 ( 10 )
h ( x , λ ) = 0 (11)
h(\bold{x}, \bm{\lambda}) = 0 \tag{11}
h ( x , λ ) = 0 ( 11 )
この式らを次のような行列形式の連立方程式にします。なお、 K = ∂ g ∂ x \bold{K} = \frac{\partial g}{\partial \bold{x}} K = ∂ x ∂ g です。
Linearizing equations ( 10 , 11 ) (10, 11) ( 10 , 11 ) we obtain the following linear Newton subproblem:
[ K − ∇ C T ( x i ) ∇ C ( x i ) α ~ ] [ Δ x Δ λ ] = − [ g ( x i , λ i ) h ( x i , λ i ) ] (12)
\begin{bmatrix}
\bold{K} & -\nabla C^{T}(\bold{x}_i) \\
\nabla C(\bold{x}_i) & \tilde{\alpha}
\end{bmatrix}
\begin{bmatrix}
\Delta \bold{x} \\
\Delta \bm{\lambda}
\end{bmatrix}
= - \begin{bmatrix}
g(\bold{x}_i, \bm{\lambda}_i) \\
h(\bold{x}_i, \bm{\lambda}_i)
\end{bmatrix} \tag{12}
[ K ∇ C ( x i ) − ∇ C T ( x i ) α ~ ] [ Δ x Δ λ ] = − [ g ( x i , λ i ) h ( x i , λ i ) ] ( 12 )
式 ( 10 , 11 ) (10, 11) ( 10 , 11 ) を線形化(Linearizing)し、次の線形ニュートン部分問題を得る
[ K − ∇ C T ( x i ) ∇ C ( x i ) α ~ ] [ Δ x Δ λ ] = − [ g ( x i , λ i ) h ( x i , λ i ) ] (12)
\begin{bmatrix}
\bold{K} & -\nabla C^{T}(\bold{x}_i) \\
\nabla C(\bold{x}_i) & \tilde{\alpha}
\end{bmatrix}
\begin{bmatrix}
\Delta \bold{x} \\
\Delta \bm{\lambda}
\end{bmatrix}
= - \begin{bmatrix}
g(\bold{x}_i, \bm{\lambda}_i) \\
h(\bold{x}_i, \bm{\lambda}_i)
\end{bmatrix} \tag{12}
[ K ∇ C ( x i ) − ∇ C T ( x i ) α ~ ] [ Δ x Δ λ ] = − [ g ( x i , λ i ) h ( x i , λ i ) ] ( 12 )
ここでいう線形化(Linearizing)とは、1次のテイラー展開により、非線形な式を線形に近似することだと思われます。今回は2変数ですので、まず2変数のテイラー展開について調べておきます。次の通りです。
f ( x + a , y + b ) = f ( x , y ) + ∂ f ∂ x a + ∂ f ∂ y b
f(x+a, y+b) = f(x,y)
+ \frac{\partial f}{\partial x}a
+ \frac{\partial f}{\partial y}b
f ( x + a , y + b ) = f ( x , y ) + ∂ x ∂ f a + ∂ y ∂ f b
https://eman-physics.net/math/taylor_multi.html
ではまず g ( x , λ ) g(\bold{x}, \bm{\lambda}) g ( x , λ ) についてテイラー展開をしてみます。
g ( x + Δ x , λ + Δ λ ) = g ( x , λ ) + ∂ g ( x , λ ) ∂ x Δ x + ∂ g ( x , λ ) ∂ λ Δ λ
\begin{aligned}
g(\bold{x} + \Delta \bold{x}, \bm{\lambda} + \Delta \bm{\lambda})
&=
g(\bold{x}, \bm{\lambda})
+
\frac{\partial g(\bold{x}, \bm{\lambda})}{\partial \bold{x}}\Delta \bold{x}
+
\frac{\partial g(\bold{x}, \bm{\lambda})}{\partial \bm{\lambda}}\Delta \bm{\lambda}
\end{aligned}
g ( x + Δ x , λ + Δ λ ) = g ( x , λ ) + ∂ x ∂ g ( x , λ ) Δ x + ∂ λ ∂ g ( x , λ ) Δ λ
式 ( 10 ) (10) ( 10 ) より、式全体が0になるので次のようにかけます。
g ( x , λ ) + ∂ g ( x , λ ) ∂ x Δ x + ∂ g ( x , λ ) ∂ λ Δ λ = 0 ∂ g ( x , λ ) ∂ x Δ x + ∂ g ( x , λ ) ∂ λ Δ λ = − g ( x , λ )
\begin{aligned}
g(\bold{x}, \bm{\lambda})
+
\frac{\partial g(\bold{x}, \bm{\lambda})}{\partial \bold{x}}\Delta \bold{x}
+
\frac{\partial g(\bold{x}, \bm{\lambda})}{\partial \bm{\lambda}}\Delta \bm{\lambda}
&= 0
\\
\frac{\partial g(\bold{x}, \bm{\lambda})}{\partial \bold{x}}\Delta \bold{x}
+
\frac{\partial g(\bold{x}, \bm{\lambda})}{\partial \bm{\lambda}}\Delta \bm{\lambda}
&= - g(\bold{x}, \bm{\lambda})
\end{aligned}
g ( x , λ ) + ∂ x ∂ g ( x , λ ) Δ x + ∂ λ ∂ g ( x , λ ) Δ λ ∂ x ∂ g ( x , λ ) Δ x + ∂ λ ∂ g ( x , λ ) Δ λ = 0 = − g ( x , λ )
それぞれの偏微分の式をみていきます。その結果を使って置き換えます。
∂ g ( x , λ ) ∂ x = K
\frac{\partial g(\bold{x}, \bm{\lambda})}{\partial \bold{x}} = \bold{K}
∂ x ∂ g ( x , λ ) = K
∂ g ( x , λ ) ∂ λ = ∂ ∂ λ ( M ( x n − x ~ ) − ∇ C ( x n ) T λ n ) = ∂ ∂ λ ( M ( x n − x ~ ) ) − ∂ ∂ λ ( ∇ C ( x n ) T λ n ) = 0 − ∂ ∂ λ ( ∇ C ( x n ) T λ n ) = − ∇ C ( x n ) T
\begin{aligned}
\frac{\partial g(\bold{x}, \bm{\lambda})}{\partial \bm{\lambda}}
&=
\frac{\partial}{\partial \bm{\lambda}}
(\bold{M}(\bold{x}^{n}-\bold{\tilde{x}}) - \nabla C(\bold{x}^{n})^{T} \bm{\lambda}^{n}) \\
&=
\frac{\partial}{\partial \bm{\lambda}}(
\bold{M}(\bold{x}^{n}-\bold{\tilde{x}}))
-
\frac{\partial}{\partial \bm{\lambda}}(
\nabla C(\bold{x}^{n})^{T} \bm{\lambda}^{n}) \\
&=
0
-
\frac{\partial}{\partial \bm{\lambda}}(
\nabla C(\bold{x}^{n})^{T} \bm{\lambda}^{n}) \\
&=
-
\nabla C(\bold{x}^{n})^{T} \\
\end{aligned}
∂ λ ∂ g ( x , λ ) = ∂ λ ∂ ( M ( x n − x ~ ) − ∇ C ( x n ) T λ n ) = ∂ λ ∂ ( M ( x n − x ~ )) − ∂ λ ∂ ( ∇ C ( x n ) T λ n ) = 0 − ∂ λ ∂ ( ∇ C ( x n ) T λ n ) = − ∇ C ( x n ) T
それではテイラー展開をした式中の偏微分を置き換えてみます。
K Δ x − ∇ C ( x n ) T Δ λ = − g ( x , λ ) [ K − ∇ C ( x n ) T ] [ Δ x Δ λ ] = − g ( x , λ )
\begin{aligned}
\bold{K}
\Delta \bold{x}
-\nabla C(\bold{x}^{n})^{T}
\Delta \bm{\lambda}
&= - g(\bold{x}, \bm{\lambda}) \\
\begin{bmatrix}
\bold{K} & -\nabla C(\bold{x}^{n})^{T}
\end{bmatrix}
\begin{bmatrix}
\Delta \bold{x} \\
\Delta \bm{\lambda}
\end{bmatrix}
&= - g(\bold{x}, \bm{\lambda}) \\
\end{aligned}
K Δ x − ∇ C ( x n ) T Δ λ [ K − ∇ C ( x n ) T ] [ Δ x Δ λ ] = − g ( x , λ ) = − g ( x , λ )
g ( x , λ ) g(\bold{x}, \bm{\lambda}) g ( x , λ ) に関しては式 ( 12 ) (12) ( 12 ) になりました!
続いて、 h ( x , λ ) h(\bold{x}, \bm{\lambda}) h ( x , λ ) についてテイラー展開をしていきます。
h ( x + Δ x , λ + Δ λ ) = h ( x , λ ) + ∂ h ( x , λ ) ∂ x Δ x + ∂ h ( x , λ ) ∂ λ Δ λ
\begin{aligned}
h(\bold{x} + \Delta \bold{x}, \bm{\lambda} + \Delta \bm{\lambda})
&=
h(\bold{x}, \bm{\lambda})
+
\frac{\partial h(\bold{x}, \bm{\lambda})}{\partial \bold{x}}\Delta \bold{x}
+
\frac{\partial h(\bold{x}, \bm{\lambda})}{\partial \bm{\lambda}}\Delta \bm{\lambda}
\end{aligned}
h ( x + Δ x , λ + Δ λ ) = h ( x , λ ) + ∂ x ∂ h ( x , λ ) Δ x + ∂ λ ∂ h ( x , λ ) Δ λ
ここまでは同じですね。ではそれぞれの偏微分を見ていきます。
h ( x , λ ) = C ( x n ) + α ~ λ n
h(\bold{x}, \bm{\lambda}) = C(\bold{x}^{n}) + \tilde{\alpha} \bm{\lambda}^{n}
h ( x , λ ) = C ( x n ) + α ~ λ n
∂ h ( x , λ ) ∂ x = ∂ ∂ x ( C ( x n ) + α ~ λ n ) = ∂ ∂ x ( C ( x n ) ) + ∂ ∂ x ( α ~ λ n ) = ∇ C ( x n ) + 0 = ∇ C ( x n )
\begin{aligned}
\frac{\partial h(\bold{x}, \bm{\lambda})}{\partial \bold{x}}
&=
\frac{\partial}{\partial \bold{x}}
(C(\bold{x}^{n}) + \tilde{\alpha} \bm{\lambda}^{n})
\\
&=
\frac{\partial}{\partial \bold{x}}
(C(\bold{x}^{n}))
+
\frac{\partial}{\partial \bold{x}}
(\tilde{\alpha} \bm{\lambda}^{n})
\\
&=
\nabla C(\bold{x}^{n})
+
0
\\
&=
\nabla C(\bold{x}^{n})
\\
\end{aligned}
∂ x ∂ h ( x , λ ) = ∂ x ∂ ( C ( x n ) + α ~ λ n ) = ∂ x ∂ ( C ( x n )) + ∂ x ∂ ( α ~ λ n ) = ∇ C ( x n ) + 0 = ∇ C ( x n )
∂ h ( x , λ ) ∂ λ = ∂ ∂ λ ( C ( x n ) + α ~ λ n ) = ∂ ∂ λ ( C ( x n ) ) + ∂ ∂ λ ( α ~ λ n ) = 0 + α ~ = α ~
\begin{aligned}
\frac{\partial h(\bold{x}, \bm{\lambda})}{\partial \bm{\lambda}}
&=
\frac{\partial}{\partial \bm{\lambda}}
(C(\bold{x}^{n}) + \tilde{\alpha} \bm{\lambda}^{n}) \\
&=
\frac{\partial}{\partial \bm{\lambda}}
(C(\bold{x}^{n}))
+
\frac{\partial}{\partial \bm{\lambda}}
(\tilde{\alpha} \bm{\lambda}^{n}) \\
&=
0
+
\tilde{\alpha} \\
&= \tilde{\alpha} \\
\end{aligned}
∂ λ ∂ h ( x , λ ) = ∂ λ ∂ ( C ( x n ) + α ~ λ n ) = ∂ λ ∂ ( C ( x n )) + ∂ λ ∂ ( α ~ λ n ) = 0 + α ~ = α ~
それではテイラー展開をした式中の偏微分を置き換えます。こちらも式 ( 12 ) (12) ( 12 ) の形になりました。
∇ C ( x n ) Δ x + α ~ Δ λ = − h ( x , λ ) [ ∇ C ( x n ) α ~ ] [ Δ x Δ λ ] = − h ( x , λ )
\begin{aligned}
\nabla C(\bold{x}^{n})
\Delta \bold{x}
+ \tilde{\alpha}
\Delta \bm{\lambda}
&= - h(\bold{x}, \bm{\lambda}) \\
\begin{bmatrix}
\nabla C(\bold{x}^{n}) & \tilde{\alpha}
\end{bmatrix}
\begin{bmatrix}
\Delta \bold{x} \\
\Delta \bm{\lambda}
\end{bmatrix}
&= - h(\bold{x}, \bm{\lambda}) \\
\end{aligned}
∇ C ( x n ) Δ x + α ~ Δ λ [ ∇ C ( x n ) α ~ ] [ Δ x Δ λ ] = − h ( x , λ ) = − h ( x , λ )
これらをまとめて行列で表すと式 ( 12 ) (12) ( 12 ) になります。再掲しておきます。
[ K − ∇ C T ( x i ) ∇ C ( x i ) α ~ ] [ Δ x Δ λ ] = − [ g ( x i , λ i ) h ( x i , λ i ) ] (12)
\begin{bmatrix}
\bold{K} & -\nabla C^{T}(\bold{x}_i) \\
\nabla C(\bold{x}_i) & \tilde{\alpha}
\end{bmatrix}
\begin{bmatrix}
\Delta \bold{x} \\
\Delta \bm{\lambda}
\end{bmatrix}
=
-
\begin{bmatrix}
g(\bold{x}_i, \bm{\lambda}_i) \\
h(\bold{x}_i, \bm{\lambda}_i)
\end{bmatrix}
\tag{12}
[ K ∇ C ( x i ) − ∇ C T ( x i ) α ~ ] [ Δ x Δ λ ] = − [ g ( x i , λ i ) h ( x i , λ i ) ] ( 12 )
ニュートン法は傾きの「方向」に Δ x \Delta \bold{x} Δ x だけ繰り返し近づけていき、解を得る方法でした。式 ( 10 ) , ( 11 ) (10), (11) ( 10 ) , ( 11 ) をテイラー展開をし、傾き方向への Δ x \Delta \bold{x} Δ x と Δ λ \Delta \bm{\lambda} Δ λ の式を立てました。
この方程式を解き、 Δ x , Δ λ \Delta \bold{x}, \Delta \bm{\lambda} Δ x , Δ λ を求められれば、次の式 ( 13 ) (13) ( 13 ) ( 14 ) (14) ( 14 ) によって、 x \bold{x} x と λ \lambda λ を更新することができます。これを繰り返して行います。そして徐々に解に近づけていきます。(一応補足: x i \bold{x}_i x i の i i i はイテレーションのインデックスです)
λ i + 1 = λ i + Δ λ (13)
\bm{\lambda}_{i+1} = \bm{\lambda}_{i} + \Delta \bm{\lambda} \tag{13}
λ i + 1 = λ i + Δ λ ( 13 )
x i + 1 = x i + Δ x (14)
\bold{x}_{i+1} = \bold{x}_{i} + \Delta \bold{x} \tag{14}
x i + 1 = x i + Δ x ( 14 )
なお、論文中にも記述がありますが、ヘッセ行列(Hessian terms)を近似で除外しており準ニュートン法とみなせると書かれています。ニュートン法はヘッセ項という偏微分からなる行列を計算するらしいのですが、大変なので様々な方法で近似して計算するらしくそれを準ニュートン法と呼ぶらしいです。ヘッセ行列や詳細なニュートン法/準ニュートン法について今回はあまり深追いをしませんが、いずれは理解を深めてみたいと思います。
実際に解き始めていきたいところですが、その前に式 ( 12 ) (12) ( 12 ) をいくつか変更して式 ( 15 ) (15) ( 15 ) にしています。
K ≈ M
\bold{K} \approx \bold{M}
K ≈ M
g ( x i , λ i ) = 0
g(\bold{x}_i, \bm{\lambda}_i) = 0
g ( x i , λ i ) = 0
[ M − ∇ C T ( x i ) ∇ C ( x i ) α ~ ] [ Δ x Δ λ ] = − [ 0 h ( x i , λ i ) ] (15)
\begin{bmatrix}
\bold{M} & -\nabla C^{T}(\bold{x}_i) \\
\nabla C(\bold{x}_i) & \tilde{\alpha}
\end{bmatrix}
\begin{bmatrix}
\Delta \bold{x} \\
\Delta \bm{\lambda}
\end{bmatrix}
=
-
\begin{bmatrix}
0 \\
h(\bold{x}_i, \bm{\lambda}_i)
\end{bmatrix}
\tag{15}
[ M ∇ C ( x i ) − ∇ C T ( x i ) α ~ ] [ Δ x Δ λ ] = − [ 0 h ( x i , λ i ) ] ( 15 )
We now introduce two approximations that simplify the implementation of our method and allow us to make a connection back to PBD. First, we use the approximation that K ≈ M K \approx M K ≈ M . This omits the geometric stiffness and constraint Hessian terms, and introduces a local error on the order of O ( Δ t 2 ) O(\Delta t^2) O ( Δ t 2 ) .
Next, we assume that g ( x i , λ i ) = 0 g(\bold{x}_i, \bm{\lambda}_i) = 0 g ( x i , λ i ) = 0 . This assumption is justified by noting that it is trivially true for the first Newton iteration when initialized with x 0 = x ~ \bold{x}_0 = \tilde{\bold{x}} x 0 = x ~ and λ 0 = 0 \bm{\lambda}_0 = 0 λ 0 = 0 . In addition, if the constraint gradients change slowly then it will remain small, and will go to zero when they are constant.
私たちの手法の実装を単純にし、PBDに帰着させるために、2つの近似を導入した。まずは K ≈ M K \approx M K ≈ M の近似をする。これにより剛性と制約ヘッセ項を除外し、 O ( Δ t 2 ) O(\Delta t^2) O ( Δ t 2 ) の局所誤差となる。
次に g ( x i , λ i ) = 0 g(\bold{x}_i, \bm{\lambda}_i) = 0 g ( x i , λ i ) = 0 と仮定する。この仮定は次のことに注意することで正当化される。それは x 0 = x ~ \bold{x}_0 = \tilde{\bold{x}} x 0 = x ~ と λ 0 = 0 \bm{\lambda}_0 = 0 λ 0 = 0 で初期化し、ニュートン法の初回イテレーションを行うことで自明に成り立つということ。さらに、制約の勾配がゆっくり変化するならば、この値 g ( x i , λ i ) g(\bold{x}_i, \bm{\lambda}_i) g ( x i , λ i ) は小さく保たれ、勾配が一定の場合にはゼロに収束する。
ここも理解が怪しいです。 K ≈ M K \approx M K ≈ M に関しては K = ∂ g ( x , λ ) ∂ x \bold{K} = \frac{\partial g(\bold{x}, \bm{\lambda})}{\partial \bold{x}} K = ∂ x ∂ g ( x , λ ) を計算すると M \bold{M} M と剛性と制約ヘッセ項とやらが出てきて、剛性と制約ヘッセ項を無視して M \bold{M} M だけとみなす、ということなのでしょうか?ヘッセ項については先ほど触れましたが、式変形を試みたもののよく分からなかったです。
次に g ( x i , λ i ) = 0 g(\bold{x}_i, \bm{\lambda}_i) = 0 g ( x i , λ i ) = 0 についてですが、こちらも理解があやしいです。式 ( 8 ) (8) ( 8 ) にて、初回 x 0 = x ~ \bold{x}_0 = \tilde{\bold{x}} x 0 = x ~ と λ 0 = 0 \bm{\lambda}_0 = 0 λ 0 = 0 とすると、第1項も第2項も 0 0 0 の積になって、 0 0 0 になるということでしょうか?ただ、 g ( x i , λ i ) g(\bold{x}_i, \bm{\lambda}_i) g ( x i , λ i ) が出てくるのは式 ( 12 ) (12) ( 12 ) ですし、まだしっかりと咀嚼できていません。
M ( x n + 1 − x ~ ) − ∇ C ( x n + 1 ) T λ n + 1 = 0 (8)
\bold{M}(\bold{x}^{n+1}-\bold{\tilde{x}}) - \nabla C(\bold{x}^{n+1})^{T} \bm{\lambda}^{n+1} = 0 \tag{8}
M ( x n + 1 − x ~ ) − ∇ C ( x n + 1 ) T λ n + 1 = 0 ( 8 )
近似については理解があやしいですが、ひとまず近似によって式 ( 15 ) (15) ( 15 ) を得たとして進めたいと思います。
[ M − ∇ C T ( x i ) ∇ C ( x i ) α ~ ] [ Δ x Δ λ ] = − [ 0 h ( x i , λ i ) ] (15)
\begin{bmatrix}
\bold{M} & -\nabla C^{T}(\bold{x}_i) \\
\nabla C(\bold{x}_i) & \tilde{\alpha}
\end{bmatrix}
\begin{bmatrix}
\Delta \bold{x} \\
\Delta \bm{\lambda}
\end{bmatrix}
=
-
\begin{bmatrix}
0 \\
h(\bold{x}_i, \bm{\lambda}_i)
\end{bmatrix}
\tag{15}
[ M ∇ C ( x i ) − ∇ C T ( x i ) α ~ ] [ Δ x Δ λ ] = − [ 0 h ( x i , λ i ) ] ( 15 )
4.5 実際に解く!
近似をしたことでかなりシンプルになりました。式 ( 15 ) (15) ( 15 ) から Δ x \Delta \bold{x} Δ x と Δ λ \Delta \bm{\lambda} Δ λ を計算しましょう。まずは Δ λ \Delta \bm{\lambda} Δ λ についてです。式 ( 15 ) (15) ( 15 ) から Δ λ \Delta \bm{\lambda} Δ λ について式を立てたのが式 ( 16 ) (16) ( 16 ) です。
[ ∇ C ( x i ) M − 1 ∇ C ( x i ) T + α ~ ] Δ λ = − C ( x i ) − α ~ λ i . (16)
\begin{bmatrix}
\nabla C(\bold{x}_i) \bold{M}^{-1} \nabla C(\bold{x}_i)^{T} + \tilde{\alpha}
\end{bmatrix}
\Delta \bm{\lambda}
=
-C(\bold{x}_i) - \tilde{\alpha} \bm{\lambda}_i. \tag{16}
[ ∇ C ( x i ) M − 1 ∇ C ( x i ) T + α ~ ] Δ λ = − C ( x i ) − α ~ λ i . ( 16 )
この式には Δ x \Delta \bold{x} Δ x が含まれていません!!変数は Δ λ \Delta \bm{\lambda} Δ λ だけですので、そのまま解くことができます!
Δ λ = − C ( x i ) − α ~ λ i ∇ C ( x i ) M − 1 ∇ C ( x i ) T + α ~
\Delta \bm{\lambda}
=
\frac
{
-C(\bold{x}_i) - \tilde{\alpha} \bm{\lambda}_i
}
{
\nabla C(\bold{x}_i) \bold{M}^{-1} \nabla C(\bold{x}_i)^{T} + \tilde{\alpha}
}
Δ λ = ∇ C ( x i ) M − 1 ∇ C ( x i ) T + α ~ − C ( x i ) − α ~ λ i
この式を得るにはシューア補行列(the Schur complement)という数学テクニックを用いています。
https://ja.wikipedia.org/wiki/シューア補行列
M a t r i x : = [ A B C D ]
Matrix :=
\begin{bmatrix}
A & B\\
C & D
\end{bmatrix}
M a t r i x := [ A C B D ]
このようなブロック行列にて A A A が正則行列であるとき次の式が成り立ちます。
M a t r i x : = D − C A − 1 B
Matrix := D - CA^{-1}B
M a t r i x := D − C A − 1 B
よって次のように Δ x \Delta \bold{x} Δ x を含まずに Δ λ \Delta \bm{\lambda} Δ λ だけの式を立てることができます。
M a t r i x [ Δ x Δ λ ] = − [ 0 h ( x i , λ i ) ] (15)
Matrix
\begin{bmatrix}
\Delta \bold{x} \\
\Delta \bm{\lambda}
\end{bmatrix}
=
-
\begin{bmatrix}
0 \\
h(\bold{x}_i, \bm{\lambda}_i)
\end{bmatrix}
\tag{15}
M a t r i x [ Δ x Δ λ ] = − [ 0 h ( x i , λ i ) ] ( 15 )
M a t r i x Δ λ = − h ( x i , λ i ) [ D − C A − 1 B ] Δ λ = − h ( x i , λ i ) [ ( α ~ ) − ( ∇ C ( x i ) ) ( M − 1 ) ( − ∇ C ( x i ) T ) ] Δ λ = − h ( x i , λ i ) [ ∇ C ( x i ) M − 1 ∇ C ( x i ) T + α ~ ] Δ λ = − h ( x i , λ i ) [ ∇ C ( x i ) M − 1 ∇ C ( x i ) T + α ~ ] Δ λ = − C ( x i ) − α ~ λ i
\begin{aligned}
Matrix
\Delta \bm{\lambda}
&=
-h(\bold{x}_i, \bm{\lambda}_i)\\
[D - CA^{-1}B]
\Delta \bm{\lambda}
&=
-h(\bold{x}_i, \bm{\lambda}_i)\\
[
(\tilde{\alpha})
-
(\nabla C(\bold{x}_i))
(\bold{M}^{-1})
(-\nabla C(\bold{x}_i)^{T})
]
\Delta \bm{\lambda}
&=
-h(\bold{x}_i, \bm{\lambda}_i)\\
\begin{bmatrix}
\nabla C(\bold{x}_i) \bold{M}^{-1} \nabla C(\bold{x}_i)^{T} + \tilde{\alpha}
\end{bmatrix}
\Delta \bm{\lambda}
&=
-h(\bold{x}_i, \bm{\lambda}_i)\\
\begin{bmatrix}
\nabla C(\bold{x}_i) \bold{M}^{-1} \nabla C(\bold{x}_i)^{T} + \tilde{\alpha}
\end{bmatrix}
\Delta \bm{\lambda}
&=
-C(\bold{x}_i) - \tilde{\alpha} \bm{\lambda}_i
\end{aligned}
M a t r i x Δ λ [ D − C A − 1 B ] Δ λ [( α ~ ) − ( ∇ C ( x i )) ( M − 1 ) ( − ∇ C ( x i ) T )] Δ λ [ ∇ C ( x i ) M − 1 ∇ C ( x i ) T + α ~ ] Δ λ [ ∇ C ( x i ) M − 1 ∇ C ( x i ) T + α ~ ] Δ λ = − h ( x i , λ i ) = − h ( x i , λ i ) = − h ( x i , λ i ) = − h ( x i , λ i ) = − C ( x i ) − α ~ λ i
これで式 ( 16 ) (16) ( 16 ) が得られました。
あとは Δ x \Delta \bold{x} Δ x について解くだけです。 Δ λ \Delta \bm{\lambda} Δ λ は計算できたので、こちらにはに Δ λ \Delta \bm{\lambda} Δ λ を含んでいても解くことができます。なので愚直に式 ( 15 ) (15) ( 15 ) から Δ x \Delta \bold{x} Δ x の式を作ります。それが式 (17) です。
\Delta \bold{x} = \bold{M}^{-1} \nabla C(\bold{x}_i)^{T} \Delta \bm{\lambda}. \tag{17}
アルゴリズムには式 (18) が示されていましたが、これは単に \Delta \bm{\lambda} の式 (16) を各制約に対して書き直したものです。一応記載しておきますが、形はほぼ式 (16) です。
\Delta \bm{\lambda}_j
=
\frac
{
-C_j(\bold{x}_i) - \tilde{\alpha}_j \bm{\lambda}_{ij}
}
{
\nabla C_j(\bold{x}_i) \bold{M}^{-1} \nabla C_j(\bold{x}_i)^{T} + \tilde{\alpha}_j
}.
\tag{18}
かなり長くなりましたが以上です!!!!
■ 剛性について
冒頭でPBDの課題について考察しました。そこでXPBDの剛性の扱いについて着目しながら読むと言っていたので最後に触れておきます。
XPBDでは、PBDのように無理やり修正距離を k 倍するのではなく、運動方程式の中に組み込まれて解いています。よって、本来の物理的な剛性として計算され、イテレーション回数に変な依存をしていないのではないかと思います。
5. プログラム
全体のアルゴリズムを再掲します。
引用:Macklin, Miles, Matthias Müller, and Nuttapong Chentanez. "XPBD: position-based simulation of compliant constrained dynamics." Proceedings of the 9th International Conference on Motion in Games . 2016.
以下が実装してみたUnityのコードの抜粋です。極力上記のアルゴリズムと一致するように書いてみました。
以下は制約ごとに計算している式 (17) (18) です。
5.1. サンプルプロジェクト
動作するUnityプロジェクトはGithubで公開しています。また、UE5とGodotで動作するサンプルも公開しています。
https://github.com/ner-develop/PositionBasedDynamics
https://github.com/ner-develop/PositionBasedDynamicsForUE
https://github.com/ner-develop/PositionBasedDynamicsForGodot
6. さいごに
ところどころまだ理解が浅いところもありますが、どういう手法なのか理解が深まった気がします。一方でヤコビ行列やヘッセ行列、ニュートン法/準ニュートン法などさらに学ぶ必要がありそうなワードがいくつも出てきました。
論文を読んでみるというのはその分野に関する知識がかなり必要だと感じたので、これからも気になる論文を読んで精進していきたいです。PBDの論文読みとは別に、XPBDだけでも実装以外の論文を読み解く部分で1ヵ月ぐらい数式やら英語とにらめっこしていた気がします。数値解析や数理最適(?)などしっかりと触れてこなかった分野を基礎から学びたくなりました。
記事内の指摘や、アドバイス、この分野に関するおススメ書籍や論文などあれば、コメントなどで教えていただけると喜びます!!
Discussion