이번 내용을 이해하기 위해서는 벡터의 Forward Transformation, Backward Transformation에 대한 지식이 있으셔야 합니다. 이에 대한 기본적인 개념은 이전 포스트에 정리해두었으니, 참고하시길 바랍니다.
https://psg-quantuminfo.tistory.com/35
Tensor Calculus에서 각 기호의 의미
Linear Algebra, Multivarialbe calculus에서와 Tensor Calculus에서 특정 기호들을 약간 다르게 받아들이는 경향이 있습니다. 아래의 사항들을 잘 기억해두시면 좋습니다.
기호 | Linear Algebra, Multivariable calculus | Tensor calculus |
$\overrightarrow{e_i}$ or $\mathbf{e_i}$ | (Euclidean) vector | Partial Derivative |
$dx$ | small change in x | Differential form |
$\nabla_{\overrightarrow v} f$ | Directional Derivative | Covariant Derivative |
여기서는 위의 표 내용 중 $\overrightarrow{e_i}$ 를 어떻게 Partial derivative 의미로 받아들일 수 있는지 간단히 설명하겠습니다.
위는 Cartesian coordinate와 Polar coordinate를 나타내는 그림입니다.
여기서 $\overrightarrow{R}$ 을 일종의 위치벡터라고 합시다.
Cartesian coordinate에서는 $\overrightarrow{R} = x \overrightarrow{e_x} + y \overrightarrow{e_y}$ 로 표기할 수 있고,
Polar coordinate에서는 $\overrightarrow{R} = r \widetilde{\overrightarrow{e_r}} + \theta \widetilde{\overrightarrow{e_\theta}}$ 로 표기할 수 있습니다.
그러면 다음의 식이 성립합니다.
$$\begin{align*} \dfrac{\partial \overrightarrow{R}}{\partial x} = \overrightarrow{e_x}\qquad \dfrac{\partial \overrightarrow{R}}{\partial y} = \overrightarrow{e_y} \\ \dfrac{\partial \overrightarrow{R}}{\partial r} = \widetilde{\overrightarrow{e_r}}\qquad\dfrac{\partial \overrightarrow{R}}{\partial \theta} = \widetilde{\overrightarrow{e_\theta}} \end{align*}$$
Polar coordinate에 대해 잘 알고 계신 분은 위의 위치벡터 표기 및 partial derivate가 어색하거나, 오류가 있다고 생각하실 수 있습니다.
많은 책들에서 $\widetilde{\overrightarrow{e_\theta}}_{,\, textbook} = \dfrac{1}{r} \dfrac{\partial \overrightarrow{R}}{\partial \theta} $ 으로 표기합니다.
이는 basis vector를 normalization 하기 위해 $\dfrac{1}{r}$ 을 곱해주는 것입니다.
하지만 저는 $\widetilde{\overrightarrow{e_\theta}} = \dfrac{\partial \overrightarrow{R}}{\partial \theta}$ 을 사용할 것입니다.
이렇게 표기하는 책들도 존재하며, 이러한 표기가 더 깔끔하다고 생각하기 때문입니다.
$\widetilde{\overrightarrow{e_\theta}}$ 는 normalization이 안 된 basis vector이므로, 위의 그림을 보시면 $r$ 이 커지면 $\widetilde{\overrightarrow{e_\theta}}$ 도 크기가 커지는 것을 볼 수 있습니다.
앞으로 normalization 된 것은 $\widetilde{\overrightarrow{e_\theta}}_{,\, textbook} = \dfrac{1}{r} \dfrac{\partial \overrightarrow{R}}{\partial \theta} $ 으로 표기하고, 그러지 아니한 것은 $\widetilde{\overrightarrow{e_\theta}} =\dfrac{\partial \overrightarrow{R}}{\partial \theta}$ 으로 표기하겠습니다.
The Jacobian
대학교 1학년 때 주로 배우는 기초 미적분학 중 벡터 미적분학을 배울 때 Jacobian matrix에 대한 설명이 나옵니다.
벡터 미적분학에서 Jacobian matrix는 다변수 벡터 함수의 도함수들을 원소로 하는 행렬입니다.
Jacobian matrix는 다음과 같은 수식으로 표현됩니다.
$$\mathbf{J} = \begin{bmatrix}{\dfrac {\partial \mathbf {f} }{\partial x_{1}}}&\cdots &{\dfrac {\partial \mathbf {f} }{\partial x_{n}}}\end{bmatrix}=\begin{bmatrix}\nabla ^{\mathrm {T} }f_{1}\\\vdots \\\nabla ^{\mathrm {T} }f_{m}\end{bmatrix}=\begin{bmatrix}{\dfrac {\partial f_{1}}{\partial x_{1}}}&\cdots &{\dfrac {\partial f_{1}}{\partial x_{n}}}\\\vdots &\ddots &\vdots \\{\dfrac {\partial f_{m}}{\partial x_{1}}}&\cdots &{\dfrac {\partial f_{m}}{\partial x_{n}}}\end{bmatrix}$$
여기서 $\nabla^{\mathrm{T}} f_{i}$ 는 $f$ 의 $i$ 번째 성분의 gradient에 transpose를 취한 것을 의미합니다.
Jacobian determinant는 Jacobian matrix의 행렬식을 의미합니다.
Jacobian determinant는 다변수 적분을 할 때 미분소를 서술하기 위해 많이 이용합니다.
여기서는 벡터의 변환을 설명하기 위해 Jacobian matrix를 사용할 예정입니다.
Forward Transformation
Cartesian & Polar coordinate
Forward Transformation은 old basis를 new basis로 변환하는 것을 의미합니다.즉, new basis를 old basis에 대한 식으로 만드는 것입니다.old basis는 $\overrightarrow{e}$ 와 같이 표현하고, new basis는 $\widetilde{\overrightarrow{e}}$ 와 같이 표현하겠습니다.
Cartesian coordinate에서 Polar coordinate으로의 transformation 예시를 들며 transformation을 설명할 것입니다.
원활한 수식 전개를 위해 위에서 언급한 내용을 다시 한 번 적겠습니다.
$$\begin{align*} \dfrac{\partial \overrightarrow{R}}{\partial x} = \overrightarrow{e_x}\qquad \dfrac{\partial \overrightarrow{R}}{\partial y} = \overrightarrow{e_y} \\ \dfrac{\partial \overrightarrow{R}}{\partial r} = \widetilde{\overrightarrow{e_r}}\qquad\dfrac{\partial \overrightarrow{R}}{\partial \theta} = \widetilde{\overrightarrow{e_\theta}} \end{align*}$$
이 때, Chain Rule에 의하여 다음 식이 성립합니다.
$$\dfrac{\partial \overrightarrow{R}}{\partial r} = \dfrac{\partial x}{\partial r} \dfrac{\partial \overrightarrow{R}}{\partial x} + \dfrac{\partial y}{\partial r} \dfrac{\partial \overrightarrow{R}}{\partial y}$$
$$\dfrac{\partial \overrightarrow{R}}{\partial \theta} = \dfrac{\partial x}{\partial \theta} \dfrac{\partial \overrightarrow{R}}{\partial x} + \dfrac{\partial y}{\partial \theta} \dfrac{\partial \overrightarrow{R}}{\partial y}$$
Partial derivative 표기를 vector 표기로 바꾸어 표현하면 다음과 같습니다.
$$ \widetilde{\overrightarrow{e_r}} = \dfrac{\partial x}{\partial r} \overrightarrow{e_x} + \dfrac{\partial y}{\partial r} \overrightarrow{e_y} $$
$$\widetilde{\overrightarrow{e_\theta}} = \dfrac{\partial x}{\partial \theta} \overrightarrow{e_x} + \dfrac{\partial y}{\partial \theta} \overrightarrow{e_y}$$
이러한 관계를 다음과 같은 행렬 연산을 통해 간단하게 표현할 수 있습니다.
$$\begin{bmatrix} \widetilde{\overrightarrow{e_r}} & \widetilde{\overrightarrow{e_\theta}} \end{bmatrix} = \begin{bmatrix} \overrightarrow{e_x} & \overrightarrow{e_y} \end{bmatrix} \begin{bmatrix} \dfrac{\partial x}{\partial r} & \dfrac{\partial x}{\partial \theta} \\ \dfrac{\partial y}{\partial r} & \dfrac{\partial y}{\partial \theta} \end{bmatrix}$$
앞에서 보았듯이 $\begin{bmatrix} \dfrac{\partial x}{\partial r} & \dfrac{\partial x}{\partial \theta} \\ \dfrac{\partial y}{\partial r} & \dfrac{\partial y}{\partial \theta} \end{bmatrix}$ 는 Jacobian matrix $\mathbf{J}$ 입니다.
따라서 Basis vector의 forward transformation은 Jacobian matrix에 의해 표현된다는 것을 알 수 있습니다.
예시: Jacobian matrix 계산
Cartesian coordinate와 Polar coordinate는 다음과 같은 관계를 갖고 있습니다.
$$\begin{align*} x = r \cos \theta \\ y = r \sin \theta \end{align*}$$
이 관계를 이용하여 Jacobian matrix를 계산하면 다음과 같습니다.
$$\mathbf{J} = \begin{bmatrix} \dfrac{\partial x}{\partial r} & \dfrac{\partial x}{\partial \theta} \\ \dfrac{\partial y}{\partial r} & \dfrac{\partial y}{\partial \theta} \end{bmatrix} = \begin{bmatrix} \cos \theta & -r \sin \theta \\ \sin \theta & r \cos \theta \end{bmatrix} = \begin{bmatrix} \dfrac{x}{r} & -y \\ \dfrac{y}{r} & x \end{bmatrix}$$
이를 이용하여 구체적인 상황에서 계산을 해보겠습니다. 아래에 그림이 있습니다.
위의 그림에 있는 점에서는 Jacobian matrix가 다음과 같이 계산됩니다.
$$\mathbf{J} = \begin{bmatrix} \dfrac{x}{r} & -y \\ \dfrac{y}{r} & x \end{bmatrix} = \begin{bmatrix} \dfrac{1}{\sqrt{2}} & -1 \\ \dfrac{1}{\sqrt{2}} & 1 \end{bmatrix}$$
위에서 구한 공식에 따라 Forward Transformation은 다음과 같이 표현할 수 있습니다.
$$\begin{bmatrix} \widetilde{\overrightarrow{e_r}} & \widetilde{\overrightarrow{e_\theta}} \end{bmatrix} = \begin{bmatrix} \overrightarrow{e_x} & \overrightarrow{e_y} \end{bmatrix} \mathbf{J}$$
$$\begin{align*} \therefore \widetilde{\overrightarrow{e_r}} &= \dfrac{1}{\sqrt 2} \overrightarrow{e_x} + \dfrac{1}{\sqrt 2} \overrightarrow{e_y} \\ \widetilde{\overrightarrow{e_\theta}} &= (-1) \cdot \overrightarrow{e_x} + 1 \cdot \overrightarrow{e_y} \end{align*}$$
Backward Transformation
이번에는 Forward Transformation과 반대로 old basis를 new basis에 대한 식으로 정리하는 것입니다.
여기서는 Cartesian coordinate의 basis vector를 Polar coordinate의 basis vector에 대한 식으로 나타내는 것을 보이겠습니다.
Chain Rule에 따라 다음의 식이 성립합니다.
$$\dfrac{\partial \overrightarrow{R}}{\partial x} = \dfrac{\partial r}{\partial x} \dfrac{\partial \overrightarrow{R}}{\partial r} + \dfrac{\partial \theta}{\partial x} \dfrac{\partial \overrightarrow{R}}{\partial \theta}$$
$$\dfrac{\partial \overrightarrow{R}}{\partial y} = \dfrac{\partial r}{\partial y} \dfrac{\partial \overrightarrow{R}}{\partial r} + \dfrac{\partial \theta}{\partial y} \dfrac{\partial \overrightarrow{R}}{\partial \theta}$$
Partial derivative 표기를 vector 표기로 바꾸어 표현하면 다음과 같습니다.
$$ \overrightarrow{e_x} = \dfrac{\partial r}{\partial x} \widetilde{\overrightarrow{e_r}} + \dfrac{\partial \theta}{\partial x} \widetilde{\overrightarrow{e_\theta}} $$
$$ \overrightarrow{e_y} = \dfrac{\partial r}{\partial y} \widetilde{\overrightarrow{e_r}} + \dfrac{\partial \theta}{\partial y} \widetilde{\overrightarrow{e_\theta}} $$
이 때, $\mathbf{J}^{-1}$를 다음과 같이 정의합니다. 아래의 식이 기존에 구한 $\mathbf{J}$의 inverse matrix임을 뒤에서 보일 예정입니다.
$$\mathbf{J}^{-1} = \begin{bmatrix} \dfrac{\partial r}{\partial x} & \dfrac{\partial r}{\partial y} \\ \dfrac{\partial \theta}{\partial x} & \dfrac{\partial \theta}{\partial y} \end{bmatrix}$$
그럼 위에서 구한 식을 다음과 같이 행렬로 표현할 수 있습니다.
$$ \begin{bmatrix} \overrightarrow{e_x} & \overrightarrow{e_y} \end{bmatrix} = \begin{bmatrix} \widetilde{\overrightarrow{e_r}} & \widetilde{\overrightarrow{e_\theta}} \end{bmatrix} \mathbf{J}^{-1} $$
예시: Inverse Jacobian matrix 계산
Polar coordinate와 Cartesian coordinate는 다음과 같은 관계를 갖고 있습니다.
$$\begin{align*} r &= \sqrt{x^2 + y^2} \\ \theta &= \tan^{-1} \left( \dfrac{y}{x} \right)\end{align*}$$
이 관계를 이용하여 Inverse Jacobian matrix를 계산하면 다음과 같습니다.
$$\mathbf{J}^{-1} = \begin{bmatrix} \dfrac{x}{\sqrt{x^2 + y^2}} & \dfrac{y}{\sqrt{x^2 + y^2}} \\ -\dfrac{y}{x^2 + y^2} & \dfrac{x}{x^2 + y^2} \end{bmatrix} = \begin{bmatrix} \dfrac{x}{r} &\dfrac{y}{r} \\ -\dfrac{y}{r^2} & \dfrac{x}{r^2} \end{bmatrix}$$
Inverse
위에서 구한 $\mathbf{J}$ 와 $\mathbf{J}^{-1}$ 가 inverse matrix임을 보이겠습니다.
$$\begin{align*} \mathbf{J} \mathbf{J}^{-1} &= \begin{bmatrix} \dfrac{\partial x}{\partial r} & \dfrac{\partial x}{\partial \theta} \\ \dfrac{\partial y}{\partial r} & \dfrac{\partial y}{\partial \theta} \end{bmatrix} \begin{bmatrix} \dfrac{\partial r}{\partial x} & \dfrac{\partial r}{\partial y} \\ \dfrac{\partial \theta}{\partial x} & \dfrac{\partial \theta}{\partial y} \end{bmatrix} \\ &= \begin{bmatrix} \dfrac{\partial x}{\partial r}\dfrac{\partial r}{\partial x} + \dfrac{\partial x}{\partial \theta}\dfrac{\partial \theta}{\partial x} & \dfrac{\partial x}{\partial r}\dfrac{\partial r}{\partial y}+\dfrac{\partial x}{\partial \theta}\dfrac{\partial \theta}{\partial y} \\ \dfrac{\partial y}{\partial r}\dfrac{\partial r}{\partial x} + \dfrac{\partial y}{\partial \theta}\dfrac{\partial \theta}{\partial x} & \dfrac{\partial y}{\partial r}\dfrac{\partial r}{\partial y}+\dfrac{\partial y}{\partial \theta}\dfrac{\partial \theta}{\partial y} \end{bmatrix} \\ &= \begin{bmatrix} \dfrac{dx}{dx} & \dfrac{dx}{dy} \\ \dfrac{dy}{dx} & \dfrac{dy}{dy} \end{bmatrix} \\ &= \begin{bmatrix} 1 & 0 \\ 0 & 1 \end{bmatrix} \\ &= \mathbb{I} \end{align*} $$
Einstein summation convention
선형대수학을 물리학에 응용하면서 좌표계에 관한 공식을 다룰 때 $\sum$ 기호가 많이 나오게 되었습니다.
Einstein summation convention(혹은 Einstein notation)은 $\sum$ 기호를 생략함으로써 표기를 간단히 하는 유용한 표기 규칙입니다. 알베르트 아인슈타인이 이 표기법을 1916년에 처음 소개하였습니다.
한 항에 동일한 첨자가 윗첨자와 아랫첨자로 한 번씩 짝을 지어 나타날 경우에 해당 첨자가 가질 수 있는 모든 값에 대해 항의 값을 전부 더하는 것으로 약속을 합니다.
예를 들어 보겠습니다.
$$y = c_1 x^1 + c_2 x^2 + c_3 x^3$$
이는 $\sum$ 기호를 이용하여 간단히 표현할 수 있습니다.
$$y = \sum_{i=1}^3 c_i x^i$$
Einstein summation convention 을 이용하면 아래와 같이 표현할 수 잇습니다.
$$y=c_i x^i$$
앞으로 tensor calculus 포스트에서는 Einstein summation convention을 계속해서 사용할 예정입니다.
또한, 다양한 개념들을 Cartesian coordinate와 polar coordinate을 예시로 들며 설명할 것이기 때문에,
$c_1 = x$, $c_2 = y$, $p_1 = r$, $p_2 = \theta$ 로 약속을 하겠습니다.
Einstein summation convention을 이용하면 Chain rule을 다음과 같이 표기할 수 있습니다.
$$\dfrac{df}{dz} = \dfrac{\partial f}{\partial q_j} \dfrac{d q_j}{d z}$$
또한 $\mathbf{J} \mathbf{J}^{-1} = \mathbb{I}$ 임을 보일 때도 Einstein summation convention을 이용하면 더 쉽게 보일 수 있습니다.
다음과 같은 식을 통해서요!
$$\dfrac{\partial c_i}{\partial p_j} \dfrac{\partial p_j}{\partial c_k} = \dfrac{\partial c_i}{\partial c_k}=\delta_{ik}$$
오늘 포스트는 여기까지 입니다! 감사합니다:)
'취미 > 수학' 카테고리의 다른 글
[tensor calculus] 2. Derivatives are Vectors & Extrinsic vs Intrinsic (0) | 2024.03.06 |
---|---|
[tensor calculus] 0. Intorduction (0) | 2024.02.12 |