반응형

[금융수학] 4. 기초 선형대수학



(i) \(A\)와 \(B\)를 각각 크기가 \(m\times n\), \(n\times l\)인 행렬이라고 하자. 그러면 다음이 성립한다.$$AB=[AB^{1}\,...\,AB^{l}]$$여기서 \(B^{j}\)는 \(B\)의 \(j\)번째 열이고 \(AB^{j}\)는 크기가 \(m\times n\), \(n\times1\)인 행렬들의 곱으로서 \(m\times1\)행렬 즉 \(m\)차원 열벡터이다. 

(ii) \(A\)와 \(B\)를 각각 크기가 \(n\times l\), \(l\times k\)인 행렬이라고 하자. 그러면 다음이 성립한다.$$AB=\left[\begin{matrix}A_{1}B\\ \vdots\\A_{n}B\end{matrix}\right]$$여기서 \(A_{i}\)는 \(M\)의 \(i\)번째 행이고 \(M_{i}L\)은 크기가 \(1\times l\), \(l\times k\)인 행렬들의 곱으로 \(1\times k\)행렬 즉 \(k\)차원 행벡터이다. 


\(2\times2\)행렬 \(\displaystyle A\)의 판별식(determinant)은 다음과 같고$$\det{A}=ad-bc$$일반적으로 \(n\times n\)행렬 \(A\)의 판별식을 정의하기 위해서 자연수에서 자연수로의 일대일 대응인 치환의 개념이 필요하다.

\(\sigma\)는 자연수 집합 \(N_{n}=\{1,\,2,\,...,\,n\}\)에서 \(N_{n}\)으로의 일대일 대응으로 치환(permutation)이라고 하고 다음과 같이 정의된다.$$\sigma=\begin{pmatrix}1&2&\cdots&n\\ \sigma(1)&\sigma(2)&\cdots&\sigma(n)\end{pmatrix}$$이러한 치환 \(\sigma\) 전체의 집합을 \(S_{n}\)으로 나타낸다. 

치환 \(\sigma=(i_{1},\,...,\,i_{n})\)에서 자연수 \(s,\,t\)에 대해 \(s<t\)일 때 \(i_{s}>i_{t}\)이면 즉, 큰 자연수가 작은 자연수보다 먼저 나타나면 치환 \(\sigma\)는 반전을 갖는다고 한다. 예로 치환$$\sigma(1,\,4,\,3,\,2)=\begin{pmatrix}1&2&3&4\\1&4&3&2\end{pmatrix}$$의 반전의 개수는 2이다. 그 이유는 4는 3과 2보다 크기 때문이다. 치환의 반전의 개수가 홀수이면 홀치환(odd permutation), 짝수이면 짝치환(even permutation)이라고 한다. 예를들어 치환 \((1,\,2,\,3)\), \((2,\,3,\,1)\), \((3,\,1,\,2)\)는 짝치환, \((1,\,3,\,2)\), \((2,\,1,\,3)\), \((3,\,2,\,1)\)은 홀치환이다.

\(\sigma\)의 부호(sign)은 다음과 같이 정의된다.$$\text{sgn}(\sigma)=\begin{cases}1&\,\sigma\,\text{는 짝치환}\\-1&\,\sigma\,\text{는 홀치환}\end{cases}$$따라서 이를 이용하여 \(n\times n\)행렬 \(A\)의 판별식을 다음과 같이 나타낼 수 있다.$$\det A=\sum_{\sigma\in S_{n}}{\text{sgn}(\sigma)a_{1\sigma(1)}a_{1}\sigma(2)\cdots a_{n\sigma(n)}}$$집합 \(V\)의 원소 \(x,\,y,\,z\)가 다음을 만족하면 \(V\)를 벡터공간(vector space)이라고 한다. 

벡터합:

(1) \(x+y=y+x\) (교환법칙)

(2) \(x+(y+z)=(x+y)+z\) (결합법칙)

(3) \(\mathbf{0}\in V\)가 존재해서 임의의 \(x\in V\)에 대해 \(x+\mathbf{0}=\mathbf{0}\)

(4) 임의의 \(x\in V\)에 대해 \(-x\in V\)가 존재해서 \(x+(-x)=(-x)+x=\mathbf{0}\)

스칼라곱: 스칼라 \(\alpha,\,\beta\)에 대해

(5) \(\alpha(x+y)=\alpha x+\alpha y\)

(6) \((\alpha+\beta)x=\alpha x+\beta x\)

(7) \(\alpha(\beta x)=(\alpha\beta)x\)

(8) \(1x=x\)

스칼라가 실수일 때 (실)벡터공간, 스칼라가 복소수일 때 복소벡터공간이라고 한다. 

벡터공간 \(V\)의 부분집합 \(W\)가 벡터합과 스칼라곱에 대해 닫혀있으면, \(W\)를 부분공간(subspace)이라고 한다. 

\(V\)를 벡터공간, \(S=\{x_{1},\,...,\,x_{n}\}\)을 \(V\)상의 벡터들이라고 하자. 다음과 같은 형태의 벡터 \(y\in V\)$$y=a_{1}x_{1}+\cdots+a_{n}x_{n}$$(\(a_{1},\,...,\,a_{n}\)은 스칼라)를 벡터 \(x_{1},\,...,\,x_{n}\)들의 선형결합(linear combination)이라고 하고, 집합 \(W=\{a_{1}x_{1}+\cdots+a_{n}x_{n}\,|\,a_{i}\,\text{scalar}\}\)를 \(x_{1},\,...,\,x_{n}\)에 의해 생성된(spanned) \(V\)의 부분공간이라고 하고 \(W=\text{span}S\)로 나타낸다.    

\(S=\{x_{1},\,...,\,x_{n}\}\)에 대하여 \(V=\text{span}S\)이면, \(S\)를 \(V\)의 기저(basis)라 하고, \(S\)의 원소의 개수는 \(n\)개이므로 그 차원은 \(n\) 즉, \(\dim V=n\)이다.  

벡터공간 \(V\)의 기저를 \(\{v_{1},\,...,\,v_{m}\}\), \(W\)의 기저를 \(\{w_{1},\,...,\,w_{n}\}\)라 하자. \(T:V\,\rightarrow\,W\)를 \(V\)에서 \(W\)로의 선형변환(linear transformation)이라고 하면 간단히 \(\displaystyle T(v_{j})=\sum_{i=1}^{n}{a_{ij}w_{i}}\,(1\leq j\leq m)\)로 나타낼 수 있다.

벡터공간 \(V\)에서 스칼라로의 선형변환을 \(V\)의 선형범함수(linear functional)라고 하고, \(V\)에서의 모든 선형범함수들의 벡터공간을 \(V\)의 쌍대공간(dual space)이라 하고 \(V^{*}\)로 나타낸다. 

벡터공간 \(V\)의 원소 \(x,\,y\)의 내적(inner product)은 \(V\times V\)에서 스칼라로 사상하고, \(\langle x,\,y\rangle\)로 나타내며 \(x,\,y,\,z\in V\)에 대해 다음의 성질이 성립한다.  

(i) \(\langle x+y,\,z\rangle=\langle x,\,z\rangle+\langle y,\,z\rangle\) 

(ii) \(\langle\alpha x,\,y\rangle=\alpha\langle x,\,y\rangle\) 

(iii) \(\langle x,\,y\rangle=\overline{\langle y,\,x\rangle}\)(켤레복소수)

(iv) \(\langle x,\,x\rangle\geq0\), \(\langle x,\,x\rangle=0\,\Leftrightarrow\,x=\mathbf{0}\)

내적을 보유한 벡터공간 \(V\)를 내적공간(inner product space)이라고 한다. 

내적공간의 원소 \(x\in V\)에 대해 \(\|x\|=\sqrt{\langle x,\,x\rangle}\)를 \(x\)의 크기(노름이라고 한다)라 하고, 크기로부터 거리함수 \(d\)를 \(d(x,\,y)=\|x-y\|\)로 정의할 수 있다. 

내적공간 \(V\)의 원소 \(x,\,y\)에 대해 다음의 코시-슈바르츠 부등식(Cauchy-Schwarz inequality)를 얻는다.$$\langle x,\,y\rangle^{2}\leq\|x\|^{2}\|y\|^{2}$$등호가 성립하는 경우는 \(y\)가 \(x\)의(또는 \(x\)가 \(y\)의) 상수배인 경우이다.

한 벡터에 그 크기의 역수를 곱해 크기를 1로 만드는 것을 정규화(normalization)라 하고, 내적공간 \(V\)의 벡터 \(x_{1},\,...,\,x_{n}\)가 정규직교(orthornormal)라는 것은 다음이 성립하는 것이다.$$\langle x_{i},\,x_{j}\rangle=\delta_{ij}=\begin{cases}0&\,i\neq j\\1&\,i=j\end{cases}$$내적공간 \(V\)의 기저 \(\{x_{1},\,...,\,x_{n}\}\)들이 정규직교이면, \(V\)의 정규직교기저(orthonormal basis)라고 한다. 

\(U,\,W\)를 내적공간 \(V\)의 부분공간이라 하자. 두 부분공간 \(U\)와 \(W\)가 직교(orthogonal)라는 것은 임의의 \(u\in U\)와 \(w\in W\)에 대해 \(\langle u,\,w\rangle=0\)이 성립하는 것이고, 이때 \(U\perp W\)로 나타내고, \(U\)와 수직인 \(V\)상의 벡터들의 집합을 \(U\)의 직교여집합(orthogonal coplement)이라 하고, \(U^{\perp}=\{x\in V\,|\,\langle x,\,u\rangle=0,\,u\in U\}\)로 나타낸다. 

내적공간 \(V\)의 부분공간을 \(U\)라 하고, \(U\)의 정규직교기저를 \(\{u_{1},\,...,\,u_{n}\}\)이라 하자. \(x\in V\)의 \(U\)로의 직교사영(orthogonal projection) \(\text{Proj}_{U}x\)는 다음과 같다.$$\text{Proj}_{U}x=\langle x,\,u_{1}\rangle u_{1}+\langle x,\,u_{2}\rangle u_{2}+\cdots+\langle x,\,u_{n}\rangle u_{n}$$\(n\)차원 내적공간 \(V\)의 기저 \(\{x_{1},\,...,\,x_{n}\}\)을 다음과 같이 그람-슈미츠 직교화(Gram-Schmidt orthogonalization)를 거쳐 정규직교기저로 나타낼 수 있다.$$\begin{align*}& v_{1}=\frac{x_{1}}{\|x_{1}\|},\,v_{2}=\frac{x_{2}-\langle x_{2},\,v_{1}\rangle x_{1}}{\|x_{2}-\langle x_{2},\,v_{1}\rangle v_{1}\|}\\&v_{k}=\frac{x_{k}-\langle x_{k},\,v_{1}\rangle v_{1}-\langle x_{k},\,v_{2}\rangle v_{2}-\cdots-\langle x_{k},\,v_{k-1}\rangle v_{k-1}}{\|x_{k}-\langle x_{k},\,v_{1}\rangle v_{1}-\langle x_{k},\,v_{2}\rangle v_{2}-\cdots-\langle x_{k},\,v_{k-1}\rangle v_{k-1}\|}=\frac{x_{k}-\text{Proj}_{W_{k-1}}x_{k}}{\|x_{k}-\text{Proj}_{W_{k-1}}x_{k}\|}\end{align*}$$여기서 \(W_{k-1}=\text{Span}\{v_{1},\,...,\,v_{k-1}\}\)이다.  

최소제곱법(least squares method)은 내적공간 \(H\)(힐베르트공간, 완비 내적공간)상의 벡터 \(g\)를 부분공간 \(H_{0}\)에 의해 근사시키는 방법이다. 즉$$\min_{h\in H_{0}}\|g-h\|^{2}$$의 최솟값을 구하는 방법이다.

\(H=L^{2}(\Omega)\)이고 \(H_{0}=\{\alpha1+\beta X\,|\,\alpha,\,\beta\in\mathbb{R}\}\subset H\)일 때 \(Y\in H\)에 대하여$$\min_{\alpha,\,\beta\in\mathbb{R}}{\|Y-(\alpha1+\beta X)\|}$$를 풀면 \(\alpha,\,\beta\)는 다음과 같다.$$\alpha=E(Y)-\beta E(X),\,\beta=\frac{\text{Cov}(X,\,Y)}{\text{Var}(X)}$$\(Y\)를 \(H_{0}\)에 직교사영하면 그 직교사영은 \(\alpha1+\beta X\)이고, \(Y-(\alpha1+\beta X)\)는 \(H_{0}\)와 수직이므로 다음이 성립하고$$\begin{align*}\langle1,\,Y-(\alpha1+\beta X)\rangle&=0\\ \langle X,\,Y-(\alpha1+\beta X)\rangle&=0\end{align*}$$위 식으로부터 다음의 연립방정식을 얻으며$$\begin{align*}\alpha+\beta E(X)&=E(Y)\\ \alpha E(X)+\beta E(X^{2})&=E(XY)\end{align*}$$행렬로 나타내면 다음과 같고$$\begin{pmatrix}1&E(X)\\E(X)&E(X^{2})\end{pmatrix}\begin{pmatrix}\alpha\\ \beta\end{pmatrix}=\begin{pmatrix}E(Y)\\E(XY)\end{pmatrix}$$1과 \(X\)는 선형독립이므로 \(E(X^{2})-\{E(X)\}^{2}\neq0\)이다. 그러므로$$\begin{pmatrix}\alpha\\ \beta\end{pmatrix}=\frac{1}{E(X^{2})-\{E(X)\}^{2}}\begin{pmatrix}E(X^{2})&-E(X)\\-E(X)&1\end{pmatrix}\begin{pmatrix}E(Y)\\E(XY)\end{pmatrix}$$이고 따라서$$\beta=\frac{\text{Cov}(X,\,Y)}{\text{Var}(X)},\,\alpha=E(Y)-\beta E(X)$$\(A\)를 \(n\times n\)행렬이라고 하자. 벡터 \(x\in\mathbb{R}^{n}\)이 적당한 스칼라 \(\lambda\)에 대해$$Ax=\lambda x$$를 만족하면 \(\lambda\)를 \(A\)의 고유값(eigenvalue), \(x\)를 \(\lambda\)에 대응하는 고유벡터(eigenvector)라고 한다. 고유벡터의 개수가 \(n\)개이면, 행렬 \(A\)는 대각화가능(diagonalizable)하고 \(Q\)를 고유벡터들을 열벡터로 하는 행렬이라고 하면 \(Q^{-1}AQ\)는 대각행렬이 된다. 

*\(n\times n\)행렬 \(A\)에 대하여 지수행렬(exponential matrix) \(e^{A}\)를 다음과 같이 정의하고$$e^{A}=\sum_{n=0}^{\infty}{\frac{A^{n}}{n!}}$$행렬의 대각화를 통해 쉽게 계산한다.     


참고자료:

금융수학의 방법론, 최건호, 경문사

Linear Algebra, Jinho Kwak, Sungpyo Hong, Birkhauser

반응형
Posted by skywalker222