대수학/선형대수학2017. 10. 14. 02:06
반응형

[선형대수학] 8. 선형변환 (1: 선형변환의 정의)



\(V\)와 \(W\)를 벡터공간이라 하자. 임의의 \(\mathbf{x},\,\mathbf{y}\in V\)와 스칼라 \(\alpha\), \(\beta\)에 대하여 함수 \(T:\,V\,\rightarrow\,W\)가$$T(\alpha\mathbf{x}+\beta\mathbf{y})=\alpha T(\mathbf{x})+\beta T(\mathbf{y})$$를 만족하면 \(T\)를 \(V\)에서 \(W\)로의 선형변환(Linear transformation)이라고 한다.


다음은 선형변환의 예시들이다.

(1) \(f(x)=2x\), \(h(x,\,y)=(x-y,\,2x)\)로 정의된 \(f:\,\mathbb{R}\,\rightarrow\,\mathbb{R}\), \(h:\,\mathbb{R}^{2}\,\rightarrow\,\mathbb{R}^{2}\)는 선형변환이다.


(2) \(m\times n\)행렬 \(A\)와 임의의 \(\mathbf{x}\in\mathbb{R}^{n}\)에 대하여$$T(\mathbf{x})=A\mathbf{x}$$로 정의된 함수 \(T:\,\mathbb{R}^{n}\,\rightarrow\,\mathbb{R}^{m}\)은 선형변환이다. 왜냐하면 임의의 벡터 \(\mathbf{x},\,\mathbf{y}\in\mathbb{R}^{n}\)와 스칼라 \(\alpha,\,\beta\in\mathbb{R}\)에 대하여$$T(\alpha\mathbf{x}+\beta\mathbf{y})=A(\alpha\mathbf{x}+\beta\mathbf{y})=\alpha A\mathbf{x}+\beta A\mathbf{y}=\alpha T(\mathbf{x})+\beta T(\mathbf{y})$$가 성립하기 때문이다. 여기서 \(\displaystyle A=\begin{pmatrix}1&0\\0&0\end{pmatrix}\), \(\mathbf{x}=(x,\,y)\in\mathbb{R}^{2}(n=m=2)\)일 때$$T(\mathbf{x})=A\mathbf{x}=\begin{pmatrix}1&0\\0&0\end{pmatrix}\begin{pmatrix}x\\ y\end{pmatrix}=\begin{pmatrix}x\\0\end{pmatrix}$$이고 이때의 \(T\)를 \(x\)축으로의 사영(projection)이라고 한다.


(3) \(n\)차 정사각행렬 \(A=(a_{ij})_{n\times n}\)에 대하여 \(A\)의 대각선 성분들의 합(대각합, trace)$$\text{tr}(A)=\sum_{i=1}^{n}{a_{ii}}$$은 선형변환이다. 이때 임의의 \(n\)차 정사각행렬 \(A,\,B\)에 대하여 \(\text{tr}(AB)=\text{tr}(BA)\)가 성립하는데 행렬 \(AB\)의 대각선 성분은 \(\displaystyle\sum_{k=1}^{n}{a_{ik}b_{ki}}\), 행렬 \(BA\)의 대각선 성분은 \(\displaystyle\sum_{k=1}^{n}{b_{ik}a_{ki}}\)이므로 \(\displaystyle\text{tr}(AB)=\sum_{i=1}^{n}{\left(\sum_{k=1}^{n}{a_{ik}b_{ki}}\right)}=\sum_{i=1}^{n}{\left(\sum_{k=1}^{n}{b_{ik}a_{ki}}\right)}=\text{tr}(BA)\)이다.


(4) 미분과 적분연산도 선형변환이다. 실수계수 \(n\)차 다항식 전체의 집합을 \(P_{n}(\mathbb{R})\)로 나타내는데 $$D(f(x))=f'(x),\,\mathcal{I}(f(x))=\int_{0}^{x}{f(t)dt}$$로 정의된 미분과 적분연산$$D:\,P_{n}(\mathbb{R})\,\rightarrow\,P_{n-1}(\mathbb{R}),\,\mathcal{I}:\,P_{n}(\mathbb{R})\,\rightarrow\,P_{n+1}(\mathbb{R})$$도 선형변환이다.


(5) 벡터공간 \(V,\,W\)에 대하여 \(Id(\mathbf{x})=\mathbf{x},\,T_{0}(\mathbf{x})=\mathbf{0}\)으로 정의되는 함수 \(Id:\,V\,\rightarrow\,V\), \(T_{0}:\,V\,\rightarrow\,\{\mathbf{0}\}\)는 각각 항등변환(identity transformation), 영변환(zero transformation)이라고 불리우며 선형변환이다.


\(V,\,W\)를 벡터공간, \(T:\,V\,\rightarrow\,W\)를 \(V\)에서 \(W\)로의 선형변환이라 하자.

\(\text{Ker}(T)=\{\mathbf{v}\,|\,T(\mathbf{v})=0\}\subset V\)를 \(T\)의 핵(Kernel)이라 하고, \(\text{Im}(T)=\{T(\mathbf{v})\,|\,\mathbf{v}\in V\}\subset W\)를 \(T\)의 상(Image)이라 한다. 이때 \(\text{Ker}(T)\)와 \(\text{Im}(T)\)는 각각 \(V\)와 \(W\)의 부분공간이다. 왜냐하면 \(\text{Ker}(T)\)의 경우 임의의 \(\mathbf{x},\,\mathbf{y}\in\text{Ker}(T)\)와 스칼라 \(\alpha,\,\beta\in\mathbb{R}\)에 대하여$$T(\alpha\mathbf{x}+\beta\mathbf{y})=\alpha T(\mathbf{x})+\beta T(\mathbf{y})=\alpha\mathbf{0}+\beta\mathbf{0}=\mathbf{0}$$이므로 \(\alpha\mathbf{x}+\beta\mathbf{y}\in\text{Ker}(T)\)이고 따라서 \(\text{Ker}(T)\)는 \(V\)의 부분공간이다. \(\text{Im}(T)\)의 경우 \(\mathbf{v},\,\mathbf{w}\in\text{Im}(T)\)일 때 \(\mathbf{x},\,\mathbf{y}\in V\)가 존재해서 \(T(\mathbf{x})=\mathbf{v}\), \(T(\mathbf{y})=\mathbf{w}\)이다. 따라서 임의의 스칼라 \(\alpha,\,\beta\in\mathbb{R}\)에 대하여$$\alpha\mathbf{v}+\beta\mathbf{w}=\alpha T(\mathbf{x})+\beta T(\mathbf{y})=T(\alpha\mathbf{x}+\beta\mathbf{y})$$이므로 \(\alpha\mathbf{v}+\beta\mathbf{w}\in\text{Im}(T)\)이고 \(\text{Im}(T)\)는 \(W\)의 부분공간이다.

앞에서 언급했던 항등변환 \(Id\)와 영변환 \(T_{0}\)에 대하여 다음이 성립한다.$$\text{Ker}(Id)=\{\mathbf{0}\},\,\text{Im}(Id)=V,\,\text{Ker}(T_{0})=V,\,\text{Im}(T_{0})=\{\mathbf{0}\}$$\(\mathbf{w}_{1}=(1,\,0),\,\mathbf{w}_{2}=(2,\,-1),\,\mathbf{w}_{3}=(4,\,3)\)를 \(\mathbb{R}^{2}\)상의 벡터라 하자.

(1) \(\alpha=\{e_{1},\,e_{2},\,e_{3}\}\)를 \(\mathbb{R}^{3}\)상의 표준기저라 하고 \(T:\,\mathbb{R}^{3}\,\rightarrow\,\mathbb{R}^{2}\)를$$T(e_{1})=\mathbf{w}_{1},\,T(e_{2})=\mathbf{w}_{2},\,T(e_{3})=\mathbf{w}_{3}$$으로 정의된 선형변환이라 하자. \(\mathbf{x}=(x_{1},\,x_{2},\,x_{3})=x_{1}e_{1}+x_{2}e_{2}+x_{3}e_{3}\in\mathbb{R}^{3}\)에 대하여$$\begin{align*}T(\mathbf{x})&=\sum_{i=1}^{3}{x_{i}T(e_{i})}=\sum_{i=1}^{3}{x_{i}\mathbf{w}_{i}}\\&=x_{1}(1,\,0)+x_{2}(2,\,-1)+x_{3}(4,\,3)\\&=(x_{1}+2x_{2}+4x_{3},\,-x_{2}+3x_{3})\end{align*}$$이므로 \(T(x_{1},\,x_{2},\,x_{3})=(x_{1}+2x_{2}+4x_{3},\,-x_{2}+3x_{3})\)이고 이를 행렬로 나타내면 다음과 같다.$$\begin{pmatrix}1&2&4\\0&-1&3\end{pmatrix}\begin{pmatrix}x_{1}\\x_{2}\\x_{3}\end{pmatrix}=\begin{pmatrix}x_{1}+2x_{2}+4x_{3}\\-x_{2}+3x_{3}\end{pmatrix}$$

(2) \(\beta=\{\mathbf{v}_{1},\,\mathbf{v}_{2},\,\mathbf{v}_{3}\}\,(\mathbf{v}_{1}=(1,\,1,\,1),\,\mathbf{v}_{2}=(1,\,1,\,0),\,\mathbf{v}_{3}=(1,\,0,\,0))\)를 \(\mathbb{R}^{3}\)상의 또 다른 기저라 하고 \(T:\,\mathbb{R}^{3}\,\rightarrow\,\mathbb{R}^{2}\)를$$T(\mathbf{v}_{1})=\mathbf{w}_{1},\,T(\mathbf{v}_{2})=\mathbf{w}_{2},\,T(\mathbf{v}_{3})=\mathbf{w}_{3}$$으로 정의된 선형변환이라 하자. \(\mathbf{x}=(x_{1},\,x_{2},\,x_{3})\)를 \(\mathbf{v}_{1},\,\mathbf{v}_{2},\,\mathbf{v}_{3}\)의 선형결합으로 나타내면$$(x_{1},\,x_{2},\,x_{3})=k_{1}\mathbf{v}_{1}+k_{2}\mathbf{v}_{2}+k_{3}\mathbf{v}_{3}=(k_{1}+k_{2}+k_{3})e_{1}+(k_{1}+k_{2})e_{2}+k_{1}e_{3}$$이므로 \(k_{1}+k_{2}+k_{3}=x_{1}\), \(k_{1}+k_{2}=x_{2}\), \(k_{1}=x_{3}\)이고 \(k_{1}=x_{3}\), \(k_{2}=x_{2}-x_{3}\), \(k_{3}=x_{1}-x_{2}\)이다. 그러면$$(x_{1},\,x_{2},\,x_{3})=x_{3}\mathbf{v}_{1}+(x_{2}-x_{3})\mathbf{v}_{2}+(x_{1}-x_{2})\mathbf{v}_{3}$$이고$$\begin{align*}T(x_{1},\,x_{2},\,x_{3})&=x_{3}T(\mathbf{v}_{1})+(x_{2}-x_{3})T(\mathbf{v}_{2})+(x_{1}-x_{2})T(\mathbf{v}_{3})\\&=x_{3}(1,\,0)+(x_{2}-x_{3})(2,\,-1)+(x_{1}-x_{2})(4,\,3)\\&=(4x_{1}-2x_{2}-x_{3},\,3x_{1}-4x_{2}+x_{3})\end{align*}$$이다. 이를 행렬로 나타내면 다음과 같다.$$\begin{pmatrix}4&-2&-1\\3&-4&1\end{pmatrix}\begin{pmatrix}x_{1}\\x_{2}\\x_{3}\end{pmatrix}=\begin{pmatrix}4x_{1}-2x_{2}-x_{3}\\3x_{1}-4x_{2}+x_{3}\end{pmatrix}$$

집합 \(X\)에서 집합 \(Y\)로의 함수 \(f:\,X\,\rightarrow\,Y\)가 가역(invertible)이라는 것은 함수 \(g:\,Y\,\rightarrow\,X\)(\(f\)의 역함수,\(g=f^{-1}\))가 존재해서 \(g\circ f=f\circ g=I\)가 성립하는 것이다.

\(f:\,X\,\rightarrow\,Y\)가 일대일(one-to-one, 또는 단사(injective))이라는 것은 \(Y\)에서 \(f(u)=f(v)\)일 때 \(X\)일 때 \(u=v\)가 성립함을 뜻한다. \(f\)가 위로(onto, 또는 전사(surjective))라는 것은 모든 \(y\in Y\)에 대하여 \(x\in X\)가 존재해서 \(y=f(x)\)가 성립함을 뜻한다. \(f\)가 전단사(bijective)라는 것은 일대일이면서 동시에 위로인 것이다. 즉, 임의의 \(y\in Y\)에 대하여 유일한 \(x\in X\)가 존재해서 \(y=f(x)\)가 성립함을 뜻한다.


함수 \(f:\,X\,\rightarrow\,Y\)가 가역일 필요충분조건은 전단사인 것이다. 먼저 \(f\)가 가역이라 하자. 그러면 역함수 \(g:\,Y\,\rightarrow\,X\)가 존재할 것이고 \(f(u)=f(v)\)이면 \(u=g(f(u))=g(f(v))=v\)이고 따라서 \(f\)는 일대일이다. 모든 \(y\in Y\)에 대하여 \(g(y)=x\in X\)이고 \(f(x)=f(g(y))=y\)이다. 그러면 \(f\)는 위로이다.

\(f\)가 전단사라고 하면 모든 \(y\in Y\)에 대하여 \(x\in X\)가 유일하게 존재해서 \(y=f(x)\)이다. 모든 \(y\in Y\)에 대하여 \(g:\,Y\,\rightarrow\,X\)를 \(g(y)=x\)라고 정의하자. 그러면 \(g:\,Y\,\rightarrow\,X\)는 잘 정의되고 \(f\circ g=g\circ f=I\)이다. 따라서 \(g\)는 \(f\)의 역함수이고 \(f\)는 가역이다.


\(V\)와 \(W\)를 벡터공간, \(T:\,V\,\rightarrow\,W\)를 가역선형변환이라 하자. 그러면 그 역함수인 \(T^{-1}:\,W\,\rightarrow\,V\)도 선형변환이다. 앞의 결과에 의해 \(\mathbf{w}_{1},\,\mathbf{w}_{2}\in W\)에 대하여 \(\mathbf{v}_{1},\,\mathbf{v}_{2}\in V\)가 유일하게 존재해서 \(T(\mathbf{v}_{1})=\mathbf{w}_{1}\), \(T(\mathbf{v}_{2})=\mathbf{w}_{2}\)이다. 임의의 스칼라 \(\alpha,\,\beta\in\mathbb{R}\)에 대하여$$T^{-1}(\alpha\mathbf{w}_{1}+\beta\mathbf{w}_{2})=T^{-1}(\alpha T(\mathbf{v}_{1})+\beta T(\mathbf{v}_{2}))=T^{-1}(T(\alpha\mathbf{v}_{1}+\beta\mathbf{v}_{2}))=\alpha\mathbf{v}_{1}+\beta\mathbf{v}_{2}=\alpha T^{-1}(\mathbf{w}_{1})+\beta T^{-1}(\mathbf{w}_{2})$$이므로 \(T^{-1}\)도 선형변환이다.


벡터공간 \(V\)에서 벡터공간 \(W\)로의 선형변환 \(T:\,V\,\rightarrow\,W\)가 가역(전단사)이면 동형사상(isomorphism)이라고 하고 이때 \(V\)와 \(W\)는 서로 동형(isomorphic)이라고 한다.


두 벡터공간 \(V\)와 \(W\)가 서로 동형일 필요충분조건은 \(\text{dim}V=\text{dim}W\)이다.

\(T:\,V\,\rightarrow\,W\)를 동형사상, \(\{\mathbf{v}_{1},\,...,\,\mathbf{v}_{n}\}\)를 \(V\)에 대한 기저라 하자. 그러면 \(\{T(\mathbf{v}_{1}),\,...,\,T(\mathbf{v}_{2})\}\)가 \(W\)의 기저이고 \(\text{dim}W=\dim V=n\)이 됨을 보이면 된다.

$$\mathbf{0}=c_{1}T(\mathbf{v}_{1})+\cdots+c_{n}T(\mathbf{v}_{n})=T(c_{1}\mathbf{v}_{1}+\cdots+c_{n}\mathbf{v}_{n})$$이면 \(\mathbf{0}=c_{1}\mathbf{v}_{1}+\cdots+c_{n}\mathbf{v}_{n}\)이고 \(v_{i}\)들은 서로 일차독립이므로 \(c_{1}=\cdots=c_{n}=0\)이다. 따라서 \(\{T(\mathbf{v}_{1}),\,...,\,T(\mathbf{v}_{n})\}\)은 일차독립이다.

임의의 \(\mathbf{y}\in W\)에 대하여 유일한 \(\mathbf{x}\in V\)가 존재해서 \(\mathbf{y}=T(\mathbf{x})\)이다. \(\displaystyle\mathbf{x}=\sum_{i=1}^{n}{a_{i}v_{i}}\)라고 하자. 그러면$$\mathbf{y}=T(\mathbf{x})=T(a_{1}\mathbf{x}_{1}+\cdots+a_{n}\mathbf{x}_{n})=a_{1}T(\mathbf{v}_{1})+\cdots+a_{n}T(\mathbf{v}_{n})$$이고 이는 \(\mathbf{y}\)가 \(T(\mathbf{v}_{1}),\,...,\,T(\mathbf{v}_{n})\)의 선형결합임을 뜻한다. 따라서 \(\dim V=\dim W=n\)이라고 할 수 있다.

반대로 \(\dim V=\dim W=n\)이라 하자. 그러면 \(V\)와 \(W\)의 기저의 개수는 서로 같고 이를 각각 \(\{\mathbf{v}_{1},\,...,\,\mathbf{v}_{n}\}\), \(\{\mathbf{w}_{1},\,...,\,\mathbf{w}_{n}\}\)이라고 하자. 선형변환 \(T:\,V\,\rightarrow\,W\)를 \(\mathbf{w}_{i}=T(\mathbf{v}_{i})\,(i=1,\,...,\,n)\)로 정의하면 \(T\)는 동형사상이다.


참고자료:

Linear Algebra, jinho Kwak, sungpyo Hong, Birkhauser

현대 선형대수학, 이상구, 경문사

반응형
Posted by skywalker222