[선형대수학] 10. 선형변환 (3: 선형변환의 벡터공간과 기저의 변환)
\(V\)와 \(W\)를 벡터공간이라 하고 \(\mathcal{L}(V;\,W)\)를 \(V\)에서 \(W\)로의 모든 선형변환들의 집합이라 하자. 즉$$\mathcal{L}(V;\,W)=\{T\,|\,T:\,V\,\rightarrow\,W\,\text{is linear transformation}\}$$\(S,\,T\in\mathcal{L}(V;\,W)\)와 \(k\in\mathbb{R}\), \(\mathbf{v}\in V\)에 대하여 벡터합과 스칼라곱을 다음과 같이 정의하자.$$(S+T)(\mathbf{v})=S(\mathbf{v})+T(\mathbf{v}),\,(kS)(\mathbf{v})=kS(\mathbf{v})$$그러면 \(S+T\in\mathcal{L}(V;\,W)\)이고 \(kS\in\mathcal{L}(V;\,W)\)이다. 이 결과로부터 \(\mathcal{L}(V;\,W)\)는 벡터공간이다. \(V=\mathbb{R}^{n}\), \(W=\mathbb{R}^{m}\)이면 \(m\times n\)행렬 전체의 집합(\(M_{m\times n}(\mathbb{R})\)로 나타낸다)은 \(\mathbb{R}^{n}\)에서 \(\mathbb{R}^{m}\)로의 선형변환들의 벡터공간이다. 따라서 기저를 고정함으로써 \(\mathcal{L}(\mathbb{R}^{n};\,\mathbb{R}^{m})=M_{m\times n}(\mathbb{R})\)이라고 할 수 있다.
일반적으로 차원이 \(m,\,n\)이고 순서기저가 \(\alpha,\,\beta\)인 벡터공간 \(V,\,W\)에 대하여 행렬표현을 통해 \(\mathcal{L}(V;\,W)\)와 \(M_{m\times n}(\mathbb{R})\)를 일대일로 대응시키는 선형변환을 찾을 수 있다. 선형변환 \(\phi:\,\mathcal{L}(V;\,W)\,\rightarrow\,M_{m\times n}(\mathbb{R})\)를 임의의 \(T\in\mathcal{L}(V;\,W)\)에 대하여$$\phi(T)=[T]_{\alpha}^{\beta}\in M_{m\times n}(\mathbb{R})$$로 정의하자. \([S]_{\alpha}^{\beta}=[T]_{\alpha}^{\beta}\,(S,\,T\in\mathcal{L}(V;\,W))\)이면 \(S=T\)이고 이는 \(\phi\)가 일대일임을 뜻한다.
\(m\times n\)행렬 \(A\)는 \(\mathbb{R}^{n}\)에서 \(\mathbb{R}^{m}\)로의 선형변환이라고 할 수 있다. 자연동형사상 \(\Phi:\,V\,\rightarrow\,\mathbb{R}^{n}\), \(\Psi:\,W\,\rightarrow\,\mathbb{R}^{m}\)을 고려하면 \(T=\Phi^{-1}\circ A\circ\Psi\)로 나타낼 수 있다. 이는 \(\phi\)가 전사(onto)임을 뜻한다.
앞의 두 결과로부터 \(\phi\)가 일대일 대응(전단사, bijection)임을 알 수 있다. \(\alpha=\{\mathbf{v}_{1},\,...,\,\mathbf{v}_{n}\}\), \(\beta=\{\mathbf{w}_{1},\,...,\,\mathbf{w}_{m}\}\), \(\displaystyle S(\mathbf{v}_{j})=\sum_{i=1}^{m}{a_{ij}\mathbf{w}_{i}}\), \(\displaystyle T(\mathbf{v}_{j})=\sum_{i=1}^{m}{b_{ij}\mathbf{w}_{i}}\) \((1\leq j\leq n)\)이라고 하면$$(S+T)(\mathbf{v}_{i})=\sum_{i=1}^{m}{a_{ij}\mathbf{w}_{i}}+\sum_{i=1}^{m}{b_{ij}\mathbf{w}_{i}}=\sum_{i=1}^{m}{(a_{ij}+b_{ij})\mathbf{w}_{i}}\\(kS)(\mathbf{v}_{j})=k\sum_{i=1}^{m}{a_{ij}\mathbf{w}_{i}}\,(k\in\mathbb{R})$$이므로 \([S+T]_{\alpha}^{\beta}=[S]_{\alpha}^{\beta}+[T]_{\alpha}^{\beta}\), \([kS]_{\alpha}^{\beta}=k[S]_{\alpha}^{\beta}\)이고 이 사실로부터 \(\phi\)가 동형사상임을 알 수 있다. 그러면$$\dim\mathcal{L}(V;\,W)=\dim M_{m\times n}(\mathbb{R})=mn=\dim V\dim W$$이다.
\(V,\,W,\,Z\)를 기저가 \(\alpha=\{\mathbf{v}_{1},\,...,\,\mathbf{v}_{n}\}\), \(\beta=\{\mathbf{w}_{1},\,...,\,\mathbf{w}_{m}\}\), \(\gamma=\{\mathbf{z}_{1},\,...,\,\mathbf{z}_{\ell}\}\)인 벡터공간이라 하자. \(S:\,V\,\rightarrow\,W\), \(T:\,W\,\rightarrow\,Z\)를 선형변환이라고 하고 \([T]_{\beta}^{\gamma}=(a_{ij})_{m\times\ell}\), \([S]_{\alpha}^{\beta}=(b_{pq})_{n\times m}\)라 하자. 그러면 \(1\leq i\leq n\)에 대하여$$\begin{align*}(T\circ S)(\mathbf{v}_{i})&=T(S(\mathbf{v}_{i}))=T\left(\sum_{k=1}^{m}{b_{ki}\mathbf{w}_{k}}\right)=\sum_{k=1}^{m}{b_{ki}T(\mathbf{w}_{k})}\\&=\sum_{k=1}^{m}{b_{ki}\left(\sum_{j=1}^{\ell}{a_{jk}\mathbf{z}_{j}}\right)}=\sum_{j=1}^{\ell}{\left(\sum_{k=1}^{m}{a_{jk}b_{ki}}\right)\mathbf{z}_{j}}\end{align*}$$이므로 \([T\circ S]_{\alpha}^{\gamma}=[T]_{\beta}^{\gamma}[T]_{\alpha}^{\beta}\)가 성립한다. 또한 \(V\)와 \(W\)를 순서기저 \(\alpha\)와 \(\beta\)를 갖는 벡터공간이라 하고 \(T:\,V\,\rightarrow\,W\)를 동형사상이라고 하면 \(T\)가 동형사상이기 때문에 \(\dim V=\dim W\)이고 \([T]_{\alpha}^{\beta}\)와 \([T^{-1}]_{\beta}^{\alpha}\)는 크기가 같은 정사각행렬이다. 앞의 결과로부터$$[T]_{\alpha}^{\beta}[T^{-1}]_{\beta}^{\alpha}=[T\circ T^{-1}]_{\beta}=[Id]_{\beta}$$이고 \([Id]_{\beta}\)는 단위행렬이므로 \([T^{-1}]_{\beta}^{\alpha}=\left([T]_{\alpha}^{\beta}\right)^{-1}\)을 얻는다. \(T\)가 동형사상이면 \(V\)의 임의의 기저 \(\alpha\)와 \(W\)의 임의의 기저 \(\beta\)에 대하여 \([T]_{\alpha}^{\beta}\)는 역행렬을 갖는다.
\(\alpha=\{\mathbf{v}_{1},\,...,\,\mathbf{v}_{n}\}\)와 \(\beta=\{\mathbf{w}_{1},\,...,\,\mathbf{w}_{n}\}\)를 벡터공간 \(V\)의 순서기저라 하자. 그러면 임의의 \(\mathbf{x}\in V\)를 다음과 같이 나타낼 수 있다.$$\mathbf{x}=\sum_{i=1}^{n}{x_{i}\mathbf{v}_{i}}=\sum_{j=1}^{n}{y_{j}\mathbf{w}_{j}}$$\(\beta\)의 벡터를 \(\alpha\)의 기저들을 이용한 선형결합으로 나타내면 \(j=1,\,...,\,n\)에 대하여 \(\displaystyle\mathbf{w}_{j}=Id(\mathbf{w}_{j})=\sum_{i=1}^{n}{q_{ij}\mathbf{v}_{i}}\)이고$$[\mathbf{w}_{j}]_{\alpha}=[Id(\mathbf{w}_{j})]_{\alpha}=\begin{pmatrix}q_{1j}\\ \vdots\\q_{nj}\end{pmatrix}$$그러면 임의의 \(\mathbf{x}\in V\)에 대하여$$\mathbf{x}=\sum_{i=1}^{n}{x_{i}\mathbf{v}_{i}}=\sum_{j=1}^{n}{y_{j}\mathbf{w}_{j}}=\sum_{j=1}^{n}{y_{j}\left(\sum_{i=1}^{n}{q_{ij}\mathbf{v}_{i}}\right)}=\sum_{i=1}^{n}{\left(\sum_{j=1}^{n}{q_{ij}y_{j}}\right)}\mathbf{v}_{i}$$이고 이를 행렬로 나타내면$$\begin{pmatrix}x_{1}\\ \vdots\\x_{n}\end{pmatrix}=\begin{pmatrix}q_{11}&\cdots&q_{1n}\\&\ddots&\\q_{n1}&\cdots&q_{nn}\end{pmatrix}\begin{pmatrix}y_{1}\\ \vdots\\ y_{n}\end{pmatrix}$$이다. 간단하게 나타내면 \([\mathbf{x}]_{\alpha}=[Id]_{\beta}^{\alpha}[\mathbf{x}]_{\beta}\)이고 여기서$$[Id]_{\beta}^{\alpha}=\begin{pmatrix}q_{11}&\cdots&q_{1n}\\&\ddots&\\q_{n1}&\cdots&q_{nn}\end{pmatrix}=[[\mathbf{w}_{1}]_{\alpha}\,\cdots\,[\mathbf{w}_{n}]_{\alpha}]$$이다. 행렬 \([Id]_{\beta}^{\alpha}\)를 전이행렬(transition matrix) 또는 \(\beta\)에서 \(\alpha\)로의 좌표변환행렬(coordinate change matrix)이라고 한다. \(Id\,:\,V\,\rightarrow\,V\)는 동형사상이므로 \([Id]_{\beta}^{\alpha}\)는 역행렬을 가진다.
여기서 잠깐! \(E\)를 표준기저라고 하면 \([Id]_{\beta}^{\alpha}=[Id]_{E}^{\alpha}[Id]_{\beta}^{E}=\left([Id]_{\alpha}^{E}\right)^{-1}[Id]_{\beta}^{E}\)이 성립한다. \([Id]_{\beta}^{E}\)는 열벡터가 \(\beta\)의 순서기저로 이루어진 행렬이다.
\(\alpha=\{(1,\,0,\,0),\,(1,\,1,\,0),\,(1,\,1,\,1)\}\), \(\beta=\{(0,\,1,\,1),\,(1,\,0,\,1),\,(1,\,1,\,1)\}\)일 때 \([Id]_{\beta}^{\alpha}\)를 구하자. \([Id]_{\beta}^{\alpha}=[Id]_{\beta}^{E}[Id]_{E}^{\alpha}=\left([Id]_{\alpha}^{E}\right)^{-1}[Id]_{\beta}^{E}\)이고$$[Id]_{\beta}^{E}=\begin{pmatrix}0&1&1\\1&0&1\\1&1&1\end{pmatrix},\,[Id]_{E}^{\alpha}=\left([Id]_{\alpha}^{E}\right)^{-1}=\begin{pmatrix}1&1&1\\0&1&1\\0&0&1\end{pmatrix}^{-1}=\begin{pmatrix}1&-1&0\\0&1&-1\\0&0&1\end{pmatrix}$$이므로$$[Id]_{\beta}^{\alpha}=[Id]_{E}^{\alpha}[Id]_{\beta}^{E}=\begin{pmatrix}1&-1&0\\0&1&-1\\0&0&1\end{pmatrix}\begin{pmatrix}0&1&1\\1&0&1\\1&1&1\end{pmatrix}=\begin{pmatrix}-1&1&0\\0&-1&0\\1&1&1\end{pmatrix}$$이다.
참고자료:
Linear Algebra, jinho Kwak, sungpyo Hong, Birkhauser
'대수학 > 선형대수학' 카테고리의 다른 글
[선형대수학] 12. 선형변환 (5: 쌍대공간과 선형범함수) (0) | 2017.10.23 |
---|---|
[선형대수학] 11. 선형변환 (4: 닮음행렬) (0) | 2017.10.20 |
[선형대수학] 9. 선형변환 (2: 선형변환의 행렬) (0) | 2017.10.16 |
[선형대수학] 8. 선형변환 (1: 선형변환의 정의) (0) | 2017.10.14 |
[선형대수학] 7. 벡터공간 (2: 행, 열공간) (0) | 2017.10.06 |