Processing math: 18%

대수학/선형대수학2017. 10. 23. 01:16
반응형

[선형대수학] 12. 선형변환 (5: 쌍대공간과 선형범함수)



벡터공간 V에서 1차원 벡터공간 R로의 선형변환을 V의 선형범함수(Linear functional)라고 한다.

C([a,b])를 구간 [a,b]에서 연속인 실함수(real-valued function)들의 집합이라 하자.I(f(x))=baf(x)dx로 정의된 정적분 I:C([a,b])R은 선형범함수이다. 특히Fn(f(t))=12π2π0f(t)eintdt(i=1)로 정의된 Fn:C([0,2π])Cfn차 푸리에 계수(Fourier coefficient)라 하며 선형범함수이다.

임의의 (aij)n×n=AMn×n(R)에 대하여tr(A)=ni=1aii로 정의된 대각합 tr:Mn×n(R)R과 판별식 det도 선형범함수이다.


벡터공간 V에 대하여, V의 선형범함수들의 벡터공간을 V의 쌍대공간(dual space)이라 하고 이를 V^{*}로 나타낸다. \alpha=\{\mathbf{v}_{1},\,...,\,\mathbf{v}_{n}\}V의 벡터공간이면,\mathbf{v}_{i}^{*}(\mathbf{v}_{i})=\delta_{ij}=\begin{cases}1&\,(i=j)\\0&\,(i\neq j)\end{cases}\,(i,\,j=1,\,...,\,n)로 정의된 함수 \mathbf{v}_{i}^{*}:\,V\,\rightarrow\,\mathbb{R}V상의 선형범함수이고, 이를 기저 \alpha에 대한 i번째 좌표함수(coordinate function)라고 한다. 특히 임의의 \displaystyle\mathbf{x}=\sum_{i=1}^{n}{a_{i}\mathbf{v}_{i}}\in V에 대하여 \mathbf{v}_{i}^{*}(\mathbf{x})=a_{i}\mathbf{x}\alpha에 대한 i번째 좌표이다.

V가 벡터공간, \alpha=\{\mathbf{v}_{1},\,...,\,\mathbf{v}_{n}\}V의 기저일 때 집합 \alpha^{*}=\{\mathbf{v}_{1}^{*},\,...,\,\mathbf{v}_{n}^{*}\}V의 쌍대공간 V^{*}의 기저가 되고, 임의의 T\in V^{*}에 대하여T=\sum_{i=1}^{n}{T(\mathbf{v}_{i})\mathbf{v}_{i}^{*}}이다. 이때 V^{*}의 기저인 \alpha^{*}\alpha의 쌍대기저(dual basis)라고 한다.

\alpha^{*}=\{\mathbf{v}_{1}^{*},\,...,\,\mathbf{v}_{n}^{*}\}는 일차독립인데 \displaystyle\mathbf{0}=\sum_{i=1}^{n}{c_{i}\mathbf{v}_{i}^{*}}일 때 \displaystyle0=\sum_{i=1}^{n}{c_{i}\mathbf{v}_{i}^{*}(\mathbf{v}_{j})}=c_{j}\,(j=1,\,...,\,n)이 성립하기 때문이다. 또한 임의의 T\in V^{*}\mathbf{v}_{j}\in\alpha에 대하여\left(\sum_{i=1}^{n}{T(\mathbf{v}_{i})\mathbf{v}_{i}^{*}}\right)(\mathbf{v}_{j})=\sum_{i=1}^{n}{T(\mathbf{v}_{i})}(\mathbf{v}_{i}^{*}(\mathbf{v}_{j}))=T(\mathbf{v}_{j})이므로 \displaystyle T=\sum_{i=1}^{n}{T(\mathbf{v}_{i})\mathbf{v}_{i}^{*}}

\alpha=\{\mathbf{v}_{i},\,...,\,\mathbf{v}_{n}\}을 기저로 갖는 벡터공간 V에 대하여 *(\mathbf{v}_{i})=\mathbf{v}_{i}^{*}으로 정의된 변환 *:\,V\,\rightarrow\,V^{*}은 동형사상이다. 이때 V는 유한차원의 벡터공간이므로 임의의 유한차원 벡터공간은 자신의 쌍대공간과 동형이다. 즉 VV^{*}는 동형이다.


VW를 기저가 각각 \alpha=\{\mathbf{v}_{1},\,...,\,\mathbf{v}_{n}\}, \beta=\{\mathbf{w}_{1},\,...,\,\mathbf{w}_{m}\}인 벡터공간이라 하고, S:\,V\,\rightarrow\,W를 선형변환, g,\,h\in W^{*}이라 하자. 그러면 S^{*}:\,V^{*}\,\rightarrow\,W^{*}는 선형변환이고 \displaystyle[S^{*}]_{\beta^{*}}^{\alpha^{*}}=\left([S]_{\alpha}^{\beta}\right)^{T}이다. S^{*}가 선형변환인 것은 합성함수의 정의로부터 명백하다. [S]_{\alpha}^{\beta}=a_{ij}, [S^{*}]_{\beta^{*}}^{\alpha^{*}}, \alpha^{*}=\{\mathbf{v}_{1}^{*},\,...,\,\mathbf{v}_{n}^{*}\}, \beta^{*}=\{\mathbf{w}_{1}^{*},\,...,\,\mathbf{w}_{m}^{*}\}라 하자. \displaystyle S(\mathbf{v}_{i})=\sum_{k=1}^{n}{a_{ki}w_{i}}이고 \displaystyle S^{*}(\mathbf{w}_{i}^{*})=\sum_{i=1}^{n}{b_{ij}\mathbf{v}_{i}^{*}}이므로\begin{align*}b_{ij}&=S^{*}(\mathbf{w}_{j}^{*})(\mathbf{v}_{i})=(\mathbf{w}_{j}^{*}\circ S)(\mathbf{v}_{i})=\mathbf{w}_{j}^{*}(S(\mathbf{v}_{i}))\\&=\mathbf{w}_{j}^{*}\left(\sum_{k=1}^{m}{a_{ki}\mathbf{w}_{k}}\right)=\sum_{k=1}^{m}{a_{ki}\mathbf{w}_{j}^{*}(\mathbf{w}_{k})}\\&=a_{ji}\end{align*}이고 따라서 [S^{*}]_{\beta^{*}}^{\alpha^{*}}=\left([S]_{\alpha}^{\beta}\right)^{T}이다. 이때 S^{*}S의 전치(transpose)(또는 수반(adjoint))라고 하고 S^{T}로 나타낸다.


참고자료:

Linear Algebra, jinho Kwak, sungpyo Hong, Birkhauser

반응형
Posted by skywalker222