enter image description here

위의 내용을 이해할 수 있다면, 더 할 것이 없다. 일단 잘 봐두도록 하자. 나중에 돌아와서 음미하면 의미가 와 닿을 것이다.

선형 변환은 특별한 형태의 함수로 이해할 수 있다. 다만 투입과 산출이 다양한 차원(벡터)을 취할 수 있다. 그리고 이 선형 변환이 매트릭스로 표현될 수 있다. 때문에 매트릭스 표현이 강력하다. 추상적인 선형 변환 함수를 구체적으로 표현하고 쉽게 계산할 수 있게 만드는 것이 매트릭스다.

Linear Transformation

Concepts

  • VV: TT의 인풋
  • WW: TT의 아웃풋
  • T:VWT: V \to W: VV에서 WW로의 선형 변환
    • T(v)=wT(\vec v) = \vec w. 즉, vV\vec v \in VwW\vec w \in W로 변환하는 것을 나타낸다.

enter image description here

함수와 마찬가지로 위의 선형 변환에서 치역(Im(TT))와 커널(스칼라 함수에서는 f(x)=0f(x) = 0의 해)이 정의된다.

Im(T)=def{wWw=T(v) for some v}W {\rm Im}(T) \overset{\rm def}{=} \{ \vec w \in W | \vec w = T(\vec v) \text{ for some } \vec v \} \subseteq W
Ker(T)=def{vVT(v)=0}V {\rm Ker}(T) \overset{\rm def}{=} \{ \vec v \in V | T(\vec v) = \vec 0 \} \subseteq V

Matrix Representation

인풋, 아웃풋의 기저 벡터를 다음과 같이 두자.

BV={e1,,en} B_V = \{ \vec e_1, \dotsc, \vec e_n \}
BW={b1,,bm} B_W = \{ \vec b_1, \dotsc, \vec b_m \}
  • MTRm×nM_T \in \mathbb R^{m \times n}은 선형 변환 TT의 매트릭스 표현이다.
  • 보다 정확하게 표현해보자.
BW[M]BV \phantom{}_{B_W}[M]_{B_V}

즉, VV의 기저로 표현되는 인풋을 WW의 기저로 표현되는 아웃풋으로 바꿔준다.

Linearity

선형의 의미는 무엇일까? 기하적으로 선을 다룬다는 뜻이 아니다. 선형의 의미는 함수적인 의미다. 아래 그림을 보자.

enter image description here

즉,

T(α1v1+α2v2)=α1T(v1)+α2T(v2)=α1w1+α2w2 T(\alpha_1 \vec v_1 + \alpha_2 \vec v_2) = \alpha_1 T(\vec v_1) + \alpha_2 T(\vec v_2) = \alpha_1 \vec w_1 + \alpha_2 \vec w_2

Matrix as Linear Transformation

왜 매트릭스가 선형 변환을 나타낼 수 있는지를 좀 더 들여다보자.

T(v)=T(v1e^1++vne^n)=v1T(e^1)++vnT(e^n)=[T(e^1)T(e^n)]v=MTv \begin{aligned} T(\vec v) &= T(v_1{\hat e_1} + \dotsb + v_n{\hat e_n} ) \\ & = v_1 T(\hat e_1) + \dotsb+ v_n T(\hat e_n) \\ & = \begin{bmatrix} \vert & \vert & \vert \\ T(\hat e_1) & \cdots & T(\hat e_n) \\ \vert & \vert & \vert \end{bmatrix} \vec v \\ & = M_T \vec v \end{aligned}

Eat This!

Mapping Spaces

선형 변환을 다시 적어보자. T:VWT: V \to W where VRnV \in \mathbb R^n, WRmW \in \mathbb R^m. 즉 이 변환은 nn 차원의 벡터를 mm 차원으로 바꿔주는 것이다. 이 변환의 투입이 지니는 차원을 생각해보자. nn 차원은 로우 공간이 생성하는 R(MT)\mathcal R (M_T)와 널 공간으로 가는 N(MT)\mathcal N(M_T)으로 나뉘게 된다. 그리고 이 공간은 서로 직합(direct sum) 관계다. 이를 요약하면 다음과 같다.

T:R(MT)C(MT), T:N(MT){0} T: \mathcal R(M_T) \to \mathcal C(M_T),~ T: \mathcal N(M_T) \to \{ \vec 0 \}

즉 함수처럼 인풋 vR(MT)\vec v \in \mathcal R(M_T)wC(MT)\vec w \in \mathcal C(M_T)로 대응된다. 한편, vN(MT)\vec v \in \mathcal N(M_T)0W\vec 0 \in W으로 대응된다.

Surjective and Injective

enter image description here

함수에서 전사 함수와 단사 함수의 개념을 그대로 적용할 수 있다. 선형 변환 혹은 행렬도 함수다.

만일, v1v2\vec v_1 \neq \vec v_2이고 v1,v2R(MT)\vec v_1, \vec v_2 \in \mathcal R(M_T)라면 이는 선형 변환의 정의에 따라서 서로 다른 w\vec w로 매핑된다. 따라서 만일 단사 변환이 되려면, N(MT)=0\mathcal N(M_T) = { \vec 0 }만 성립하면 된다.

AyAz=A(yz) Ay - Az = A(y-z)

단사 변환이란 오직 x=yx = y일 때만 Ax=AyAx = Ay가 성립한다는 뜻이다. 즉 위의 식에서 A(xy)=0A(x-y) = 0x=yx=y일 때만 성립하면 된다. 즉, Ax=0A x = 0x=0x=0일 때만 성립하면 된다. 전사 변환의 정의는 통상적인 정의와 같다; Im(T)=Rm{\rm Im} (T) = \mathbb R^m.

매트릭스의 맥락에서 다시 음미해보자. 만일 전사(surjective) 변환이 되려면 nmn \geq m이 성립해야 한다. 로우 스페이스의 차원이 컬럼 스페이스보다 커야 컬럼 스페이스 전체를 생성할 수 있다. 반면 단사(injective) 변환이 되려면 nmn \leq m이 되어야 한다. 1-1 대응이 가능하려면 컬럼 스페이스의 크기가 로우 스페이스보다 커여 한다.

따라서 전단사 변환이 되기 위한 조건은 m=nm=n이다. 함수에서 역함수가 존재하려면 전단사 함수여야 한다. 선형 변환도 마찬가지다. 역행렬이 존재하기 위한 필요 조건은 정방 행렬, m=nm=n이다.

보다 상세한 내용은 여기를 참고하자.