위의 내용을 이해할 수 있다면, 더 할 것이 없다. 일단 잘 봐두도록 하자. 나중에 돌아와서 음미하면 의미가 와 닿을 것이다.
선형 변환은 특별한 형태의 함수로 이해할 수 있다. 다만 투입과 산출이 다양한 차원(벡터)을 취할 수 있다. 그리고 이 선형 변환이 매트릭스로 표현될 수 있다. 때문에 매트릭스 표현이 강력하다. 추상적인 선형 변환 함수를 구체적으로 표현하고 쉽게 계산할 수 있게 만드는 것이 매트릭스다.
Linear Transformation
Concepts
V: T의 인풋
W: T의 아웃풋
T:V→W: V에서 W로의 선형 변환
T(v)=w. 즉, v∈V를 w∈W로 변환하는 것을 나타낸다.
함수와 마찬가지로 위의 선형 변환에서 치역(Im(T))와 커널(스칼라 함수에서는 f(x)=0의 해)이 정의된다.
Im(T)=def{w∈W∣w=T(v) for some v}⊆W
Ker(T)=def{v∈V∣T(v)=0}⊆V
Matrix Representation
인풋, 아웃풋의 기저 벡터를 다음과 같이 두자.
BV={e1,…,en}
BW={b1,…,bm}
MT∈Rm×n은 선형 변환 T의 매트릭스 표현이다.
보다 정확하게 표현해보자.
BW[M]BV
즉, V의 기저로 표현되는 인풋을 W의 기저로 표현되는 아웃풋으로 바꿔준다.
Linearity
선형의 의미는 무엇일까? 기하적으로 선을 다룬다는 뜻이 아니다. 선형의 의미는 함수적인 의미다. 아래 그림을 보자.
선형 변환을 다시 적어보자. T:V→W where V∈Rn, W∈Rm. 즉 이 변환은 n 차원의 벡터를 m 차원으로 바꿔주는 것이다. 이 변환의 투입이 지니는 차원을 생각해보자. n 차원은 로우 공간이 생성하는 R(MT)와 널 공간으로 가는 N(MT)으로 나뉘게 된다. 그리고 이 공간은 서로 직합(direct sum) 관계다. 이를 요약하면 다음과 같다.
T:R(MT)→C(MT),T:N(MT)→{0}
즉 함수처럼 인풋 v∈R(MT)이 w∈C(MT)로 대응된다. 한편, v∈N(MT)는 0∈W으로 대응된다.
Surjective and Injective
함수에서 전사 함수와 단사 함수의 개념을 그대로 적용할 수 있다. 선형 변환 혹은 행렬도 함수다.
만일, v1=v2이고 v1,v2∈R(MT)라면 이는 선형 변환의 정의에 따라서 서로 다른 w로 매핑된다. 따라서 만일 단사 변환이 되려면, N(MT)=0만 성립하면 된다.
Ay−Az=A(y−z)
단사 변환이란 오직 x=y일 때만 Ax=Ay가 성립한다는 뜻이다. 즉 위의 식에서 A(x−y)=0이 x=y일 때만 성립하면 된다. 즉, Ax=0이 x=0일 때만 성립하면 된다. 전사 변환의 정의는 통상적인 정의와 같다; Im(T)=Rm.
매트릭스의 맥락에서 다시 음미해보자. 만일 전사(surjective) 변환이 되려면 n≥m이 성립해야 한다. 로우 스페이스의 차원이 컬럼 스페이스보다 커야 컬럼 스페이스 전체를 생성할 수 있다. 반면 단사(injective) 변환이 되려면 n≤m이 되어야 한다. 1-1 대응이 가능하려면 컬럼 스페이스의 크기가 로우 스페이스보다 커여 한다.
따라서 전단사 변환이 되기 위한 조건은 m=n이다. 함수에서 역함수가 존재하려면 전단사 함수여야 한다. 선형 변환도 마찬가지다. 역행렬이 존재하기 위한 필요 조건은 정방 행렬, m=n이다.