- 본 내용은 edwith에서 인공지능을 위한 선형대수 내용을 통해 작성되었습니다.
함수의 입력으로 쓰이는 모든 집합은 정의역(domain), 함수의 출력값으로 쓰이는 모든 output의 집합은 공역(co-domain), 입력에 대한 출력값은 image라고 합니다. range는 치역으로 실제로 사용된 공역입니다.
- ex) $2x$라는 함수가 있을 때 $x = 1$의 image는 2
선형변환의 조건
- $T(cu + dv) = cT(u) + dT(v)$을 만족할 때 ($u, v$는 벡터입니다.)
$3x$와 같은 단순 상수배이면 선형변환이 됩니다. $y = 3x + 2$와 같이 bias가 포함되면 선형변환이 아닙니다. 위 조건을 만족시키지 않기 때문입니다. 하지만 이러한 경우도 수정을 해주면 선형변환이라고 할 수 있습니다.
위와 같이 $T: R^1 -> R^1$이면 안되지만 $T: R^2 -> R^1$이면 가능합니다.
$\left [ \begin{matrix} 3 & 2 \end{matrix} \right] $ $\left [ \begin{matrix} x \\ 1 \\ \end{matrix} \right] =$ $3x + 2$
이러한 경우는 따로 더해주는 것 없이 한번에 연산이 되므로 선형변환으로 볼 수 있습니다.
벡터를 벡터로 변화해주는 변환이 선형변환입니다. $T(\left [ \begin{matrix} 1 \\ 0 \\ \end{matrix} \right]) T(\left [ \begin{matrix} 0 \\ 1 \\ \end{matrix} \right])$ 이렇게 두 가지 결과값을 보여준다면 T라는 변환을 파해칠 수 있습니다.
어떤 벡터 $x$를 정의하고 그 벡터를 사장 기본적인 Standard vector의 선형결합으로 표현한 다음 T에 넣어서 변환을 구하고 선형변환의 조건을 사용하면 함수를 간단하게 표현할 수 있습니다.
- 선형변환은 행렬과 입력벡터의 곱으로 항상 나타낼 수 있습니다. n차원 벡터에서도 동일한 유도 과정으로 정리가 가능합니다.
'수학 > 인공지능을 위한 선형대수' 카테고리의 다른 글
8. ONTO and ONE - TO - ONE (0) | 2021.10.15 |
---|---|
7. 선형변환 with Neural Networks (0) | 2021.10.13 |
5. 부분공간의 기저와 차원 (Span and Subspace) (0) | 2021.10.11 |
4. 선형독립과 선형종속 (0) | 2021.10.09 |
3. 선형 결합(Linear Combinations) (0) | 2021.09.30 |