머신러닝에서 사용하는 gradient descent와 달리 normal equation은 최솟값을 직접 계산하는 방법입니다.

다음과 같이 역행렬이 존재한다면 가장 거리가 가까운 solution을 구할 수 있습니다.
여기서 x는 최단 거리의 수선의 발을 의미합니다. 그리고 x를 최단 거리의 벡터로 만들어주기 위해서 만족해야 할 식이 normal equation입니다. 정규 방정식도 일종의 선형 결합으로 우리가 방정식을 풀어서 x값을 구하게 된다면 그 값은
- 정확하게

제곱은 자기 자신을 전치한 다음에 행렬 곱한것과 같습니다. 그렇기 때문에
다음과 같이 복잡한 object function이 나왔습니다. 이런 경우가 의외로 많이 존재하고 이 함수를 미분해야 하는 경우가 많은데 그런 경우 벡터와 행렬이 서로 엉켜있을 때 shape을 잘 봐주면 됩니다. 어떻게 섞여있던지 길이를 나타내는 값으로 scalar 값으로 답이 나오게 됩니다.
정규 표현식은 특수한 성질 때문에 solution이 없는 경우는 없습니다. solution이 최소한 1개 이상 있습니다. b에서 수선의 발을 내렸을 때 수직이 되는 값은 1곳만 존재하는데 그 점을 표현할 방법이 여러 개 있으면 해가 1개 이상 있는 것입니다.
'수학 > 인공지능을 위한 선형대수' 카테고리의 다른 글
13. Orthogonal Projection 2 (1) | 2021.11.17 |
---|---|
12. Orthogonal Projection 1 (0) | 2021.11.13 |
10. Least Squares와 그 기하학적 의미 (0) | 2021.11.04 |
9. Least Squares Problem 소개 (0) | 2021.10.17 |
8. ONTO and ONE - TO - ONE (0) | 2021.10.15 |