이전에 이어서 Orthogonal Projection에 대한 설명이 이어집니다.

마지막을 보면 otrhonormal한 U를
만약

여기서 y가 아닌 b를 넣어주게 되면
- 증명과정에서 이러한 변형이 많이 나옵니다.
orthonormal할 때는 projection 할 때 다른 벡터에 영향을 받지 않지만 그렇지 않다면 다른 벡터에 영향을 받아서 수선의 발을 내렸을 때 수직이 아닐 수 있습니다. 그러면 projection이 다른 벡터를 가리키는 방향으로 삼각형을 만들어서 진행해야 합니다. 방향이 비슷하면 작은 노이즈나 오차에도 큰 오차가 발생하게 됩니다.
- 벡터(특성)이 비슷하면 작은 오차에도 값이 확확 바뀐다.
- 그럼 test data에서 좋은 성능이 나오지 않습니다.
Ridge

Linear classifier
키와 몸무게를 사용하여 과체중을 분류하는 함수가 $weight \times 2 - height$라고 해봅시다.

'수학 > 인공지능을 위한 선형대수' 카테고리의 다른 글
15. 고유벡터와 고유값 (0) | 2021.11.21 |
---|---|
14. Gram - Schmidt Orthogonalization (0) | 2021.11.18 |
12. Orthogonal Projection 1 (0) | 2021.11.13 |
11. 정규 방정식(Normal equation) (0) | 2021.11.10 |
10. Least Squares와 그 기하학적 의미 (0) | 2021.11.04 |