Check
- Subspace란?
- Span은 subspace인가?
- Basis란?
- Subspace의 dimension의 정의는?
- Matrix의 column space란?
- Matrix의 rank란?
- ML에서 rank가 작다의 의미는?
- Linear Transformation이란?
- f(x) = 3x + 2는 선형 변환인가?
- 어떤 벡터의 선형 변한은 행렬 곱으로 표현할 수 있다. 증명은?
- Standard basis란?
- 선형 변환 T(x)를 Ax로 나타낼 때, A는?
Subspace의 개념.
우리가 흔히 dimension 하고 그냥 썼지만 사실 정의는 위와 같다. 우리가 3차원 공간이라고 부르는 이유는 이 공간의 basis의 크기가 3이기 때문이다. 즉 3개의 선형 독립인 벡터들의 span이 우리가 사는 공간을 전부 커버하고, 그 벡터들의 선형 결합으로 표현하지 못하는 벡터는 없다. 벡터를 4개 뽑으면 그 중 하나는 다른 세 벡터의 선형 결합으로 무조건 표현된다. 모두 같은 의미이다.
Column space와 rank의 정의이다. 머신러닝에서 데이터셋의 feature 수에 비해 rank가 작으면 feature들이 선형 종속이라는 이야기이다. 위의 matrix를 보면 몸무게가 키 x 0.2로 나타나는데 이것은 거의 의미가 없는 중복된 feature이다. 따라서 모델의 성능을 떨어뜨리게 된다. 그런데 이 부분을 regularization과 연관 지으시면서 설명을 해주셨는데, 그 부분은 coefficient를 작게 잡아야 하는 이유인데 feature 수와 어떤 관련이 있는지 잘 이해가 가지 않았다.
선형 변환의 개념이다. 어떤 변환, mapping, 혹은 function이 선형이라는 것은 위의 조건을 만족한다는 것이다. 위에서 47과 35로 값이 다르므로 3x + 2는 선형이 아니다. 나중에 다시 그려보자.
위의 2차원에서 1차원으로의 변환은 선형이다. Ax 라는 변환은 상수 term이 존재하지 않기 때문이다.
벡터의 선형 변환은 행렬 곱으로 언제나 표현될 수 있다.
'수업 정리(개인용) > 선형대수(주재걸 교수님)' 카테고리의 다른 글
인공지능을 위한 선형대수(주재걸 교수님) 전사함수와 일대일함수 (0) | 2021.01.03 |
---|---|
인공지능을 위한 선형대수(주재걸 교수님) 선형변환 with Neural Network (0) | 2021.01.02 |
인공지능을 위한 선형대수(주재걸 교수님) 선형독립과 선형종속 (0) | 2020.12.31 |
인공지능을 위한 선형대수(주재걸 교수님) 선형결합 (0) | 2020.12.30 |
인공지능을 위한 선형대수(주재걸 교수님) Intro, 선형대수의 기초, 선형방정식과 선형시스템 (0) | 2020.12.26 |