본문 바로가기

수업 정리(개인용)/선형대수(주재걸 교수님)

(16)
인공지능을 위한 선형대수(주재걸 교수님) 고유값 분해와 특이값 분해의 응용 Check - Similarity matrix란? - ML에서 similarity matrix를 사용하는 대표적인 2가지 예시는? - ML에서 SVD를 활용하는 두가지 예는? - Low rank approximation은 어떤 효과가 있는가? - Low rank approximation을 A와 A_r에 관한 식으로 나타내면? - AB라는 outer product에서, A의 rank가 n이면 AB의 rank가 n인가? 이유는? - Dimension reduction을 X, G에 관한 식으로 나타내면? - Dimension reduction에서 G는 어떻게 구하는가? - Dimension reduction에서 차원 축소된 Y를 시그마와 V에 관한 식으로 나타내면? ML에서 이러한 positive defini..
인공지능을 위한 선형대수(주재걸 교수님) 특이값 분해2 Check - AA^T와 (A^T)A를 이용해서 A의 SVD를 구하는 방법은? - 이를 위해서는 3가지를 증명해야 한다. 각각 무엇인가? - Spectral theorem이란? - Algebric multiplicity란? - Geometric multiplicity란? - Geometric multiplicity의 범위는? - Spectral theorem에서 eigenspace가 서로 orthogonal하다는 것은 무엇을 의미하는가? - Characteristic equation에서 허근이 나오면 diagonalizable한가? - Positive(-semi) definite의 정의는? - (A^T)A, AA^T는 positive definite 함을 증명할 수 있는가? - 어떤 matrix의 SVD..
인공지능을 위한 선형대수(주재걸 교수님) 특이값 분해1 Check - SVD는 무엇의 약자인가? - SVD의 basic form은? - SVD에서 U와 V는 각각 어떤 행렬인가? A의 basis를 제공하는 이유는? - SVD의 reduced form은? - Orthonormal matrix의 inverse는 무엇인가? - SVD를 V와 U의 각 column vectors(u_i, v_i)에 관한 식으로 나타내면?
인공지능을 위한 선형대수(주재걸 교수님) 고유값 분해와 선형 변환 Check - Eigendecomposition이란? - Eigendecomposition을 이용한 선형 변환을 3단계로 나타낼 때, 각 단계의 의미는? - Eigendecomposition이 왜 선형 변환의 계산을 간소화 하는가?
인공지능을 위한 선형대수(주재걸 교수님) 특성방정식, 대각화 Check - Characteristic equation이란? - Characteristic equation을 풀어서 얻을 수 있는 것은? - Squared matrix의 column vectors가 linearly dependent하다는 것은 non-invertible 하다는 것인가? 이유는? - Diagonalization of A의 대각 행렬 D에 대한 식은? -
인공지능을 위한 선형대수(주재걸 교수님) 고유벡터와 고유값, 영공간과 직교여공간 Check - Eigenvector와 Eigenvalue의 정의는? - Linear system의 관점에서 Eigenvector와 Eigenvalue의 의미는? - Null space의 정의는? - Null space와 row vectors의 관계는? - Null space는 subspace인가? - Eigenspace는 basis vectors를 가지는가? - Orthogonal complement란? - Row space, 전체 공간, null space의 dimension간의 관계는?
인공지능을 위한 선형대수(주재걸 교수님) 그람-슈미트 직교화와 QR 분해 Check - Gram-schmidt Orthogonalization이란? 하는 방법은? - QR Factorization이란? - Example 4를 풀 수 있는가? Orthonormal basis로 원래의 basis를 reconstruct 할 수 있다. 이를 이용해서 원래의 basis matrix인 A를 Q와 R의 곱으로 분해할 수 있다. 우선 orthonormal basis를 찾는다. R 행렬은 위와 같이 찾을 수 있다.
인공지능을 위한 선형대수(주재걸 교수님) Orthogonal Projection Check - Orthogonal set, orthogonal basis, orthonormal basis, orthogonal projection이란? - Orthogonal projection은 linear transformation인가? 이유는? - 어떤 벡터로의 orthogonal projection은 어떻게 하는가? - 평면으로는? - Orthonormal basis에 관한 식으로 orthogonal projection을 나타낼 수 있는가? - Normal equation으로도 유도할 수 있는가? - 머신러닝에서 데이터의 feature간의 각도는 무엇을 의미하는가? 왜 orthogonal한 feature가 좋은가? - Feature 벡터간의 각도의 관점에서 L2 regularization의 역할..