본문 바로가기

수업 정리(개인용)

(55)
인공지능을 위한 선형대수(주재걸 교수님) 특성방정식, 대각화 Check - Characteristic equation이란? - Characteristic equation을 풀어서 얻을 수 있는 것은? - Squared matrix의 column vectors가 linearly dependent하다는 것은 non-invertible 하다는 것인가? 이유는? - Diagonalization of A의 대각 행렬 D에 대한 식은? -
인공지능을 위한 선형대수(주재걸 교수님) 고유벡터와 고유값, 영공간과 직교여공간 Check - Eigenvector와 Eigenvalue의 정의는? - Linear system의 관점에서 Eigenvector와 Eigenvalue의 의미는? - Null space의 정의는? - Null space와 row vectors의 관계는? - Null space는 subspace인가? - Eigenspace는 basis vectors를 가지는가? - Orthogonal complement란? - Row space, 전체 공간, null space의 dimension간의 관계는?
확률 및 통계(한양대 이상화교수님) lec7 : 여러가지 이산확률분포 Check - Chevyshev Inequality란? - Bernoulli Distribution이란? - Binomial Distribution이란? - Geometric Distribution이란? - Geometric Distribution에서의 forgetfulness란? Error를 최소화하는 x_hat은 평균이다. 그 때, error가 특정 값 이상일 확률을 위와 같이 나타낼 수 있다. 유도는 위와 같다. Binary random variable에 대한 확률 분포이다. 이항 분포의 평균과 분산의 유도이다. 이항 분포의 RV는 n번의 베르누이 시행에서의 성공 횟수이다. 미분을 이용해서 유도하면 더 쉽다. Geometric Distribution에서의 RV는 첫 번째 성공 까지의 베르누이 시행 ..
Learning How to Learn : Chunking - 청크란 서로 연관이 있는 정보의 집합이다. 하나의 청크로 묶인 뉴런들은 많은 경우 동시에 fired 된다. - 전문가가 되기 위한 첫 걸음은 청크를 형성하는 것이다. - 정보를 하나로 묶는 것은 다르게 말해서 정보를 압축한다고 생각할 수 있다. 우리의 단기 기억은 한 번에 4개의 정보를 담을 수 있는데, 이 4개를 하나의 청크로 묶으면 3개의 공간이 비게 된다. - 단순 암기가 아니라 이해한 청크는 다른 청크들과 잘 맞물릴 수 있다. - 청크를 만들기 위해서는 focused mode로 들어가서 집중, 이해, 연습의 단계를 거쳐야 한다. - 스트레스를 받거나 화가 났을 때는 청크를 형성하는 능력이 떨어지게 된다. - 양 방향에서의 학습이 모두 이루어져야 한다. - Bottom up learning은 해..
Learning How to Learn : What is Learning? 뇌는 focused mode와 diffuse mode를 오간다. 익숙한 분야에 대한 뉴런들은 긴밀히 연결되어 있다. 이게 focused mode이다. 생각을 많이 할수록 연결이 강화된다. 해본적 없는 창의적인 발상을 위해서는 diffuse mode도 사용해야 한다. 이 두 모드를 왔다갔다 하면서 뉴런 연결이 강화된다. 마치 운동을 해서 근력을 기르는 것과 같이, 하루 아침에 되는 것이 아니라 점진적으로 능력을 키워 나가는 것이다. 살바도르 달리나 에디슨은 이완된 편안한 상태에서 사색에 잠겨 diffuse mode에 있다가 focused mode로 전환하는 등의 방법을 많이 사용했다. 우리가 새로운 일을 할 때, 불편함을 느끼게 되고 이것은 일정 시간이 지나면 사라지게 된다. 25분간 타이머를 맞추고, 방..
CS231n Lecture 13 : Generative Models Unsupervised learning에는 label이 없다. 대신 데이터 자체의 hidden structure를 학습한다. Unsupervised learning을 푸는 것 만으로 visual world의 underlying structure를 알게 된다. 가령 자기 자신을 복원시키는 오토 인코더는 실제 데이터의 의미있는 feature를 찾아낼 수 있다. Generative model의 목적은 데이터의 density를 닮는 것이다. 다양한 곳에 적용할 수 있는데, 시계열 데이터를 생성해서 RL에 사용할 수 있다고 한다. 또한 latent representation을 배우는 것도 유용하다. 갈래는 위와 같이 나눠진다. Explicit density 모델에서는 likelihood p(x)가 명확하게 정의되..
인공지능을 위한 선형대수(주재걸 교수님) 그람-슈미트 직교화와 QR 분해 Check - Gram-schmidt Orthogonalization이란? 하는 방법은? - QR Factorization이란? - Example 4를 풀 수 있는가? Orthonormal basis로 원래의 basis를 reconstruct 할 수 있다. 이를 이용해서 원래의 basis matrix인 A를 Q와 R의 곱으로 분해할 수 있다. 우선 orthonormal basis를 찾는다. R 행렬은 위와 같이 찾을 수 있다.
인공지능을 위한 선형대수(주재걸 교수님) Orthogonal Projection Check - Orthogonal set, orthogonal basis, orthonormal basis, orthogonal projection이란? - Orthogonal projection은 linear transformation인가? 이유는? - 어떤 벡터로의 orthogonal projection은 어떻게 하는가? - 평면으로는? - Orthonormal basis에 관한 식으로 orthogonal projection을 나타낼 수 있는가? - Normal equation으로도 유도할 수 있는가? - 머신러닝에서 데이터의 feature간의 각도는 무엇을 의미하는가? 왜 orthogonal한 feature가 좋은가? - Feature 벡터간의 각도의 관점에서 L2 regularization의 역할..