본문 바로가기

머신러닝/[인공지능을 위한 선형대수]

(25)
고유값 분해와 특이값 분해의 응용 학습목표 마지막으로 이번 강의는 이제까지 배운 고유값 분해와 특이값 분해가 실제 딥러닝과 머신러닝에는 어떤 식으로 활용될 수 있는지 배워보는 시간입니다. 고유값 분해가 머신러닝에서 어떠헥 쓰이는지 알아보고, 특이값 분해가 'Low-rank approximation'과 'Dimension-reducing transformation'에서 어떻게 활용될 수 있는지 배워보겠습니다. 핵심 키워드 주성분분석(Principal Component Analysis) 그람 행렬(Gram Matrix) Low-Rank Approximation Dimension-Reducing Transformation 학습하기 ED가 이제 Machine learning 쪽에서는 어떻게 쓰이는가-에 대해 말해보겠습니다. ED는 말씀드렸듯이,..
특이값 분해 2 학습목표 이번 강의에서는 특이값 분해를 계산하는 법을 배우겠습니다. 그리고 그 과정에서 등장하는 새로운 개념들을 함께 배우며서 특이값 분해에 대해 더 깊이 이해하는 시간을 가지겠습니다. 핵심 키워드 스펙트럴 정리(Spectral Theorem) 대칭행렬(Symmetric Matrix) Positive Definite Matrix 학습하기 그러면 이런 SVD를 어떻게 구하느냐-에 대해 말해보겠습니다. 별도의 알고리즘은 없다고 생각하셔도 됩니다. ED를 계산할 때 사용했던 방법이 가장 근접하다-라고 말할 수 있습니다. 그러면 SVD와 ED가 어떻게 연결되는지-에 초점을 맞춰봅시다. A=USV' 에서 AA'와 A'A를 생각해보죠. 그럼, 아래의 식처럼 중간의 S의 제곱된 형태로 수식이 표현될겁니다. U는 Or..
특이값 분해 1 학습목표 드디어 이번 강의에서는 전체 강의의 마지막 주제인 특이값 분해(SVD, Singular Value Decomposition)을 배우겠습니다. 그리고 이에 더 나아가 특이값 분해를 여러 관점에서 해석해보는 시간을 가지겠습니다. 핵심 키워드 특이값 분해(Singular Value Decomposition) 학습하기 이제 특이값 분해(Singular Value Decomposition)을 해봅시다. 이건 여태까지 배웠던 내용들의 총집합이라고 생각하셔도 될 것 같습니다. 고유값 분해와도 생김새가 굉장히 비슷하죠. SVD는 ED와 달리 Rectangular matrix A를 대상으로 합니다. A를 3가지 행렬로 분해하는 건데요, ED에서는 Invertible matrix V와 Diagonal matrix..
고유값 분해와 선형변환 학습목표 드디어 이번 강의에서는 이제까지 우리가 배워온 개념을 토대로 고유값 분해에 대해 배워보겠습니다. 그리고 고유값 분해를 통한 선형변환의 과정을 다루겠습니다. 핵심 키워드 고유값 분해(Eigen Decomposition) 학습하기 그럼 이제, A matrix가 Diagonalizable이라고 가정해봅시다. 그럼 D=V^-1 A V로 표현할 수 있을테구요. 이는 다시 VDV^-1 = A라고 표현할 수 있을 테고, 이를 저희는 Eigen Decomposition이라고 부릅니다. 역행렬을 갖는 V 행렬과, Diagonal matrix D로 분해한거죠. 저희가 인수분해를 하듯, 어떤 행렬을 다른 행렬의 곱으로 표현하는 거죠. QR Factorization(Decomposition)처럼요. 다음과 같은 행렬..
대각화 학습목표 이번 강의에서는 고유값 분해와 밀접한 관련을 가지는 대각화의 개념에 대해 배워보겠습니다. 이는 나중에 배울 특이값 분해(SVD, Singular Value Decomposition)와도 밀접한 관련이 있으니 숙지하고 넘어가시길 바랍니다. 핵심 키워드 대각화행렬(Diagonalizable Matrix) 학습하기 이제 대각화(Diagonalize)를 생각해보죠. 기본적으로 이건 정방행렬에 대해 생각하는 개념이구요. Diagonal matrix라는, (i,i)의 값만 존재하고 나머지 좌표의 값은 0인 그런 행렬로 변환하는 과정을 대각화라고 생각하시면 됩니다. 다만 이건 모든 행렬에 대해 가능한게 아니라, 되는 행렬이 있고, 안되는 행렬이 있습니다. 아래 식에 등장하는 V matrix를 찾을 수 있는가..
특성방정식 학습목표 이번 시간에는 지난 시간에 배운 새로운 벡터 공간의 개념을 바탕으로 고유벡터와 고유값을 더 깊이 이해하고 특성방정식(Charateristic Equation)을 통해 이들을 구하는 법을 알아보겠습니다. 핵심 키워드 특성방정식(Characteristic Equation) 학습하기 자 앞서 영공간에 대해 살펴봤는데, 다시 고유벡터로 돌아와봅시다. 고유벡터와 고유값을 구하기 위한 식이 아래와 같은 식이고, A-rI를 B로 치환하면 이는 결국 Bx=0라는 식의 솔루션, 즉 Nul B가 되는 셈입니다. 그리고 이러한 공간을, Eigenspace라고 하죠. 앞서 봤던 Rank-Nullity thm의 내용을 그대로 쓸 수 있겠죠. A-rI가 3차원일 때, A-rI가 2개의 기저벡터를 갖는다면, 고유벡터는 1..
영공간과 직교여공간 학습목표 이번 시간에서는 고유값과 고유벡터의 개념과 이를 구하는 과정을 벡터 공간과 결부시켜 더 깊히 이해하기 위해 새로운 벡터 공간의 개념을 배워보도록 하겠습니다. 핵심 키워드 영공간(Null Space) 직교여공간(Orthogonal Complement) 학습하기 이제 영공간,Null space라는 것에 대해 배워봅시다. 저희가 Matrix와 Space라는 단어를 배울 때, Col A로 Span된 Subspace 등을 배웠었죠. Null space라는 건, Ax = 0의 모든 솔루션들의 집합을 의미합니다. Null A라고도 표기합니다. 여기서 저희가 접근할 방법은, A와 x의 내적을 했을 때, 0이 나온다는 부분을 보고, 아, A와 x가 서로 수직이구나. 를 생각해내는 겁니다. 더 정확하게는, A를 ..
고유벡터와 고유값 학습목표 고유값 분해는 이미 널리 알려지고 다양한 분야에서 쓰이고 있는 주성분분석(PCA: Principal Componet Analysis) 등의 주요 머신러닝 알고리즘에서 중요하게 쓰이는 개념입니다. 이번 강의에서는 고유값 분해를 배우기 위한 첫 단계인 고유벡터와 고유값의 개념에 대해 배워보도록 하겠습니다. 핵심 키워드 고유벡터와 고유값(Eigenvectors and Eigenvalues) 학습하기 이번엔 고유벡터(Eigenvector)에 대해 알아봅시다. 아래와 같이 Ax = rx를 만족하는 벡터 x와, 스칼라 r를 생각해봅시다. 이러한 값들이 각각 고유벡터, 고유값이 됩니다. 이러한 내용이 기하학적으로 어떤 역활을 하게 되는지 생각해봅시다. 기본적으로 Ax 는 x라는 벡터를 A matrix만큼 T..