학습목표
이번 강의의 주제는 선형변환입니다. 우선 함수의 개념을 통한 변환(Transformation)의 개념과 친숙해지고, 이를 확장하여 벡터공간 내에서의 선형변환을 배우겠습니다.
핵심 키워드
- 선형변환(Linear Transformation)
학습하기
이번에는 변환(Transformation)에 대해 이야기를 해보죠. Transformation, Function, Mapping 사실 다 같은 역활을 수행합니다. 어떤 Input x를 Output y로 매핑하는거죠. Co-domain은 고등학생 때 배웠던 공역, Range는 치역이 될 거구요. 함수 자체의 정의에 따라, 특정 x에 매핑되는 y는 유일해야합니다. 하나의 원소가 여러 개의 원소에 매칭되는 건 정의에 맞지않습니다.
이런 Transformation이 Linear하다-라는 말은, 아래의 조건을 만족한다는 말입니다. 저희가 계속 Matrix를 다루고 있음에도, 이 학문의 이름이 Linear algebra인 이유가 이러한 정의를 보시면 조금이라도 잡히지 않으실까-하는 생각을 합니다. 그런데, 이런 정의를 차치하고 보통 선형함수라고 불리는 y=3x+2: R^1->R^1 따위를 생각해봅시다. 이건 Linear할까요? 하면, 계산해보시면 아시겠지만, Linear하지 않습니다. Bias라고 하는 상수 2 때문인데요. 이걸 Matrix 연산을 통해서 R^2->R^1의 매핑으로 만들게되면, Linear성질을 만족할 수 있게됩니다.
여기서 이제 저희가 다룰 Input과 Output은 모두 벡터가 될 것이고, 그에 따라 벡터의 사이즈를 잘 고려해주셔야하겠죠.
어떤 변환이, 선형 변환이라고 할 때, 주어진 2개의 단서로 모든 x에 대한 Formular를 계산해라- 라는 문제인데요. 저희가 원하는 매핑의 정의역이 2Dim이고, 2개의 기저벡터, 정확히는 standard/canonical vector들이 주어졌기 때문에, 정확한 공식을 저희는 계산할 수 있습니다. Linear라는 정의를 이용하면 단순하죠.
정리하면, 어떤 Linear transformation은 항상 T(x)=Ax와 같은 Matrix-vector mulitiplication으로 표현할 수 있습니다. 특히나, A의 Column은 사실 A를 포함하는 공간의 Identity matrix의 Column과 동일하며, 이게 즉 Standard vectors이고, 이걸 모아 놓으면 Standard matrix입니다.
앞에 풀었던 문제와 같은 방향성으로 아래의 식도 풀 수 있겠습니다. 모르고 구했던 그 Formular가 Standard matrix였다는 거죠. 이상입니다.
'머신러닝 > [인공지능을 위한 선형대수]' 카테고리의 다른 글
전사함수와 일대일함수 (0) | 2020.05.15 |
---|---|
선형변환 with Neural Networks (0) | 2020.05.14 |
부분공간의 기저와 차원 (0) | 2020.05.13 |
선형독립과 선형종속 (0) | 2020.05.12 |
선형결합 (0) | 2020.05.11 |