본문 바로가기

분류 전체보기

(125)
Weakly Supervised Localization 학습목표 이번 강의에서는 Weakly Supervised Localization과 Class Activation Map에 대해 알아보도록 하겠습니다. 어떤 물체를 인식하여 분류해내는 것을 넘어서서 이미지 내의 어디에 분류해낸 물체가 있는지 알아보는 방법을 위의 2가지 방법론을 통해 알아보겠습니다. 핵심 키워드 Weakly Supervised Localization Class Activation Map(CAM) Detection / Localization 학습하기 Weakly Supervised Localization 이름에서 알 수 있듯, Weakly supervised 방법론을 통해 Localization 문제를 푸는 것입니다. 이미지를 분류할 때, 이 이미지가 뭐다 라고 분류하는 것도 중요하지만, 그..
Residual Network가 왜 잘되는지 해석해보기 학습목표 Residual Network(ResNet)가 왜 잘 작동되는 구조인지, 과연 Depp한 Network가 좋은지를 다루고 있는 두 가지 논문을 알아보겠습니다. 두 논문을 통해 Residual Network를 더 자세히 분석해보고 Network에서 Depth가 가지는 의미를 알아보겠습니다. 핵심 키워드 Residual Network (ResNet) Deeper Network Degradation Esemble Model 학습하기 이번에는, Res net이 왜 좋은지, 그리고 Deeper network가 정말 좋은지 이 2가지에 대해 알아보도록 하겠습니다. Res net을 정말 대단하죠. 152개의 Layer를 활용해 5개의 이미지 대회를 휩쓸었습니다. Res net이 나오기까지 한 질문이 있었죠...
비유동적 데이터(Stationary data) 우리가 시계열 데이터를 받아들면 대개 RNN 계열의 모델들을 구성합니다. 좋은 예시로 주식 데이터가 그러하고, 주식을 예측하면 떼돈을 벌 수 있지 않을까 하는 생각으로 많은 시도가 있었습니다. 물론 결과는 실패였습니다. 그 이유가 바로 Stationary라는 특성때문입니다. 생각해보면 당연한데도, 대개 시계열 데이터만 보면 RNN으로 가려는 습관이 아직도 남아 있는 것 같습니다. Stationary? 어떤 데이터가 Stationary 하다-라는 것은, 과거에 존재하는 패턴이 미래에도 존재한다-라는 것입니다. 그러니까, 어떤 원소의 화학적 반응을 시계열 데이터화시킨다면, 학습이 유의미합니다. 화학반응은 시간이 지남에 따라 변화하는 개념이 아니니까요. 그런데 주식은 조금 다릅니다. 주식의 흐름에서 패턴을 찾..
L1, L2 Norm, Loss, Regularization? 정규화 관련 용어로 자주 등장하는 L1, L2 정규화(Regularization)입니다. 이번에는 단순하게 이게 더 좋다 나쁘다보다도, L1, L2 그 자체가 어떤 의미인지 짚어보고자합니다. 사용된 그림은 위키피디아를 참조하였습니다. Norm 우리가 가장 쉽게 알고 있는 Norm은 절댓값입니다. Norm=절대값이 아니라, 많은 Norm 중 하나가 절댓값인거죠. |-1| = 1 이런식으로 썼었는데, 생각해보면 | ? | 속에는 단순 실수만 아니라 벡터도 들어갔었습니다. |(1,2)|이런식으로요. 그리고 이는 절댓값이 아니라 벡터의 크기 정도로 칭했었죠. Norm이란, 수학적 정의는 복잡하지만 결국 어떤 값의 크기를 계산하여, 비교가 가능하게끔하는 어떤 함수 정도입니다. 그 중 하나가 이제부터 계속 보게될 ..
이미지의 각 픽셀을 분류하는 Semantic Segmentation 학습목표 Semantic Segmentation은 각 이미지 내의 픽셀별로 픽셀이 어디에 속하는지 분류를 해결하는 문제로, 본 강의에서는 이 Semantic Segmentation의 개념을 알아보도록 하겠습니다. 이 분야는 실생활에서 의료, 교통 분야에 많이 활용되고 있습니다. 특히 자율 주행 자동차 기술에 많이 접목되어 있기 때문에 흥미를 느끼며 강의를 들으셔도 좋을 것 같습니다. 핵심 키워드 Semantic Segmentation CNN Fully Convolutional Network (FCN) Full-Resolution Residual Nets 학습하기 이번에는 Semantic segmentation을 보겠습니다 .이는 이미지가 주어졌을 때, 각 픽셀별로 어디에 속하는지 분류를 푸는 문제입니다...
Restricted Boltzmann Machine 학습목표 이번 강의에서는 대표적인 Unsupervised Learning 방법 중 하나인 Restricted Boltzmann Machine(RBM)에 대해서 해워보도록 하겠습니다. Deep Learning을 최근에 접하신 분들에겐 생소할 수 있지만 RBM 덕에 DL이 다시 활기를 띌 수 있게 되었습니다. 핵심 키워드 Restricted Boltzmann Machine(RBM) Unsupervised Learning Energy-Based Models Deep Belief Network(DBN) 학습하기 많은 분들에게 이 RBM은 조금 생소할 수 있는데, 이는 DL이 잘 활용될 수 있게 불씨를 제공한 모델입니다. 수식이 굉장히 많이 등장할 텐데, 천천히 따라오시면 충분할 것 같습니다. 우선 Energy ..
Optimization 방법론 핵심 키워드 Optimization (최적화) Gradient Descent Algorithm Adam Bactch Normalization 학습하기 기본적으로 우리는 Gradient descent를 가정합니다. Hessian 이란, 미분(기울기)의 미분값을 의미하고, Newton's method가 일종의 Hessian 을 이용한 방법론입니다. 다만 Parameter의 수가 100개라면, 1차 미분에는 100의 연산이 필요하지만, 2차 미분에는 100^2의 연산이 필요합니다. 때문에 우리는 1차 미분에 대한 정보만을 갖고있다고 가정합니다. Batch gradient descent, 예를 들어, 55000개의 데이터가 있을 때, Gradient를 계산하기 위해 전체 데이터셋을 한 번에 사용하는 것을 의미합..
Nature 논문으로 살펴보는 AlphaGo 알고리즘 핵심 키워드 AlphaGo Nature DeepMind Monte-Carlo Tree Search Policy Network, Value Network 학습하기 이번에는 AlphaGo에 대해 알아보겠습니다. 'Mastering the game of Go with deep neural networks and tree search'논문을 활용하였습니다. 이세돌과의 경기 후 AlphaGo2가 중국의 커제와 대결했는데 모두 승리했습니다. AlphaGo2에 대한 정보는 나온바가 없지만, 아마 AlphaGO와 크게 다르지 않을 것이라고 생각합니다. DeepMind는 기존에 Reinforce Traing을 통해 게임을 플레이하는 모델을 개발했었습니다. 이후 Google에서 인수하여 굉장히 성장했죠 사실 해당 논문에서..