본문 바로가기

머신러닝/[논문으로 짚어보는 딥러닝의 맥]

(21)
Weakly Supervised Localization 학습목표 이번 강의에서는 Weakly Supervised Localization과 Class Activation Map에 대해 알아보도록 하겠습니다. 어떤 물체를 인식하여 분류해내는 것을 넘어서서 이미지 내의 어디에 분류해낸 물체가 있는지 알아보는 방법을 위의 2가지 방법론을 통해 알아보겠습니다. 핵심 키워드 Weakly Supervised Localization Class Activation Map(CAM) Detection / Localization 학습하기 Weakly Supervised Localization 이름에서 알 수 있듯, Weakly supervised 방법론을 통해 Localization 문제를 푸는 것입니다. 이미지를 분류할 때, 이 이미지가 뭐다 라고 분류하는 것도 중요하지만, 그..
Residual Network가 왜 잘되는지 해석해보기 학습목표 Residual Network(ResNet)가 왜 잘 작동되는 구조인지, 과연 Depp한 Network가 좋은지를 다루고 있는 두 가지 논문을 알아보겠습니다. 두 논문을 통해 Residual Network를 더 자세히 분석해보고 Network에서 Depth가 가지는 의미를 알아보겠습니다. 핵심 키워드 Residual Network (ResNet) Deeper Network Degradation Esemble Model 학습하기 이번에는, Res net이 왜 좋은지, 그리고 Deeper network가 정말 좋은지 이 2가지에 대해 알아보도록 하겠습니다. Res net을 정말 대단하죠. 152개의 Layer를 활용해 5개의 이미지 대회를 휩쓸었습니다. Res net이 나오기까지 한 질문이 있었죠...
이미지의 각 픽셀을 분류하는 Semantic Segmentation 학습목표 Semantic Segmentation은 각 이미지 내의 픽셀별로 픽셀이 어디에 속하는지 분류를 해결하는 문제로, 본 강의에서는 이 Semantic Segmentation의 개념을 알아보도록 하겠습니다. 이 분야는 실생활에서 의료, 교통 분야에 많이 활용되고 있습니다. 특히 자율 주행 자동차 기술에 많이 접목되어 있기 때문에 흥미를 느끼며 강의를 들으셔도 좋을 것 같습니다. 핵심 키워드 Semantic Segmentation CNN Fully Convolutional Network (FCN) Full-Resolution Residual Nets 학습하기 이번에는 Semantic segmentation을 보겠습니다 .이는 이미지가 주어졌을 때, 각 픽셀별로 어디에 속하는지 분류를 푸는 문제입니다...
Restricted Boltzmann Machine 학습목표 이번 강의에서는 대표적인 Unsupervised Learning 방법 중 하나인 Restricted Boltzmann Machine(RBM)에 대해서 해워보도록 하겠습니다. Deep Learning을 최근에 접하신 분들에겐 생소할 수 있지만 RBM 덕에 DL이 다시 활기를 띌 수 있게 되었습니다. 핵심 키워드 Restricted Boltzmann Machine(RBM) Unsupervised Learning Energy-Based Models Deep Belief Network(DBN) 학습하기 많은 분들에게 이 RBM은 조금 생소할 수 있는데, 이는 DL이 잘 활용될 수 있게 불씨를 제공한 모델입니다. 수식이 굉장히 많이 등장할 텐데, 천천히 따라오시면 충분할 것 같습니다. 우선 Energy ..
Optimization 방법론 핵심 키워드 Optimization (최적화) Gradient Descent Algorithm Adam Bactch Normalization 학습하기 기본적으로 우리는 Gradient descent를 가정합니다. Hessian 이란, 미분(기울기)의 미분값을 의미하고, Newton's method가 일종의 Hessian 을 이용한 방법론입니다. 다만 Parameter의 수가 100개라면, 1차 미분에는 100의 연산이 필요하지만, 2차 미분에는 100^2의 연산이 필요합니다. 때문에 우리는 1차 미분에 대한 정보만을 갖고있다고 가정합니다. Batch gradient descent, 예를 들어, 55000개의 데이터가 있을 때, Gradient를 계산하기 위해 전체 데이터셋을 한 번에 사용하는 것을 의미합..
Nature 논문으로 살펴보는 AlphaGo 알고리즘 핵심 키워드 AlphaGo Nature DeepMind Monte-Carlo Tree Search Policy Network, Value Network 학습하기 이번에는 AlphaGo에 대해 알아보겠습니다. 'Mastering the game of Go with deep neural networks and tree search'논문을 활용하였습니다. 이세돌과의 경기 후 AlphaGo2가 중국의 커제와 대결했는데 모두 승리했습니다. AlphaGo2에 대한 정보는 나온바가 없지만, 아마 AlphaGO와 크게 다르지 않을 것이라고 생각합니다. DeepMind는 기존에 Reinforce Traing을 통해 게임을 플레이하는 모델을 개발했었습니다. 이후 Google에서 인수하여 굉장히 성장했죠 사실 해당 논문에서..
Overfitting을 막는 regularization 핵심키워드 Regularization Overfitting 학습하기 이번에는 레귤라이제이션을 배워보겠습니다. 이는 딥러닝뿐 아니라 머신러닝 자체에서 굉장히 중요한 영역입니다. 레귤라이제이션이란 뭘까요. 수학적 정의 자체는 저도 잘 모르겠습니다. 그러나 목적은. 명확합니다. 오버피팅이라는 현상을 막는 것이죠. 오버피팅이란 학습 데이터를 너무 믿는 것을 말합니다. 결국 학습 데이터에 과하게 최적화된 나머지, 다른 테스트 데이터에 대한 정확도가 떨어지는 것입니다. 회귀나 분류나 마찬가지입니다. 그렇다고 학습 데이터에 최적화되는 것(=트레인 정확도가 높아지는 것)이 나쁜 것이냐면, 당연히 아닙니다. 잘 맞추는데 좋은 거죠. 다만 문제는, 많은 학습 데이터가 모든 실전 데이터를 대표할 수 있을 만큼 질이 뛰어나지..
[실습] 이미지 처리 실습하기 핵심 키워드 Python 이미지 프로세싱(Image Processing) 학습하기 해당 내용은 코드로 대체합니다.