본문 바로가기

머신러닝/[기타]

(29)
Metric Learning
Types of Learning in Machine Learning Supervised, Unsupervised, Transductive, Inductive... 똑같이 모델을 학습시키는데 무슨 방법론이 이렇게 많은지... 간략하게라도 전체에 대한 카테고라이징을 해두면 좋겠다 싶었는데, 적당한 글을 발견하여 번역한다. 츨처: 링크1, 링크2 "Machine Learning" 은 특정 필드에 종속되는 연구가 아닌, 정말 다양한 필드에 적용가능한 연구이다. 여기서 핵심은, "Learning" 이라고 할 수 있는데, 말 그대로, 데이터셋(=경험)으로부터 다양한 지식을 획득하는 것에 있다. 해당 글에서는, 이런 "Learning" 의 종류가 어떻게 분류되는지에 대한 이야기를 할 것. Types of Learning 일단, 학습 방법의 종류는 아래와 같이 분류될 수 있을 것 같다..
Pointwise vs Pairwise vs Listwise, Learning to Rank CDAE 논문에 따르면, 추천 시스템에서 Loss function은 보통 러프하게 2가지로 분류된다고 합니다. Point-wise 와 Pair-wise. 더 심오하게 들어가면, WARP와 같은 Position-aware Pair-wise 등 또 여러 갈래로 나뉘는 모양입니다만, 그렇습니다. 그런데, DERRD 논문을 보면 List-wise 의 개념도 존재합니다. 해서, 구글에 검색해보니, 요약된 글이 하나 있어, 이 참에 한 번 정리해보려 합니다. 다만, 기존 글은 16년도에 쓰인, 나름 옛날 글이라 몇 가지를 추가했으니 적당히 필터링해서 읽어주시면 감사하겠습니다. 우선, Point-wise, Pair-wise, List-wise loss 들은 무엇을 기준으로 구분되어지는지 생각해봅시다. 그건, 모델을 ..
GNN의 한계? GIN의 한계? GNN의 한계 Graph representation을 위한 방법은 크게 2가지가 존재한다. Graph kernels 그리고 Graph neural networks. 전자의 경우, 그래프의 분해를 기반으로, 그래프에 대한 임베딩 값을 생성한다. 예를 들면 해당 그래프 내의 triangles의 수를 세리는 방법 등이 존재한다. 이러한 연구의 주된 목적은 그래프 간의 isomorphism을 잘 보존하는 임베딩을 찾아내기 위함이다. 즉, 두 그래프가 iso 하다는 것과 각각의 임베딩 값이 같다는 것은 동치-로 만드는 것이 그래프 커널의 목표인 것. 다만 이러한 문제를 푸는 것은 p-problem보다 어려운 것으로 알려져 있음. 물론 Anonymous walk embedding과 같은 임베딩 방법론들은 존재합니다..
Two kinds of Probabilities. Frequentist vs Bayesian 통계에서 가장 핵심이 되는 키워드인 확률. 이런 확률을 바라보는 관점에는 2가지가 존재한다고 한다. Frequentist 와 Bayesian. 고등수학에서 말하는 수학은 사실 Frequentist에 가깝기 때문에, 두 가지 관점이 있다는 사실 자체를 알지 못하였고, 대학수학에 와서도 Bayes' rule은 알아도, 그게 확률의 관점을 정의할 것이라고는 생각한 적은 없었다. 이번 글에서는, 저 Bayesian 관점이라는 것이 어떤 건지, Frequentist 과 어떤 차이가 있는 것인지를 알아보자. 기본적으로, 확률이란 불확실성을 계량화하여 표현하는 방법. 그러니까, 주사위를 던져서, 0이 나올지 6이 나올지는 확신할 수 없다. 항상 불확실하다. 다만, 그 불확실성이 얼마나 될지를, $\frac{1}{6}..
데이터 사이언스에 관하여, Practicing the Art of Data Science 오늘은, 데이터 사이언스, 데이터 과학 그 자체에 대한 설명을 간략히 기록해두려합니다. 정확히는, 이 계열의 권위자 중 한 분인 Jian Pei 교수님의 "Practicing the Art of Data Sceience" 라는... 강연의 내용 중 일부를 번역하려합니다. ※ 당연히 제가 의미를 곡해하는 상황이 종종 나올 수 있다고 생각하기에, 원문과 한글을 함께 적어둘 것이며, 공식 스크립트 데이터가 없어 오타가 등장할 수 있습니다. 제 개인적인 경험으로, 항상 중요하게 생각해왔던 부분들이, 권위자의 입에서 정돈되어 표현된 덕에, 강연을 재밌게 볼 수 있었는데 이러한 느낌이 잘 전달되었으면 좋겠네요. ... hello everyone welcome to my talk practicing the art o..
Co-occurence, PPMI, Similarity matrix 논문을 읽다보면, Co-occurence, PPMI, Similiarty matrix 라는 단어가 종종 나오는데, 애매하게 알고 있던 감이 있어 다시 한 번 정리해 둘게요. 그리고 해당 글 작성을 위해 [한경훈님의 유튜브 강의]를 참고하였다는 것을 밝힙니다. 3개 행렬에 대해 설명하기 앞서 예제 하나를 고정하고 가겠습니다. "You say goodbye and i say hello." 1. Co-occurence matrix "You shall know a word by the company it keeps" - John R.Firth "단어는, 사용된 맥락에서 그 의미를 가진다." 라는 말이네요. 사용된 맥락을 조금 더 쉽게 풀면, 어떤 단어의 주변에는 어떤 단어들이 존재했는가- 라는 뜻이 됩니다. 앞..
매크로 평균(Macro-average) vs 마이크로 평균(Micro-average) Macro, Micro-average는 이름처럼 평균을 구하는 방법들입니다. 저희는 Macro-f1, Micro-precision, Micro-accuracy 등으로 활용하게 될 예정입니다. 아래에서는 Precision을 기준으로 설명하겠습니다. 간단하게, 어떤 모델이 Class A, Class B, Class C, Class D를 구분하는 짓을 하고 있고, 각 클래스별로 2, 100, 2, 2개의 데이터를 가지고 있다고 생각해봅시다. 그렇게 학습한 모델이 아래와 같은 결과를 뿜어냈습니다. Class A: 1 TP & 1 FP Class B: 10 TP & 90 FP Class C: 1 TP & 1 FP Class D: 1 TP & 1 FP 이제 이런 클래스별 결과를 통합시켜봅시다. 간단히 평균을 사용해..