본문 바로가기

머신러닝/[기타]

Non-local self-similarity

 'Deep graph-convolutional image denoising' 이라는 논문을 읽는 중 제목과 같은 Non-local self-similarity 라는 단어를 접했는데 이게 무슨 쌉소리인지 잘 이해가 가지 않았습니다. 더 정확한 문장은

 Non-local self-similarity is well-known to be an effective prior for the image denoising problem
 지역적이지 않은 자기 유사성은,,. 이미지 디노이징 문제를 위한,,. 효과적인 prior로 잘 알려져있다...???

 Image denosing problem은 Image classification, Object detection, Pose estimation 등에서 이미지가 좀 깨끗하면 그런데로 잘 처리하는데, 뭐 비가 오든 이래서 노이즈가 좀 끼면 정신을 못차리더라. 이걸 좀 해결해봐라 이런 문제인 것 같고,

 Self-similarity는 '...is a typical property of fractals' 프랙탈의 전형적인 승질,,. 계속 확대해도 처음 그 구조가 계속 복제되어 나타난다,,. 이런 의미인거 같습니다

 애매모호한건 Prior 인데, 처음에는 사전의 뜻 그대로 해석해서, 그냥 효과적인 선행 연구. 이 정도로 생각했는데, 알고보니 이미지에서 Prior라고 지칭하는건 조금 더 의역해서, 이미지가 가지고 있는 사전의 패턴, 어떤 Premise 같은 것이라 하네요. 이걸 Prior knowledge라고도 부르구요.

 이 상태에서 다시 본 문장을 이해하려 용써보면, 이미지가 가진 전역적인 자기 유사성 패턴은, 이미지 디노이징 문제를 해결할 때 효과적으로 사용된다. 로 해석됩니다. 이걸 다시 예를 들어 끼워맞춰보면, 음, 어떤 이미지에서 사람을 디텍팅하는 모델을 학습해놨어요. 그리고 이걸 이용해 비오는 날 사람을 잡으려 했더니, 이미지 중간 중간에 노이즈(빗방울)이 그득해서, 애가 정신을 못차려요. 그럼 이걸, 학습된 모델이 가진 전역적인 사람에 대한 패턴이 반복될 수 있게끔 이미지를 개선시켜주는거에요. 일종의 이상치 탐지(Anomaly detection)를 진행하는 것 처럼.

 더이상의 해석이 어려워서 이정도로 받아들였는데, 과연 이 해석이 맞을지 틀릴지, 사실 잘 모르겠습니다. 추후 더 아는 것이 생기게되면, 글을 수정해볼 수 있도록 하겠습니다.