본문 바로가기

728x90
SMALL

딥러닝/Paper Review

(16)
CVPR 2018 Multi-task 관련 논문 : PAD-Net: Multi-Tasks Guided Prediction-and-Distillation Networkfor Simultaneous Depth Estimation and Scene Parsing 안녕하세요 오늘 제가 리뷰할 논문은 CVPR 2018에 accept된 multi task 관련 논문인 PAD-Net 입니다. 먼저 해당 논문의 contribution을 간단히 설명을 하자면 1. 새로운 multi-task guided prediction and distillation network인 PAD-Net을 제안했다. 2. 세가지의 다른 multi-modal distillation module을 고안하였다. 3. NYUD-v2와 Cityscape dataset에 대해서 실험한 결과 좋은 성능을 나타내었다. 그럼 PAD-Net에 대해서 조금 더 자세히 설명을 시작하도록 하겠습니다. PAD-Net의 architecture는 위의 그림과 같습니다. PAD-Net은 4개의 주요 구성 요소로 이루어져있습니..
ECCV 2020 Multi-task 관련 논문 : Reparameterizing Convolutions for IncrementalMulti-Task Learning without Task Interference 안녕하세요 오늘은 ECCV 2020에 나온 Multi-task learning 관련 논문을 리뷰하고자 합니다. 그럼 바로 설명들어가도록 하겠습니다. Multi task에서 해결해야할 2가지를 1. 모델을 본질적,점진적으로 만들고 이전에 학습 한 task를 잊지 않고 새로운 task의 정보를 지속적으로 통합 할 수 있어야 한다. 2. Multi-task 설정에서 Single-task 성능을 현저히 저하시키는 것으로 나타 났던 task 간의 불리한 상호 작용을 제거해야 한다. 해당 논문에서는 표준 neural network의 convolution을 학습할 수 없는 공유 부분과 task specific한 부분을reparameterizing 하여 위에서 말한 두가지를 달성한다. 위의 그림1은 각각 single-..
ECCV 2018에 나온 Stereo를 이용한 Monocular depth estimation 논문 : Learning Monocular Depth by DistillingCross-domain Stereo Networks 안녕하세요 오늘은 ECCV 2018에 나온 Stereo network를 이용해서 Monocular depth estimation 성능 개선을 하는 논문에 대해서 리뷰를 하려고 합니다. 아이디어는 정말 간단합니다. 3단계 Step으로 이루어 진다고 생각하면 되는데요, 1. Stereo network를 synthetic data를 이용해서 훈련 시킨다. 2. 위에서 훈련 시킨 Stereo network를 real data를 이용해서 supervised 방식으로 finetuning을 하거나, unsupervised 방식으로 finetuning을 한다. 3. 위에서 완료된 stereo network를 이용해서 예측 치를 뽑고, 그것을 monocular network에서 나온 예측치와 비교해서 mono depth..
Stereo matching & occlusion 관련 논문 : Improving Deep Stereo Network Generalization with Geometric Priors 오늘은 최근에 나온 Stereo matching관련 논문에 대해서 review를 하려고 합니다. 오늘도 논문의 핵심 내용만을 간추려서 설명 드리도록 하겠습니다. 그럼 시작하도록 하겠습니다! 해당 논문은 network가 더 잘 일반화 될 수 있도록 scene geometry에 대한 사전 지식을 end to end stereo network에 통합 할 것을 제안합니다. 주어진 network의 경우, inference 중에 구조가 변경되지 않은 상태로 유지되는 동안 gradient-domain-smoothness prior 및 occlusion reasoning을 네트워크 훈련에 명시 적으로 추가합니다. 해당 논문에서는 이렇게 gradient-domain-smoothness prior과 occlusion re..
Stereo matching Adaptation 관련 논문 : Continual Adaptation for Deep Stereo 안녕하세요 오늘 제가 리뷰할 논문은 Continual adaptation for Deep stereo라는 논문입니다. 하나하나 설명하기 보다 해당 논문에서의 주된 contribution을 위주로 간단히 설명을 하고자 합니다. 바로 설명을 들어가면, 해당 논문에서는 stereo network에서 계속해서 바뀌는 환경에서도 depth를 잘 예측할 수 있게 하기 위해서 continual adaptation paradigm을 고안했다. 위의 그림1은 기본적인 Full Adaptation에 대한 Algorithm이다. 입력을 받아 값을 예측하고 loss를 잰 다음 weight를 그것에 맞게 새로 업데이트하는 것이다. 즉 예를 들어서 FlyingThings data로 훈련을 시켜 놓은 모델이 있을 때 새로운 KIT..
2020 ECCV에 accept된 Multi-task 관련 논문 : MTI-Net 안녕하세요 정말 오랜만이죠... 오늘 제가 리뷰할 논문은 이번 ECCV에 발표된 논문입니다. 제목은 MTI-Net: Multi-Scale Task Interaction Networks for Multi-Task Learning 입니다. 먼저 해당 논문의 주된 contribution을 설명하자면 1. Multi scale Multi modal distillation unit을 통해 모든 scale에서 task 상호 작용을 명시적으로 모델링한다. 2. Lower scale이 higher scale에게 선별된 task 정보를 전파하는 feature propagation module을 사용한다. 3. 모든 scale의 feature들, 정제된 task feature들을 모아서 최종 결과를 출력한다. 입니다. 제..
ICCV 2019에 accept된 Multi task 관련 논문 : Joint Learning of Saliency Detection and Weakly Supervised Semantic Segmentation 안녕하세요 오늘 제가 설명할 논문은 Joint learning으로 Saliency detection과 semantic segmentation을 수행하는 multi task 관련 논문입니다. 해당 논문은 ICCV2019에 accept이 되었습니다. 일단 논문에 대한 설명 이전에 Saliency Detection이 무엇인지 Semantic Segmentation이 무엇인지 해당 논문의 그림을 통해 간단히 설명 드리도록 하겠습니다. 먼저 Saliency Detection은 그림 1에서 보시는 것과 마찬가지로 관심있는 물체를 관심이 없는 배경으로 부터 분리시키는 것을 말합니다. 그림에서 관심있는 물체는 Bottle과 Person으로 Bottle과 Person을 제외한 나머지 부분은 검은색으로, Bottle과 P..
ICCV 2016에 accept 된 Monodepth의 기본 논문 : Unsupervised Monocular Depth Estimation with Left-Right Consistency 오늘은 제가 MonoDepth를 공부하면서 거의 처음 접하게 된 Godard의 Unsupervised Monocular Depth Estimation 논문에 대한 간단한 설명을 하려고 합니다. 해당하는 설명은 제가 공부를 하면서 이해한 것으로 잘못된 부분이 있을 수 있습니다. Mono depth estimation과 관련된 기본 배경 지식이 없으시다면 이해하기 힘드니 Mono Depth Estimation에 대한 간단한 설명! skk095.tistory.com/4 을 읽고 보시기를 추천드립니다! 먼저 Depth Estimation은 Left image와 Right image의 시차인 disparity를 구해 Depth를 구하게 됩니다. Depth = (focal length * base line) / d..

728x90
LIST