딥러닝54 [논문리뷰] Monocular Depth Estimation Using Laplacian Pyramid-Based Depth Residuals(LapDepth) Abstract 딥러닝의 많은 발전으로 Monocular Depth Estimation(MDE)에도 여러 Encoder-Decoder 구조가 접목되고 있습니다. 그러나 대부분 Decoding 절차에서 반복되는 심플한 업샘플링 연산은 잘 인코딩 된 features의 특성을 완전히 활용하지 못하는 제한점이 있습니다. 본 논문은 이러한 제한점을 해결하기 위해 본 논문에서는 Laplacian pyramid를 도입하였습니다. 이 방법은 인코딩 된 Features가 Laplacian pyramid의 분해에 의해 깊이 잔차들로 디코딩되고, 디코딩된 출력들이 점진적으로 결합하여 최종 깊이 맵을 형성 합니다. 위와 같은 방식으로 깊이 맵을 형성함으로써 global 한 깊이부터 boundary 같은 local 한 깊이까지.. 2024. 1. 2. [논문리뷰] AN IMAGE IS WORTH 16X16 WORDS:TRANSFORMERS FOR IMAGE RECOGNITION AT SCALE(Vision Transformer) 참고 자료 [논문리뷰] Attention is All you need의 이해 소개 Attention Is All You Need The dominant sequence transduction models are based on complex recurrent or convolutional neural networks in an encoder-decoder configuration. The best performing models also connect the encoder and decoder through an atten lcyking.tistory.com [논문리뷰] BERT(Pre-training of Deep Bidirectional Transformers forLanguage Understand.. 2023. 6. 15. [논문리뷰] Attention is All you need의 이해 소개 Attention Is All You Need The dominant sequence transduction models are based on complex recurrent or convolutional neural networks in an encoder-decoder configuration. The best performing models also connect the encoder and decoder through an attention mechanism. We propose a new arxiv.org 본 논문이 발표할 때까지만 해도 RNN이나 LSTM과 같은 Recurrent 한 구조나 Encoder-Decoder를 포함한 구조를 가진 모델들이 번역 모델에서 큰 성과를 내고 있었습니.. 2023. 6. 6. [논문리뷰] DEEP CONVOLUTIONALGENERATIVE ADVERSARIAL NETWORKS(DCGANs)의 이해 소개 \( GAN \)의 이해 링크 [딥러닝] Generative Adversarial Nets(GANs)의 이해 소개 Generative Adversarial Networks We propose a new framework for estimating generative models via an adversarial process, in which we simultaneously train two models: a generative model G that captures the data distribution, and a discriminative model lcyking.tistory.com \( CNN \)의 이해 링크 [딥러닝] CNN(Convolutional Neural Network)의 이해 .. 2022. 11. 14. 이전 1 ··· 5 6 7 8 9 10 11 ··· 14 다음