분류 전체보기154 [논문리뷰] ELMo(Deep contextualized word representations)의 이해 Abstract Deep Contextualized Word Representations Matthew E. Peters, Mark Neumann, Mohit Iyyer, Matt Gardner, Christopher Clark, Kenton Lee, Luke Zettlemoyer. Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Vol aclanthology.org 이 논문은 제목 그대로 Deep contextualized word representations을 학습하여 적용시키는 것입니다. 각 .. 2023. 6. 12. [논문리뷰] Attention is All you need의 이해 소개 Attention Is All You Need The dominant sequence transduction models are based on complex recurrent or convolutional neural networks in an encoder-decoder configuration. The best performing models also connect the encoder and decoder through an attention mechanism. We propose a new arxiv.org 본 논문이 발표할 때까지만 해도 RNN이나 LSTM과 같은 Recurrent 한 구조나 Encoder-Decoder를 포함한 구조를 가진 모델들이 번역 모델에서 큰 성과를 내고 있었습니.. 2023. 6. 6. [논문리뷰] Information Maximizing Generative Adversarial Networks (InfoGAN)의 이해 InfoGAN 논문 링크 InfoGAN: Interpretable Representation Learning by Information Maximizing Generative Adversarial Nets This paper describes InfoGAN, an information-theoretic extension to the Generative Adversarial Network that is able to learn disentangled representations in a completely unsupervised manner. InfoGAN is a generative adversarial network that also maximizes t arxiv.org GAN의 이해 링크 [딥러닝].. 2022. 11. 18. [통계] Cross Entropy, Kullback-Leibler Divergence 정보량과 엔트로피 링크 [통계] 정보량과 엔트로피 정보량이란? 확률이 낮을수록, 어떤 정보일지 불확실하게 되고, 이때 "정보가 많다", "엔트로피가 높다"라고 표현합니다. 예시를 들어봅시다. 저희가 뽑기를 한다고 가정해봅시다. 뽑기에는 1등 1 lcyking.tistory.com 참고 https://velog.io/@rcchun/%EB% A8% B8% EC% 8B% A0% EB% 9F% AC% EB% 8B%9D-%ED%81% AC% EB% A1% 9C% EC% 8A% A4-%EC%97%94% ED% 8A% B8% EB% A1% 9C% ED%94% BCcross-entropy https://hyunw.kim/blog/2017/10/27/KL_divergence.html https://angeloyeo.gi.. 2022. 11. 15. 이전 1 ··· 7 8 9 10 11 12 13 ··· 39 다음