본문 바로가기

통계9

[딥러닝] 논문에서 많이 사용되는 수학 기호, 약어 모음집 딥러닝의 논문을 보면 엄청나게 많은 수학기호와 약어 등이 있습니다. 사실 제가 보려고 만든 모음집이니 편하게 봐주시길 바랍니다. 그리스 문자 먼저 수학에서 나오는 변수 이름은 그리스 문자를 많이 사용합니다. 그래서 최소한에 이것을 보고 읽을 줄은 알아야겠죠? 다 외울필요 없습니다. 그냥 모르는 거 나왔을 때 보시면 됩니다. 대문자 소문자 영어 한글 \( A \) \( \alpha \) alpha 알파 \( B \) \( \beta \) beta 베타 \( \Gamma \) \( \gamma \) gamma 감마 \( \Delta \) \( \delta \) delta 델타 \( E \) \( \epsilon \) epsilon 엡실론 \( Z \) \( \zeta \) zeta 제타 \( H \) \( .. 2024. 1. 12.
[통계] Cross Entropy, Kullback-Leibler Divergence 정보량과 엔트로피 링크 [통계] 정보량과 엔트로피 정보량이란? 확률이 낮을수록, 어떤 정보일지 불확실하게 되고, 이때 "정보가 많다", "엔트로피가 높다"라고 표현합니다. 예시를 들어봅시다. 저희가 뽑기를 한다고 가정해봅시다. 뽑기에는 1등 1 lcyking.tistory.com 참고 https://velog.io/@rcchun/%EB% A8% B8% EC% 8B% A0% EB% 9F% AC% EB% 8B%9D-%ED%81% AC% EB% A1% 9C% EC% 8A% A4-%EC%97%94% ED% 8A% B8% EB% A1% 9C% ED%94% BCcross-entropy https://hyunw.kim/blog/2017/10/27/KL_divergence.html https://angeloyeo.gi.. 2022. 11. 15.
[통계] 상호 정보량(Mutual Information) 결합 엔트로피, 조건부 엔트로피 링크 [통계] 결합엔트로피, 조건부엔트로피 엔트로피 설명 링크 [통계] 정보량과 엔트로피 정보량이란? 확률이 낮을수록, 어떤 정보일지 불확실하게 되고, 이때 "정보가 많다", "엔트로피가 높다"라고 표현합니다. 예시를 들어봅시다. 저희 lcyking.tistory.com Cross Entropy와 Kullback-Leibler Divergence(KLD) 링크 [통계] Cross Entropy, Kullback-Leibler Divergence 정보량과 엔트로피 링크 [통계] 정보량과 엔트로피 정보량이란? 확률이 낮을수록, 어떤 정보일지 불확실하게 되고, 이때 "정보가 많다", "엔트로피가 높다"라고 표현합니다. 예시를 들어봅시다. lcyking.tistory.com 주변.. 2022. 11. 15.
[통계] 결합엔트로피, 조건부엔트로피 엔트로피 설명 링크 [통계] 정보량과 엔트로피 정보량이란? 확률이 낮을수록, 어떤 정보일지 불확실하게 되고, 이때 "정보가 많다", "엔트로피가 높다"라고 표현합니다. 예시를 들어봅시다. 저희가 뽑기를 한다고 가정해봅시다. 뽑기에는 1등 1 lcyking.tistory.com 결합 확률분포 설명 링크 [통계] 결합확률질량함수, 결합확률밀도함수 조건부 확률 조건부 확률(conditional probability)은 어떤 사건이 일어나는 경우에 다른 사건이 일어날 확률을 말합니다. " 오늘 비가 오면 내일 비가 올 확률" 오늘 비가 오면 내일 비가 올 확률이 당 lcyking.tistory.com 조건부 확률분포 설명 링크 [통계] 조건부확률질량함수, 조건부확률밀도함수 조건부 확률분포 조건부 확률분포를 알기.. 2022. 11. 15.