분류 전체보기154 [통계] 결합확률질량함수, 결합확률밀도함수 조건부 확률 조건부 확률(conditional probability)은 어떤 사건이 일어나는 경우에 다른 사건이 일어날 확률을 말합니다. " 오늘 비가 오면 내일 비가 올 확률" 오늘 비가 오면 내일 비가 올 확률이 당연히 올라가겠죠? 이렇게 사건 B(오늘 비가 올 확률)가 일어나는 경우에 사건 A(내일 비가 올 확률)을 "B에 대한 A의 조건부 확률"이라고 하고 \( P(A|B) \)로 표기합니다. \( P(A|B) \)와 \( P(B|A) \)는 같지 않음을 명심해야 합니다. 집합 \( S \)는 표본 공간일 때, 조건부 확률을 다음과 같이 구합니다. \( P(A|B) = \frac {P(A \cap B)} {P(B)} = \frac {\frac {n(A \cap B )} {n(S)} } {\frac.. 2022. 11. 14. [통계] 확률질량함수와 확률밀도함수 확률변수란 어떤 사건이 발생했을 때, 변수 X가 취할 수 있는 값과 그 확률이 정해질 때, 이 변수 X를 확률변수라고 부릅니다. 어떤 값 \( x \)를 취할 확률을 기호로 \( P(X=x) \)로 나타냅니다. 확률변수는 표본 공간을 정의역으로 정의하고, 실수 전체의 집합을 공역으로 두는 일종의 함수입니다. 예시를 두개 들겠습니다. 주사위를 굴려 얻을 수 있는 값을 확률변수로 표현해보겠습니다. \( P(X = 1) = \frac {1} {6} \) \( P(X = 2) = \frac {1} {6} \) \( P(X = 3) = \frac{1} {6} \) \( P(X = 4) = \frac{1} {6} \) \( P(X = 5) = \frac{1} {6} \) \( P(X = 6) = \frac{1} {.. 2022. 11. 14. [통계] 정보량과 엔트로피 정보량이란? 확률이 낮을수록, 어떤 정보일지 불확실하게 되고, 이때 "정보가 많다", "엔트로피가 높다"라고 표현합니다. 예시를 들어봅시다. 저희가 뽑기를 한다고 가정해봅시다. 뽑기에는 1등 1개, 2등 4개, 3등 5개가 있습니다. 이때 1등을 뽑을 확률은 아주 희박하고 대부분 2등이나 3등을 뽑겠지요. 저희는 1등일 때 놀라고 기뻐하지 3등일 때 놀라고 기뻐하지 않습니다. 이렇게 1등을 뽑는 것에 확신을 가질 수 없고, 불확실합니다. 불확실할때 훨씬 유용한 정보를 제공하고, 그러므로 정보량은 확률에 반비례합니다. 확률이 낮을수록 많은 정보를 얻죠? 그래서 그래프가 \( I(x_{i}) = -log_{a} p(x_{i}) \)가 되고 아래와 같이 그려집니다. 여기서 \( p(x_{i}) \)는 \( x.. 2022. 11. 14. [논문리뷰] DEEP CONVOLUTIONALGENERATIVE ADVERSARIAL NETWORKS(DCGANs)의 이해 소개 \( GAN \)의 이해 링크 [딥러닝] Generative Adversarial Nets(GANs)의 이해 소개 Generative Adversarial Networks We propose a new framework for estimating generative models via an adversarial process, in which we simultaneously train two models: a generative model G that captures the data distribution, and a discriminative model lcyking.tistory.com \( CNN \)의 이해 링크 [딥러닝] CNN(Convolutional Neural Network)의 이해 .. 2022. 11. 14. 이전 1 ··· 9 10 11 12 13 14 15 ··· 39 다음