이게 이상하다고 느낄 수도 있는데 음 이런 상황을 생각해보지요. 우리가 주사위를 $n$번 던져서 6의 약수가 나온 횟수를 $X$라 하고, 그럴 때마다 500원씩 따고 아니면 600원씩 잃는다고 해보자구요. 그럼 $Y=500X+600(n-X)=600n-100X$가 되지 않습니까!? 그럼 $f_Y(y)$는 결국 $f_X(x)$를 그대로 사용할 수 있겠네요! 어차피 $Y$는 $X$에 의해 결정되는 값이니까요.
Moments of Random Variable
자자 아는 건 빨랑빨랑 넘어가자고^^
앞서 소개한 기댓값은 말하자면 1st moment입니다. n-th moment는 $E[X^n]$라고 정의하고, 이렇게 나타냅니다.
흠 근데 이쯤 되니 correlation coeffiicient가 대체 무엇이냐? 알고 계산해야하지 않겠느냐!? 하는 생각이 들지요. 클로드야, 상관계수가 뭐니?
The correlation coefficient $\rho_{XY}$ is a normalized version of the covariance, taking values between -1 and 1. It measures the strength and direction of the linear relationship between two random variables $X$ and $Y$.
보면 $\ref{eq8}$에서 분자가 공분산(covariance)형태인 것을 알 수 있어요. ㅋㅋ 그럼 공분산은 뭔데.. 위키피디아야 도와줘..
공분산(共分散, 영어: covariance)은 2개의 확률변수의 선형 관계를 나타내는 값이다. 만약 2개의 변수중 하나의 값이 상승하는 경향을 보일 때 다른 값도 상승하는 선형 상관성이 있다면 양수의 공분산을 가진다.반대로 2개의 변수중 하나의 값이 상승하는 경향을 보일 때 다른 값이 하강하는 선형 상관성을 보인다면 공분산의 값은 음수가 된다. ... 공분산이 0인 확률변수를 비상관 확률변수라고 한다.
오호 그렇군요.
일단 넘어가자^^
그리고 이 공분산과 $M_{11}$은 위에서 말한 비상관(uncorrelated)과 orthogonality와 관련이 있어요.
If $X$ and $Y$ are uncorrelated, they are statistically independent ? No. - 반례: uniform distribution인 $X$가 $S_X\in\{1, -1\}$이고 $Y=X^2$일 때, $E[X]=0$이고 $E[XY]=E[X^3]=0$이지만 전혀 독립이지 않죠. If $X$ and $Y$ are statistically independent, they are uncorrelated ? Yes! 올 잘썼는데~ If $X$ and $Y$ are uncorrelated, they are orthogonal ? No.. like.. obviously.. If $X$ and $Y$ are orthogonal, they are uncorrelated ? Yes!
Moment Generation Function and Characteristic Function
근데 MGF를 대체 왜 정의해서 쓰는 거지?! 응용이 이론보다 더 좋은 잼민ai는 참을 수가 없습니다.
Why is the MGF useful? There are basically two reasons for this. First, the MGF of $X$ gives us all moments of $X$. That is why it is called the moment generating function. Second, the MGF (if it exists) uniquely determines the distribution. That is, if two random variables have the same MGF, then they must have the same distribution. Thus, if you find the MGF of a random variable, you have indeed determined its distribution. We will see that this method is very useful when we work on sums of several independent random variables. Let's discuss these in detail.
음 그러니까 요약하자면, MGF가 존재한다면 우리가 힘들게 적분식 써가면서 moment를 구하지 않아도 여기서 바로 구할 수가 있대요. 그래서 moment-generating function이라고 하는군요~.~ 그리고 이게 중요한 것 같은데, MGF가 존재하면 그게 곧 확률 분포를 유일하게 결정한다고 하는군요?! 다른 말로, MGF로도 확률 분포를 제대로알 수 있다~ 어쩐지 위키피디아도 alternative 어쩌구 하드라ㅇㅇ
이걸 굳이 왜 이렇게 썼냐면, characteristic funtion이 곧 PDF나 PMF의 푸리에 변환 꼴이어서 그렇습니다. 그래서 신호/시스템 관점에서는, $e^{j\omega X}$이 일종의 신호고 (빈번히 등장하긴 하드라ㅋㅋ) $\Phi_X(\omega)$는 푸리에 변환에서 말하는 'frequency' 도메인에서의 $X$의 분포를 의미한다고 해요. 위키피디아야 보충설명 부탁해~
In probability theory and statistics, the characteristic function of any real-valued random variable completely defines its probability distribution. If a random variable admits a probability density function, then the characteristic function is the Fourier transform (with sign reversal) of the probability density function. Thus it provides an alternative route to analytical results compared with working directly with probability density functions or cumulative distribution functions. There are particularly simple results for the characteristic functions of distributions defined by the weighted sums of random variables.
결국 다 확률 분포를 알기 위한 루트네요 쩝
The use of the characteristic function is almost identical to that of the moment generating function: 1. it can be used to easily derive the moments of a random variable; 2. it uniquely determines its associated probability distribution; it is often used to prove that two distributions are equal. The CF has an important advantage over the moment generating function: while some random variables do not possess the latter, all random variables have a characteristic function.
이건 여기서 긁어왔는데, RV중엔 MGF가 없는 애들도 있는데 characteristic function은 무조건 가지나보죠!? 그래서 MGF보다 좀 더 general(?)하다..고 할 수도 있겠네요.