09wk: 확률변수
1. 강의영상
2. 확률변수 – 기호와 표현
A. 기호와 표현
- 동전예제에서의 확률공간 \((\Omega,{\cal F},\mathbb{P})\)를 가정하고 용어를 뜻 매김하자.
| 용어 | 기호 및 표현 | 설명 |
|---|---|---|
| 표본 (outcomes) | \(H,T\) | 실험의 가능한 개별 결과 |
| 표본공간 (set of outcomes) | \(\Omega=\{H,T\}\) | 모든 표본을 포함하는 집합 |
| 사건 (event) | \(\emptyset, \{H\}, \{T\}, \Omega\) | 표본공간의 부분집합 |
| ???????? (set of events) | \({\cal F} = 2^\Omega = \{\emptyset, \{H\}, \{T\}, \Omega\}\) | 표본공간의 부분집합들의 집합 |
| 확률 (probability) | \(\mathbb{P}:{\cal F} \to [0,1]\) | 사건에 대응하는 확률 함수 |
| 확률변수 (random variable) | \(X: \Omega \to \mathbb{R}\) | 표본공간에서 실수로 가는 함수 |
- 표본은 집합의 원소를 의미한다. 그래서 보통 소문자로 표현한다. (그런데 동전예제에서는 대문자로 표현해서 헷갈림.. 집합처럼 보여서..)
- 표본과 사건은 다르다. 잠시 주사위를 던지는 예제로 바꾸어 생각한다면
- 표본: 1,2,3,4,5,6
- 사건: 1이 나올 사건, 홀수가 나올 사건, 4 이상이 나올 사건..
- 사건(=이벤트)는 항상 집합이다.
- 확률은 사건에 매길 수 있다. (표본에 매기는게 아니라..)
- 확률을 모순없이 잴 수 있는 사건들의 모임을 시그마필드라고 한다.
- 확률변수는 함수이다. (명언이죠?)
- 확률변수는 “표본-숫자” 를 맵핑하는 과정이다. (주사위예제와 같이 표본이 이미 숫자화 되어있다면 확률변수는 단순히 항등함수로 취급한다.)
- 확률변수의 공역은 항상 \(\mathbb{R}\)이다. 즉 실수이다.
- 표본은 표본공간 \(\Omega\) 의 원소이므로 \(\omega\) 라는 기호를 사용해 표현하기도 한다.
우리는 표본, 표본공간, 사건, set of events, 확률에 대해서는 명확하게 정의했지만 아직 확률변수가 무엇인지 정의한 적 없다. 단순히 확률변수는 \(\Omega\) 에서 \(\mathbb{R}\)로 맵핑되는 함수일 뿐 일까?
\((\Omega,{\cal F})\) 를 measurable space 라고 하자. 확률이란 \(\mathbb{P}: {\cal F} \to [0,1]\) 인 조금 특별한 함수이다. 여기에서 조금 특별하다는 것은 \(\mathbb{P}\) 가
- \(\mathbb{P}(\emptyset)=0\)
- \(\mathbb{P}(\Omega)=1\)
- \(\mathbb{P}\) is \(\sigma\)-additivie on \({\cal F}\)
를 만족하는 함수라는 의미이다.
\((\Omega,{\cal F})\) 를 measurable space 라고 하자. 확률변수란 \(X: \Omega \to \mathbb{R}\) 인 조금 특별한 함수이다.
B. 연습문제
# 예제1 – 기본표현정리
아와 같은 동전예제를 생각하자.
- outcomes: \(H\),\(T\).
- sample space: \(\Omega = \{H,T\}\)
- event1: \(\emptyset\), \(\{H\}\), \(\{T\}\), \(\{H,T\}\).
- \(\sigma\)-field: \({\cal F}=2^\Omega\)
- probability: \(\mathbb{P}: {\cal F} \to [0,1]\) such that \(\mathbb{P}(\{H\})=\mathbb{P}(\{T\})=\frac{1}{2}\).2
- random variable: \(X: \Omega \to \mathbb{R}\) such that \(X(H)=1\) and \(X(T)=0\).
1 event는 집합을 의미
2 엄밀하게는 \(\mathbb{P}\) 를 \({\cal F}\) 의 모든 원소에 대하여 정의해야하는 것 아니냐고요?? 카라테오도리가 남긴 유산을 잘 떠올려보세요!
아래중 올바른 표현은?
- \(X(H)=0\)
- \(X(\{H\})=0\)
- \(X(\{H,T\})=\{0,1\}\)
- \(\mathbb{P}(H)=\frac{1}{2}\)
- \(\mathbb{P}(\{H\})=\frac{1}{2}\)
- \(\mathbb{P}(\{H,T\})=1\)
(해설)
2,3,4 는 틀렸어요
#
# 예제2
그런데 사실 \(\mathbb{P}(H)=\frac{1}{2}\)와 같은 표현을 많이 본 적 있는것 같다. 예를들어서 고등학교에서 두 사건의 독립에 대해 배울때 아래와 같은 방식으로 표현했었다. // 출처: 네이버 블로그
두 사건 \(A\), \(B\)에 대하여 \(\mathbb{P}(B|A) = \mathbb{P}(B|A^c) =\mathbb{P}(B)\) 이면 두 사건이 독립이라고 한다~~
그렇다면 이 표현은 틀린걸까?
(해설)
여기에서 사건 \(A\), \(B\) 는 event을 의미하며 outcome을 의미하는게 아님. 즉 \(A\), \(B\) 는 집합임. 따라서 블로그의 표현은 맞는 표현임.
#
# 예제3 – \(\mathbb{P}(X=1)\)
다시 아래와 같은 동전예제를 생각하자.
- outcomes: \(H\),\(T\).
- sample space: \(\Omega = \{H,T\}\)
- event3: \(\emptyset\), \(\{H\}\), \(\{T\}\), \(\{H,T\}\).
- \(\sigma\)-field: \({\cal F}=2^\Omega\)
- probability: \(\mathbb{P}: {\cal F} \to [0,1]\) such that \(\mathbb{P}(\{H\})=\mathbb{P}(\{T\})=\frac{1}{2}\).
- random variable: \(X: \Omega \to \mathbb{R}\) such that \(X(H)=1\) and \(X(T)=0\).4
3 event는 집합을 의미
4 따라서 \(\mathbb{R}\)은 함수 \(X\)의 공역, \(\{0,1\}\)은 함수 \(X\)의 치역이 된다.
수리통계 시간에서 아래와 같은 표현 본 적 있다.
\[\mathbb{P}(X=1)=\frac{1}{2}\]
그런데 \(\mathbb{P}\)의 입력으로는 집합이 들어가야하는데, “\(X=1\)”은 그냥 수식임. 그렇다면 이 표현은 틀린 표현일까??
(해설)
사실 \(\mathbb{P}(X=1)\)의 의미는 아래와 같은 표현의 축약형이다.
\[\mathbb{P}(\{\omega: X(\omega)=1 \})\]
여기에서 \(\{\omega: X(\omega)=1\} = \{H\}\) 를 의미하므로 결국
\[\mathbb{P}(X=1):=\mathbb{P}(\{\omega: X(\omega)=1\})=\mathbb{P}(\{H\})\]
이 된다. 따라서 옳은 표현이다.
사실 \(\mathbb{P}(\{\omega: X(\omega)=1 \})\) 보다 \(\mathbb{P}(\{\omega \in \Omega: X(\omega)=1 \})\) 혹은 \(\mathbb{P}(\{\omega : X(\omega)=1, \omega \in \Omega \})\) 이 좀 더 명확한 표현이지만 표기가 너무 복잡해서 잘 사용하지 않는다. 사실 \(X(\omega)\)라고 쓴 것 자체가 \(\omega\)는 \(\Omega\)의 원소임을 암시하니까..
#
# 예제4 – \(\mathbb{P}(X=3)\)
다시 아래와 같은 동전예제를 생각하자.
- outcomes: \(H\),\(T\).
- sample space: \(\Omega = \{H,T\}\)
- event5: \(\emptyset\), \(\{H\}\), \(\{T\}\), \(\{H,T\}\).
- \(\sigma\)-field: \({\cal F}=2^\Omega\)
- probability: \(\mathbb{P}: {\cal F} \to [0,1]\) such that \(\mathbb{P}(\{H\})=\mathbb{P}(\{T\})=\frac{1}{2}\).
- random variable: \(X: \Omega \to \mathbb{R}\) such that \(X(H)=1\) and \(X(T)=0\).6
5 event는 집합을 의미
6 따라서 \(\mathbb{R}\)은 함수 \(X\)의 공역, \(\{0,1\}\)은 함수 \(X\)의 치역이 된다.
아래와 같은 표현은 가능한가?
\[\mathbb{P}(X=3)=0\]
설명하라.
(해설)
대충 “\(X\)가 가질 수 있는 값은 0 혹은 1이고 따라서 3이라는 값을 가질 수 없으므로 확률이 0이다” 정도의 의미인 것 같다. 이러한 표현이 가능한것인지 좀 더 엄밀히 따져보자.
\[\mathbb{P}(X=3)=\mathbb{P}(\{\omega: X(\omega)= 3 \})\]
그런데 \(X(\omega)=3\) 을 만족하는 \(\omega\)는 존재하지 않으므로 \(\{\omega: X(\omega)= 3 \}\) 는 공집합이 된다. 따라서
\[\mathbb{P}(X=3)=\mathbb{P}(\{\omega: X(\omega)= 3 \}) = \mathbb{P}(\emptyset)=0\]
이 된다. 따라서 옳은 표현이다.
#
# 예제5 – 시계예제
이번에는 바늘이 하나 있는 시계예제를 생각하자.
- outcomes: \(0,\frac{\pi}{2},\pi,\frac{3\pi}{2},\dots\)
- sample space: \(\Omega = (0,2\pi]\)
- event: \(\emptyset, \Omega, (0,\pi), \{\pi\}, \dots\)
- \(\sigma\)-field: \({\cal R} |_{\Omega}: = \{A\cap \Omega: A \in {\cal R} \}=\{\emptyset, \Omega, (0,\pi), \{\pi\}, \dots \}\)
- probability: \(\mathbb{P}: {\cal R} |_{\Omega} \to [0,1]\) such that \(\mathbb{P}((a,b]) = \frac{b-a}{2\pi}\) where \(0< a<b\leq 2\pi\).7
- random variable: \(X: \Omega \to \mathbb{R}\) such that \(X(\omega)=\frac{\omega}{2\pi}.\)8
7 \(\mathbb{P}\)를 \({\cal A}= \{(a,b]: 0<a<b\leq 1\}\) 에서만 정의했는데도 어떻게 \((\Omega,{\cal R}|_{\Omega})\) 에서의 메져라고 주장하냐고? 카라테오도리의 확장정리가 남긴 유산을 잘 떠올려보세요!
8 따라서 \(\mathbb{R}\)은 함수 \(X\)의 공역, \((0,1]\) 은 함수 \(X\)의 치역이 된다.
아래와 같은 표현이 가능한가?
\[\mathbb{P}\left(X\leq \frac{1}{2}\right)\]
가능하다면, 그 값을 계산하라.
(해설)
정의상 아래와 같이 쓸 수 있다.
\[\mathbb{P}\left(X\leq \frac{1}{2}\right)= \mathbb{P}\left(\left\{\omega: X(\omega)\leq \frac{1}{2} \right\}\right)\]
그런데 \(\{\omega: X(\omega)\leq \frac{1}{2}\}=\{\omega: 0 < X(\omega)\leq \frac{1}{2}\} \cup \{\omega: X(\omega)\leq 0\}\) 이므로
- \(\{\omega: 0 < X(\omega)\leq \frac{1}{2}\} = \{\omega: 0 < \frac{\omega}{2\pi}\leq \frac{1}{2}\} = (0,\pi]\)
- \(\{\omega: X(\omega)\leq 0\} = \emptyset\)
를 이용하면
\[\mathbb{P}\left(X\leq \frac{1}{2}\right)= \mathbb{P}\left(\left\{\omega: X(\omega)\leq \frac{1}{2} \right\}\right) = \mathbb{P}((0,\pi])\]
가 된다. 따라서 \(\mathbb{P}((0,\pi])=\frac{\pi-0}{2\pi}=\frac{1}{2}\) 로 계산할 수 있다.
제가 이거 답이 \(\frac{1}{2}\)인걸 몰라서 풀고 있었던 건 아닙니다.. 기호사용에 익숙해지세요
#
사실 우리가 그동안 써 왔던 아래와 같은 표현들은
- \(\mathbb{P}(X=1)\)
- \(\mathbb{P}(X\leq \frac{1}{2})\)
- \(\mathbb{P}(0\leq X\leq \frac{1}{2})\)
- \(\mathbb{P}(X \neq 2)\)
아래와 같은 일반적인 notation 으로 표현 가능하다.
\[\mathbb{P}(X \in A)=\mathbb{P}(\{\omega: X(\omega) \in A \})\]
여기에서 1-4의 각 경우에 대응하는 \(A\)는 다음과 같다.
- \(A=\{1\}\)
- \(A=(-\infty, \frac{1}{2}]\)
- \(A=[0,\frac{1}{2}]\)
- \(A=\mathbb{R} - \{2\}\)
# 상/역상 – 표현 \(\mathbb{P}(X \in A)\) 에서 \(A\)는 함수 \(X\)의 상(image)을 의미하며, \(\{\omega: X(\omega) \in A\}\)는 \(A\)의 역상(inverse image)을 나타낸다. 이를 강조하기 위해 아래와 같은 기호로 나타내기도 한다.
\[\{\omega: X(\omega) \in A\}:= X^{-1}(A)\]
ref: https://en.wikipedia.org/wiki/Image_(mathematics)
#
3. 확률변수 – 엄밀한 정의
A. Motive
- PTSD가 오는 질문: 표현 \(\mathbb{P}(X \in A)\) 는 언제가 가능한가?
# 예제1
아래와 같은 예제를 고려하자.
- outcomes: \(a,b,c\)
- sample space: \(\Omega = \{a,b,c\}\)
- event: \(\emptyset, \Omega, \{a\}, \{b,c\}\)
- \(\sigma\)-field: \({\cal F} = \{\emptyset, \Omega, \{a\}, \{b,c\}\}\)
- probability: \(\mathbb{P}: {\cal F} \to [0,1]\) such that \(\mathbb{P}(\{a\}) =\mathbb{P}(\{b,c\}) = \frac{1}{2}\).
- random variable: \(X: \Omega \to \mathbb{R}\) such that \(X(a)=1, X(b)=2, X(c)=3\).
아래와 같은 표현은 항상 모순없이 정의 가능한가?
- \(\mathbb{P}(X=1)\)
- \(\mathbb{P}(X=2)\)
- \(\mathbb{P}(X=3)\)
- \(\mathbb{P}(X\leq 3)\)
- \(\mathbb{P}(X=2 \text{ or } X=3)\)
(해설)
2,3은 가능하지 않다.
- \(\mathbb{P}(X=1) = \mathbb{P}(\{a\}) = \frac{1}{2}\)
- \(\mathbb{P}(X=2) = \mathbb{P}(\{b\}) = ?\) // \(\mathbb{P}(\{b\})\)는 정의되지 않음. \(\{b\} \notin {\cal F}\) 임. 즉 \(\{b\}\)는 (확률을) 잴 수 없는 집합임!
- \(\mathbb{P}(X=3) = \mathbb{P}(\{c\}) = ?\) // \(\mathbb{P}(\{c\})\)는 정의되지 않음. \(\{c\} \notin {\cal F}\) 임. 즉 \(\{c\}\)는 (확률을) 잴 수 없는 집합임!
- \(\mathbb{P}(X\leq 3) = \mathbb{P}(\Omega) = 1\)
- \(\mathbb{P}(X=2 \text{ or } X=3) = \mathbb{P}\big(\{\omega: X(\omega)=2\} \cup \{\omega: X(\omega)=3\}\big)= \mathbb{P}(\{b,c\})=\frac{1}{2}\)
#
# 예제2
아래와 같은 예제를 고려하자.
- outcomes: \(a,b,c\)
- sample space: \(\Omega = \{a,b,c\}\)
- event: \(\emptyset, \Omega, \{a\}, \{b,c\}\)
- \(\sigma\)-field: \({\cal F} = \{\emptyset, \Omega, \{a\}, \{b,c\}\}\)
- probability: \(\mathbb{P}: {\cal F} \to [0,1]\) such that \(\mathbb{P}(\{a\}) =\mathbb{P}(\{b,c\}) = \frac{1}{2}\).
- random variable: \(X: \Omega \to \mathbb{R}\) such that \(X(a)=1, X(b)=2, X(c)=2\).
아래와 같은 표현은 항상 모순없이 정의 가능한가?
- \(\mathbb{P}(X=1)\)
- \(\mathbb{P}(X=2)\)
- \(\mathbb{P}(X=3)\)
- \(\mathbb{P}(X\leq 3)\)
- \(\mathbb{P}(X=2 \text{ or } X=3)\)
(해설)
모두 가능하다.
- \(\mathbb{P}(X=1) = \mathbb{P}(\{a\}) = \frac{1}{2}\)
- \(\mathbb{P}(X=2) = \mathbb{P}(\{b,c\}) = \frac{1}{2}\)
- \(\mathbb{P}(X=3) = \mathbb{P}(\emptyset) = 0\)
- \(\mathbb{P}(X\leq 3) = \mathbb{P}(\Omega) = 1\)
- \(\mathbb{P}(X=2 \text{ or } X=3) = \mathbb{P}(\{b,c\})=\frac{1}{2}\)
#
# 예제3 – PTSD..
이번에는 바늘이 하나 있는 시계예제를 생각하자.
- outcomes: \(0,\frac{\pi}{2},\pi,\frac{3\pi}{2},\dots\)
- sample space: \(\Omega = [0,2\pi)\)
- event: \(\emptyset, \Omega, (0,\pi), \{\pi\}, \dots\)
- \(\sigma\)-field: \({\cal R} |_{\Omega}: = \{A\cap \Omega: A \in {\cal R} \}=\{\emptyset, \Omega, (0,\pi), \{\pi\}, \dots \}\)
- probability: \(\mathbb{P}: {\cal R} |_{\Omega} \to [0,1]\) such that \(\mathbb{P}([a,b)) = \frac{b-a}{2\pi}\) where \(0< a<b\leq 2\pi\).
- random variable: \(X: \Omega \to \mathbb{R}\) such that \(X(\omega)=\omega.\)
\(\mathbb{R}\)의 임의의 부분집합 \(B\) 에 대하여, 아래와 같은 표현은 항상 모순없이 정의 가능한가?
\[\mathbb{P}(X \in B)\]
(해설)
비탈리집합 \(V\subset [0,1] \subset [0,2\pi)\)에 대한 inverse image는 비탈리집합 그 자체가 된다. 따라서 아래와 같이 된다.
\[\mathbb{P}(X \in V)=\mathbb{P}\big(\{\omega: X(\omega) \in V\}\big)=\mathbb{P}(V)\]
그런데 \(\mathbb{P}(V) = \frac{1}{2\pi} \lambda(V)\) 이고 집합 \(V\)는 르벡메져로는 잴 수 없으므로 \(\mathbb{P}(V)\)는 정의될 수 없다.
#
결국 \(\mathbb{P}(X \in A)\) 와 같은 표현이 근본적으로 가능하기 위해서는 \(A\)의 역상이 (확률을) 잴 수 있는 집합이어야 한다. 즉 \(X^{-1}(A)\) 가 시그마필드의 원소이어야 한다. 예제1과 같은 경우에는 \((\Omega,{\cal F},\mathbb{P})\)를 완벽하게 구축했음에도 불구하고 \(\mathbb{P}(X=2)\) 와 같은 표현이 가능하진 않았는데 이것은 \((\Omega, {\cal F},\mathbb{P})\)의 문제가 아니라 \(X\)의 문제이다. 실제로 예제2와 같이 \(X\)를 정의할 경우에는 문제되지 않았다.
그렇다면 우리는 \(\mathbb{P}(X \in A)\) 와 같은 표현을 어떻게 써야할까?? 지금처럼
혹시 \(\mathbb{P}(X \in A)\) 이런게 쓸 수 없는 표현은 아닐까??
염려하면서 써야할까? 그럴수도 있지만 표현 \(\mathbb{P}(X\in A)\)와 같은 표현이 언제나 가능하도록 확률변수 \(X\)의 정의를 바꾸면 된다. 우리는 지금까지 확률변수 \(X\)를
- \(X: \Omega \to \mathbb{R}\) 인 함수
라고 생각했는데, 이것이 아니라
- \(X: \Omega \to \mathbb{R}\) 인 함수. 그런데 \(\mathbb{P}(X \in A)\) 라는 표현이 언제나 가능하게 만들어 준다는 조건을 곁들인..
라는 정의로 바꾸면 된다.
#
B. 정의
- 확률변수의 정의
\((\Omega,{\cal F})\) 를 measurable space 라고 하자. 확률변수란 \(X: \Omega \to \mathbb{R}\) 인 조금 특별한 함수이다. 여기에서 조금 특별하다는 표현의 의미는 \(X\)가 아래를 만족한다는 의미이다.
\[\forall A \in {\cal R}: \{\omega: X(\omega) \in A \} \in {\cal F}\]
이 경우 \(X\)는 \((\Omega, {\cal F})\)에서의 random-variable 이라고 말한다. 또는 “\(X\)는 \({\cal F}\)-measurable 하다”고 표현하기도 하며 이를 간단히 기호로 \(X \in {\cal F}\) 라 쓰기도 한다.9
9 기호의 의미는 “\(X\)에 의하여 만들어지는 역상은 항상 \({\cal F}\)의 원소이다” 정도로 해석하면 좋겠다. 기호가 엄청 헷갈리긴해요.
- \(X: (\Omega,{\cal F}) \to (\mathbb{R},{\cal R})\)의 의미
확률변수를 정의를 살펴보면 두 개의 잴 수 있는 공간이 필요하다.
- 역상이 \({\cal F}\)의 원소이어야 하므로 \({\cal F}\)가 필요하다. 따라서 \(\Omega\)도 필요하다, 즉 공간 \((\Omega, {\cal F})\) 이 필요하다.
- 상은 \({\cal R}\)의 원소이어야 하므로10 공간 \((\mathbb{R},{\cal R})\)이 필요하다.
10 이건 갑자기 왜??
따라서 확률변수는 \(X\)라는 표현은 자연스럽게 두개의 잴 수 있는 공간의 정의가 미리 선행되어야 사용할 수 있는 표현이다. 이러한 의미에서 \(X: (\Omega, {\cal F}) \to (\mathbb{R},{\cal R})\) 이라고 사용하기도 한다. 따라서 아래는 모두 같은 표현이다.
- \(X\)는 \((\Omega, {\cal F})\)에서의 확률변수이다.
- \(X \in {\cal F}\)
- \(X: (\Omega,{\cal F}) \to (\mathbb{R},{\cal R})\)
#
- 확률은 measure의 한 형태이듯이, 확률변수는 measurable function의 하나의 형태이다.
\((X,{\cal X})\) 와 \((Y, {\cal Y})\) 를 measurable space 라고 하자. 함수 \(f: X \to Y\) 가 아래를 만족한다면 함수 \(f\)를 \((X, {\cal X})\) 에서의 measurable fucntion 혹은 measurable mapping 이라고 한다.
\[\forall A \in {\cal Y}: \{x: f(x) \in A \} \in {\cal X}\]
그리고 이것을 기호로 \(f: (X, {\cal X}) \to (Y, {\cal Y})\) 라고 한다.
우리는 \((Y,{\cal Y})=(\mathbb{R}, {\cal R})\) 가측함수를 확률변수라고 하며, \((Y,{\cal Y})=(\mathbb{R}^d, {\cal R}^d)\) 인 가측함수를 확률벡터라고 부른다.
# 질문 – 확률변수의 정의에서 아래와 같은 표현이 등장한다.
\[\forall A \in {\cal R}: \{\omega: X(\omega) \in A \} \in {\cal F}\]
이 표현을 아래와 같은 표현을 바꾸지 못하는 이유가 무엇인가?
\[\forall A \in 2^\mathbb{R}: \{\omega: X(\omega) \in A \} \in {\cal F}\]
즉 확률변수의 상이 꼭 \({\cal R}\)의 원소가 되어야 하는 이유는 무엇인가? 역상이 \({\cal F}\)의 원소이면 충분히 원하는 목적을 달성할텐데?
당장 필요없는건 맞는데요, measurable mapping 의 결과에 또 다시 연속으로 measurable mapping을 취하려고 하는거에요. 즉 확률변수의 함수를 고려하기 위해서!
#
C. 연습문제
# 예제1 – 아래와 같은 measurable space를 고려하자.
- \(\Omega=\{a,b,c,d\}\)
- \({\cal F} =\sigma({\cal A})\) where \({\cal A} = \{\{a\}\}\).
아래와 같은 function \(X:\Omega \to \mathbb{R}\), \(Y:\Omega \to \mathbb{R}\) 을 고려하자.
- \(X(a)=1, X(b)=2, X(c)=3, X(d)=4\)
- \(Y(a)=1, Y(b)=2, Y(c)=2, Y(c)=2\)
아래의 물음에 답하라.
- \(X\) 는 \((\Omega,{\cal F})\to (\mathbb{R},{\cal R})\) 인 확률변수인가?
- \(Y\) 는 \((\Omega,{\cal F})\to (\mathbb{R},{\cal R})\) 인 확률변수인가?
(풀이)
\(X\)는 확률변수가 아님
집합 \(\{2\} \in {\cal R}\)에 대하여 \(\{\omega: X(\omega) \in \{2\}\}=\{b\} \not \in \sigma({\cal A})\) 이므로 \(X\)는 확률변수가 아님
\(Y\)는 확률변수임
아래를 관찰하자.
- \(\{\omega: Y(\omega) \in \mathbb{R}-\{1,2\}\} = \emptyset \in \sigma({\cal A})\)
- \(\{\omega: Y(\omega) \in \{1\}\} = \{a\} \in \sigma({\cal A})\)
- \(\{\omega: Y(\omega) \in \{2\}\} = \{b,c,d\} \in \sigma({\cal A})\)
- \(\{\omega: Y(\omega) \in \{1,2\}\} = \{a,b,c,d\} \in \sigma({\cal A})\)
임의의 \(B \in {\cal R}\)는 아래의 4가지 경우로 중 하나이다.11
11 예를들어 \(B=\{3\}\)은 1에, \(B = \{1\} \cup \mathbb{Q}^c\) 은 2에, \(B=\mathbb{Q}\)은 4에 포함된다.
- \(B\)가 1,2를 원소로 모두 포함하지 않는 경우
- \(B\)가 1을 원소로 포함하고 2는 원소로 포함하지 않는 경우
- \(B\)가 1을 원소로 포함하지 않고 2만 원소로 포함하는 경우
- \(B\)가 1,2를 모두 원소로 포함하는 경우.
그리고 각 경우에 대한 \(Y\)의 역상은 \(\emptyset, \{a\}, \{b,c,d\}, \{a,b,d,c\}\) 로 각각 정리되므로 \(Y\)는 확률변수이다.
#
# 예제2 – 두개의 잴 수 있는 공간 \((\Omega, {\cal F})\)와 \((\mathbb{R},{\cal R})\)를 고려하자. 단,
- \(\Omega=\mathbb{R}\),
- \({\cal F} =\sigma({\cal A})\) where \({\cal A} = \{\{q\}: q \in \mathbb{Q}\}\)
이다.
아래와 같은 함수 \(X:\Omega \to \mathbb{R}\)을 고려하라.
\[X(\omega) = \begin{cases} 0 & \omega \in \mathbb{Q}\\ 1 & \omega \in \mathbb{R} - \mathbb{Q} \end{cases}\]
\(X\)는 \((\Omega,{\cal F})\to(\mathbb{R},{\cal R})\) 인 가측함수인가? 즉 \(X\)는 \((\Omega,{\cal F})\) 에서의 확률변수인가?
(풀이) 잴 수 있는 함수임.
\(X\)의 상은 \(\{0\}, \{1\}, \{0,1\}\) 중 하나이고, \(X\)의 역상은 \(\mathbb{Q}, \mathbb{Q}^c, \emptyset, \Omega\) 중 하나이다. 역상이 모두 \({\cal F}\)의 원소인지 따져보자.
- \(\emptyset, \Omega\) 는 시그마필드의 정의에 의하여 \({\cal F}\)의 원소임.
- 임의의 \(q \in \mathbb{Q}\) 에 대하여 \(\{q\} \in {\cal F}\) 이고, 시그마필드는 countable union 에 닫혀있으므로 \(\mathbb{Q} \in {\cal F}\).
- \(\mathbb{Q} \in {\cal F}\) 이고 시그마필드는 \(^c\)-closed 이므로 \(\mathbb{Q}^ \in {\cal F}\).
따라서 \(X\)는 \((\Omega, {\cal F})\)에서의 확률변수이다.
# 예제3 – 두개의 잴 수 있는 공간 \((\Omega, {\cal F})\)와 \((\mathbb{R},{\cal R})\)를 고려하자. 단,
- \(\Omega=\mathbb{R}\),
- \({\cal F} =\sigma({\cal A})\) where \({\cal A} = \{\mathbb{Q}\}\).
아래와 같은 함수 \(X:\Omega \to \mathbb{R}\)을 고려하라.
\[X(\omega) = \begin{cases} 0 & \omega \in \mathbb{Q}\\ 1 & \omega \in \mathbb{R} - \mathbb{Q} \end{cases}\]
\(X\)는 \((\Omega,{\cal F})\to(\mathbb{R},{\cal R})\) 인 가측함수인가? 즉 \(X\)는 \((\Omega,{\cal F})\) 에서의 확률변수인가?
(풀이)
이 문제의 경우 \({\cal F} = \{\emptyset, \mathbb{Q}, \mathbb{Q}^c, \mathbb{R}\}\) 이다. \(X\)의 역상이 나올 수 있는 경우는 이전문제와 동일하게 \(\mathbb{Q}, \mathbb{Q}^c, \emptyset, \Omega\) 중 하나이다. (\({\cal F}\)가 어떻게 바뀌든 상관없음. \(X:\Omega \to \mathbb{R}\) 자체는 이전문제와 동일.) 역상이 모두 \({\cal F}\)의 원소이므로 \(X\)는 확률변수의 정의를 만족한다.
#
# 예제4 – 두개의 잴 수 있는 공간 \((\Omega, {\cal F})\)와 \((\mathbb{R},{\cal R})\)를 고려하자. 단,
- \(\Omega=\mathbb{R}\),
- \({\cal F} =\sigma({\cal A})\) where \({\cal A} = \{\{q\}: q \in \mathbb{Q}\}\),
아래와 같은 함수 \(X:\Omega \to \mathbb{R}\) 을 고려하라.
\[X(\omega) = \begin{cases} 0 & \omega =0\\ 1 & \omega \neq 0 \end{cases}\]
\(X\)는 \((\Omega,{\cal F})\to(\mathbb{R},{\cal R})\) 인 가측함수인가? 즉 \(X\)는 \((\Omega,{\cal F})\) 에서의 확률변수인가?
(풀이) 확률변수가 맞음. \(X\)의 상은 \(\{0\}, \{1\}, \{0,1\}\) 중 하나이며, 역상은 \(\{0\}, \mathbb{R}-\{0\}, \emptyset, \mathbb{R}\) 중 하나임.
- \(\emptyset, \mathbb{R}\) 는 시그마필드의 정의에 의하여 \({\cal F}\)의 원소임.
- 임의의 \(q \in \mathbb{Q}\) 에 대하여 \(\{q\} \in {\cal F}\) 이므로 \(0 \in \mathbb{Q}\) 이므로, \(\{0\} \in {\cal F}\).
- \(\{0\} \in {\cal F}\) 이고 시그마필드는 \(^c\)-closed 이므로 \(\mathbb{R}-\{0\} \in {\cal F}\).
#
# 예제4 – 두개의 잴 수 있는 공간 \((\Omega, {\cal F})\)와 \((\mathbb{R},{\cal R})\)를 고려하자. 단,
- \(\Omega=\mathbb{R}\),
- \({\cal F} =\sigma({\cal A})\) where \({\cal A} = \{\mathbb{Q}\}\),
아래와 같은 함수 \(X:\Omega \to \mathbb{R}\) 을 고려하라.
\[X(\omega) = \begin{cases} 0 & \omega =0\\ 1 & \omega \neq 0 \end{cases}\]
\(X\)는 \((\Omega,{\cal F})\to(\mathbb{R},{\cal R})\) 인 가측함수인가? 즉 \(X\)는 \((\Omega,{\cal F})\) 에서의 확률변수인가?
(풀이) 확률변수가 아님. \(X\)의 상은 \(\{0\}, \{1\}, \{0,1\}\) 중 하나이며, 역상은 \(\{0\}, \mathbb{R}-\{0\}, \emptyset, \mathbb{R}\) 중 하나임. \(\{0\}\) 와 \(\mathbb{R}-\{0\}\)는 \({\cal F}\)의 원소가 아니므로 확률변수가 아님.
#
4. 확률변수 – 지독한 오해
# 오해1: 학률변수 = 값이 랜덤으로 바뀌는 변수??
- 함수: \(y=f(x)\) // \(f\): function, \(x\): input \(y\): output
- 확률변수: \(x=X(\omega)\) // \(X\): function, \(\omega\): outcome12, \(x\): realization
- 확률변수는 함수이지만 보통 \(X(\omega)\)와 같이 쓰지 않고 \(X\)라고 쓴다. \(\Rightarrow\) 혼란의 이유
12 입력인데 outcome임, 여기서부터 너무 헷갈려!!
#
# 오해2: 확률변수는 결과가 랜덤으로 변하는 함수??
- 확률변수는 함수일 뿐임. 입력이 정해지면 출력이 고정임!
- 동전예제: 입력이 \(\omega=H\) 이면 출력은 \(X(\omega)=1\), 입력이 \(\omega=T\) 이면 출력은 \(X(\omega)=0\) 으로 고정임!
#
# 오해3: 아니야.. 확률변수는 결과가 랜덤으로 바뀌는 느낌이 맞아. 아래의 예시를 봐!
\[X = \begin{cases} 0 & w.p. \frac{1}{2} \\ 1 & w.p. \frac{1}{2} \end{cases}\]
- \(X\)는 진짜 변수처럼 보이긴함.
- 심지어 변수의 값이 랜덤으로 변하는 것 같음.
(해설)
정확하게는 아래 표현이 맞다.
\[X(\omega) = \begin{cases} 0 & \omega \in \{H\} \\ 1 & \omega \in \{T\} \end{cases} \quad \text{where } P(\{H\}) = P(\{T\}) = \frac{1}{2}.\]
#
- 확률변수에 대한 오해2에 대한 추가설명
- 확률변수는 결과가 랜덤으로 변하는 함수가 아님, 확률변수는 함수일 뿐임. 입력이 정해지면 출력이 고정임!
- 동전예제: 입력이 \(\omega=H\)이면 출력은 \(X(\omega)=1\), 입력이 \(\omega=T\)이면 출력은 \(X(\omega)=0\)으로 고정임!
- 단지 입력 outcome이 실험에 따라 랜덤으로 변할 수 있는 것임!!
- 요약해보면,
- 확률변수는 확률과 관련없다.
- 간접적으로는 관련이 있다. (\(\because\) \(X\)의 역상 = \(\mathbb{P}\)의 정의역)