04wk-2: 측도론 intro (6)
2023-03-28
강의영상
youtube: https://youtube.com/playlist?list=PLQqh36zP38-x7Z5LJZOG4At6NWHs757XG
Appendix
셀 수 있는
-
셀 수 있는 집합과 셀 수 없는 집합.
- countable: finite, countable many
- uncountable: uncountable many
-
예시1: countable set, uncountable set
- \(\{1,2,3,4,5\}\)는 셀 수 있는 집합이다.
- \(\mathbb{N}\)은 셀 수 있는 집합이다.
- \(\mathbb{Z}\)는 셀 수 있는 집합이다.
- \(\mathbb{Q}\)는 셀 수 있는 집합이다.
- \(\mathbb{R}\)은 셀 수 없는 집합이다.
-
예시2: countable sum: 아래는 모두 countable sum을 의미한다.
- \(\sum_{i=1}^{n}a_i\).
- \(\sum_{i \in I} a_i\), where \(I=\{1,2,3,\dots,10\}\).
- \(\sum_{i=1}^{\infty} a_i\), \(\sum_{i=0}^{\infty} a_i\).
- \(\sum_{i \in \mathbb{N}}a_i\).
- \(\sum_{x \in \mathbb{Q}}m(\{x\})\), where \(m\) is Lebesgue measure
-
예시3: countable union: 아래는 countalbe union을 의미한다.
- \(\cup_{i=1}^n A_i\)
- \(\cup_{i=1}^{\infty} A_i\)
- \(\cup_{x \in \mathbb{Q}} \{x\}\)
-
예시4: 아래는 uncountable sum을 의미한다.
- \(\sum_{x \in [0,1]}m(\{x\})\), where \(m\) is Lebesgue measure
-
예시5: 아래는 uncountable union을 의미한다.
- \(\cup_{x \in [0,1]} \{x\}\)
여러가지 집합
집합 (\(\mathbb{R}\)의 부분집합) | 카디널리티 | 분류 | 르벡메져 |
---|---|---|---|
\(\{1,2,3\}\) | 3 | 가산집합 | 0 |
\(\mathbb{N}\) | \(\aleph_0\) | 가산집합 | 0 |
\(\mathbb{Z}\) | \(\aleph_0\) | 가산집합 | 0 |
\(\mathbb{Q}\) | \(\aleph_0\) | 가산집합 | 0 |
\([0,1]\) | \(2^{\aleph_0}\) | 비가산집합 | 1 |
\([0,1]\cap \mathbb{Q}\) | \(\aleph_0\) | 가산집합 | 0 |
\([0,1]\cup \mathbb{Q}\) | \(2^{\aleph_0}\) | 비가산집합 | 1 |
\([0,1]\cap \mathbb{Q}^c\) | \(2^{\aleph_0}\) | 비가산집합 | 1 |
\([0,\infty)\) | \(2^{\aleph_0}\) | 비가산집합 | \(\infty\) |
비탈리집합 | \(2^{\aleph_0}\) | 비가산집합 | NA |
칸토어집합 | \(2^{\aleph_0}\) | 비가산집합 | 0 |
확률변수의 정의 (2)
확률변수의 엄밀한 정의
-
확률변수 (머리속): \(X:\Omega \to \mathbb{R}\) 인 잴 수 있는 함수.
-
확률변수 (엄밀하게): 두 개의 잴 수 있는 공간 \((\Omega,{\cal F})\)와 \((\mathbb{R}, {\cal R})\)이 있다고 하자. 확률변수 \(X\)는 아래를 만족하는 함수 \(X:\Omega \to \mathbb{R}\) 이다.
\[\forall B \in {\cal R}: X^{-1}(B) = \{\omega:X(\omega)\in B \} \in {\cal F}\]
Note1: \(\{\omega:X(\omega)\in B \} \in {\cal F}\) for all \(B \in {\cal R}\) 이라 쓰기도 함. 쓰는사람 마음~
Note2: \({\cal R}\)은 Borel sets라고 부른다. 의미는 \(\mathbb{R}\)의 부분집합중 잴 수 있는 부분집합의 모임이라는 뜻이다. (즉 \({\cal F}\)의 의미와 같다) \({\cal B}\)의 원소는 Borel set이라고 부른다.
-
왜 정의가 아래와 같지 않을까?
\[\forall B \subset \mathbb{R}: X^{-1}(B) = \{\omega:X(\omega)\in B \} \in {\cal F}\]
위의 질문을 위한 보충학습
(예제) 바늘이 하나 있는 시계
1
. outcomes: \(0,1,\frac{\pi}{3},\frac{2\pi}{5},\pi\dots\)
2
. sample space: \(\Omega = (0,2\pi]\)
3
. event: \(\emptyset\), \([0,\frac{2}{\pi})\), \(\{2\pi\}\), \(\dots\)
4
. \(\sigma\)-field: \({\cal F}\). \(\Omega\)의 부분집합 중 잴 수 있는 집합의 모임.
5
. probability measure function: \(P: \Omega \to [0,1]\) such that
- \(P(\emptyset) = 0\)
- \(P([0,\frac{2}{\pi}) = \frac{1}{4}\)
- \(P(\{2\pi\}) = 0\)
- \(P(\Omega) = 1\)
6
. random variable: \(X: \Omega \to \mathbb{R}\) such that \(X(\omega)=\omega\). // 사실 \(X: (0,2\pi] \to (0,2\pi]\)
6을 주목하자. 만약에 비탈리집합 \(V \subset \mathbb{R}\)에 대한 inverse image는 비탈리집합 그 자체가 된다. 따라서 아래와 같이 된다.
\[P(X \in V)=P\big(\{\omega: X(\omega) \in V\}\big)=P(V)\]
\(V\)는 잴 수 없는 집합이므로 \(P(V)\)와 같은 표현을 불가함.
결론: 확률변수 \(X\)를 고려할때 정의역의 치역 양쪽의 measurable space를 고려해야함.
-
교재의 정의1
-
교재의 정의2
-
\(X\)가 랜덤변수라는 것을 기호로 간단하게 \(X \in {\cal F}\) 혹은 \(X : (\Omega, {\cal F}) \to (\mathbb{R},{\cal R})\)라고 쓴다.
사실 \(X: (\Omega,{\cal F}) \to (\mathbb{R}, {\cal R})\)은 \(X\)가 잴 수 있는 함수 (measurable function, measurable map) 임을 나타내는 기호이다.
-
“\(X\)를 확률변수라고 하자.” 라는 의미? 지금 까지 해온 모든 논의가 압축된 표현…
- 확률이라는건 원래 모든 \(\Omega\)에서는 잘 정의되지 않음.
- 그래도 \(\Omega\)의 부분집합중 잴 수 있는 집합이라는 것이 있는데 그게 \({\cal F}\)야.
- 이 두개를 세트로 묶어서 \((\Omega,{\cal F})\) 이라고 하고 이를 잴 수 있는 공간이라고 하자.
- 이 잴 수 있는 공간 \((\Omega, {\cal F})\) 에서는 이제 확률 \(P\)를 정의 할 수 있어.
- 한편 \(\Omega\)의 원소는 숫자로 되어있지 않으니까 이를 숫자화시키는 어떠한 함수가 필요한데 이것을 우리는 \(X\)라고 할 것임.
- 그런데 \(P(X=1)\)와 같은 표현이 가능하려면 \(X\)의 inverse image가 \({\cal F}\)의 원소이어야 하는데 이게 항상 가능한 것은 아니므로 \(X\)를 잴 수 있는 함수라고 추가가정 해야 함.
“\(X\)를 확률변수라고 하자” 라고 선언하는 것은 아래의 효과를 가진다. (1) \(\Omega\)에 대응하는 \({\cal F}\)가 잘 정의되어 있다고 하자. (2) \(P\) 역시 잘 정의되어 있다고 하자. (3) \(\mathbb{R}\)와 \({\cal R}\)이 잘 정의되어 있다고 하자. (4) \(X: (\Omega,{\cal F}) \to (\mathbb{R},{\cal R})\) 이 잘 정의되어 있다고 하자.
헷갈려 (2) (\(\star\star\star\))
-
확률변수에 대한 오해1: 학률변수 = 값이 랜덤으로 바뀌는 변수??
- 함수: \(y=f(x)\), \(f\): function, \(x\): input \(y\): output
- 확률변수: \(x=X(\omega)\), \(X\): function, \(\omega\): outcome1, \(x\): realization
- 확률변수는 함수이지만 보통 \(X(\omega)\)와 같이 쓰지 않고 \(X\)라고 쓴다. \(\Rightarrow\) 혼란의 이유
1 입력인데 outcome임, 여기서부터 너무 헷갈려!!
-
확률변수에 대한 오해2: 확률변수는 결과가 랜덤으로 변한다??
- 확률변수는 함수일 뿐임. 입력이 정해지면 출력이 고정임!
- 동전예제: 입력이 \(\omega=H\)이면 출력은 \(X(\omega)=1\), 입력이 \(\omega=T\)이면 출력은 \(X(\omega)=0\)으로 고정임!
-
확률변수에 대한 오해3: 아니야.. 확률변수는 결과가 랜덤으로 바뀌는 느낌이 맞아. 아래의 예시를 봐!
\[X = \begin{cases} 0 & w.p. \frac{1}{2} \\ 1 & w.p. \frac{1}{2} \end{cases}\]
- \(X\)는 진짜 변수처럼 보이긴함.
- 심지어 변수의 값이 랜덤으로 변하는 것 같음.
(해설)
정확하게는 아래 표현이 맞다.
\[X(\omega) = \begin{cases} 0 & \omega \in \{H\} \\ 1 & \omega \in \{T\} \end{cases} \quad \text{where } P(\{H\}) = P(\{T\}) = \frac{1}{2}.\]
-
확률변수에 대한 오해2에 대한 추가설명
- 확률변수는 결과가 랜덤으로 변하는 함수가 아님, 확률변수는 함수일 뿐임. 입력이 정해지면 출력이 고정임!
- 동전예제: 입력이 \(\omega=H\)이면 출력은 \(X(\omega)=1\), 입력이 \(\omega=T\)이면 출력은 \(X(\omega)=0\)으로 고정임!
- 단지 입력 outcome이 실험에 따라 랜덤으로 변할 수 있는 것임!!
-
요약해보면,
- 확률변수는 확률과 관련없다.
- 간접적으로는 관련이 있다. \(\because\) X의 역상 = \(\Omega\)의 부분집합 = \(P\)의 정의역
-
표현연습: \(P(X=1), P(X \in \{0,1\}),\dots ...\)