04wk-2: 측도론 intro (6)

최규빈

2023-03-28

강의영상

youtube: https://youtube.com/playlist?list=PLQqh36zP38-x7Z5LJZOG4At6NWHs757XG

Appendix

셀 수 있는

- 셀 수 있는 집합과 셀 수 없는 집합.

  • countable: finite, countable many
  • uncountable: uncountable many

- 예시1: countable set, uncountable set

  • \(\{1,2,3,4,5\}\)는 셀 수 있는 집합이다.
  • \(\mathbb{N}\)은 셀 수 있는 집합이다.
  • \(\mathbb{Z}\)는 셀 수 있는 집합이다.
  • \(\mathbb{Q}\)는 셀 수 있는 집합이다.
  • \(\mathbb{R}\)은 셀 수 없는 집합이다.

- 예시2: countable sum: 아래는 모두 countable sum을 의미한다.

  • \(\sum_{i=1}^{n}a_i\).
  • \(\sum_{i \in I} a_i\), where \(I=\{1,2,3,\dots,10\}\).
  • \(\sum_{i=1}^{\infty} a_i\), \(\sum_{i=0}^{\infty} a_i\).
  • \(\sum_{i \in \mathbb{N}}a_i\).
  • \(\sum_{x \in \mathbb{Q}}m(\{x\})\), where \(m\) is Lebesgue measure

- 예시3: countable union: 아래는 countalbe union을 의미한다.

  • \(\cup_{i=1}^n A_i\)
  • \(\cup_{i=1}^{\infty} A_i\)
  • \(\cup_{x \in \mathbb{Q}} \{x\}\)

- 예시4: 아래는 uncountable sum을 의미한다.

  • \(\sum_{x \in [0,1]}m(\{x\})\), where \(m\) is Lebesgue measure

- 예시5: 아래는 uncountable union을 의미한다.

  • \(\cup_{x \in [0,1]} \{x\}\)

여러가지 집합

집합 (\(\mathbb{R}\)의 부분집합) 카디널리티 분류 르벡메져
\(\{1,2,3\}\) 3 가산집합 0
\(\mathbb{N}\) \(\aleph_0\) 가산집합 0
\(\mathbb{Z}\) \(\aleph_0\) 가산집합 0
\(\mathbb{Q}\) \(\aleph_0\) 가산집합 0
\([0,1]\) \(2^{\aleph_0}\) 비가산집합 1
\([0,1]\cap \mathbb{Q}\) \(\aleph_0\) 가산집합 0
\([0,1]\cup \mathbb{Q}\) \(2^{\aleph_0}\) 비가산집합 1
\([0,1]\cap \mathbb{Q}^c\) \(2^{\aleph_0}\) 비가산집합 1
\([0,\infty)\) \(2^{\aleph_0}\) 비가산집합 \(\infty\)
비탈리집합 \(2^{\aleph_0}\) 비가산집합 NA
칸토어집합 \(2^{\aleph_0}\) 비가산집합 0

확률변수의 정의 (2)

확률변수의 엄밀한 정의

- 확률변수 (머리속): \(X:\Omega \to \mathbb{R}\) 인 잴 수 있는 함수.

- 확률변수 (엄밀하게): 두 개의 잴 수 있는 공간 \((\Omega,{\cal F})\)\((\mathbb{R}, {\cal R})\)이 있다고 하자. 확률변수 \(X\)는 아래를 만족하는 함수 \(X:\Omega \to \mathbb{R}\) 이다.

\[\forall B \in {\cal R}: X^{-1}(B) = \{\omega:X(\omega)\in B \} \in {\cal F}\]

Note1: \(\{\omega:X(\omega)\in B \} \in {\cal F}\) for all \(B \in {\cal R}\) 이라 쓰기도 함. 쓰는사람 마음~

Note2: \({\cal R}\)은 Borel sets라고 부른다. 의미는 \(\mathbb{R}\)의 부분집합중 잴 수 있는 부분집합의 모임이라는 뜻이다. (즉 \({\cal F}\)의 의미와 같다) \({\cal B}\)의 원소는 Borel set이라고 부른다.

- 왜 정의가 아래와 같지 않을까?

\[\forall B \subset \mathbb{R}: X^{-1}(B) = \{\omega:X(\omega)\in B \} \in {\cal F}\]


위의 질문을 위한 보충학습

(예제) 바늘이 하나 있는 시계

1. outcomes: \(0,1,\frac{\pi}{3},\frac{2\pi}{5},\pi\dots\)

2. sample space: \(\Omega = (0,2\pi]\)

3. event: \(\emptyset\), \([0,\frac{2}{\pi})\), \(\{2\pi\}\), \(\dots\)

4. \(\sigma\)-field: \({\cal F}\). \(\Omega\)의 부분집합 중 잴 수 있는 집합의 모임.

5. probability measure function: \(P: \Omega \to [0,1]\) such that

  • \(P(\emptyset) = 0\)
  • \(P([0,\frac{2}{\pi}) = \frac{1}{4}\)
  • \(P(\{2\pi\}) = 0\)
  • \(P(\Omega) = 1\)

6. random variable: \(X: \Omega \to \mathbb{R}\) such that \(X(\omega)=\omega\). // 사실 \(X: (0,2\pi] \to (0,2\pi]\)

6을 주목하자. 만약에 비탈리집합 \(V \subset \mathbb{R}\)에 대한 inverse image는 비탈리집합 그 자체가 된다. 따라서 아래와 같이 된다.

\[P(X \in V)=P\big(\{\omega: X(\omega) \in V\}\big)=P(V)\]

\(V\)는 잴 수 없는 집합이므로 \(P(V)\)와 같은 표현을 불가함.

결론: 확률변수 \(X\)를 고려할때 정의역의 치역 양쪽의 measurable space를 고려해야함.


- 교재의 정의1

그림1: Durret에서 긁어온 확률변수의 정의

- 교재의 정의2

그림2: Durret에서 긁어온 확률변수의 정의2

- \(X\)가 랜덤변수라는 것을 기호로 간단하게 \(X \in {\cal F}\) 혹은 \(X : (\Omega, {\cal F}) \to (\mathbb{R},{\cal R})\)라고 쓴다.

사실 \(X: (\Omega,{\cal F}) \to (\mathbb{R}, {\cal R})\)\(X\)가 잴 수 있는 함수 (measurable function, measurable map) 임을 나타내는 기호이다.

-\(X\)를 확률변수라고 하자.” 라는 의미? 지금 까지 해온 모든 논의가 압축된 표현…

  • 확률이라는건 원래 모든 \(\Omega\)에서는 잘 정의되지 않음.
  • 그래도 \(\Omega\)의 부분집합중 잴 수 있는 집합이라는 것이 있는데 그게 \({\cal F}\)야.
  • 이 두개를 세트로 묶어서 \((\Omega,{\cal F})\) 이라고 하고 이를 잴 수 있는 공간이라고 하자.
  • 이 잴 수 있는 공간 \((\Omega, {\cal F})\) 에서는 이제 확률 \(P\)를 정의 할 수 있어.
  • 한편 \(\Omega\)의 원소는 숫자로 되어있지 않으니까 이를 숫자화시키는 어떠한 함수가 필요한데 이것을 우리는 \(X\)라고 할 것임.
  • 그런데 \(P(X=1)\)와 같은 표현이 가능하려면 \(X\)의 inverse image가 \({\cal F}\)의 원소이어야 하는데 이게 항상 가능한 것은 아니므로 \(X\)를 잴 수 있는 함수라고 추가가정 해야 함.

\(X\)를 확률변수라고 하자” 라고 선언하는 것은 아래의 효과를 가진다. (1) \(\Omega\)에 대응하는 \({\cal F}\)가 잘 정의되어 있다고 하자. (2) \(P\) 역시 잘 정의되어 있다고 하자. (3) \(\mathbb{R}\)\({\cal R}\)이 잘 정의되어 있다고 하자. (4) \(X: (\Omega,{\cal F}) \to (\mathbb{R},{\cal R})\) 이 잘 정의되어 있다고 하자.

헷갈려 (2) (\(\star\star\star\))

- 확률변수에 대한 오해1: 학률변수 = 값이 랜덤으로 바뀌는 변수??

  • 함수: \(y=f(x)\), \(f\): function, \(x\): input \(y\): output
  • 확률변수: \(x=X(\omega)\), \(X\): function, \(\omega\): outcome1, \(x\): realization
  • 확률변수는 함수이지만 보통 \(X(\omega)\)와 같이 쓰지 않고 \(X\)라고 쓴다. \(\Rightarrow\) 혼란의 이유
  • 1 입력인데 outcome임, 여기서부터 너무 헷갈려!!

  • - 확률변수에 대한 오해2: 확률변수는 결과가 랜덤으로 변한다??

    • 확률변수는 함수일 뿐임. 입력이 정해지면 출력이 고정임!
    • 동전예제: 입력이 \(\omega=H\)이면 출력은 \(X(\omega)=1\), 입력이 \(\omega=T\)이면 출력은 \(X(\omega)=0\)으로 고정임!

    - 확률변수에 대한 오해3: 아니야.. 확률변수는 결과가 랜덤으로 바뀌는 느낌이 맞아. 아래의 예시를 봐!

    \[X = \begin{cases} 0 & w.p. \frac{1}{2} \\ 1 & w.p. \frac{1}{2} \end{cases}\]

    • \(X\)는 진짜 변수처럼 보이긴함.
    • 심지어 변수의 값이 랜덤으로 변하는 것 같음.

    (해설)

    정확하게는 아래 표현이 맞다.

    \[X(\omega) = \begin{cases} 0 & \omega \in \{H\} \\ 1 & \omega \in \{T\} \end{cases} \quad \text{where } P(\{H\}) = P(\{T\}) = \frac{1}{2}.\]

    - 확률변수에 대한 오해2에 대한 추가설명

    • 확률변수는 결과가 랜덤으로 변하는 함수가 아님, 확률변수는 함수일 뿐임. 입력이 정해지면 출력이 고정임!
    • 동전예제: 입력이 \(\omega=H\)이면 출력은 \(X(\omega)=1\), 입력이 \(\omega=T\)이면 출력은 \(X(\omega)=0\)으로 고정임!
    • 단지 입력 outcome이 실험에 따라 랜덤으로 변할 수 있는 것임!!

    - 요약해보면,

    1. 확률변수는 확률과 관련없다.
    2. 간접적으로는 관련이 있다. \(\because\) X의 역상 = \(\Omega\)의 부분집합 = \(P\)의 정의역

    - 표현연습: \(P(X=1), P(X \in \{0,1\}),\dots ...\)