前回の復習

36
前前前前前 前前前前前 chapter 1: 前前前前前 ... 前前前前前前前前前 前前前前 前前 前前前前前前 (一) 前前前前前前前 前 前前前前前前前前前前前前前 1 0.5 0.5 前前前 前前 bit

description

前回の復習. 講義の概要 chapter 1: 情報を 測る ... エントロピーの定義 確率変数 の(一次)エントロピー は実現値の個数, は 番目の実現値が取られる確率. bit. 実現値. 表. 裏. 確率. 0.5. 0.5. 練習 問題の解答. 講義 web ページにあるデータを使い,エントロピーを計算せよ http ://isw3.naist.jp /~kaji/lecture/ 英語の文字出現 頻度 ... 約 4.18 bit (値の解釈には要注意) 株価の騰落 データ - PowerPoint PPT Presentation

Transcript of 前回の復習

Page 1: 前回の復習

前回の復習

講義の概要chapter 1: 情報を測る ... エントロピーの定義

確率変数 の(一次)エントロピー

は実現値の個数, は 番目の実現値が取られる確率

1

表 裏0.5 0.5

実現値確率

bit

Page 2: 前回の復習

練習問題の解答

講義 web ページにあるデータを使い,エントロピーを計算せよ

http://isw3.naist.jp/~kaji/lecture/ 英語の文字出現頻度 ... 約 4.18 bit (値の解釈には要注意)株価の騰落データ

A 社 ... 0.97 bit, G 社 ... 1.00 bit, M 社 ... 0.99 bit

2

表計算ソフトを使えば簡単に計算できる−𝑝𝑖 log 2𝑝𝑖

Page 3: 前回の復習

どういう文脈で話が進んでいるか

最終目標:「情報」の量を測る定量的指標を導入するstep 1: 確率変数の「エントロピー」を定義

エントロピー大 不確実さ大

step 2: 一つのニュースが持つ情報量を定義情報量 = (BEFORE エントロピー ) – (AFTER エントロピー )

step 3: 確率変数の間の相互情報量を定義ある確率変数の値が,他の確率変数について何を語るか

3

𝑋 𝑌

前回今回

Page 4: 前回の復習

本日の講義(詳細)

エントロピーの諸性質(確率計算に関する復習)

関連する概念・量の定義結合エントロピー ... 結合確率に対応条件付きエントロピー ... 条件付き確率に対応相互情報量

各種エントロピー・情報量の性質

4

Page 5: 前回の復習

エントロピーの性質(1)

[ 性質1 ] 証明:

5

𝐻1(𝑋 )=∑𝑖=1

𝑀

−𝑝𝑖 log2𝑝𝑖

では,ここは非負

− log2𝑝

[ 性質2 ] ⇔ あるに対し,それ以外は証明:(⇐) 定義より明らか(⇒) 背理法を用いて証明

Page 6: 前回の復習

エントロピーの性質(2)

[ 性質3 ] の取り得る値が通りならば ...のときは最大,その値はとなる

証明:ラグランジュの未定乗数法を用いる目的関数: (変数の式と考える)束縛関数:最大化条件

これから が得られ,そのとき

6

J. L. Lagrange1736-1813

Page 7: 前回の復習

エントロピー = 不確実さ

あるに対し,それ以外は何が発生するのか,あらかじめわかっている不確実な要素が,まったくない

どの可能性も,等しく考えられる非常に不確実で,振る舞いの予測がつかない

7

エントロピー = 不確実さ = 予測の難しさ

Page 8: 前回の復習

エントロピー vs. 分散

不確実さの指標として,「分散」ではダメなのか?確率変数 の分散 直観的には「分散が大きい=ばらつきが大きい」

エントロピーの利点 ( vs. 分散)実現値の上で「演算」ができなくても良い

= {りんご,バナナ,いちご} ...「工学的な量」と密接に関係

「符号化」の性能の限界を与える

情報理論は,エントロピーの概念を中心に組み立てられている

8

Page 9: 前回の復習

エントロピーに関するまとめ

確率変数 のエントロピー:

... 【エントロピーの非負性】

... 【エントロピーの最小値】1 個の実現値に対して

... 【エントロピーの最大値】

直観的には ... エントロピー大 ⇔ 不確実さ大

9

Page 10: 前回の復習

複数の確率変数

ここまで ... 確率変数1個に限定「情報の伝達」を考えるには,複数の確率変数が必要

10

大気の状態

自然の摂理

気温 降水量

送信データ通信路

受信データ

の値を知れば,の値に関する情報が得られる

=の不確実さが減少する

Page 11: 前回の復習

議論すべき「情報の量」

「友人の機嫌が良い」⇒「タイガースは勝った?」 ... ここに潜む「情報の伝達」を,数理的に考える

1. 確率論に関する復習2. の個別の値が, の値について与える情報量

「」が,の値について与える情報量3. の値が, の値について与える情報量の期待値

11

𝑋 友人の人格

𝑌勝 or 負 良 or 悪

タイガースの試合結果 友人の機嫌

Page 12: 前回の復習

同時確率・結合確率

: と とが同時に発生する確率

例:過去 100 日間の,試合結果 () と友人の機嫌 () の統計

12

45 1215 28

良 悪勝負

𝑋 𝑌 勝って,機嫌が良かった ... 45 日勝ったのに,機嫌が悪かった ... 12日...

𝑃 𝑋 ,𝑌 (勝,悪 )=0.12𝑃 𝑋 ,𝑌 (負,悪 )=0.28

𝑃 𝑋 ,𝑌 (勝,良 )=0.45

𝑃 𝑋 ,𝑌 (負,良 )=0.15

同時確率,結合確率,と呼ばれる

Page 13: 前回の復習

確率の周辺化

同時確率からは,他の様々な確率を導き出せる

13

勝ったのは 45+12=57 日45 1215 28

良 悪勝負

𝑋 𝑌5733

60 40 100

𝑃 𝑋 (勝 )=𝑃 𝑋 ,𝑌 (勝 ,良 )+𝑃 𝑋 ,𝑌 (勝 ,悪 )¿0.45+0.12=0.57

一般には,

... 確率の周辺化( marginalize )と呼ばれる操作

Page 14: 前回の復習

条件付き確率

: の条件のもとで, となる確率

14

45 1215 28

良 悪勝負

𝑋 𝑌5733

60 40 100

57

𝑃𝑌∨𝑋 (良∨勝)= 57 の中での 45 の割合

45 12

一般には,

𝑃𝑌∨𝑋 (𝑦∨𝑥 )=𝑃 𝑋 ,𝑌 (𝑥 , 𝑦 )𝑃 𝑋 (𝑥)

... ベイズの定理

と を混同しないこと

試合に勝った日は 45/57 = 0.79 の確率で機嫌が良い12/57 = 0.21 の確率で機嫌が悪い(条件)

Page 15: 前回の復習

条件付き確率に関する注意

試合に勝つ確率

機嫌が良い確率

15

と を混同しないこと

45 1215 28

良 悪勝負

𝑋 𝑌5743

60 40 100

Page 16: 前回の復習

確率変数の独立性

確率変数 が独立⇔ 任意の に対し ⇔ 任意の に対し ⇔ 任意の に対し

独立でない ⇒ 従属関係にある(どちらかが主で,どちらかが従,というわけではない点に注意)

16

Page 17: 前回の復習

同時エントロピー・結合エントロピー

と の同時エントロピー,結合エントロピー ;

17

𝐻1 (𝑋 ,𝑌 )= ∑𝑥∈𝐷 (𝑋 )

∑𝑦∈𝐷 (𝑌 )

−𝑃 𝑋 ,𝑌 (𝑥 , 𝑦 ) log2𝑃 𝑋 ,𝑌 (𝑥 , 𝑦 ) .

45 1215 28

良 悪勝負

𝑋 𝑌− 0.12 log2 0.12

𝐻1 (𝑋 ,𝑌 )=− 0.45 log 20.45

− 0.15 log2 0.15bit

の値との値とを同時に予測する「難しさ」に相当

Page 18: 前回の復習

補題 : 証明:

𝐻1 (𝑋 ,𝑌 )= ∑𝑥∈𝐷 (𝑋 )

∑𝑦∈𝐷 (𝑌 )

−𝑃 𝑋 ,𝑌 (𝑥 , 𝑦 ) log2𝑃 𝑋 ,𝑌 (𝑥 , 𝑦 )

結合エントロピーの性質

18

𝐻1 (𝑋 )= ∑𝑥∈𝐷 (𝑋 )

−𝑃 𝑋 (𝑥 ) log2 𝑃 𝑋 (𝑥 )= ∑𝑥∈𝐷(𝑋 )

∑𝑦∈𝐷 (𝑌 )

−𝑃 𝑋 ,𝑌 (𝑥 , 𝑦 ) log 2𝑃 𝑋 (𝑥)

𝐻1 (𝑌 )= ∑𝑦∈𝐷 (𝑌 )

−𝑃𝑌 ( 𝑦 ) log2 𝑃𝑌 ( 𝑦 )= ∑𝑥∈𝐷 (𝑋 )

∑𝑦∈𝐷 (𝑌 )

−𝑃 𝑋 ,𝑌 (𝑥 , 𝑦 ) log2𝑃𝑌 (𝑦 )

𝐻1 (𝑋 )+𝐻1 (𝑌 )= ∑𝑥∈𝐷 (𝑋 )

∑𝑦∈𝐷 (𝑌 )

−𝑃 𝑋 ,𝑌 (𝑥 , 𝑦 ) ¿¿¿

¿ ∑𝑥∈𝐷 (𝑋 )

∑𝑦∈𝐷 (𝑌 )

−𝑃 𝑋 ,𝑌 (𝑥 , 𝑦 ) log2𝑃 𝑋 (𝑥 ) 𝑃𝑌 ( 𝑦 )

右辺

左辺微妙に 違う

Page 19: 前回の復習

19

シャノンの補助定理

シャノンの補助定理, Shannon’s lemma を導入

[補題 ], を満たす非負数 , に対し,

等号成立は,すべての に対して のとき

∑𝑖=1

𝑀

−𝑝𝑖 log2𝑞𝑖≥∑𝑖=1

𝑀

−𝑝𝑖 log2𝑝𝑖

Page 20: 前回の復習

補助定理の証明(概略)

左辺 – 右辺 =

20

∑𝑖=1

𝑀

−𝑝𝑖 log2𝑞𝑖+∑𝑖=1

𝑀

𝑝𝑖 log2𝑝𝑖¿∑𝑖=1

𝑀

−𝑝𝑖 log2

𝑞𝑖

𝑝𝑖

=∑𝑖=1

𝑀 𝑝𝑖

log𝑒2(−log𝑒

𝑞𝑖

𝑝𝑖

)

≥∑𝑖=1

𝑀 𝑝𝑖

log𝑒2 (1−𝑞𝑖

𝑝𝑖)= 1

log𝑒2∑𝑖=1

𝑀

(𝑝𝑖−𝑞𝑖 )

¿ 1log𝑒2

(∑𝑖=1

𝑀

𝑝𝑖−∑𝑖=1

𝑀

𝑞𝑖)=1

log𝑒2(1−∑

𝑖=1

𝑀

𝑞𝑖)

≥ 0𝑦=1 −𝑥

1O

𝑦=– log𝑒𝑥

− log𝑒𝑥 ≥1 −𝑥 等号成立⇔ 全てのに対し のとき

Page 21: 前回の復習

補題 : 証明:

𝐻1 (𝑋 ,𝑌 )= ∑𝑥∈𝐷 (𝑋 )

∑𝑦∈𝐷 (𝑌 )

−𝑃 𝑋 ,𝑌 (𝑥 , 𝑦 ) log2𝑃 𝑋 ,𝑌 (𝑥 , 𝑦 )

結合エントロピーの性質

21

𝐻1 (𝑋 )+𝐻1 (𝑌 )= ∑𝑥∈𝐷 (𝑋 )

∑𝑦∈𝐷 (𝑌 )

−𝑃 𝑋 ,𝑌 (𝑥 , 𝑦 ) log2 𝑃 𝑋 (𝑥 ) 𝑃𝑌 (𝑦 )右

シャノンの補助定理(証明終了)

系 : 確率変数 が独立なら

Page 22: 前回の復習

45 1215 28

良 悪勝負

𝑋 𝑌5733

60 40 100

例で確かめてみる

22

− 0.12 log2 0.12𝐻1 (𝑋 ,𝑌 )=− 0.45 log 20.45

− 0.15 log2 0.15bit

⇒ bit

⇒ bit

Page 23: 前回の復習

の意味

... の値との値を同時に予測する難しさ

... の値との値を別々に予測する難しさ

同時に予測するほうが,別々に予測するよりも簡単

の値の中には,の値に関する情報が含まれている

23

𝐻 1(𝑋)𝐻 1(𝑌 )

𝐻 1(𝑋 ,𝑌 )

Page 24: 前回の復習

友人の機嫌と情報量

24

45 1215 28

良 悪勝負

𝑋 𝑌

友人の機嫌を知る前 ...友人の機嫌が良いのを見た後 ...

友人の機嫌が良い ⇒ 試合に勝った?... 友人の機嫌が,試合結果に関する

情報を与えてくれる

「」の確率が 大きくなっている

エントロピーは?

Page 25: 前回の復習

個別値による条件付きエントロピー

のときのエントロピーを以下で定義

前ページの例では

25

𝑃 𝑋 (勝 )=0.57𝑃 𝑋 (負 )=0.43

𝐻1 (𝑋 )=0.99

𝑃 𝑋∨𝑌 (勝∨良 )=0.75𝑃 𝑋∨𝑌 (負∨良 )=0.25

𝐻1 (𝑋∨𝑌=良 )=0.81

bit... 「友人の機嫌が良い」ことを知って解消された不確実さ... 「友人の機嫌が良い」ことから得られる情報量

before

after

Page 26: 前回の復習

友人の機嫌が悪いときは ...

30

26

𝑃 𝑋 (勝 )=0.57𝑃 𝑋 (負 )=0.43

𝐻1 (𝑋 )=0.99

𝑃 𝑋∨𝑌 (勝∨悪 )=0.30𝑃 𝑋∨𝑌 (負∨悪 )=0.70

𝐻1 (𝑋∨𝑌=悪 )=0.88

bit... 「友人の機嫌が悪い」ことを知って解消された不確実さ... 「友人の機嫌が悪い」ことから得られる情報量

45 1215 28

良 悪勝負

𝑋 𝑌

before

after

Page 27: 前回の復習

「平均的」な情報量

「友人の機嫌が良い」確率で発生する事象 bit情報量は 0.18bit

「友人の機嫌が悪い」確率で発生する事象 bit情報量は 0.11bit

の値がもたらす,に関する情報量の期待値は bit ... と の相互情報量

27

Page 28: 前回の復習

相互情報量,条件付きエントロピー

と の相互情報量

28

𝐼 ( 𝑋 ;𝑌 )= ∑𝑦∈𝐷(𝑌 )

𝑃𝑌 (𝑦 )(𝐻 ( 𝑋 ) −𝐻 ( 𝑋|𝑌=𝑦)¿¿

¿𝐻 ( 𝑋 )− ∑𝑦∈𝐷 (𝑌 )

𝑃𝑌 (𝑦 ) 𝐻 ( 𝑋|𝑌=𝑦 ¿¿

「個別値による条件付きエントロピー」の期待値

𝐻1 (𝑋|𝑌 )= ∑𝑦∈𝐷 (𝑌 )

𝑃𝑌 (𝑦 ) 𝐻1 (𝑋|𝑌=𝑦 ¿¿ の による条件付きエントロピー

Page 29: 前回の復習

例で確認

「友人の機嫌が良い」確率

29

条件付きエントロピー bit

bit相互情報量

bit

「友人の機嫌が悪い」確率

Page 30: 前回の復習

条件付きエントロピーの性質(1)

補題:証明:

30

𝐻 (𝑋∨𝑌 )¿ ∑𝑦∈𝐷(𝑌 )

𝑃𝑌 (𝑦 ) ∑𝑥∈𝐷 (𝑋 )

−𝑃 𝑋∨𝑌 (𝑥∨𝑦 ) log 2𝑃 𝑋∨𝑌 (𝑥∨𝑦 )

¿ ∑𝑦∈𝐷(𝑌 )

∑𝑥∈𝐷 (𝑋 )

−𝑃 𝑋 ,𝑌 (𝑥 , 𝑦 )¿¿ ¿

¿𝐻1 ( 𝑋 ,𝑌 )− ∑𝑦∈𝐷 (𝑌 ) ( ∑

𝑥∈𝐷 (𝑋 )

−𝑃 𝑋 ,𝑌 (𝑥 , 𝑦 )) log2𝑃𝑌 (𝑦 )

¿𝐻1 ( 𝑋 ,𝑌 )− ∑𝑦∈𝐷 (𝑌 )

−𝑃𝑌 (𝑦 ) log2 𝑃𝑌 (𝑦 )

¿𝐻1 ( 𝑋 ,𝑌 )−𝐻1 (𝑌 )

𝑃 𝑋∨𝑌 (𝑥|𝑦 )=𝑃 𝑋 ,𝑌 (𝑥 , 𝑦 )/𝑃𝑌 (𝑦 )

周辺化 計算

Page 31: 前回の復習

条件付きエントロピーの性質(2)

前ページの補題:

系:

証明: は,変数 について対称であるため

31

𝐻 1(𝑋)

𝐻 1(𝑌∨𝑋 )𝐻 1(𝑌 )

𝐻 1(𝑋∨𝑌 )

𝐻 1(𝑋 ,𝑌 )

Page 32: 前回の復習

相互情報量の性質(1)

系:証明:より

32

𝐼 ( 𝑋 ;𝑌 )=𝐻1 ( 𝑋 ) −𝐻1 ( 𝑋|𝑌 )¿𝐻1 (𝑌 )−𝐻1 (𝑌|𝑋 )¿ 𝐼 (𝑌 ;𝑋 )

𝐻 1(𝑋)

𝐻 1(𝑌∨𝑋 )𝐻 1(𝑌 )

𝐻 1(𝑋∨𝑌 )

𝐻 1(𝑋 ,𝑌 )

𝐼 (𝑋 ;𝑌 )=𝐼 (𝑌 ; 𝑋 )がについて教えてくれる情報量

がについて教えてくれる情報量

Page 33: 前回の復習

相互情報量の性質(2)

p.18 の補題:p.30 の補題:

33

𝐻1 (𝑋|𝑌 )=𝐻1 (𝑋 ,𝑌 )−𝐻1(𝑌 )≤𝐻1 ( 𝑋 )+𝐻1 (𝑌 )−𝐻 1 (𝑌 )=𝐻1(𝑋 )

系:,等号成立は が独立のとき証明:

Y の値を知ることで,失うものは何もないとが独立なら,の値を知っても得るものはない

Page 34: 前回の復習

相互情報量について,まとめ

右図で表現されていることが全て

たとえば ...相互情報量の計算法は3通りある

34

𝐻 1(𝑋)

𝐻 1(𝑌∨𝑋 )𝐻 1(𝑌 )

𝐻 1(𝑋∨𝑌 )

𝐻 1(𝑋 ,𝑌 )

𝐼 (𝑋 ;𝑌 )=𝐼 (𝑌 ; 𝑋 )

Page 35: 前回の復習

本日のまとめ

エントロピーと,それに関連する概念結合,条件付きエントロピー相互情報量

35

Page 36: 前回の復習

練習問題

: タイガースの試合結果, : 阪神ファンの友人の tweet

36

やったーくやしーくやしー

p.13 のように同時確率の表を書き,周辺確率も求めよp.34 に示した 3 つの異なる方法で,相互情報量 を求めよ