(4)情報量の加法性
2つ情報を得たとき、その2つを合わせた情報量はどれほどか?、情報の加法性を考えよう。
@情報量が1(bit)増加すると...
半々の確率で起きる二者択一の質問の答えは
1(bit)の情報量を持っている。見方を変えれば、
1(bit)の情報があれば、同じ確率で発生する2つの場合を区別できるといえる。
さらにもう1(bit)情報があれば、さらにその中で2つの場合を区別できる。
結局2bitの情報があれば4つの場合を区別できることになる。これは、後で学習する二進数の場合、2桁で0〜3の4つの数字を表現できることに対応する。 同様に、3bitの情報は、8つの場合から1つを選ぶことができる。
情報が1(bit)増す毎に、区別できる状態の数は2倍になる。
AA(bit)+B(bit)
「明日雨が降る」という情報と「体育祭は中止だ」という情報の2つを得ても、全体の情報量は各々の情報量の和にはならない。「雨だ」という情報から自動的に「中止」ということを予測できるからだ。
一方、2つの情報が互いに相手に影響を及ぼさない場合(2つの事象が独立な場合)は情報量の加法性が成り立つ。
トランプ(ジョーカーを除く)52枚のカード当てゲームをやっている時、
「  だ」という情報I(  )と、「エースだ」という情報I(1)の2つを得れば、「ハートのエースを持ってますね」と言い当てることができる。I(  )+I(1)は、52枚から1枚を言い当てるのに必要  な情報量になっているはずだ。
やってみよう 本当にI( かつ1)=I( )+I(1)か確かめよう。
1枚のトランプを隠し持っている時、微視的状態は【 】通りだから、
「私はハートのエースを持っています」という情報の持つ情報量は
I(  かつ1)= log 2 = (bit) である。
 か、  か、  か、  か? どの種類かを言い当てようとすると微視的状態は【 】通りだから、
「私はハートを持っています」という情報の持つ情報量は
I(  )= log 2 = (bit) である。
(あるいは「微視的状態の数が52から13に減るから」と考えても同じ)
トランプの数字を言い当てようとすると、微視的状態は【 】通りだから
「私はエースを持っています」という情報の持つ情報量は
I(1)= log2 = (bit) である。
(あるいは「微視的状態の数が52から4に減るから」と考えても同じ)
情報量の加法性が成り立つのは、対数の基本性質(3)による。
 の4種類があり、それぞれ1〜13のカードがあるので、トランプは全体で4×13=52枚あるのだが、両辺の対数を取ると、
log252=log2(4×13)=log24+log213 となるのは当たり前だ。
例えば、サイコロとコイン投げを同時に行い、「6で表」のように結果を予想しようとすると
6×2=12通りの状態ができるように、 互いに影響を与えない巨視的状態A,Bがあり、各々の微視的状態の数がWAとWBの場合、両方を混ぜたときの全体の微視的状態の数は W=WA×WBになる。
対数の基本公式(3)より log2W=log2(WA×WB)=log2WA+log2WB であり、
左辺はWの中から1つを言い当てる時の情報量、
右辺の各項は、それぞれWA、WBの中から1つを言い当てる時の情報量であるから、
基本公式(3)のおかげで情報量の加法性が成り立つことになる。
統計エントロピーSを対数を使って定義したのは、
「微視的状態の数が1つの時、不確定度が0になり」 かつ 「AとBが混ざった不確定度=Aの不確定度+Bの不確定度」 となるように関数を選んだ結果である。
|
演習 以下の場合の自己情報量を計算しなさい。
@9割方○大学に受かると言われていたA君人が、○大学に落ちたと知ったとき
A「△大学に合格できるかどうか半々だね」と言われていたA君が、合格したと知ったとき
B「A君は、9割方受かるはずの○大学に落ちて、半々と言われていた△大学に受かっちゃったよ」
と聞いたときの情報量
|