(4)情報量の加法性
 2つ情報を得たとき、その2つを合わせた情報量はどれほどか?、情報の加法性を考えよう。
 
 @情報量が1(bit)増加すると...
 半々の確率で起きる二者択一の質問の答えは
1(bit)の情報量を持っている。見方を変えれば、
 1(bit)の情報があれば、同じ確率で発生する2つの場合を区別できるといえる。

 さらにもう1(bit)情報があれば、さらにその中で2つの場合を区別できる。
 結局2bitの情報があれば4つの場合を区別できることになる。これは、後で学習する二進数の場合、2桁で0〜3の4つの数字を表現できることに対応する。 同様に、3bitの情報は、8つの場合から1つを選ぶことができる。

 情報が1(bit)増す毎に、区別できる状態の数は2倍になる

 


 AA(bit)+B(bit)
「明日雨が降る」という情報と「体育祭は中止だ」という情報の2つを得ても、全体の情報量は各々の情報量の和にはならない。「雨だ」という情報から自動的に「中止」ということを予測できるからだ。

 一方、2つの情報が互いに相手に影響を及ぼさない場合(2つの事象が独立な場合)は情報量の加法性が成り立つ。

 トランプ(ジョーカーを除く)52枚のカード当てゲームをやっている時、
だ」という情報I()と、「エースだ」という情報I(1)の2つを得れば、「ハートのエースを持ってますね」と言い当てることができる。I()+I(1)は、52枚から1枚を言い当てるのに必要な情報量になっているはずだ。
 
 やってみよう  本当にI(かつ1)=I()+I(1)か確かめよう。
1枚のトランプを隠し持っている時、微視的状態は【  】通りだから、
「私はハートのエースを持っています」という情報の持つ情報量は
         I(かつ1)= log    =     (bit) である。
か、か、か、か? どの種類かを言い当てようとすると微視的状態は【  】通りだから、
「私はハートを持っています」という情報の持つ情報量は
             I()= log    =     (bit) である。
         (あるいは「微視的状態の数が52から13に減るから」と考えても同じ)
トランプの数字を言い当てようとすると、微視的状態は【  】通りだから
「私はエースを持っています」という情報の持つ情報量は
            I(1)= log    =     (bit) である。
         (あるいは「微視的状態の数が52から4に減るから」と考えても同じ)
 
情報量の加法性が成り立つのは、対数の基本性質(3)による。
 の4種類があり、それぞれ1〜13のカードがあるので、トランプは全体で4×13=52枚あるのだが、両辺の対数を取ると、
      log52=log(4×13)=log4+log13 となるのは当たり前だ。
 
 例えば、サイコロとコイン投げを同時に行い、「6で表」のように結果を予想しようとすると
6×2=12通りの状態ができるように、 互いに影響を与えない巨視的状態A,Bがあり、各々の微視的状態の数がWとWの場合、両方を混ぜたときの全体の微視的状態の数は W=W×Wになる。
 
 対数の基本公式(3)より logW=log(W×W)=log+log であり、
 
   左辺はWの中から1つを言い当てる時の情報量、
   右辺の各項は、それぞれW、Wの中から1つを言い当てる時の情報量であるから、
   基本公式(3)のおかげで情報量の加法性が成り立つことになる。

統計エントロピーSを対数を使って定義したのは、
「微視的状態の数が1つの時、不確定度が0になり」 かつ 「AとBが混ざった不確定度=Aの不確定度+Bの不確定度」 となるように関数を選んだ結果である。

 
 
演習 以下の場合の自己情報量を計算しなさい。
 @9割方○大学に受かると言われていたA君人が、○大学に落ちたと知ったとき
 A「△大学に合格できるかどうか半々だね」と言われていたA君が、合格したと知ったとき
 B「A君は、9割方受かるはずの○大学に落ちて、半々と言われていた△大学に受かっちゃったよ」
   と聞いたときの情報量

【 情報の量を量る_9 】