タイトルミニ



E.T.Shimizu

トップページへ 


第二章 記憶容量

−− メモリ幻想
   <脳はいかにして巨大記憶を得てきたか?> −−

 人工頭脳が本物の脳を越えられない一つの要素に,記憶容量の壁があります.今回はその実体に迫ってみましょう.

1 人間の記憶方法とは?

 人間の脳は,奇妙な機械とも言えます.
  それは,コンピューターなどが持つ記憶装置の性能と比較すれば明らかですが,その原因は,インデクスの不備にあると思われます.
 記憶内容の保存期間についてはどうでしょうか? 人の年齢を考えれば,記憶内容の100年程度の保存はありえますが,内容についてかなりの変質が見られることは周知で,これもあまり信頼できるとは言えません.
 人間の記憶がコンピューターなどよりすぐれている点は「連想検索」や「曖昧検索」ができることでしょう.
 こう考えてみると,人間のメモリメカニズムは,いわゆるアドレスをインデクスとしていない代わりに,時系列インデクス,強刺激インデクス,類似内容連鎖インデクス,稀少事項インデクス,好悪インデクスなど,内容に関係するなんらかの情報を用いた,特異なインデクス形態をもっていると思われます.
カット1  1949年,ヘッブ(Hebb)は神経細胞が興奮すると,入力部のシナプス結合のうち,ポジティブな刺激を伝えたものは結合強度が増し,さらに刺激が伝えやすくなるという説を唱えました.そしてこれが神経回路に「可塑性」をもたらし,記憶への書き込みのもとになっていると主張したのです.
 この説は,実証されていないので,単に仮説なのですが,ヘッブのシナプス強化則とよばれています.
 1950年代の終りに,ローゼンブラットは人工神経であるニューラルネットワークの原型に当たる,パターン識別機械「パーセプトロン」をつくりました.
 これによると,入力と細胞出力の結合強化だけでなく,逆に出力への影響を弱める要素も含まれていたので,シナプスにおいては,興奮の強化,抑制の強化の履歴が,固定化して記憶されることになり,結果的にヘッブの主張を拡張してシミュレートしたことになりました.
 1973年,BlissとLomoはシナプス伝達効率長期増強(LTP)が海馬で起こることを発見し,これが長期記憶をもたらすと発表しました.一方,長期抑圧(LTD)は小脳で発見されました.
 つまり,パーセプトロンの仮説に対して,現実が後追い発見となったわけです.
 パーセプトロンの次に人工神経として考案された,ニューラルネットワークの学習においても,学習課程で変更されるものは,やはりシナプスにおける信号結合度の重み付けで,結局,脳における記憶の書き込みというものは,この結合度の変更と固定化にあると,現在では想定されています.
 こうして書き込まれた記憶を「思い出す」作業に対して,実細胞にてもインデクスがありませんから,記憶済み固定重みシナプスの入力に,より高階層からのフィードバック(意識等)みたいなものが,何か疑似信号を入れてやって,その出力を受領することで,シナプス上の記憶を間接的に読みとるという仕掛けがあるのではないかと思われます.
 読み出される記憶の内容は,従来はシナプス後電位やその変化で示され,シナプス前部のアクソン端はPDM(パルス密度変調)で示されると考えられていましたが,最近の研究では,類似入力を得た複数細胞の興奮時差が関係する,より伝送情報量の多い,パルス位相変調や,パルス位置変調の考え方を想定した分析的研究が推進されているようです(参照:各種パルス変調方式について).

2 メモリサイズ

  こう考えると記憶と学習は密接な関係にあって,記憶だけ独立に,人間の脳のメモリは「何ビットある」という議論はしにくいですが,無理に勘定したら,どれくらいのサイズ(容量)があるでしょう.
 データ量から推定する方法と,細胞数から推定する方法がありそうです.
 データ量として,人間が採り入れる最大の情報は,視覚情報でしょう.そこで他のセンサーからの情報は等閑視し,視覚情報だけ全部記憶できるサイズを持つまでに発達してきたと仮定して,メモリの大きさを調べてみましょう.
 人間の視細胞の数は,テレビカメラの画素数などから比べると非常に多いように思われますが,それは網膜上の中心窩の部分が高解像度だからで,周辺部のまばらな領域もありますから,全体では単眼で1M画素程度です.
 次に時間分解能ですが,TVでは60画像/秒の提示で,チラツキがなくなりますから,60Hzとしましょう.
 1画素の情報識別能力は,色も含めて10ビットほどです.
 これで,1秒間の採取情報量は,600Mビットになります.
 しかし人間は記憶する時,このような個別の画素の情報を記憶しているのではなく,新皮質のV1領域の「機能モジュール」で画像を「群化」したり「輪郭線抽出」をしたりして特徴を捉え,最後は,「意味カテゴリー」にまで抽象化して記憶していると思われます.
 そこで,その情報縮退率を,約1万としましょう.(例えば,「青空の下,一面の菜の花の中の少女」という情報と,それを描いた実景である,パソコンのVGAのトゥルーカラーの,ビット・マップ画像を比較すると,文字32バイト/VGA画像 で,256ビット/7.3Mビットとなり,1/2万8千 となります.従って縮退率で,10の4乗オーダー程度になります)この縮退で,毎秒の記憶情報量は,60kビットに落ちます.
 次にそれを一生やるわけですが,仮に100年生きたとすると,秒数は約3G秒です.そのうち,寝ている時間を除いて2G秒とすると,記憶情報量は総計,120Tビット(120×10の12乗ビット)となります.
 これが採取情報量からみた,推定メモリサイズです.
カット3  次に,脳細胞の概数から推定してみます.
 脳の神経細胞の数は,140億と言われています.また,1個の細胞から他の細胞のシナプスへの連結数は,平均1000個と言われています.
 したがって,学習可能記憶箇所は,14×10の12乗箇所です.
 1箇所の結合度重み付け精度を10ビット(フルスケールの千分の1が最小変化単位)程度としますと,総計では140×10の12乗ビットとなります.
 これが脳のハードウエアからみた,推定メモリサイズです.
 以上から,人間のメモリサイズを無理に推定すれば,10の14乗ビットのオーダーらしいと考えられます.これは膨大な数字のようにも見えますが,そのほとんどがインデクスがないために,意識的にはアクセスできない死蔵メモリとなるわけです.

3 拡大率

 このサイズのメモリを得るために,生物は何年かかってきたのでしょう? 地球の歴史を45億年とすれば,生命の歴史は40億年ほどになると言われています.この年数を「e」とします.そして現在の脳メモリサイズを「L」とします.
 e年間におけるメモリサイズの拡大率が等比級数的であったとして,平均的拡大率「r」を求めてみましょう.ただし,年率では桁数が無駄になりそうなので,1万年当たりの拡大率「R」を調べてみます.
(従って,e/10000=E とします)
 初項を1ビットとすれば,RのE乗=L から,Rは,1.00008となります.
 つまり,1万年当たり,0.008%だけ神経細胞が増えるという変化があれば,40億年で現在の脳にまで進化することができるわけです.
 この進化スピードが,他の器官の進化速度と比べてどういう位置にああるかは言及できませんが,常識的にはあり得そうな数字であると思われます.

4 限界とアウトソーシング

 人間のメモリは,今後どうなっていくのでしょう.上記のRの率でサイズは増えていくでしょうが,現代社会の取り扱い情報量の爆発的な拡大は,悠長な増加率を許さないかもしれません.
 人間は憶えきれないことは,手帳に書いたりして,それを外部記憶装置として利用してきました.
 その点,電子的外部記憶装置上のデータベースは,インデクスがしっかりしていますから,脳の中のように情報が死蔵されることはなく,それらは有効に活用され,同時に他の人とテンポラリーに共有することができるわけです.この点が,脳内記憶と決定的に差があります.
 ということは,人間はデータアクセスの対象を脳から外にアウトソーシングすることで,拡大率Rと無関係に飛躍的に知的活動が発展する可能性があることを意味します.今日のインターネットブームはその序曲と言えそうです.
 すると,次の課題が見えてきました.
 つまり,外部記憶装置と人間は,どのような高速インターフェースで結ばれればいいのでしょうか? 人間は学習という行程を経ないと,シナプスの結合強度が定着しませんから,このインターフェースはどうしても低速になりがちです.このネックは,異常な情報に即応しない人間側の一種のセキュリティ機能が働いているためとも考えられます.
 今後,これを回避するために,異常情報でないことを前提として,催眠術などによる脳の直接アクセス方法が,まじめに研究されるようになることでしょう.
− 第二章 完 −

トップページへ 


次回は
第三章 人工生命体
−− メタ生命体幻想
   <脳生命体が作る生命体とは> −−
」をお送りします.