分散処理から集中処理へ・時代のトレンドを読む





本日はトリ頭・たるさんが、無謀にもコンピュータ処理形態の トレンド転換点を予想してみた。

題名を見て、「あわてもんのたるの奴、また表題書き間違えやがったな!」と 思った方も多いのでは無かろうか?  普通だったら「集中処理から分散処理へ」と書くのがトレンド通である。 でも、この表題で間違いではない。 例によって放談形式の大風呂敷である。 しばらくの間、戯れ言にお付き合いいただきたい。

☆たるさんの大疑問!? グリッドコンピューティングの時代???   
今パソコンのネットワーク結合が話題を集めている。 あまた世界に散らばるパソコンの力を結集してスパコンと化す、 グリッドコンピューティングと称する技術が大流行なのである。

コンピュータ間をネットで結び処理を分散
ありがちな図ですね〜。

ここでまず、自分自身の勉強も兼ねてグリッドコンピューティングについて 簡単に説明してみよう。グリッドコンピューティングとは、ネットワークを経由して 接続されているコンピュータに処理を分散させることで、 あたかもスーパーコンピュータを使用しているかのような演算能力を手に入れる 処理方式である。

例えば、有名なのはSETI@homeである。 そこでは最盛期300万台以上のパソコンがネットワークで緩結合されて使用されていたという。

こうすることで、安価にスパコンの演算性能を実現し、かつ、 各ノードの遊休リソースを有効活用するわけである。 これは広帯域なネットワークが拡がってきたことで、初めて可能になったといえる。

時代のトレンドは「分散処理」と「ダウンサイジング」と言われているので、 これは時代のトレンドにマッチした流行のスタイルと言えるだろう。

事実、今や今後のコンピュータの開発を左右する存在になったかのようだ。 実際、大手コンピュータメーカーやCPUメーカーも開発に乗り出した。

特にサーバー分野で顕著であるのだが、猫も杓子もグリッド、グリッドと 経文を唱えるかのごとくである。 グリッドコンピューティングとは、集団催眠術の一種なのだろうか?

☆空間起源のレイテンシを甘く見てはいけない!   
ところが、冷や水を浴びせるようだが、たるさんはグリッドコンピューティングに かなり冷ややかな目を向けているのである。 何故だろうか?

実は、グリッドコンピューティングでは遠隔地に置かれたコンピュータを 広帯域ネットワークで結ぶという方式自体に問題があるのではないだろうか? と思っているのである。

ネットワーク結合の場合、最近の技術の進歩で伝送帯域は非常に 大きくなっている。ADSLでも1Mbps以上はザラだし、 FTTHなら個人でも理論上は100Mbpsが可能だ。 業務用専用線なら、さらに上をいくだろう。

ところが、このネットワークを考える時、今まで問題にならなかった レイテンシの問題が大きくのしかかってくるのでは無かろうか?

例えば、メモリでは、その性能を「バンド幅」と「レイテンシ」で表す。 しかし、ネットワークの場合、多くは「帯域」(メモリではバンド幅に相当) のみが強調され、「レイテンシ」は故意に無視されている。

さて、ではネットワークのレイテンシとはどれくらいになるのだろうか?

例えば、ネットワーク結合されているコンピュータの平均ノード間距離が 10kmだったとしよう。 この時のレイテンシは、

ホスト側のネットワーク機器のレイテンシ+伝送遅延+ ゲスト側のネットワーク機器のレイテンシ

で表される。

仮にホスト・ゲストのネットワーク機器のレイテンシは無視できるとしよう。 しかし伝送遅延は、仮に真空中を信号が伝搬するとしても
10km/300000km/s=33.3μs
となってしまう。

実際にはメタルラインや光ファイバーが使われるわけであるから、 実効伝搬速度は真空中の光の1/2〜1/3となってしまう。

しかも、一番肝心なところだが、これは原理上高速化できない点が 非常に問題なのである。なぜならば、光より高速な信号伝搬手段は 原理上存在しないからである。

ある処理をノードに依頼する場合、最短でも数十μsの遅延が見込まれるとしたら、 依頼する処理の規模がよほど大きくないと、レイテンシ遅延で 足が出てしまうのでは無かろうか?

密結合の場合、PU間でやりとりされる情報のレイテンシは PU間の有効稼働時間を決める最重要な因子である。 半導体遅延のレイテンシは技術で解決可能かもしれない。しかし、原理上解決不能な 空間起源のレイテンシを決して甘く見てはいけないのである。

☆集中型システムの時代   
では、空間のレイテンシを無くするためには、 どのようにシステムを構築すればよいのであろうか?

それには、ネットワーク結合の距離を短縮するより方法がない。 すなわち、一極集中型の集中処理システムである。

ユーザーが単一のスパコンにぶら下がる形態
昔のデータセンター的な使い方

たるさんは、以前 予言の中間決算&鬼が笑う予想 において、10年後のPCを予想した。 それは、以下のような予想だった。

−たるさんの鬼が笑う予言−
10年後のPCは、携帯ライクなモバイル情報端末となる。パソコン本体はスーパーコンピュータから演算能力をレンタルする方式となるであろう。


つまり、コンピュータ自体は一極集中のスパコンであり、 分散処理から集中処理への回帰である。 ネットワークで結合されているのはコンピュータ自身ではなく、 人間のためのマンマシン・インターフェイス部分である。

コンピュータによる一連の処理の中で、一番高レイテンシが許される部分とは どこであろうか? それはマンマシン・インターフェイス部分であろう。 人間の頭脳のクロックはせいぜい数十Hzなので、 遅延は数ms程度まで許されるからである。

実際には50Hz(関西では60Hz)で明滅 (明滅周波数は電源周波数の2倍だが...) している蛍光灯が人間の目には 常時点灯しているように見えるように、 あるいはモニターの同期周波数が85Hz以上になると 普通の人間はちらつきを感知できなくなるように、 人間は脳のクロック以上で変化する事象を感知できないからだ。

たから、レイテンシのリスクを負わせるとしたら、 それはマンマシン・インターフェイス部分でなければならない。 (人間の知覚情報量・処理能力に限界がある以上、 この部分を伝送部として利用しない手はない。)

人間の知覚情報がネットを走っている限り、空間レイテンシ問題は 発生しないのである。

また、今後の伝送情報量の爆発的増加にも理由がある。

PU間の伝送情報量は処理が複雑になればなるほど増える。 つまり、グリッドシステムを利用したが最後、ネット上の 伝送情報量爆発が発生することは避けられない。

もちろん、ネットの許容伝送量も同時に進歩するから、 これで直ちにネットが破綻する訳ではない。しかし、 将来的にはネットの帯域とグリッドシステムの伝送情報量との イタチごっこが続くことは容易に想像できる。

ではここで、人間の知覚情報を伝送した場合を考えてみよう。

人間が知覚できる情報量は「現在のネット帯域より」 大きいから、現状ではこの方法は不向きとされている。

しかし、技術の進歩により人間の知覚情報量を上回るネット帯域が コモディティーツールとして実現されれば、 これ以降はネットの情報量爆発破綻におびえずにシステムを構築できるのである。

マンマシン・インターフェイス部分の情報を伝送する方式ならば、 ネット上の帯域はある一定量以上は必要ないのである。

つまり、人間が知覚すべきモニタの画像情報やキーボード・マウスの情報が ネット上を飛び交い、PUノード間のデータは走らないのが時代の本流であると 考えるのである。

このように、「ネットワーク結合」による 「分散処理」システムという形態は演算パワーを集中させる 結合方式には向いていないと考えるのである。

また、「ダウンサイジング」も必要な処理をより小さいシステムで 運用できるようになったから可能となった言葉である。 そもそも、処理の規模が大きくなって ネットワーク間で処理を分散しなければならないとしたら、 もう「ダウンサイジング」とは言えない。

なぜならば、「分散処理」以外に「大規模システムによる一括処理」 という選択肢も十分考えられるからである。

時代のトレンドである「分散処理」も「ダウンサイジング」も、 もう死語として時代の波に呑まれる転換点に来ているのでは無かろうか?

☆分散システムは集中システムの内部で生き残る   
では、未来の集中処理システムというのはどのような形態を言うのであろうか?

実は、分散処理というのは集中処理システムの内部で生き続けると、 たるさんは考えている。

見た目は集中システムだが内部は実はグリッド型
グリッドシステムは目に見えない形で生き残る。

同じ事が最新CPUで起こっている。 みなさんに一つ質問を出してみよう。 最新のパソコンCPUは「CISC」だろうか? それとも「RISC」だろうか?

Pentium4やAthlonXPといった最新のCPUは、x86命令というCISCに特徴的な 可変長命令を実行しながら、内部はRISCコアで動いている。 だから、「RISC」でも「CISC」でも正解である。 このような2面性を意味する「CRISC」という造語すらあるくらいだ。

実は、最新CPUはRISC対RISCという分類が意味を成さないほど 新たな段階に進化している。あえて言うなら、 命令セット的にはCISCで、アーキテクチャ的にはRISCということだが、 どちらでもない進化形というのが正しい解説になるのかもしれない。

では、この事実を念頭に、未来の集中処理システムの中身を考察してみよう。

パソコン界ではデュアルCPUでさえ少数派だが、 スパコン分野では単一CPUでの高性能コンピュータというのは 死語になりつつある。現代の高性能コンピュータには、 必ず複数のPUが内蔵されている。それは、ある意味で近距離密結合の ネットワーク分散処理システムとも言えるシロモノだ。

つまり、空間のレイテンシを乗り越えるためには集中型で無ければならないが、 そのコンピュータ内部では集中型は処理能力の限界という点で逆に不利であり、 分散処理型のアーキテクチャである必要があると言うことである。

そう、CRISCと同じ論理で、 「内部分散処理型だが外見は集中処理アーキテクチャ」とでも いうべき形態が本流となると、たるさんは予告したい。

小さなPUを多数結合したシステムが距離的に極近い場所に集中設置され、 見かけ上一つの集中処理システムとして運用される。 いわゆるデータセンター的な使い方を予想するのである。

☆グリッドコンピューティングには明らかな限界があるのでは?   
グリッドコンピューティングであるが、決して万能薬ではない。 それどころか、粗結合がうまく機能する粒度の荒い処理以外では うまく潜在能力を発揮できないのではないか? という懸念をたるさんは持っている。

ここ最近、分散処理・ダウンサイジング・インターネットといった 中身の薄いキーワードがコンピュータ界を席巻した事もあって、 それらに合致するグリッドコンピューティングという 言葉が一人歩きしているかのように思う。

しかし、グリッドコンピューティングは決して時代の覇者足り得ないと、 たるさんは予告しておきたい。 分散処理はマシン内部のお話で完結し、昔ながらの集中処理システムが リニューアルして時代の花形になる予感がするのである。

今後、一時的にグリッドコンピューティングが拡がる事が予想される。 しかし、これは既に各地に分散してしまった コンピュータ演算リソースの集散を行うための苦肉の策であると思われる。 その集散を制御下に納めた後はグリッドコンピューティングの欠点が露わになり、 以後、グリッドコンピューティングは緩慢な死を迎えると予想する。

たるさんは、時代のトレンドは「分散処理から集中処理へ」だと確信している。