コンピュータが次々と間違える時代。   

2016年11月12日



☆秋葉原は息抜きの基本地   
まずはいつもの余談から。

PCパーツショップの衰退傾向によって息抜き困難な状況なので、 (かなり前の話ではあるが)観光地に行ってみた。 行き先は、帰省途中に寄り道した豊橋市。

ここには岩屋観音という風景の良い山地がある。 山を登ってみると、下記写真の通り豊橋市が風景良く楽しめる。

豊橋というと観光地として特に有名という訳では無いが、 行ってみるとこの風景は素晴らしい。 良い意味での予想外れはラッキーだ。

息抜き狙いに帰省の途中に豊橋市に寄り道してみた。
岩屋観音にも行って、山の上から豊橋市を見下ろしてみた。

ただ、当サイトは高所恐怖症人間であるので、 景色の遠景は素晴らしいのだが、上り下りで息抜き効果が消えてしまう傾向もあった。 素晴らしい観光地ではあるが...このために息抜き効果がちょっと減少。

と言うわけで、追加の息抜きを考えていたのだが... 当サイト的息抜きと言えば、やはり秋葉原がその原点。 会社業務で成果が出せないストレスとかに対する息抜き効果は、 お祭り見学旅行も高いのではあるが、やはり秋葉原が高効果である。

別件で東京に行く機会があったので、秋葉原にも行ってきた。
秋葉原駅のすぐ隣にある当サイト的原点の一つ、ラジオセンターで息抜き。

また、秋葉原自体にも内部に原点がある。 当サイト的秋葉原原点として、今回はラジオセンターを紹介しておく。 ここは自作PC系ショップでは無いが、自作PCが流行る前に当サイトが 扱っていたのは、小学生時代に合格したアマチュア無線。 これらの関連品を扱っているのはラジオセンターが主流派だ。

もちろん、PCパーツショップも次々と訪問。 秋葉原でも店舗数は減っているが、秋葉原は前回紹介の大須よりも規模が大きいので相対的には店舗数が多い。 なので、それでも息抜き効果はまだ大きいわけだ。

大須ではもう数店なのだから息抜き効果は薄いが、 店舗数が減っているとは言え秋葉原ならばまだ十分な息抜き効果が得られる店数が残っている。 秋葉原には感謝ですね。(お礼の意味も込めてPCパーツ買ってきましたよ。)

☆悪い予想だけはよく当たる。   
今回の件なのだが、当サイトの予想力はどうだったのだろうか?

当サイトでは予想を色々書いているが、当サイトの予想には特徴がある。 それは、良い予想は当たらないが、悪い予想は当たるという傾向があることだ。

以前、当サイトでは2002年頃に約10年後(つまり2012年)のPC衰退傾向を予測していた。 また、その原因がタブレットの急速な普及によるものとも予言していた。 (当時はタブレットという言葉すら無かったので、当サイトではタブレットを 「携帯ライクなモバイル情報端末。」と書いていた。) 当時は数十年もPC市場が拡大を続けており、市場規模が縮小したことは一度も無い状況だったので、 このブラックな予想が的中すると思っていた人はほとんどいなかった。 しかし、この予想は当たってしまった。

で...今回もまた悪い予想が当たってしまった。

それは、 ラスト関東を楽しむ日 という去年4月の掲載記事で「人工知能が現代版ヒトラー、スターリンをサポートする危険」 という指摘をしていたことだ。

人工知能には良心という概念が無いから、ディープラーニングを行うときに指導者が ファシストならばファシズムを教え込む事になる。 この懸念は深刻だ。

だが、今回の件はマイクロソフト製人工知能に対する嫌がらせとして ファシズム系ディープラーニングを行っていたことだ。 これは、嫌がらせとしては最悪な状況ではあるが、 ファシズムで世界制覇するために行われていたわけでは無い。 マイクロソフトのイメージを悪化させる嫌がらせが目的だったわけだから、 最悪の状況が発生する可能性をファシスト自身が行う前に判明したという、 「不幸中の幸い」の一面がある。

要するに、ディープラーニングにおいてはファシズムの導入が行われないように 対策を検討しないと大問題が発生するという問題点があるが、 実際にファシストが行う大問題となる前に嫌がらせレベルで発生したわけだ。

☆善悪の観点をディープラーニングにどうやって投入するか?   
と言うわけで、ディープラーニング最大の問題点は良否の判定ができないという点にあると考えている。

ディープラーニングは取り入れた情報の傾向を最適に見いだすには適しているが、良否の判定はゼロである。 与えられた結果の傾向を見いだすことに注目しているが、データ判断は無条件で無矛盾と判定されているのである。 (データに矛盾関係があっても、人工知能を教育する管理者の判断は無条件で正しいと判定。) これを数学で例えるならば 「管理者が1+1=3と判断すれば、それは正しい。」と判断しているわけだ。

数学的に判断できない難しい関係を傾向として取り入れるわけだから、 ディープラーニングは囲碁で人間のトップに勝ってしまっている。 しかし、1+1=3が成り立たないのと同様に、ディ−プラーニング上でも 成り立たない条件の象徴がファシズムである。

複雑な条件であっても無条件で成り立たないファシズムをディープラーニングに 認識させる方法はあるのだろうか?  また、無いのならばそれを認識させるメカニズムは発明できるのであろうか?

この問題の壁は「数学的な判断ができない。」という点にある。 たとえば、1+1=3が成り立たないことは ディープラーニング上で違法者がいかに「1+1は3だ!」と主張しても 矛盾しているとコンピュータに判定させることは今後はすぐに可能となる。 だが、ファシズムが大問題である事は「哲学」や「価値観」の問題であって、 「数学」や「アルゴリズム」の問題では無い点にある。

もちろん、大前提条件として「いかなる論理であろうともファシズムは矛盾条件である。」 と前提条件として入力する事で対処する方法は考えられる。 これは誰も気づく対処方法であろう。

しかし、この方法の場合、単語としての「ファシズム」でしか認識できないので、 ファシズムでは無い事を言いつつ実質的にファシズム的行為を行うべきという意見が 入力が行われると、ディープラーニングした人工知能はやはり実質的にファシズム化してしまう。 つまり、「哲学」や「価値観」は数学的な概念とは異なり、 客観的に正しいという項目では無いのだ。

人間には各個人にいろいろな本心があって、これを一定の個人に対する優先を達成させないという 共通感がファシズム化を阻止できる最優先事項ではあるが、これだけでは 「多数決で51%の人々が49%の人を奴隷とすると判断すれば、その判断は正しい。」 という判断は阻止しにくい。 これも阻止するためには数学的には無意味な「哲学」や「価値観」の内の どれが正しいかをどうやって判断するかという大問題がある。

☆数学的には証明できない分野に対して、どうやって正しい判断を行えば良いのだろうか?   
では、数学的な純論理のみでは間違いである事を証明できない事項を間違いであると証明するためには どう判断すれば良いのだろう。

当サイトの意見は、概念と結果の評価事項だ。 人工知能では価値観の判断は原理上不可能と認めて、価値判断を人間が行いディープラーニングに入力する。 具体的に言うと、ファシズムが間違いである事を無条件な最重要優先事項として登録する。 ディープラーニングの判断事項の項目として数値化を対等とはしないで、 パラメータ関係を数値化する事が効果的と思う。 (「単語」ではなく、「関係」の上下関係として登録する事が、その意味である。)

意味の上下関係を「関係」の上下関係として登録する事は、 「価値観」としては数学的には正しい概念では無い。 しかし、ファシズムの問題点も民主制の正義感も、 純粋数学的には全く意味の無い概念である事を認めなければならないと思う。 (「ファシズム」は悪概念ではあるが、これをどんな項目でもすべからく悪と考えるのは 一見正しいようでそうでは無い結果論だというのが当サイトの考え方だ。)

じつは正確に言うとこれは人間でも正しく判断できているわけではない。

現状の世界状況で例えてみよう。 北の某国では共産主義が完全に正しい概念と判断して、 選挙においては共産党以外の政党が立候補することは違法行為となる。 (見かけ上は他党もあるが、それは共産党の指示下の政党で、共産党に反する行動はできない。) しかし、当サイトの意見で言わせてもらえば、これはヘゲモニー政党制というごまかし制度であり、 実質的にはファシズムと同レベルの概念である。 他党の立候補を違法化することで、自党以外の勝利を無くしてしまうことが本心と考えているからだ。

共産党政権下での他党立候補禁止はどう考えても間違いの概念と言い切れる。 だが、いくら自分のこの意見に自信があっても、逆にこの自分の意見を某国の共産党に強要して 他党立候補許可を強要すれば、当サイトの個人的な意見を国会以外で法改正するわけだから、 このやり方では当サイト自身がファシズム化してしまう。

つまり、この場合の良否判断は(政党側の国民への意見強要化無しの状況下で行わなければならないが) 公正な多数決で行うべきだと言わざるを得ない。

とすれば、この概念をディープラーニングに挿入するとどうなるか?

つまり、一定の悪概念信奉者による教育を行うのでは無く、 一定の意見についてディープラーニングが行われた場合には、 人工知能自身に国際的全領域での最多数意見を探索させ、 特定教育が傾いているかどうかを判断させる事だと思う。 ディープラーニング内容の全世界的平均概念での共通性探索が問題解決方法だと思うのだ。

ディープラーニング教育を受けたら教育内容をネットで探索し、 教育内容が全世界的に正しいと判断されている内容かを調べる。 全世界的な平均値として正しいと判断されていたら正しい内容と認めるが、 そうでは無い場合は「法的に」正しいかどうかを追加調査する。 (たとえば、民進党概念は議員総数的に判断すれば現状の国会議員数では間違いとなってしまうが、 これが議員数だけで間違いと判断する事自体が間違った考え方なので... 「法的に」とは国会議員数ではなく、憲法を基準とするべきた。)

もっと言えば、人工知能にディープラーニングする場合、 ディープライニング内容を認めるか拒否するかの判断事項を設定し、 無条件で教育内容を受け入れないようにする。 そして、その判断事項をどう設定するかというと、 ディープラーニング内容の受け入れと拒否の判断教育として、 まず最初に「受け入れと拒否の判断のためのディープラーニング」を憲法文章の通知で行う。

憲法内容とディープラーニング内容のどちらが正しいかの判断基準は関連人員数とする。 ディ−プラーニング教育意見者数が憲法文章の国家人員数を超えた場合のみ、 ディープラーニング側が正しいと判断させる。

こうしておけば、憲法教育を初回ディープラーニングされた人工知能は ファシズムのディープラーニングを間違いと認識して拒否できるようになる。 (また、この判断が間違いとなる可能性は限りなくほぼゼロであろう。)

この条件すら突破して人工知能をファシストにするためには、 民主主義の人員数よりも多い数のファシストがディープラーニングに関与しなければならない。 これが成立するのは国家自体が実質的にファシズム化している北の某国位のものである。 (しかも、某国の場合でもおそらくは国民の本心では無く、政権による意見強要の効果であろう。)

☆コンピュータも次々と間違える時代となった。   
それにしても、コンピュータというと正確解析の代表例であるが、 ディープラーニングはコンピュータも次々と間違える可能性の時代を作り上げている。 通常のコンピュータは指数関数的に可能性が増える状況には対処できないが、 ディープラーニングがこれに対する対処を可能とした。 しかし、その反面として、絶対に正しいコンピュータの結論が、 人間よりましとはいえ、次々と間違える状況を作り上げている可能性が高い。 (まぁ、人間の判断事項から読み出しているのだから、ディープラーニングの判断ミスは 人間の判断ミスの延長線上を意味してはいるが...)

人間の判断では、個人の判断よりも多数決の判断の方が正確度が高いというのは、社会学の定説である。 おもしろい話として、A案とB案のどちらが正しいかという問題を複数の人間に問いただしたとき、 各個人が別々に問題を解いたときの正答率と、全員が出会って相談した上で各個人が回答記入したときの 正答率では、後者の方が正答率が上がるというのが社会学の学会定説である。

ディープラーニングで発生した「ヒトラー正しかった」という見解は、 特定の問題児の意見を聞き続けているから発生した問題である。 つまり、社会的な多数意見の優先や、意見交換後の新意見の優先を取り入れる 新型ディープラーニングシステムの構築が問題点解消の方向性だと認識している。

ただし、この方法は現状のディープラーニング問題点を減らすことは間違いないが、 100点満点の解消法ではない。コンピュータというと完全に正確な計算機というイメージがあるが、 ディープラーニングはコンピュータも次々と間違える時代を作り出しているのである。

人工知能はコンピュータの人間化だ。 絨毯爆撃的な全解析では計算量が指数関数的に爆発して深い予想を行う事ができない。 しかし、人工知能はこの状況下でも解析をできるようにはした。 だが、計算ミスを一切しないコンピュータが、次々と計算ミスをするようになるという デメリットも作り上げてしまった。

最近、急速に進化するようになった人工知能。 人工知能の急速進化を成し遂げたディープラーニング。 しかし、ディープラーニングは急速進化するメリットを成し遂げた後、 進化の壁が急速に発生し、進化速度が一定点から急速に低下するというデメリットも 含んでいる事を強く指摘しておきたいと思う。

急速に進化し、急速に進化が飽和する人工知能。 その進化の壁は人間の知能レベル。 これが人工知能を教育するディープラーニングの限界点であり、 良否2面の極限状況であると思う。

当サイトの予想には当たる予想と当たらない予想がある。 だが、この予想...自分自身では絶対的に高い信頼度の予想と考えている。

ディープラーニングは人間を定量的には乗り越えるが、定性的には同レベルが限界点であり乗り越えられない。 囲碁のように論理的な面だけが判断基準で、価値観には意味が無い場合は極限な強力化を進められる。 だが、人間社会的な判断を行う場合は急速に進化の壁が発生する。

人工知能と言いながら、人間の判断が不要な分野ほど人工知能の効果が大きくなると思う。 通常の意見とは逆の意見だが、人の意見では無く数値的解析が判断基準な分野ほど人工知能が 人間を上回る成果を出せる分野となる。

ちょっと不思議な判断と思われる方が多いだろうが...これが当サイトの今回の結論である。

☆次回ネタはスパコン関連の再掲示。   
さて、では次回は何のネタを書こうか?

前々回のスパコンネタではTOP500の問題点を指摘した。 しかし、問題解消法を具体的に記入する事はなかった。 というわけで、問題解消方法を思いつけば、次回ネタはスパコンの新型TOP500評価について具体案で書いてみたい。

人工知能ネタに関しては... 急速に進化した今回の状況に対して、 当サイトでは急速に進化の限界点に達して進化停止が発生すると予測した。 この壁の発生は1年後にはプロの意見が掲載されるようになるだろうから、 1年後にはこの予想が当たったか外れたかも掲載することを約束しておこう。

ちなみに、当サイトではムーアの法則の飽和も予想して記入してきた。 当サイトの記入記事では、「良い予想は外れるが、悪い予想は的中する。」という傾向がある。 ムーアの法則終了も、悪い予想は的中するという傾向の象徴である。

と言うわけで...全然当たらない「良い予想」を的中できる時代に進化できるように勉強する。 これが当サイト最大の進化目標ですな。

良い予想が当たる時代...これが当サイトが狙うべき方向性だ!



誤記入改訂です。「ムーアの法則の飽和」を「アムダールの法則の飽和」と誤記入してしまっていました。 すみませんでした。