Web2.0に関する変な記事

巷間、Web2.0論が喧しいが、これに関する不思議なコラムを見つけてしまった。

筆者は、根本的なところで大きな勘違いをしているようだ。
これが個人のブログなら黙ってスルーしているところだが、マスメディアのコラムとして公開されているのは問題だと思うので、おかしいところを指摘しておこうと思う。


まず、以下のくだりを見て欲しい。

OS というのはそもそも数値データを扱うために作られたものであって、足し算引き算、割り算掛け算はすごく得意だ。その後企業の OA 化が進展し、事務処理にも使われるようになり、テキストデータや DB などを処理するようになった。


(中略)


メインフレームUNIX も、PC も Linux も例外ではない。

OSは、コンピュータ資源(デバイスやCPUタイムなど)を効率良く利用するためのプラットフォームであって、四則演算が得意だというのはひどい勘違い。 それはCPUそのものの仕事でしょう。

メインフレーム(大型汎用機)・PCはハードウェアで、UNIXLinuxはソフトウェアだ。
同列に語れるはずのないものを列挙しているところを見ると、この筆者は本当にIT関係者かと首をかしげてしまう。


結びの「人工知能Web2.0」でも、おかしな主張が展開されている。

最後に、人工知能について触れておこう。


前回、 Web2.0 で Web が人工知能化する、と書いたが、AI(Artificial Intelligence)は一度挫折している。一時もてはやされたが期待通りに発展しなかった。そこで、AI はもう終わったと思われているが、実はそうではない。


AI に問題があったのではなくて、時代が AI についてこれなかったのだ。


(中略)


たとえば、国内でも、2003年に理化学研究所が、 PC を1,024台(2048CPU)連ねて超高速の Linux 並列マシンを富士通から導入したが、将来は、ネットワーク上の CPU を何台でも使うことができるようになり、コンピューティングパワーに関してはもっと制約がなくなるかもしれない。


これは悪くない。あとはロジックの問題だ。

AI研究が行き詰まった理由をコンピューティングパワー不足であるかのように書いているが、これも大きな思い違いである。
コンピュータに知性を持たせるということは、突き詰めれば意識とか自我を持たせることに他ならないが、それが何であるか、我々には皆目分かっていない。 これがAI研究がなかなか進展しない理由である。
人工知能研究の第一人者、マービン・ミンスキー氏(元MIT教授)は「人工知能の実現には、あと300年はかかるだろう」と語ったらしいが、彼の悲観的な見通しは、こうした現状を踏まえたものだと思われる。 ちなみにファジーとかニューラルネットワークといった関連技術は、生体機構を限定的にモデル化したものに過ぎず、とても人工知能と呼べるものではない。


Web2.0では、プラットフォームとしてのブラウザの重要性がさらに増す。 相対的にOSの役割は目立たなくなるが、決して不要になりはしない。
しかしOSは本来「縁の下の力持ち」であって、前面に出てきて自己主張するようなものでもないと思う。 プロやマニアならいざ知らず、世間で「Windowsがどうの、Linuxがどうの」とOSが話題になるというのは、少し考えるとおかしな状況だ。


筆者はLinuxに深く関わる立場であるため、OSの重要性が相対的に薄れてしまうことへの危機感を持っているようだ。 それに思い違いが加わって、以下のような過剰反応をしてしまったのに違いない。

これまでコンピュータシステムの中心だった OS が、まったく違うものに変貌するかもしれない、という状況に、60年以上にわたって OS を基本技術として考えてきた既存の IT 関係者は、もっと驚いていいはずだ。なぜ驚かないのか。事態を理解できないのか。