Diary

Ichiro Satoh

もともとは研究用ソフトウェアの開発履歴に関するページだったのですが、開発関連よりも雑談の方が多くなったので、2001年分から別のページを用意することにしました。リンクは勝手にしてください(でもリンクしたい人なんているのでしょうか)。

最新版
一覧

 

2009年6月30日

Microsoft関係者のブログによると、同社がシカゴにつくった新しいデータセンターの電力消費量が最大で60MWだそうです。仮に日本に作った場合、どれぐらいの電気代になるか計算してみましょう。東京電力の事業所向けの場合、だいたい1kWhは10円強ですから(ひとまず個別割引を考えない)、仮に1kWh=10円として、消費電力が60MWhということは年間の電気代は60,000kWh*24h*365日*10円=52億円となります。つまりデータセンターというのは電気代がとってもかかる産業であることがおわかりいただけると思います。

さて米国の電気料金ですが、大口用は個別契約なので算定が難しいのですが、日本の産業用電気料金の1/3程度なので、高く見積もっても米国では年間電気代が17億円。つまり日本に、クラウドコンピューティング用などの大型のデータセンターを建設しても、電気代負担だけで大きく不利になっています。ちなみにMicrosoftのシカゴデータセンターのPUEは1.22だそうですので、エネルギー効率は最上級。一方、日本の場合、地震対策上の水冷を多用することは難しく(昨日も書いたようなチップレベル水冷だと別でしょうが)、PUEはあがります。その結果、電気代はさらにかさむことになります。そのうえ建設費も地震対策や建築関連法などの制約から、建屋は日本は米国の2倍程度は費用がかさむといわれています。また、エネルギー効率をあげるにはある程度は大きなデータセンターを構築する必要があります。しかし、例えば60MW級の給電をするにはそれ相応の発電所と送電設備が必要となります。高圧送電塔が建てにくくなっている状況では、大型の工場の跡地でもないと大規模なデータセンターに見合う給電は無理なわけで、エネルギー効率が高いデータセンターを作ろうとしても場所探しで苦労する可能性があります。

国内では国産クラウドコンピューティングという声が出ていますが、国内でクラウドコンピューティング用インフラを持ちたいという御心情は察しますが、経済的に合理性があるかは別問題です。Google、Amazon、Microsoftは大型データセンターを設備費も運用費も最大限に効率化して覇権争いをするでしょうから、そのなかで設備費も運用費も不利になる日本のデータセンターがやっていける可能性は残念ながら極めて少ないといえます。割高なクラウドインフラを作っても、サービスも利用者も逃げてしまうので、無用の長物になりかねません。

2009年6月29日

IBMは空冷好きで有名でしたが(正しくはSystem/390の大型機種あたりまでは水冷だったのですが、大型機もバイポーラからCMOSに移行したあたりから、空冷に移行)、同社のスパコンAquasarでは水冷にするようですね。もちろんいまどきスパコンの水冷は珍しくないのですが、その多くは空冷の空気を冷やすために水冷をつかっており、チップレベルまで水冷(チップを直接水冷)にしているものは多いとはいえない。おそらく冷却効果としては空冷でも大丈夫なのでしょうが、エネルギー効率を考えると水冷式にいくしかないのかもしれません。なお、最近のハイエンドPCでは水冷は珍しくないのですが、これらは消音化が導入理由でエネルギー効率を考えているとはいえず、またサーバ単位の冷却と、Aquasarのようにスパコン全体で水冷管理とはレベルがやはり違います。

さて、ここで考えおかないといけないのはスパコンだけではなくデータセンター用サーバにも、チップレベルの水冷が波及するか。ご存知のような海外のデータセンター、特に新しいものは、ラックやコンテナまで冷却水を流し込んで、ラックやコンテナのファンに流れる空気を水冷して冷却効率をあげているところが多くなっています。このため大量の水が必要だったのですが、チップレベル水冷になれば水量は僅かになります。この結果、エネルギー効率は格段によくなるのですが、その影響は日本のデータセンターにおいて非常に大きい。というのも日本では地震があるので、地震による水漏れが発生するとコンピュータ類を壊す恐れがあり、水冷式がエネルギー効率的が有利になるのがわかっていても、空冷式を使うしかありませんでした。しかし、チップレベル水冷になると話は違ってきます。チップレベル水冷では冷却用の水量は僅かになりますから、地震による水漏れしてもデータセンター全体に影響が出るような状況は少なくなることが予想できます。

データセンターを含め空冷の場合、大きな部屋にまばらにサーバを配置しても冷却効率をよくなく、むしろ熱くなる機器を狭い空間に集中的に設置して、大量の冷えた空気を流すのが効率的とされます。これを具体化したもののひとつが、最近流行っている物流コンテナー型のサーバ群方式だったのですが、チップレベル水冷となると、物流コンテナーのサーバ群方式は時代遅れになるかもしれません。いずれにしてもデータセンターの作り方は根本的に考え直さないといけないのでしょうね。

例えばGoogleなどはコンテナー内にサーバのマザーボードを横向き(地面に対して平行)にして積み重ねていますが、この設置方法でチップレベル水冷にすると上層のサーバで水漏れがおきると下にあるサーバにも被害が及ぶので、ブレードサーバに見られるようにマザーボードを縦置き(地面に対して垂直)にならべることになると思います。また、各ボードの冷却水の循環器接続は標準化の動きが始まると思います。国内ではいわゆる霞ヶ関クラウドなど政府によるクラウドインフラの構築が話題になっていますが、先日も書いたようにインフラ作りよりもサービスに投資して欲しいし、どうしてもインフラに拘るのならば、インフラ構築そのものに予算を使うよりは、まずはクラウドコンピューティングを構成するデータセンター用サーバに対して、先の地震による水漏れ対策などの日本に向いた標準化を進めて、日本向けで使えるサーバの調達コストを下げることに注力して欲しいです。

あまり注目されていないニュースのようですが、今後のデータセンターを占う上では重要なニュースだと思いますがね。

2009年6月28日

急遽、論文作成。いろいろたいへんです。休日出勤の合間に国立近代美術館で欧州工芸&デザイン展。アールヌーヴォーとアールデコあたりの作品を中心に急ぎ足で鑑賞。通好みの小作品ばかりだからでしょうが、最終日でしたがガラガラ。そのあと夏時間の庭という、アールヌーヴォーとアールデコのオブジェが出てくるフランス映画をみたので、アールヌーヴォーとアールデコばかりの日となりました。この映画ですが、すっかりわすれていましたが、今年のフランス映画祭のエントリー作品では目玉的な作品でしたが、映像作品に目指すのか、深い心理描写を目指すのかのどちらかにすればよかったかもね。

2009年6月27日

この一週間、政府のクラウドを睨んだ協議会とか研究会が設立されたようです。いったいどれだけあるのでしょうかね。国産インフラを作ること自体が目的にならないといいのですがね。当方もこうした動きにまったく無関係というわけではないのですが、インフラありきになっているところが多そう。ありがちな議論は「(クラウドコンピューティングは) 海外に遅れているから国産インフラを作って巻き返そう」という話。海外勢が安くインフラ提供してくれるのならば、それを安く使えばいいだけだと思います。海外クラウドインフラの危険性が心配ならば、それを安全に使うための技術や法整備を議論すべきなのですが、「国産」という言葉が入ると思考停止してしまうのでしょうかね。

それとなんでも「クラウド」と名前を付けたがります。一昔前の「ユビキタス」と同様に流行言葉をつけると予算がとりやすいというのが背景にあるわけですが。「クラウド」という言葉も拡大解釈に拡大解釈が重なって、本当に雲のように意味不明になっていくのでしょう。

また、こうした協議会や研究会では、クラウドコンピューティングによって既存の情報システムがとって代わられるかのような話をされる方が多い(もちろん、組織的なしがらみなどで確信犯的に話している人はいいのですが、本当に信じている人がいるので困ったものです)。仮にクラウドコンピューティングが普及するとしても、クラウドコンピューティングで実行されるアプリケーションやサービスは、(既存のアプリケーションやサービスとは違った)まったく新しいアプリケーションやサービスになるのではないでしょうか。これは過去の例をみればおわかりいただけると思います。例えばWebシステムで提供されているアプリケーションやサービスは、メインフレーム時代にはなかったものですし、ワークステーション時代にもなかったものが多い。逆にメインフレームはいまでも使われています。そして現有するメインフレームにおける処理はPCサーバで処理できるとは限りません。つまりプラットフォームはメインフレーム、ワークステーション、PCという変遷があったのですが、それぞれのプラットフォームで使われているアプリケーションやサービスは必ずしも重なっていませんし、古いプラットフォームもしっかりと生き残っています。つまり仮にクラウドコンピューティングが普及しても、既存の情報システムがなくなることはないでしょうし、クラウドコンピューティングが提供するアプリケーションやサービスはわれわれが今知っているものとは違ったものとなるはず。

クラウドコンピューティングが普及するにしても、今までと同じアプリケーションやサービスではつまらないではないし、ましてインフラは新しいアプリケーションやサービスを作るための手段にすぎません。最近のクラウドコンピューティングの報道や議論をみていると、いつのまにか目的と手段が入れ替わってしまった卒論や修論のプレゼンを聞かされているような錯覚にとらわれます。クラウドコンピューティングはせっかく新しい計算システムなのですから、新しい計算システムに似合う新しいアプリケーションやサービスの考えるべきですよね。分散システムの研究をしてきた者としてはクラウドコンピューティングというとインフラ側に興味がないかといわれると否定はしませんが、でも主役はインフラではなくてサービス。インフラ側に固着していると先に進めません。

2009年6月26日

朝からプレゼン、打ち合わせ、講演。千代田区内とはいえ移動の多い一日となりました。最後の講演先では投影用のプロジェクターはデバイスドライバーが自動的にPCにインストールされるタイプ。Macintosh(MacBook Air)を持ち込んだし、さすがにディスクが128GBということもあって、Windowsはインストールしておらず、先方のPCを借りることになってしまいました。もっともWindowsだからといって簡単に接続できるというわけでもなかったようですが。

打ち合わせはクラウドコンピューティング関連。ここでは詳細は書けませんが、政府も国内メーカもインフラをやりたがりますし、メディアもインフラの記事ばかり。でもPCがソフトウェア次第なのと同じで、クラウドコンピューティングもサービス次第なのです。まして価格競争になるであろうインフラにいまから手を出すことはないと思いますけどね。

当方の立場でいうと怒られますが、なんでもネットワーク接続という時代ですよね。便利な場合もありますが、もっと直感的につながる方がいい場合もありますね。それで思い出したのですが、ネットワークを介したプロジェクターの制御にPJLinkというプロトコルがあったと思いますが、どうなったのでしょうか。対応しているプロジェクター自体は結構あるようですがね。PJLinkですが、一言で説明すると、工場などの業務用機器でありそうなナイーブな通信プロトコル。ただ、逆に言えば卒論生でもプロジェクトのソース切り替えなどの制御用クライアントアプリがつくれそうですし、またメディアアート系の人だと遊べるかもね。

2009年6月25日

予想通り徹夜仕事となりました。ところで数ヶ月前に某大手新聞社は自社ビルを建てて、当方のオフィスに近づいたので、歩いていくのには便利になったのですが、今度はソフトバンク系の某大手Webメディアから、その某新聞社の隣のビルに本社を移転するというお知らせ。某新聞社と同様にオフィスからみえる新築ビルなのですが、家賃が高そうなビルに移転ですね(もっとも新築なのに空いていたということでしょうが)。Web系ニュースメディアって儲かるのでしょうかね。数年前にやはり某大手Webメディアがオフィスの至近に移転してきて、さらに某新聞社系大手Webメディアもオフィスから至近。もともと大手出版社の多い界隈でしたが(例えばこことか、ここね。ちなみに両社ライバルに見えますが、前者後者の親会社)。だんだんニュースメディアに包囲されてきているような気がしないでもないです。そうそう隣にある大きなビルから某大手会社から出て行って(少し残っているようですが)、一ヶ月ほど前に代わりに国内でクリネックスとスコッティを作っている某大手製紙会社の本社が入りました。

2009年6月24日

ともかく忙しいです。二徹となりましたが、今夜も徹夜仕事になりそう。そうそう遅ればせながらGoogle Waveで遊んでいます。ただ、機能的には既存のCSCWツールの域を超えているかというちょっと疑問。もちろん、全部の機能を調べたわけではないので、即断はできませんが。

正直いって、感心したのはGoogle Waveそのものよりも、Google Waveがプラグインなどに頼らずWebブラウザの機能だけで実現していることだったりします。ここまでWebブラウザに拘る必要があるのでしょうかね。プラグインを使えば簡単にできるにね。それにしてもWebブラウザってなんのでしょうか。以前はHTMLで書かれたハイパーメディアの見るためのソフトウェアという位置づけでしたが、Google系で例にとるとGmailをみていると、メイルソフトウェアを立ち上げるラウンチャーという位置づけですし、Google WaveのようにWebコンテンツが一昔前のアプリケーションの機能をもっているということは、WebブラウザをOSとみることもできます。ただ、その一方でユーザはWebブラウザを使っているという意識がうすらぎ、最終的にはWebブラウザが見えない存在になっていくのかもしれません。また、実装上からもWebブラウザとそれ以外の境界線は薄らいできていると思います。Webブラウザ自体のGUIもWebコンテンツとして定義されるでしょうし、Webブラウザを動かすOSのGUIもWebコンテンツとして定義されるでしょう。そうなるとどこからがWebブラウザで、どこからがWebブラウザではないかはユーザも開発者も意識する必要もないし、実装上も区別できなくなるのでしょうかね。

2009年6月23日

まるで知らなかったのですが、UNIX Magaineは最終刊だそうですね。さて学生時代はUNIXではど真ん中のど真ん中のような研究室にいたので、UNIX自体についても当時は貴重だったソースを読める環境にいましたし、UNIX Magaineはあたまりまえのようにありました。

さてUNIXの方はというとLinuxを含めるとテレビからスパコンまでありたとあらゆるところで使われていますし、この文章もMacOS XというUNIXの末裔のひとつで書いていたりします。でも一方でUNIXの誕生は1960年代。UNIXがOSとしていまだに広く使われているというのは、ある意味でOSというはコンピュータの機関部分が進化していないというみることもできます。もちろん聡明期のUNIXと今のUNIXは内部構造は大きく違うとはいえ、その根底の考え方は同じなわけで、これでいいのかなぁと思ったります。つまりコンピュータの技術は停滞しているか、それともすでにいくところまでいってしまって進歩の余地がないのかということになってしまいます。当方のようにUNIXで育った人が時代について行けなくなるぐらいになってほしい。それはそれで困るわけですが、そうなるぐらい進歩していてほしいと思ったりもします。もちろん研究者としていうべきことではないのですがね。ここ何年かは情報系の学科や専攻は学生さんの人気がないのですが、そのひとつの理由は上述のUNIXをはじめとして、ある程度、キャリアのある技術者や研究者の方が有利というのがあると思います。

2009年6月22日

まずはオフィス、すぐに慶大に行って大学院の授業。急いでオフィスに行って戻って出張中に発生したもろもろの仕事の後末。それから打合せ。なんか目がまわりそう。そうそう先週のParis出張の中に撮った写真をここ(リンク)におきました。夜の写真以外は帰国する日(20日)の16時頃まで町中をうろうろして撮影。もっとも夜は夏至の直前で、Parisは10時近くまで明るかったので、どの写真が夜なのかは撮った本人も写真を見る限りではよくわからなかったりしますが。

2009年6月21日

たまには明るい話題を書けといわれるので、ちょっとだけ。すごく意外に思うかもしれませんが、個人的にはクラウドコンピューティングは日本向きだと思っています。クラウドコンピューティングがバズワードで終わるのか否かは、クラウドコンピューティングにより提供されるサービスにかかっているはず。魅力のあるサービスがあればクラウドコンピューティングを使うでしょうし、なければバズワードとして終わるだけです。もちろん、ご存知のように何十万台のサーバを保持する一部の米国企業(Amazon, Google Microsoft)に大きな差をつけられています。おそらく今から勝負を挑んでも勝ち目はないでしょう。ただ、でもクラウドコンピューティングで重要なのは、クラウドインフラではなく、クラウドインフラ上で提供されるサービスです。そしてそのサービスの開発については日本は向いているかもしれません。

昨日書いたパッケージソフトウェアとちがってサービスは日々改良がもとめられます。パッケージソフトウェアと比べると、サービスはある程度、ユーザにあわせて提供することが求められますし、業務の普遍化が苦手な国民性でも通用するかもしれませんし、きめ細かい心遣いが得意とされる国民性とあいまって、サービス開発向けに向いているといえます。また、SOAが普及しない理由とも関わりますが、SOAやクラウドコンピューティングのようにサービスが別のサービスを利用するような状況では、後者のサービスの変更があったときに前者のサービスも後者の変更に併せて変更しないといけないために、サービスは日々改良が求められることになります。つまり長期にわたって開発者を雇わないといけなくなります。開発者の雇用期間が長い日本でもサービスでもなんとかなるかもしれません。ということでちょっとは明るい話でした。もちろん、楽観的なことはいえないのですが、それでもパッケージソフトウェアと比べると、クラウドコンピューティング上のサービス開発は相対的にいいようにも思います。(いまからでは勝負にならない)クラウドインフラは米国に任せて、クラウドインフラのうえのサービスにそろそろフォーカスしてもいいのではないでしょうか。

最近は霞ヶ関方面でクラウドインフラを作る構想が進んでいますが、インフラ作りよりもサービス開発にフォーカスした方がよっぽどいいし、iPhoneのアプリのように海外にサービスを売る仕掛けを作った方がいいと思います。クラウドコンピューティングは規模の経済といいますが、規模の経済が一番効くのは、インフラの構築・管理コストの低減よりも、サービスの販売数の方ではないでしょうか。

2009年6月20日

ジャストシステムの創業者&社長が退任したそうですね。ジャストシステムといえばパソコン聡明期からの日本のパッケージソフトウェアの雄。パッケージソフトウェアはたくさんあったのですが、パッケージソフトウェアの規模が大きくなるとともに、中小のパッケージソフトウェアは淘汰されました。さらにパッケージソフトウェア市場は海外勢に押されており、国内独自の業務に特化したパッケージソフトウェア以外は風前の灯火という状態。

日本がなぜパッケージソフトウェア開発に弱いのかについてはいくつかの理由があると思いますが、個人的には下記が敗因になるのではないかと思っています(もちろんこれだけではないですが)。

パッケージソフトウェアは業務の標準化・普遍化が大前提ですが、属人的な業務が多い日本では、パッケージソフトウェア以前に業務の標準化・普遍化が進みませんでした。業務の標準化・普遍化への需要のない環境ではパッケージソフトウェアの需要は大きくないですし、そんな環境で開発されたパッケージソフトウェアが海外で通用するはずもないし、むしろ日本のパッケージソフトウェアは個別最適化を進めてしまいました。

また、パッケージソフトウェアの開発というのは資本集約型産業であって、日本がお得意の労働集約型産業ではないです。なぜパッケージソフトウェアの開発が資本集約型産業かというと、短期間に多くの人を集めて短期間に開発することが定石。というのもパッケージソフトウェアは特定ユーザの用途に合わせて開発するものではないことから、多数のユーザを集めるには多数のユーザの要求をカーバーするだけの多機能にすることが運命づけられます。この結果、パッケージソフトウェアは開発工程数は多くなるのですが、ライバル製品よりも機能が多い製品が選べれることが多くなることから、機能拡大競争でライバル製品に勝たないといけません。このため資本力で、いかに多くの開発者を集めて人海戦術で開発することになります。

パッケージソフトウェアは開発が終了してしまえば、あとはメンテナンス作業だけなので人は少なくいい。このため海外のパッケージソフトウェアの開発では、たくさんの開発者を集める、そして短期間に開発して、開発が終了すると開発者は他社にうつることが多い。しかし、日本では人材の流動性が乏しく、解雇も難しい。従って、パッケージソフトウェアの開発に必要な人材を集めることも難しいし、パッケージソフトウェアの開発終了後も開発者を解雇するのも難しい。このため、国内のパッケージソフトの開発は少人数で長時間の開発になりがち。これでは機能競争で海外勢に勝てるはずがないです。なお、最初の業務の標準化・普遍化が不得意というのも、解雇が難しく、雇用が長期化することが背景にありますから、結局、人材流動性の欠如が最大の敗因かもしれません。

2009年6月19日

ワークショップで講演です。複雑系とコンピュータサイエンスの研究者によるインフォーマルな会合なのですが、結構、大物が集まっていてびっくり。今後の研究トレンドを占うことができたのでわざわざいった甲斐はありました。最近は大きな国際会議は完成された研究発表の場になってしまったので、新しい研究トレンドを知るにはインフォーマルな会合のなかで選んででるしかないのですよね。コンピュータサイエンスという枠にはまってしまうと、予定調和的な研究ばかりなのですが、枠の外側をみると、(コンピュータサイエンスの研究者からみると新鮮というのを差し引いても)結構おもしろい研究が多いのですよね。コンピュータサイエンスが変われるとすると内側からではなく、外側からの変化かもしれません。それにしてもパリはやっぱりいいですね。

2009年6月18日

複雑系の研究所で打ち合わせ。パリ第5区でもパンテオンの裏の方、ほとんど13区というあたり。講演は明日からなのですが、EU予算絡みで打ち合わせ。夜はパリオペラ座でKarol Maciej Szymanowskiのオペラ「ロジェ王」を鑑賞。初日ということで結構、着飾った人がおられました。さて出来ですが、終わると同時にブーイングの嵐となりました。音楽的にはよかったのですが、演出と舞台セットがダメで、台無しにしていました。指揮は日本人指揮者のKazushi Ono、ロジェ王の役はバリトン歌手Mariusz Kwiecien、女王(Roxana)の役はOlga Pasichnyk、ロジェ王の従者のテーノール歌手Stefan Margita、羊飼いのテノール歌手Eric Cutlerの出来はよく、特にOlga Pasichnykは声質がもよく、役にあっていました。ただ、演出と舞台、衣装は過激さを狙ったのですが、結果的に作品主題をあいまいにしていました。演出をしたWarlikowskiがカーテンコールで舞台挨拶に立ったのですが、ものすごいブーイングとなりました。側にいたロジェ王役のMariusz KwiecienがWarlikowskiを一生懸命に慰めているのが印象的でした。

2009年6月17日

移動です。夜はパリの国立現代美術館(ポンピドー)。2月に行ったとき以来。常設展示が大幅にいれかえ、解釈ができないような過激な作品を取りそろえており、さすがですね。企画展はKandinskyでしたが、さすがにポンピドーですね、クオリティも量も桁違い。

2009年6月16日

今週はパリに出張です。ところで出張前ですが、手持ちのAndroid携帯電話を学生さんに供出。個人的にはいろいろ遊んでみたかった、つまりプログラミングしてみたかったのですが、さすがに時間がないし、これで学生さんがしっかり研究してくれればその方がいいでしょう。Android携帯電話は、携帯電話というよりも、カーナビを含む組込端末の将来を予想するのには重要ですからね。ただ、実際に開発されている方に伺うと、最適化の沼に落ち込むと端末依存性が高くなかなかたいへんなようですがね。その意味ではiPhoneの方がアプリケーションプログラマーにとっては扱いし、ひとつアプリケーションがそのまま動く端末の数という点で市場性が大きいともいえます。

さてオリンパスは新型デジタルカメラを発表しましたね。たしかに往年ペンFを彷彿させるデザインですね。次はOMシリーズっぽいデジタル一眼レフか、XAでしょうか。ここまでハーフサイズフィルムカメラのPEN-Fを意識するなら、ハーフサイズフィルムカメラをならってCCD/CMOSを縦向きに配置してもおもしろかったかもね。絶対にないとは思いますが、当方の場合は横向き写真よりも縦向き写真の方が多いのでそれなりに需要があったりします。ちなみにスケッチをする場合も縦向きが多かったような記憶があります。

2009年6月15日

午前中は慶大の大学院授業。さて所用で久しぶりに渋谷・神南から神宮前に移動することになったのですが、空き店舗が増えましたね。ファンション系、そのなかでもいわゆるセレクトショップが多い界隈ですから、不況の影響をまともに受けているのでしょうね。ユニクロに代表されるようにファーストファッション化が進んでいますし、そのファーストファッションのクオリティと品揃えもあがっている状況では、セレクトショップの存在意義が下がってきますよね。低価格路線か、ニッチマーケットのどちらかしかないかもしれませんね。

ところで今日はオリンパスが往年のオリンパスPENのフィロソフィーをもつマイクロフォーサーズ機を発表するということでしたが「弊社都合により」日程変更だそうです。なにがあったのでしょうかね。さてカメラに多少の知識ある方ならば常識的なことですが、オリンパスPENはハーフフィルムカメラの代表的なカメラシリーズ(ちなみにハーフフィルムカメラというのは半分の大きさの写真を撮るカメラで、24枚撮りフィルムなら48枚撮れる)。そしてそのハーフフィルムカメラの画角はフォーサーズカメラの画角と同じなので、ハーフフィルムカメラとしてはフォーサーズはフルサイズとなります。ただ、オリンパスPENの好きの人は思い入れが強いですから、リコーがフィルムカメラGR1のリコーGR-1のデジタルカメラ版のGR-Digitalを出したときのように、GR-1好きの方々から文句が出たようなことにならないといいのですがね。

そうそう昨年、国際会議に行ったときに、ひさしぶりにオリンパスPENをさわらしてもらう機会があったのですが、ずっしり重いのにビックリしました。それにしてもコンピュータ屋はフィルムカメラ好きが多いですよね。ちなみに当方はオフィスにフィルムカメラを3台隠し持っています。ニコンFM3A、(コシナの)Zeiss Ikon、ミノルタCLEというとだいたい趣味がわかってしまいますね。

2009年6月14日

昨日はちょっとGoogleよりに書きすぎたのですが、HTML 5の新機能のうち昨日書いたWeb Storageに加えて、Web Sockets APIWeb Workersあたりも大化けしそう。おそらく今年後半はクライアントサイドの話題はHTML 5を中心にまわるのではないでしょうか。もちろんクライアントサイドだけでなく、サーバサイドにも影響を与えるわけですがね。ところでGoogleは以前、提唱していたGoogle Gearsはどうするつもりなのでしょうね。というのもHTML 5で導入されるWeb StoreはGoogle Gearsと同様にWebブラウザ側で、クライアントサイドデータストレージを狙っていますし、重なる部分が多いのです。Googleのかけ声でGoogle Gears向けの開発に向かった方々はその開発資産はWeb Storeに使い回しが効くと思いますが(両者はよく似ていますから)、Googleにはしごを外れたように思っている人も多そう。

それから昨日はJavaScriptのことを書いたのですが、JavaScriptの次期標準化(いわゆるJavaScript 2)は混乱状態ですよね。歴史的な経緯でJavaScriptはECMAで標準化活動をしています。ECMAScript 3.1というJavaScript 2に向けた標準化が進んでいるかと思えば、突如、ECMAScript 4という標準化がでてくる始末。ちなみにECMAScript 3.1というのがMicrosoftやYahoo!を推進していて、ECMAScript 4というはAdobe、Google、Mozillaあたりが推進しています。さすがに分裂はまずいと思ったのか、ECMAScript 3.1をベースにECMAScript 4の拡張点を取り込むという形でECMAScript Harmonyという統合案が出てきていたのですが、2ヶ月ぐらい前にECMAScript HarmonyはいつのまにかECMAScript 5という名称になっています。当方もさすがに追えなくなっているのですが、現状としてはこんな理解でよろしいのでしょうかね。ECMAScript 5で落ち着いてくれるといいのですがね。

2009年6月13日

「WebブラウザのOS化」がいわれています、昨日書いたGeolocation APIも以前ならばOSが提供すべきローレベルAPIをWebブラウザが提供するという側面があります。また先月開催されたGoogle I/OではGoogleがいうところのHTML 5の機能としては、Webブラウザ上の次の6つに言及しています。(1) Canvas: ブラウザ上で容易に2次元グラフィックを描画、(2)Video: Flashなどのプラグインなしに動画の埋込み、(3) O3D: 高精細3次元グラフィックを表現可能なJavaScriptライブラリ、(4) Geolocation API (利用者の位置情報の取得、(5) Web Workers: スレッドやプロセスのバックグラウンド実行、 (6) App cache and database: オフライン時や回線が不安定な際に利用可能なキャッシュとデータベース。いくつかの機能は本来OSが提供すべき機能なのですが、それらをWebブラウザが提供するということはWebブラウザのOS化というのは妥当な表現なのかもしれません(GoogleはWebブラウザ=コンピュータといっていますが)。

ここで気になるのはJavaScriptの記述対象が変わってきていることです。これまでのJavaScriptがHTML用お手軽スクリプティング言語という位置づけでしたが、システム記述言語としても使われることになりそうです。例えばGoogleのいうところのHTML 5における機能のためのローレベルAPIはJavaScriptから使うことを前提になっています。こうなってくると例えばAdobe FlashやSilverlight、Java(特にJava FX)は3者でリッチコンテンツの勢力争いをしていますが、JavaScriptに多くを奪われることは想定さます。また、組込システムなどのCやC++などでアプリケーションを書いている世界も、HTML 5相当のWebブラウザさえあれば、GUIや簡単なシステム的な処理もJavaScriptで記述するということも多くなるでしょう。その意味ではシステムプログラマーと呼ばれている人たちもJavaScriptでプログラミングすることは多くなりそう。

もうひとつ気になるのはOSの今後。特にクライアント用のOS。OSの世界は良くも悪くも保守的。1960年代に最初のバージョンが開発されたUNIXがいまだに健在という世界ですから、OSはそう簡単に変わるわけではないですが、それでもOSの上で動くアプリケーションの動向は無関係ではない。Webブラウザ側でローレベルAPIを提供するようになると、クライアントに限るとOSはWebブラウザの実現に必要なさらにローレベルAPIだけを提供すれば十分ということになるかもしれません。OSの進化の方向性が予測できないと、その上で動くミドルウェアやアプリケーションの進化もわかりませんから、将来のOS像の予測できるか否かは、この世界で生きていくには必須の能力だったりします。

将来のOSを占ううえでヒントとなるのはPalm Preに搭載されるwebOSかもしれません。実際、Google I/OでもwebOSが紹介されたそうですが、webOSではアプリケーションはすべてHTMLとJavaScriptの組み合わせで作られており、さらにwebOS側のGUIもHTMLとJavaScriptで定義されており、音楽再生もカメラ操作もJavaScriptを介して行われるそうです。つまりwebOSは、WebブラウザがOS化というよりもむしろOSがWebブラウザ化していることかもしれませんね。もちろんPalmのwebOSがヒットするかはわかりませんが(現状の技術ではレスポンス性能が確保でないでしょう)、クライアントOSはwebOSに近いものになっていくのではないでしょうか。個人的にiPhoneやAndroidにいまひとつ興味が沸かないのもこの点でして、これからはアプリケーションをObjective-CやJavaなどのシステム記述言語で開発する時代ではなく、HTML+JavaScriptでアプリケーションを開発する時代になるだろうと思っているからだったりします。もちろんエンドユーザという立場から見ればiPhoneもAndroid端末もほしいのですが、ソフトウェアの研究に従事するものとしては、最新のソフトウェアと最新のソフトウェア開発手法や実行環境を追い続けなければいけないわけで、先祖返りしたようなiPhoneやAndroidのアプリケーションの開発や実行環境は現状の技術としては妥当なのはわかっていても、研究者としての興味という点ではいまひとつなのですよね。

2009年6月12日

オープンハウスの2日目。今日は目玉の講演などがなかったために来場者は少なめだったようですね。午前中は総務省の用事で出かけることになりましたが、11時過ぎからオープンハウスの説明要員。

ところで来場された方からこのページのことを聞かれました。Blog形式にしないのですかというもの。実はこれまでもリンクができないというクレームもよくいただいております。いくつかのCMSを使ってこっそりとBlog形式版を作ってみたこともあるのですが、どのCMSも使い勝手的にしっくりこないのです。それと国研の研究者として宣伝がいっぱいの無料のCMSを使っていいのかという問題もあります。また、こうしたページは一日単位で書いてあることよりも、何日間の議論の流れの方が、書いている本人の考え方がわかると思っているので、現在のままにしています。というわけで確信犯的にBlog形式にしていないということは御理解いただきたいです。ただ、Google App EngineなどのPaaS系クラウドコンピューティングを使ってBlog用の自分専用CMSシステムを作ってみたいという気がないわけではないのですが、その開発時間がありますでしょうか(実はApp Engineの手習いを兼ねて作ろうとしたのが独自CMS。でも結局、完成せず)。それはともかくCMS、特にBlogシステムはPaaSのキラーアプリケーションのひとつになると思いますが、いかがでしょうかね。

いずれにしても、脈絡もなく、勝手なことをいっているこのページを多くの方にお読みいただいて光栄のかぎりです。そもそも、このページはソフトウェアの開発履歴から始まったのですが、いつのまにかその目的から離れてしまい、いまは自分の考えをまとめるために書いておくメモという位置づけです。だからその時点で興味があること、考えていたことを書いているだけ。ただ、それとこうしたページをもっていると、最新のことを書かないといけないので、最新トレンドを追うという辛い作業にモチベーションを与えてくれます。実際、技術トレンドの移り変わりが早い、情報系で研究者をして生きていくのには最新トレンドを追い続けなければいけませんから。

それとクラウドコンピューティングの研究をされているのですか、という質問も何人かの受けたのですが、その回答はむずかしいです。当方自身はクラウドコンピューティングには興味がありますし、クラウドインフラの仕組みにも興味があります。ただ、クラウドコンピューティングの主役はクラウドインフラではなく、クラウドインフラの上で動くサービスだと思っていますし、結局、魅力のあるサービスが登場しなければ、クラウドインフラをどんなによくてもブレークすることはないでしょう。というわけでクラウドコンピューティング上のサービスの開発・管理技術です。ただ、この研究はある程度、目処が立ったところでお話しすることにさせてください。また、コンピュータサイエンスを含めてアカデミアの研究者というのは世界のトップになるか、それ以外であり、そしてトップ研究者以外に存在価値はありません。クラウドインフラの研究で世界でトップになれるか、というとクラウドインフラ事業者側の研究者の方が圧倒的に有利なので、トップに立つのは難しいのです。また、クラウドインフラはコモディティ化されたPCを組み合わせて作られていますが、その構成技術もコモディティ化されるのは意外に早いと予測しています。

このページを毎日更新していてたいへんですね、という旨もいただいのですが、その場で答えたように、実は毎日書いているわけではなく、メモ書き的に10日分ぐらいをまとめて書いてあって、そのときどきに応じてメモを選んでちょっと加筆してを掲載しています。だから週に一回ぐらい1時間ぐらいを時間をかけますが、それ以外の日は10分も時間をかけていません。というわけで明日分を今日のうちにいっしょに掲載しちゃいます。

2009年6月11日

オープンハウスの一日目。人が多かったですね。ありがたいのですが、説明する方は結構ハードだったりします。夜は各国大使館関係者の対応のお仕事もありましたしね。オープンハウスは明日もありますが、当方は外出の用事もあまりいられないかもね。それから昨日の予想通り昨晩は徹夜となりました。そのうえGoogle App Engine上に仕込んでいたデモは不具合が残っていますし、いろいろたいへん。

今日、オープンハウスで来られた方とも話題になったのですが、Geolocation APIのこと。Geolocation API自体は昨秋に出てきた技術ですが、Google I/Oでフューチャーされたので話題になるのかもしれませんね。当方はというと、研究的にも位置情報を扱うシステムは関わっていましたし、ISOのReal Time Locating Systemsの規格にも関わっており、Geolocation APIについては他人事というわけにはいかない立場だったりします。研究的にはWebブラウザで位置情報を扱うというのは、これまで多くの研究者が努力をしてきた分野でして、例えばURLに位置に関するマクロ変数をいれて、プロキシー上でそのマクロ変数を位置の情報に書き換える方法や、一般のアプリケーションやシェルスクリプトでも位置情報を扱えるようにするために(UNIXの)環境変数に位置情報をいれるようにしたりと涙ぐましい努力がたくさんありました。

個人的にはGeolocation APIは携帯電話を含むポータブル端末ではいろいろ活用されるだろうと思っていますが、研究として位置情報に依存したサービスの実現システムを作っていた立場でいうと、地図上に現在位置を表示するようなコンテンツであればまだいいのですが、位置情報に応じて自動的にコンテンツそのものを変更するようなサービスの場合、テストがたいへんというのが経験だったりします。テストでは想定されるありとあらゆる位置情報を擬似的にいれてWebブラウザの内容をチェックするのですが、それでもテストケースが増えることには変わりがありません。つまり位置依存サービスは凝れば凝るほどテストが難しくなり、緯度経度情報をいれればとりあえず何か表示してくれる、Google Mapsのような地図上に現在位置をマップする程度のコンテンツしか出てこないような気がします。もちろんあっと言わせるような位置依存コンテンツやサービスが出てくるとおもしろいと思っていますがね。

というのも立場上、位置依存コンテンツ・サービスに関する論文をさくさん査読しています。ただ、どの論文もありがちなのですよね。だいたい典型例があって、位置に応じた検索とか、位置に応じたゲームとか、位置にメモや写真を残すとか、位置に応じたBGMサービスとか、位置に応じたSNSとか。そんなの誰でも思いつくって。そして誰でも思いつくサービスは誰かがすでにやっています。もちろん、それでも実装がしっかりしていれば救いようがあるのですが、だいたいプロトタイプレベルなので救いようがない。また最近、査読をしていて特に閉口するのは、商用サービスがあるのに新しいサービスを思いついたと主張する投稿論文がいっぱいあること。研究している本人は本気で新しいサービスだと本気で信じているようなので、哀れというか、痛々しいのです。いま手持ちの査読論文で言うと、(Wikipediaなどのデータベースをもとに)位置に基づく情報表示や、位置情報を使ったライフログ。例えば前者はT-Mobileが商用サービス(Wikitude)を始めています。もちろん商用サービスとそっくりサービスを学術研究ですること自体を否定しませんが、二番煎じだったらきっちり実装・運用してから論文にしてほしいです。

サービス系の研究はそのサービスの提供が難しい時代が華。サービス提供が簡単になったら商用サービスに任せて撤退するのが鉄則。例えば以前は位置の取得自体が難しかったので、位置情報をサービスに取り入れるだけで新規性が出せました。いまのように位置センシングも当たり前、前述のGeoLocation APIのようにプログラミングも容易となっている時代は、商用サービスの時代であって学術研究のテーマにする時代ではないです。また、加速度センサーが安価・小型化されたので3,4年前に加速度センサーで人間行動を把握するという研究がブームになった時期があります(いまだに研究されている方もおられますが)。でも研究するならば加速度センサーがまだまだ高かった頃に加速度センサーで想定されるサービスを研究しおくべきで、誰でも加速度センサーが使える時代に加速度センサーが使った研究をしても、人と同じ研究するだけ。学術研究は学術研究として役割や立ち位置がありますから、商用サービスが技術的やコスト的な問題からまだ対応できない分野にフォーカスしないといけません。というわけで当方も位置依存サービスの研究からは手を引きました。

2009年6月10日

お客様の多い日となりました。さて勤務先は明日からオープンハウスです。当方はポスター展示をしますが、まったく準備していない状態。というわけで今晩は徹夜確定となりました。それにGoogle App Engine上にデモを仕込んでいるのですが、こちらも間に合いますでしょうか(さすがに自信がなくなってきました)。

2009年6月9日

新しいMacBook Proが発表されました。個人的には×です。だってバッテリの取り替えができないから。カタログ値では7時間バッテリ持つそうですが、欧米の飛行機+前後の地上移動ではノートPCを広げて仕事をし続けるという当方としては(欧米の米は滅多にないのですが)、バッテリを取り替えられないと困るのですよね。ただし、こっそり見積をとったりしていても、何も言わないように。そうそう手持ちのMacintoshのうち一部のOSをアップデート。新しいWebブラウザSafariは確かに速い。JavaScriptは十分体感できるほどの速くなっています。ただ、消費メモリが多いという特徴も変わっていません。いまどきメモリはいっぱいあるのでしょうが、Firefoxと比べると3倍ぐらいメモリ大食らいという感じです。

2009年6月8日

昨晩は徹夜仕事で眠い中、早朝出勤。それから慶大理工にいって大学院授業。いそいでオフィスに戻ってもろもろの仕事です。ところで、伺ったところでは某学会の組込システムのセミナーは一回目が開催されたそうですが、一回目は無料にしたのにも関わらず、参加者は100人集まらなかったそうです。このセミナーの6回目の講師だったりするので他人事ではなかったりますがね(セミナーが打ちきりにならなければいいのですがね)。

さて当方自身は組込システム系のセミナーなどで講演を頼まれることは多いのですが、研究としては組込システムは避けてきました。もっと正しく言うと組込システムと一般の情報システムのあいだの技術的な差異がよくわからないのです。だから組込システムに特化した研究をするメリットがわからないのです。組込システムに関わられている方と話をさせていただくと、組込システムの特殊性を強調する方が多いです。個人的には組込システムの特殊性を強調するあまり、組込システムと他のシステムのあいだに境界線を作ってしまい、それが一時の組込システムエンジニア不足に原因になったような気がします。もちろん、ミッションクリティカルなシステムの場合は、一般の情報システムと違いがありますが、コンピュータはコンピュータですから、一般の情報システムとの本質的な差異は少ないのではないでしょうか。。例えば上述の某学会のセミナーの概要を読んでいると、一般の情報システムで問題になったことが、数年遅れで組込システムでおきているという印象をもってしまう人も多いでしょう。きわめて個人的な印象ですが、組込システムとそれ以外を分けたがるのは日本だけのような気もしますし、組込システムと一般の情報システムに違いがあるとしたらソフトウェアそのものではなく、ソフトウェアの開発方法論にあると思いますし、その違いも組込システムの場合は(一般の情報システムでは使わなくなったような)前近代的な手法を使うしかなく、生産性や信頼性で不利な状況の中で開発しないといけないということのように思います。

組込システムと一般の情報システムを同じというと方々から怒られるわけですが、例えばソフトウェアの学術雑誌のIEEE Softwareの最新号は組込ソフトウェア(Embedded Software)の特集を組んでいるのですが、そこでも組込用と一般用で相異があるのかという議論がなされています。ただ、その記事でも相異を強調している側でも、組込ソフトウェアは(他のソフトウェアと比べて)「まずハードウェアありき」、「組込ソフトウェアは直接市場で売られない」、「組込ソフトウェアは(製品のなかの)部分的価値しかもたない」という相違点をあげており、ソフトウェアそのものに技術的な相異があるとはいっていなかったりします。

2009年6月7日

今日は午前中だけ休日出勤。さてさて組み合わせがよかった部分はあると思いますが、4大会連続は出場はやっぱりすごいですよね。またW杯への関心が高まる→他国同士の試合のTV中継が見られるというのもうれしかったり。Jリーグ以前の時代ではW杯は準決勝以上ぐらいしかTV中継がありませんでしたからね。

そういえばJavaOneが開かれていたのですね。メディアでも記事にあまりなっていないというか、記事にするような話題がなかったというべきか。出席された方に伺うと、なんか全体としてボロボロだったようですね。プラチナスポンサーは昨年の4社(AMD、Intel、Motorola、Oracle)からIntelの1社に激減。通常のスポンサーも今年は激減。セッションもいろいろ騒動があったそうで、技術的には一番の目玉だったはずのJDK7のセッションは中止。また、ロードマップなどの提示が激減したのと、テクニカルセッションも技術的な説明をろくにせずに、デモをするだけの講演が多かったとか。

その数少ない記事によると、今年のJavaOneにおける数少ない新しい話題としてはJava Storeがありますが、iPhone/iPod Touch用アプリ販売が流行っているので、あわてて作ってみました感がいっぱいですが、それは別にしてiPhoneではターゲットデバイスの違いが少ないので、ダウンロードしたアプリケーションはとりあえず動くことになりますが、Javaの場合はターゲットデバイスは多様。Javaアプリを購入・ダウンロードしても自分でデバイスで動く保証はないわけで、話は簡単ではないです。

そもそもアプリ販売というのが周回遅れなのですよね。AppleはiPhone 3.0でアプリの中からコンテンツを買えるようにするそうです。またアプリ販売というのは一回限りの商売。追加コンテンツで稼げるようにしてやらないとアプリ開発者は採算が合わないし、これからはアプリの販売よりも追加・更新コンテンツで稼ぐビジネスが主体になるでしょう。その意味ではアプリそのものは無料でもいいのです。つまりアプリ販売で稼ぐという発想それ自体がもう古いのです。またそこまでいかなくても、すぐに飽きてしまうアプリも長く使うアプリも料金モデルが同じにすると、すぐに飽きてしまうようなアプリが乱立することになります。Java Storeに関しては経営が傾く会社というのは発想が古くてずれているということの見本のようなものなのでしょう。

なお、今年のJavaOneで26億台の携帯電話で使われていることを誇ったにそうですが、だったらJava Storeは徹底的に携帯電話の流儀に合わせるべきでしょう。例えば販売サイトをSun Microsystemsが運用するのではなく、Java Storeのシステム一式を携帯電話キャリアにライセンスして、キャリアが携帯電話向けアプリケーションを販売できるような仕掛けを用意した方がいいのにね。それはともかく今年が最後のJavaOneになるのでしょうかね。OracleWorldと併設だったりして。

2009年6月6日

休日出勤です。さて最近のIT系業界は景気の悪い話が多いのですが、特に組込システム系はよくないですね。数年前は組込システムのエンジニア不足が叫ばれていましたが、一年ぐらい前ぐらいから逆にだぶつき気味という話を見聞きするようになっており、昨秋以降はそれが一気に表面化したところでしょうか。某学会から組込コンピュータ関連のセミナーの講演を頼まれていたのですが、受講者の集まりがよくないので1回目は無料にしたそうです。このセミナーはテーマを変えて毎年開催されていて、過去に3回か4回は講演したことがあるのですが、どちらかというと営業企画。つまり学会収益をあげるためのイベントだったそうですが、こうなると逆になりそう(組込システムをテーマにしたら客入りがよくないのはわかっていたとは思いますが)。当方が講師を担当するのは12月なのですが、その頃には多少景気がよくなっているのでしょうか。もちろん講演は景気がよくなるような話をするつもりですがね。

2009年6月5日

このページに学生さんのことは書かないようにしているのですが、今日だけ。今日は博士論文の予備審査。無事に終わったようでなによりです。指導教員としては最後は見守るしかないないですね。博士の研究内容が3つ以上の分野について専門知識が必要とするテーマ設定だったので、普通の博士課程学生さんと比べると3人分以上の研究をすることになり、かなりたいへんだったと思います。

というのは博士論文は当然、高い専門性が要求されるので、専門分野について深く研究することになりますが、その一方でコンピュータサイエンスも最近は専門化が進んでいます。この結果、博士はとれても、自分の専門からちょっと離れたことは何も知らないということになりやすいし、実際、(比較的狭い)専門分野以外は何も知らない研究者は少なくないのです。そして、こうした研究者はひとつの専門性しかないので、他の分野に踏み出せません。だから専門に固着する、ますます知識が先鋭化するという悪循環になりやすい。しかし、現実には博士論文のテーマを一生続けられるとは限らないし、ましてコンピュータサイエンスは半導体技術や市場動向の影響もうけるので移り変わりが激しいので、ひとつの専門性しかない場合、研究者としての寿命は短くなりやすい。

さて当方はというと、博士論文はひとつの専門に特化したテーマだったのですが、学生時代に所属していた研究室はOSから人工知能まで研究していたので、まさに門前の小僧習わぬ経を読むという状況で、いわゆる専門バカにならずにすみましたし、その後、研究テーマも理論系から実装系に変更できました。さて当方の勤務先の大学院は研究所併設ということもあって、全体としては研究分野はバラエティはありますが、各学生さんが自分の専門以外の研究者や学生さんたちとの接点が多いとはいえないのです。このため彼にはたいへんなのは承知で博士論文テーマを理論から実装まで複数の分野の専門性が必要なものにしました(もちろん指導する側もその複数分野への専門性がないといけないので、なかなかたいへんです)。

もちろん、まだ公聴会、つまり博士論文の本審査が残っているのですが、指導教員として専門的知識を与えるのはそろそろ終わりでしょう。実は今日の予備審査のあとに、クリステンセンのイノベーションジレンマシリーズなどのMBA向けの研究開発戦略の本をたくさん渡しておきました。というのは博士持ちの研究者になると、専門分野に関する研究能力だけではなく、研究テーマを見つける能力や研究マネージメント能力が要求されるからです。

2009年6月4日

夜はGoogleで打合せ。Googleで伺うのはミーティングルームばかりですが、噂の食堂にいけました。たしかに日本では見かけないのかもしれませんが、海外では珍しくないかも。当方が学生時代に転がり込んでいたXeroxの研究所の食堂とよく似ていたので、懐かしいというのが正直な印象でした。

ところで昨日の取材はクラウドコンピューティングに関してだったのですが、その補足。結局、クラウドコンピューティングが普及するか否かは、クラウドコンピューティング上で提供されるクラウドコンピューティング上にサービスが魅力なものがあるか否かの問題でしょう。そのためにはSaaSのようにクラウドインフラ提供者がサービスを提供する方法もよろしくなく(短期的にはいいでしょうが)、現在のIaaS/HaaSやPaaSのようにユーザが自分のためのサービスをクラウドインフラで実行・提供するのはよろしくなく、長期的にはサードパーティがサービスを開発して、それをクラウドインフラ上で提供できるようにしないといけないでしょうか。言い換えれば、クラウドコンピューティングが伸びるか否かはクラウドコンピューティング上のサービスを充実するようなビジネスモデルに転換できるか否かにかかっているのかもしれません。

そこで考えないといけないのはサービス開発・提供者のビジネスモデルです。これまでのサービスではユーザ数を増やすとサーバ増強などコストに跳ね返ります。しかし、クラウドコンピューティングではサーバを安価に借りられるので、ユーザ数を増やすことによるコスト増は相対的にすくない。つまりサービスの開発コストを考えると収益逓減性があるといえます。ちなみにクラウドコンピューティングというとインフラの調達・管理コストの低減効果による「規模の経済」の話を持ち出す人が多いのですが、個人的にはユーザ数増加にサービス提供コストの低減効果の方が大きいと予想しています。

さてクラウドコンピューティングのビジネスモデルにおけるプレイヤーは3者。クラウドインフラの提供事業者。そのインフラ上で提供されるサービスの開発・提供者。そしてそのサービスを利用するユーザです。そしてビジネスモデルとしては3つの方法が考えられます(もちろん他にもありますが)。一つ目はユーザはクラウドインフラ提供事業者とサービス開発・提供者の両方に利用料を払うモデル。二つ目はサービス開発・提供者にだけ利用料を払うモデル。この場合はサービス開発・提供者からクラウドインフラ提供事業者に所場代(テラ銭)が支払われます。三つ目はクラウドインフラ提供事業者にだけ利用料を支払うモデル。この場合はサービス開発・提供者に対してはインフラ提供事業者からお金が払われることになります。正直いって、当方まだどれに収束するのか予想できていませんし、実際は2つまたは3つがハイブリッド化された形になるでしょう。

一つ目のユーザがインフラ提供事業者とサービス開発・提供者の両方に利用料を払う場合ですが、インフラ提供事業者とサービス開発・提供者の独立性が高くなります。所場代も実質的なサーバ利用料に相当になるかもしれません。しかし、サービス開発・提供者にしてみるとユーザ数が多いインフラで提供した方が収益性がよくなりますので、ユーザ数の多いインフラにサービスが集まることになります。商業ビルとそこに入っているテナントの関係を考えればいいでしょう。1つ目についてはTVゲームビジネスに近く、魅力あるサービスの囲い込みが重要です。そこでインフラ提供事業者はサービス開発・提供事業者資金援助をすることも想定されますね。

二つ目のサービス開発・提供者にだけ利用料を払うモデルの場合、サービス開発・提供者からクラウドインフラ提供事業者に支払う所場代(テラ銭)は高くなりますが、この所場代の額または比率が問題になります。当然、所場代が安いインフラにサービス開発・提供者が集まることになりますから、ドコモのiモードのように所場代を低率にして、サービス開発・提供者に利用料の多くが残るようにしないと、魅力のあるサービスが集まらずに、結果としてインフラ提供者は収益がさがることも予想されます。

三つ目はユーザはインフラ提供事業者に利用料を支払って、インフラ提供事業者がサービス開発・提供者に支払う場合でした。この場合、インフラ提供事業者は魅力あるサービスを集めればユーザが増える、つまり利用料収入が増えます。問題はインフラ提供事業者からサービス開発・提供者に支払う方法です。各サービスの利用料に応じて払うのであれば話は簡単ですが、そうではない場合もあるでしょう。このモデルはサービス利用者からのフィードバックが直接得られにくいので、サービスの開発は停滞することが予想されますし、また、iモードの公式サービスと非公式サービスのような差がうまれ、後者は儲からないということになりかねない(当然、魅力あるサービスは後者から発生するでしょう)。前の二つのモデルをとるクラウドインフラにサービスが逃げると可能性が高いです。

結局、クラウドインフラの差はサービスを集められるかであって、インフラの内部的な技術はどうでもいいことだと思います(コンピュータサイエンス、特にシステムの研究者としてはいうことではないですが)。また、クラウドコンピューティングならではサービスを提供していかないと、既存システムからクラウドコンピューティングへの誘引もできません。その意味ではIaaS/HaaSはもちろんのこと、現在のPaaSも既存システムとの差異がまだまだすくないです(特にWindows Azureに関しては、クラウドでもオンプレミスでも同じサービスが動くことを狙ってしまったために、結局、Azureは管理コストの低減などの経済的な優勢しか出せなくなると予想しています。逆にいえばAzureがブレークするにはどこかでオンプレミスにおける実行互換性を捨てないといけないでしょう)。上記のように三つ目はサービスの充実にはよくないと予測しているので、仮にクラウドコンピューティングが普及するとしたら、一つ目または二つ目(またはそのハイブリッド)だろうと思っているのですが、日本に関しては三つ目になってしまう可能性は否定できません。というのは三つ目は最終的には通信インフラも含めたビジネスモデルになるからです。NTT系もクラウドコンピューティングに乗り出すそうですが、その場合は通信インフラ利用料にクラウドインフラの利用料もサービスの利用料も合算される可能性があり、つまり三つ目を狙っているのでしょうね。あとはNTT系の皆様方がサービスの重要性を認識していることを祈るだけです。

2009年6月3日

MicrosoftのChannel 9のCLR 4 ThreadPoolの開発者のインタビュービデオを拝聴。このビデオでは技術的な詳細はいまひとつよくわならなかったのですが、設計思想はだいぶわかりました。スレッドの取り扱い、特にスレッドの抽象化の仕方が変わってますね。さてこのビデオを過去の資料から総合すると、CLR 4のスレッド管理では、従来のグローバルキューに加えて、コア相当を単位に導入されるローカルキューを導入しています。そしてローカルキューのスケジューリングでキャッシュを有効利用するためにLIFOで回しているようです。おそらくこれは今後登場する4コア以上のプロセッサの場合、L2キャッシュを2コア以上で共有するアーキテクチャーをとっているので、キャッシュを活かすために重要となるのでしょう。また、CLR4のスレッドプール管理ではコアがアイドルになったときはシステム側でまだ(別のコアの)ローカルスレッドプールに積まれたままにタスクを、アイドルなコアのローカルキューにタスクを再配置するようです。これはコアを使い切るために重要な戦略なのですが、移すタスクの選び方が問題になりますね。ただ、ここまでくるとM.Herlishyの著書「The Art of Mutlipleprocessor Programming」あたりを理解できるか、往年の並列Lispの心得がないとわからないかもしれませんが。まぁ簡単に言うと、今後の実行環境は多数コアを想定したスレッド管理に移行すること、そしてスレッド管理は多数のコアを使い切るという方向になるということです。ところでWindows AzureのWorkロールやWebロールのスレッド管理もCLR 4と同様なのでしょうかね。この辺は情報がないのでさっぱりわからないです。

実は研究で作っているミドルウェアではスレッドの制御が必要で自前でスレッドプールを書いており、Microsoft CLR 4の新しいスレッドプールは興味津々だったりします。当方はJavaで書いていますが、CLRも本質的に差がないし、いまはCLRの方が先に行っている部分が多いので。またCLRはCCR/DSSやAxumなどいろいろ使えるので、スレッドを多用するならばJavaからCLRに乗り換えた方がいいかもしれません(それで失うものもありますが)。いずれにしてもCLRにしてもJavaにしても、スレッド管理はスレッドプールを含めてアプリケーション側で下手に小細工するよりも、システム側に任した方がいいという方向なのでしょう。せっせと自前で作っていた当方としては厳しい現実なのですが。また、プールと言えばかつては高速化のためにオブジェクトプールを使うのは常套手段でしたが、いまでは実行環境側の改良により、オブジェクトプールを使わなくても対しても実行速度はかわらなくなりました。それと似た状況かもしれません。もちろんスレッドへの分割は昔も今も難しい問題なのですがね。

2009年6月2日

クラウドコンピューティングへの疑問という記事があったのですが、本質を突いた疑問が多いですね。疑問1「負荷テストや性能チューニングの方法は?」ですが、クラウドコンピューティングは事実上、無限の計算リソースがあることになっています。だから、負荷テストには強いことになるはずですが、データ更新は得意とはいえないので、更新関連のストレス試験はいりますね。性能チューニングはオンプレミスシステムは内容が違ってくるかも。疑問2「これまでと同様のバックアップは可能か?」ですが、バックアップはクラウドコンピューティングでも対応できると思いますが、別料金ということになりそう。疑問3「疑似攻撃は可能か?」ですが、これはIaaS/HaaSでは必須でしょうが、PaaSやSaaSではクラウドインフラ側で対応することになりそう。疑問4「大量データを移行できるか?」ですが、これは料金次第でしょう。疑問5「パッチの適用をユーザー側で制御できる?」ですが、クラウドインフラ側に勝手にパッチを当てられる可能性は十分にあります。ただ、パッチよりも深刻な問題がありそう。クラウドコンピューティングはSOAベースなので、利用しているサービスの仕様が変わっていることはありえるのあで、年がら年中、改修をつづけることになりそう。疑問6「障害発生時の体制をどう作るか?」ですが、これはクラウドインフラ事業者との契約の問題ですよね。疑問7「エンジニアをどう育成するか?」ですが、これは深刻でしょう。特にPaaSの場合は、現状ではクラウドインフラの内部構造を熟知したプログラマーでないとアプリケーションは書くのが難しいのですが、逆に簡単になっている部分もあるので最後は教育の問題となりますね。疑問8「日本の法制度が及ばない地域での運用で問題は生じない?」ですが、これは日本にデータセンターを置けばいいという回答ほどは簡単ではないです。例えばアプリケーションのログの権利関係は?など解決しないといけない問題がいっぱいあります。この記事は書かれた記者は代表的な疑問を選んであげたのでしょうが、この記事にある疑問を解決するだけでは、クラウドコンピューティングはわからないでしょう。

2009年6月1日

今年に入ってからサーバ仮想化の問題を指摘した記事をよくみかけるようになりました(例えばこの記事とかこの記事)。仮想化すれば多数のサーバを一つのコンピュータで動かすこともできますから、コンピュータの数は減らせます。しかし、コンピュータの値段が下がっていることに加え、仮想化機構そのものが複雑なので初期コストは仮想化するとかえって増えることもあるようですね。いずれにしてもサーバの処理量に変動が大きく、さらにその増加時期がサーバによっては違うようなケースでないと、仮想化しても初期コストが下がるかは疑問ですよね。運用・管理コストの削減は、コンピュータの数が減れば電気代は下がりますが、問題は管理コストですよね。仮想化は可視化とは逆行します。仮想化は複雑になる分、トラブル要因は増えますし、問題はトラブルが起きてから。当方の研究ではサーバ仮想化&ネットワーク仮想化をしながら実験をするのですが(ちなみにネットワーク仮想化は自前のミドルウェアですが)、トラブルがあったときに原因を見つけるのに一苦労します。仮想化しているとトラブル原因がハードウェアなのか、仮想マシンなのか、(ゲスト)OSなのか、アプリケーションなのか、さっぱりわからないことがよくあります。いい管理ツールをいれればいいと御指南受けるのですが、正常稼働時の管理ツールはあったも、トラブル時に対応できるものは少ないです。

こちらの記事では海外の事例のようですが、日本では別の問題がありそう。仮想化により管理コストが減らせるというのは、管理者の人数を減らせる、つまり人員削減できてこそです。しかし、日本では解雇は難しい。旧システムのシステム管理者で、サーバ仮想化に対応できる人は少ない。そうなると新規にサーバ仮想化に対応できる管理者を雇わないと行けないし、旧システムのシステム管理者も雇い続けなければいけないことになります。このため個人的には国内では仮想化による管理コスト削減効果はほとんどないと予想しています。

ところで国内ではなぜか仮想化するとセキュリティが向上すると考えている方々がおられます。以前は某ベンダーの方々が来られて、仮想化によるセキュリティ向上について蕩々と語っていただいたのですが、確かに仮想化すれば、ラブルを仮想マシン内部にとどめることはできるかもしれません、また、あるサーバにトラブルがおきてもそのサーバを止めて、トラブルが起きる前の仮想マシンイメージをロードすれば素早く回復できるかもしれません。しかし、仮想化によりゲストOSやアプリケーションの脆弱性を解決できるわけではないし、そもそも仮想化によるシステム複雑化という別の問題がおきます。信頼性やセキュリティというのは複雑性とは逆行しますから、仮想化がセキュリティ向上につながるとは必ずしもいえないず。国内ではIT分野に限らず、安全・安心というキーワードが大流行。でも安全・安心はただではないし、それなりのコストがかかります。そのコストを見合わなければ結局、使われないことになります。ところで安全・安心というキャッチフレーズがついた技術の研究開発が流行りましたが、ほとんど普及していないというか、立ち消えになったような気がするのですが、気のせいでしょうかね。

2009年5月31日

Google Waveについて研究中。まぁ資料がないに等しいのでよくわからないのですがね。同期から非同期まで、一対一通信から多対多通信まで幅広くサポートしているので、分散システムの汎用的なインフラとしては便利かも。ただ、機能が多い分だけ、他のWebベースのコミュニケーションサービス、例えばSNS系、写真共有、チャット系などなどを潰してしまう可能性もありますね。「潰す」という大げさに思う人も多いかもしれませんが、ベンチャーキャピタルは、ベンチャーが新しいサービスを始めようとしていても、Googleが類似したサービスを始めるかもしれないというだけで、出資を打ち切ります。Google Waveは機能が多いだけに陰で潰れるサービスも多いでしょう。これからはGoogle Waveと戦うのか、Google Waveを使うのかによって運命が違ってくるのかもしれません。実はGoogle Waveは人間同士の通信だけなく、XMLベースのEDI などのサーバ同士の通信もサポートしているかと期待したのですが、あくまでも人間同士のコミュニケーションサービスのようですね。Webブラウザを多様な通信のクライアントとして使うのは正しい方向だとは思いますが、同時にWebブラウザの制約から逃れられないことになります。

システム屋なのでアーキテクチャの方に関心があるのですが、アーキテクチャ的には多対多のメッセージキューに近いのでしょうかね。コンカレンシー制御はXerox PARCのJupiterというCSCWシステムの研究をベースにしているそうです。実はちょうどJupiterの研究開発の時期に、当方はXeroxの研究所に転がり込んでおり、当方はCSCWシステム上のビジネスプロセスとアプリケーションレベルのトランザクション処理が担当だったので、実はJupiterについては知らないというわけではなかったり。ただ、再びJupiterにお目にかかるとは思ってもいませんでしたがね。ちなみにJupiterの論文(AMC UIST'95)はこちら。実はJupiterにはマルチメディア拡張(ACM Multimedia'95の論文)もあるのですが、Google WaveがJupiter同様にマルチメディア拡張にも対応しているかは気になるところ(こちらは他にももっといい方法がありますけどね、例えばオンラインゲーム向けの方法など)。ただ、グループウェアやCSCWのコンカレンシーコントロールについては、Jupiterの論文を読む前に20年前のEllis & Gibbsの論文を読んでおくべきでしょうね(彼らの所属、MCCという名前も久しく聞いていませんでした)。どんな問題があるのかがわかります。それにしてもGoogle Waveは定番の技術だけを組み合わせているのかもね。でも、こんなことを書いているよりも、前述のACM Multimediaの論文の査読をしないといけません(ACM Multimedia'2009のプログラム委員なので)。困った。

2009年5月30日

ノートPC(17インチMacBook Pro)が不調。なぜかoptionキー(Windows でいうとAltキー)が押された状態になるという症状がおきたり、おきなかったり。それもいつのまにか発生して、いつのまにか収まっている状態。まぁ初期のIntel Macなので、かなり使い込んだのでいるマシン(ハードディスクは3回も置き換え)。不具合があってもおかしくないのですが。ところで知り合いからおしえてもらったのですが、このビデオはコンピュータの仕組みを教えてくれます。ちょっとの不具合でコンピュータに文句をいってはいけないという気にさせます。実は前勤務先の国立大学で、一度だけ1年生相手に情報リテラシーの授業を数コマ教えたことがあるのですが、プリンターの仕組みを聞かれて「プリンターの中で小人さんが、プリントごっこしている」と答えたことがあります。あとで生徒さんから「信じる人がいたらどうするのですか?」と怒られましたが(でも信じる人っているの?)、このビデオを見る限り間違っていなかったかも。

2009年5月29日

Googleが「Google Wave」という新しい通信ツール群を発表しましたが、そのサービスや機能をみればみるほどMicrosoftのSharePointのDashboardを思い出してしまうのは当方だけ?。どこまでGoogleが本気なのかはよくわかりませんが、Googleがいよいよビジネスプロセスツールに参入してきたというところが重要なのでしょうね。ただ、Google WaveにしてもSharePointにしても、提供される機能を企業のビジネスプロセスにあわせてどう統合するかが重要なので、最後はサードパーティ開発者の支持をあつめられるかになりますよね。そして開発者の支持というのは、開発者が稼げるかです。Googleはおもしろいサービスはたくさんありますし、便利なAPIを提供してくれます。でもそれを使う開発者が稼げるかは別の問題。Google WaveはGoogleが開発者の囲い込みができるかの試金石になるかもしれませんね。

2009年5月28日

午前中は霞ヶ関方面のお仕事。エコポイントはたいへんなことになっていますね。それはさておき午後はJEITAでRFID(ICタグ)のISO委員会。昨日、講演したビルとは同系列かつ至近。つくりもそっくり。ところでこちらの記事によるとIIJもクラウドコンピューティングですか。IIJはデータセンターの実績もあるので確かにやれるかもね。ところで記事の最後で、鉱山跡地ではなく平地にコンテナ型データセンターを作るということが書かれていますが、もっとも早く気づいてほしいところ。テレビの地下にコンテナ型データセンターを設置するニュースを見たときは、頭の中が?マークでいっぱいになりました。というのも地下とか鉱山跡地などは豪雨などで冠水する可能性があるので、リース機材は契約的に設置できなかったり、設置できても損害保険が高くなるのでリース代は高くなるのでいいことないのです。もっとも平地でも市街地区域の場合、輸送を前提にしないコンテナは物置と同じ扱いですから、コンテナ型データセンターについても建築法の規定をうけて自治体から許可をとる必要があるなど面倒がありますが。また日経新聞によるとNTTは「クラウド」の研究に3年間で450億円を投資だそうです。なお記事によると「企業や官公庁の間には情報の漏洩を不安する声が根強い」そうで、その問題を解決を図るそうです。頑張っていただければと思います。ただ、インターネットが普及し始めたとき、電話回線の優位性として盛んにいわれた話とよく似ているような気がするのは当方だけでしょうか。ところで当社はクラウドコンピューティングは絶対にやりません!いいきるベンダーはいないものでしょうか。流行のキーワードをあげるのがIT業界の体質ですよね。

2009年5月27日

クラウドコンピューティング関連の講演。いかがでしたでしょうか。今回は諸般の状況で抑えめな話として、物議を醸し出すような暴露話はなし。もちろん個人的には欲求不満気味ですがね。さて大きな会場という話でしたが、申し込み開始してすぐに満員になったとか。たしかに大勢の方が来られていました。当方の講演が最初で、次にMicrosoftの方が講演されたのですが、エンタープライズ用アプリのオンライン版の話が中心。というわけでAzureの話はなしでした。あとで理由を伺ったらAzureはまだ先という回答。たしかにそうかもしれません。そのあとはIBMの方だったのですが、お恥ずかしながらIBMのプライベートクラウドの講演を拝聴したのははじめて。プライベートクラウドのプレゼンはたいへんそう。結局、当方もチンプンカンプンでした。

ついでなので、もう一つクラウドコンピューティングのネタ。5月16日にクラウドコンピューティングがイノベーションになれるか否かはPaaSが伸びるか否かにかかっていると書いたのですが、会場でその理由を聞かれたので、ここでも補足をしておきます。さてその理由は課金。クラウドコンピューティングが伸びるか否かは、クラウドインフラの出来不出来よりも、クラウドから提供されるサービス次第。魅力のあるサービスを増やすためにはサードパーティがサービスを開発して、それをクラウドインフラ上で、不特定に提供することが不可欠ですが、現状ではそれが難しい。

クラウドコンピューティングは基本的なコンセプトは処理やデータを使いたいときに使った分だけ支払えばいいということになっています。実際、AmazonやGoogle、Microsoftなどのクラウドインフラ自体は従量制課金を想定しています。しかし、インフラ上で提供されるサービスについては課金メカニズムが未整備。クラウドコンピューティングのコンセプトからいえば、サービスについても使いたいときに使った分だけ支払う、つまり従量制課金になるべきです。しかし、ユーザ別のサービスの利用状況などをインフラ側の手助けなしに調べることはほとんど不可能でしょう。つまり、サードパーティがサービスを開発して、他者にそのサービスを提供しても、従量制で収入をえることはできません。このため広告収入や月額契約のようにクラウドコンピューティングのコンセプトに反した方法に頼るしかありません。

さてなぜIaaS/HaaSではなくてPaaSに期待しているかというと、IaaSではインフラが提供しているのは仮想マシンレベル。サードパーティがIaaS上でサービスを提供するときは、OSやミドルウェアを動かし、その上でサービスを実現するアプリケーションを実行することになります。このためサードパーティが課金メカニズムについても面倒をみないといけません。ご存知のように課金メカニズムは複雑なので、それをサードパーティが実現するのは難しい。一方、PaaSの場合はクラウドインフラが直接、サービスを実行するアプリケーションを実行して、ユーザと接続をします。このためユーザの識別やサービス利用時間などを正確に捕捉できます。また、クラウドインフラ提供事業者は、ユーザに対するインフラ利用料請求に、そのインフラで提供されるサービスの従量課金請求もできることになります。その点では上述のWindows Azureは結構期待しています。Google App EngineはGoogle自体が広告収入をベースにしているので、課金処理は得意ではないと推測しています。

もちろんIaaSでも便利な課金メカニズムが登場するかもしれませんが、いずれにしてもサービスに対する従量課金メカニズムが整備されない限り、サードパーティから魅力のあるサービスが提供されず、クラウドコンピューティングは普及しないということになると予測しています。その意味ではiTunesはサードパーティのソフトウェア販売を代行することで、サードパーティは容易にソフトウェアから収入が得られるようになっており、それがサードパーティとそのサービスの増加につながっています。クラウドコンピューティングもサービスの利用料金の課金はインフラに任した方がいいです。

2009年5月26日

当方のインタービュー記事が日経BPのWebニュースメディアに掲載されたのですが、タイトルがキャッチーというか、ショッキングだったので、いろいろお問い合わせをいただきました。タイトルについてはインタービュー担当された記者さんの巧妙さといえるでしょうね。いちおう当方はコンピュータサイエンスの研究者なので、コンピュータサイエンスが「終わった」りすると困ります。ただ、記事の通りクラウドコンピューティングが広く普及すると、新しい研究分野を作るとは思いますが、その一方でシステムよりの研究について研究の範囲が狭くなるのは事実ではないでしょうか。

また、クラウドコンピューティングの可否は別にして、コンピュータサイエンスの研究が成熟してきたのは事実だと思います。特にこれまでのコンピュータサイエンスは、原理の解明に重点を置いていました。それは間違った方向ではないと思います(昨日はコンピュータサイエンスの中でも原理解明の王道である計算モデルの授業をしていましたしね)。ただ、その一方でコンピュータが問題解決の道具である以上、コンピュータサイエンス自体も問題解決科学的な発展は不可欠だと思います。数学にしても物理にしても、その研究成果は数学や物理だけでなく、広く他の分野に応用されているわけですから、コンピュータサイエンスの研究成果を他の分野、例えば現実世界の問題を解くことに応用できるはずです。これをいうと機器制御やシミュレーションなどで現実問題を扱ってきた反論されますが、それはコンピュータを道具とした応用したレベルでした。個人的にはコンピュータサイエンスの研究成果をもっと直接的に現実世界に応用することもできると思っています。

それから記事の中で、クラウドの技術をF1の技術に喩えたことの意図を何人かの方から聞かれたのですが、ご指摘の通りです。F1の開発はF1の世界でないとできないということに加えて、F1の技術が大衆車にあまり波及されていないと状況を鑑みています。例えばクラウドの技術、特にパグリッククラウドと呼ばれることもある超大規模サーバの構築・運用技術は、超大規模サーバを保有していない人や企業にとって参考になる技術は多くないだろうということも含んでいます。気がつかれた方はなかなか鋭いですね。

2009年5月25日

午前中は慶大大学院の授業。それからオフィスに戻って、学生さんの予備審査の日程調整。審査委員全員の日程調整はできませんでしたが、なんとか規定人数のアンドがとれたのでやれやれ。博士も予備審査ぐらいのフェーズになると指導教員の仕事はスケジュール調整担当ぐらい。

ところで、勤務先では新型インフルエンザ関連の出張自粛要請は大幅解除となりました。東京ではマスク着用者はあまりいませんでしたね。たぶん花粉症シーズンの方が多かったかも。さて海外、特に欧州で仕事をしたことがあるひとはわかると思いますが、欧州の方々は風邪を引いていたら、会社や学校にはいかずに、家の中で休養しています。だから、風邪を引いている人は会社、学校、電車などにはいないことになっているので、風邪をうつされる心配もないし、風邪をうつしてしまう心配もないので、マスクを使う理由がないのです。一方、日本人には風邪を引いても学校や会社にいく人が多いし、熱があっても出社するのが美徳と思っている人までおられます(当方も人のことはいえませんが)。ただ、それは風邪を人にうつす危険性があるので、本人は自分の仕事熱心さに自己満足できても、同僚からはいい迷惑だし、会社にとっても多くの社員が休む事態になると会社自体が機能しなくなる恐れがあります。

その意味では日本はインフルエンザが感染が広がりやすい国だといえるかもしれません。風邪を引いている人がまわりにいる可能性がある以上、うつされないためにマスクをつけるというのは合理的な行動でしょうし、他人にうつさないためにマスクをつけるというのも合理的な行動でしょう。結局、インフルエンザの感染拡大を防ぐには、マスク着用もたいせつかもしれませんが、風邪を引いたら家でじっとしているという生活習慣をつけさせることかもしれません。

2009年5月24日

CAP定理がクラウドコンピューティングで一躍脚光を浴びていますね。ただ、CAP定理を違いしている人が多いです。CAP定理はデータ共有システムにおいて、三つの特性、Consistency, Availability, (Tolerance to network) Partitionは高々2つしか成り立たないというものです。まずひとつ目の誤解は、クラウドコンピューティングをターゲットにした概念ではなく、データ共有システム全体において3つ同時に満足するのは難しいということ。もちろんクラウドコンピューティングはコンピュータの台数が多いから、CAP定理は成立しやすいのかもしれませんが、データ共有のアクセスパターンによって話は変わってきます。

二つ目の誤解はCAP定理は定理という名前がついていますが、別に定理などと大それたものではないということ。CAP定理はあくまでも経験則であって、絶対に3つが同時に成立しないといっているわけではない。そもそもCAP定理が提唱されたのも、通称、PODCと呼ぶ分散アルゴリズムの国際会議(PODCは分散アルゴリズムではかつては有名な国際会議)の招待講演とそのスライドで提唱された概念であって、提唱者本人もCAP定理そのものを論理的に説明しているわけではありません。そのうえSeth GilbertとNancy Lynchの論文を引用して、CAP定理が証明されている主張する人がいるのですが、論文というほどきっちり書かれているわけではないです。それにLynch女史の書籍を前提に書かれた論文ですが、Lynch大先生の独特の形式系を理解できるコンピュータサイエンス研究者は多くはないでしょう(日本には10人いないではないでしょうか)。実務サイドの方ならばしかたないかもしれませんが、研究者から、絶対に3つの性質は同時に満足できないと言い切られると、さすがになんだかねぇ、という感じになります。それと実務サイドの方々を相手に○○定理とか、小難しそうな言葉をならべたがる研究者がおられますが、そのまえにちゃんと文献を当たって○○定理の正しい意味を理解してほしいところ。

ただ、当方が一番懸念しているのは、CAP定理の誤解もありますが、それ以上にCAP定理のおかげで思考停止になっている人が多いということです。CAP定理をあげて三つの性質を同時に満足できるシステムは作れないと決めてかかっている方々や記事をよく見かけます。しかし、CAP定理はあくまでも経験則。たぶん正しそうだけど、CAP定理が打ち破る方法がないとはいいきれません。だから3つの性質を同時に満足できないと決めつけずに、抜け道をさがしてほしいです。例えばクラウドコンピューティングでもSalesforce.comあたりは3つの性質にうまく折り合いを付けてやっているわけですしね。

それにしてもPODCですが、変なところで脚光をあびましたよね。たしかに1980年代のPODCは、その後、重要となる分散アルゴリズムがたくさん発表されましたが、1990年代にはいってQuorumベースの分散アルゴリズムの論文が増えるとともに、分散アルゴリズムというよりもグラフ理論としか思えない論文が増えてしまいました。また、重箱の隅をつつくような研究、そしてデッドロックの発生通知してしてくれるコンピュータを仮定したデッドロック解消アルゴリズム(デッドロックは発見することが難しい)など実システムと乖離した研究が大勢占めてしまいました。また、P2P系まわりで分散キャッシュなどの新しいアプローチが出てきますが、PODCはそれの取り込みもできなかったのも痛かったですね。2000年代にはいってから分散システムの実装論文も積極的に集めようとしましたが、何しろコミュニティが理論的分散アルゴリズムの研究者ばかりだし、顔ぶれも固定化していますからね。そうそう変われるわけでもないでしょう。もちろん、この問題はPODCを含めてACM系の国際会議でPrincipleが名前についている国際会議全般にいえるかもしれませんが。

2009年5月23日

夏に近づいてきているのでしょうか。自宅で使っているノートPC( 17インチMacBook Pro)のファンが止まらなくなってきました。人間よりも敏感に外気温の上昇が気になるようです。ファンがうるさいのですが、何とかならないのでしょうかね。ところでこのノートPCですが、ソフトウェア開発用にも使っており、7200rpm回転のハードディスクが入れてありますが、ここ3年間ぐらい、3.5インチハードディスクも2.5インチハードディスクも回転速度は伸びていませんね。まぁ発熱や耐久性の問題があって回転数を上げられないのはわかっていますし、個人的にもうるさいハードディスクは遠慮したいのですがね。

それはともかくコンピュータの主要構成要素であるプロセッサ、メモリ、ハードディスクですが、もちろんプロセッサはコア数が増えていますし、メモリもハードディスクも容量も増えています。しかし、プロセッサのクロック、メモリやハードディスクの読み書き速度の伸びが鈍化してきています。結局、ハードウェア技術はスケールアップが難しくなってきており、今後はスケールアウト指向が重視されるのでしょう。

2009年5月22日

大学院の専攻委員会、勤務先の書類作り、某雑誌の原稿校正、フィンランドからの来客、スライドの作成&送付、渋谷で打ち合わせ。なんか目が回りそう。そうそう某通信会社の研究所から来月初旬開催予定だったオープンハウスの中止の連絡。その研究所とは至近にある別の研究所関係者の打ち合わせがちょうどオープンハウスの開催時期だったので、ついで行くつもりでしたが。さて中止の理由として「来場者の皆さまの安全と企業の社会的責任」をあげられています。もちろん、関係者はいろいろ苦慮された結果の判断なのだと思いますが、オープンハウスの来場者は大人のだから安全は自分の責任ですし、そもそもインフルエンザの感染まで企業責任にすることないのにね。

それにしても国内では過剰反応が目立ってきましたね。例えば、この記事による米国帰りで感染してしまった高校生の親御さんは謝ったそうです。でも謝ることないのにね。別に悪いことをしたわけではないのですから。もちろん感染拡大も心配ですが、感染することを悪いことと考える風潮の方も心配です。今後は経済的影響に焦点が移ってくると思いますが、過剰反応が続かないといいのですがね。安全を作るにはコストがかかりますし、過度な安全要求は社会を停滞させることもあります。

2009年5月21日

一昨日、ドコモからGoogleのOSであるAndoridが搭載された携帯電話が発表されました。でも個人的にはAndoridにはどうも関心がでません。実は以前、試作端末メーカの方(それも社長さん)にAndoridが稼働している試作用端末をもってきてもらったことまであるのですが、それでもやっぱりAndoridはどうもぴんとこないのです。理由は二つあります。

一つ目の理由はAndorid はライセンス料がただといっても、それは端末メーカまたはそのメーカから端末を買い取って販売する通信キャリアにはメリットがあってもユーザにはない。やっぱりユーザにとってもメリットがないと、いわゆるエコシステムは広がらないですよね。なお、携帯電話用の商用OSのライセンス料は未公表ですが、おそらく1000円から1500円ぐらいと推定されます(たぶんね)。そうなるとライセンス料が無料だからといって端末原価に占める比率は小さいので、端末メーカにとってもメリットが大きいわけでないかも。むしろAndoridはアプリケーションの多くは新規開発しないといけないので、ソフトウェア全体の開発費用は余計にかかりそう。

そして二つ目の理由は、今後、携帯電話はWebブラウザがOS化してしまって、Webブラウザの下、つまりAndoridなどのOSはどうでもよくなってしまうと予想しているから。Andoridは、(なんちゃって)Javaが使えるので研究用プラットフォームとしておもしろいのですが、Andoridの魅力はむしろGoogle謹製のWebブラウザであるChromeが搭載される可能性があることの方が重要でしょう。今回のドコモのAndorid端末はWebkitベースのWebブラウザだそうですが、もしかするとChromeのサブセットでしょうかね。いずれにしてもWebブラウザとオンラインサービスでいろいろなことができる時代ですから、携帯端末にフルセットWebブラウザがのれば、OSはどうでもよくなる時代は意外に早くやってくるのではないでしょうか。

もちろん、Andorid携帯電話はiPhone/iPod Touchのようにサードパーティによるアプリケーションのダウンロード市場が立ち上がればおもしろい展開が期待できますが、携帯電話の画面サイズや搭載デバイスの種類が統一がとれないと、ドコモのiアプリの二の舞になって携帯電話ごとにアプリケーションを分けないといけなくなります。そうなるとアプリケーション開発者の負担は大きくなりそうです。個人的にどちらかいうとAndoridが真価を発揮するのは携帯電話ではなく、カーナビなどの組込機器だと思っています。組込機器にAndoridが搭載されるようになったら、また考えてみることにします。

2009年5月20日

クラウドコンピューティング関連セミナーの講演資料作成。どちらかというと企業向けのセミナーなので、今回は技術的な話はなし。さてプログラムを拝見すると、当方が、PaaSの問題点とか、プライベートクラウドって意味があるの?とか話すと怒られそうですが、でもきっと言ってしまうのでしょう。

さてそのプライベートクラウドですが、困るのはベンダーによって定義がバラバラなこと。大きく分けて、(パブリック)クラウドコンピューティングの技術を使った自社情報システムと、処理の一部を外部クラウドに任せられる自社情報システムに大別できるようです。前者はサーバ仮想化との違いを聞きたくなるし、後者はホスティングサービスやVPNとの違いを聞きたくなります。過度期としてプライベートクラウドの存在意義もわかるし、事業部や部署単位に自前情報システムを保持・運用しているような企業であれば購入・運用費用の削減になるのはわかります。ただ、規模の経済を大原則して、スケールアウトを狙った(パブリック)クラウドコンピューティングの技術は、規模がそれほど大きくない自前情報システムには向いているとは限らないし、無理して導入してもシステムが複雑になるだけ。例えばサーバを仮想化すればハードウェアは減らせるかもしれませんが、その分、仮想マシンを含むソフトウェアが複雑化していきます。また当たり前だけどシステムは複雑になればなるほど信頼性が落ちていきます。特にシステムが複雑になるとトラブルが起きたときに、トラブル原因を特定するだけでも手間がかかります。

クラウドコンピューティングではAmazonやGoogle、Microsoftなどのインフラ提供事業者が運用の面倒を見ていくれることになっています。だからクラウドインフラを使う側は運用コストを減らせます。クラウドインフラそのもは従来システムと比べて複雑ですから、インフラ提供者側の手間は従来システムよりも大きい。ただ、インフラ提供者側がそれを乗り越えられるのは、それは運用コストを極限まで減らしているから。例えばMicrosoftは管理者一人が面倒を見るサーバは5000台だそうです。しかし、運用・管理コストが下げられるのは規模の経済があってこそです。

一方、プライベートクラウドの場合は、サーバ数も少ないのに、システムが複雑になるわけですから、導入コストは減らせても、運用管理コストは増えてしまうかもしれません。一部のハードウェアベンダーでは社内事例として、プライベートクラウドにより約8割のコストが削減したそうです。しかし、これは代表的なコンピュータ会社だけあってサーバ数は膨大だったでしょうし、サーバそのものを仮想化することで複数のサーバを一つのコンピュータで動かしているから、サーバあたりで見れば運用管理コストは減らせて当然。ただ、コンピュータあたりでは運用管理コストは増えるわけで、結局、バランスの問題になりますが、現状はプライベートクラウドのコストモデルが見えていない。

2009年5月19日

Amazon EC2に自動負荷分散機能(Auto Scaling)が導入されたそうです。このAuto Scalingですが、Amazon Elastic Compute Cloud (EC2)は仮想マシンを提供する仕掛け(HaaSとかIaaSというタイプ)なのですが、負荷があがると仮想マシンを増やすというもの。だから最初はひとつ仮想マシンでOSとWebサーバを動かしておいて、その仮想マシンの負荷があがると自動的にOSとWebサーバが起動するというものです。EC2 を使っている人ならよくご存知だとは思いますが、かねてから要望が強かった機能。ScalrなどなんとかEC2に負荷分散を導入しようという試みがあったのですが、いよいよAmazon本家が動いたということになります。これでやっとEC2のlasticという名前に恥じないサービスになったと言うところでしょうか。気になるのは仮想マシン増減をどの程度、外部から制御できるかですね。負荷分散やスケーリングはアプリケーションやユーザ要求によります。このため多様な負荷分散ができる方がいい。

個人的に気になるのはAuto Scalingといっしょに発表された、計算負荷ではなくトラフィックベースでスケーリング制御する機能(Elastic Load Balancing)。クラウドコンピューティングは究極的には、計算サービスやストレージサービスはただ同然になって、課金はシンプルにトラフィック量に収斂すると予想しています。というわけでトラフィックにフォーカスするElastic Load Balancingの今後には興味があるところです。

どちらのサービスにしても研究者としては複雑。クラウドコンピューティングはそれでなくても学術研究がやりにくいのに、スケーリングのように研究ネタになりやすい部分もしっかり埋められてしまいます。いずれにしてもコンピュータサイエンスは、研究対象がソフトウェアからサービスに移ると、現在のテーマ設定方法、つまり既存システムや既存手法のなかで現状では足りないと思われる機能やサービスに手を出してみるという従来方法では通用しなくなりつつあるのかもしれません。悩ましい限りです。

2009年5月18日

午前中慶大の大学院授業。履修者数がでて61人だそうです。学部授業ならば普通でしょうが、大学院授業としてはやっぱり多すぎですよね。急いで戻ってきて来客他の対応です。ところで医者をしている知り合いからメールをいただく。発熱外来にかり出されて待機中だとか。一部地域の発熱外来担当医は戦場状態だそうですが、それ以外はいまのところ結構暇だとか。ただ、一週間以内に全国に広がる可能性が高くなる可能性が高く、全国の医療機関がたいへんになるのはこれからだそうです。やっぱり山は今週末ぐらいでしょうか。さて当方の勤務先では海外に続いて、国内の一部の地域に行った場合も5日間の(自主的)自宅待機要請という通達がでました。でも、その一部の地域の方は決していい気分しないですよね。そこで生活しているわけだし、そこで生活されている方々でも感染されてしまったお気の毒な方は僅か。ひとつ違うと差別となるかもれませんから、あとあと禍根を残さないといいのですが。

2009年5月17日

昨日はいろいろあって休日出勤となりましたが、今日は休み。まぁ日曜ですから、当たり前なのですがね。ということで家でちょっこと実装の日となりました。Google App Engine (GAE)で調べたいこともあったので、GAE用に言語のインタープリターを実装中。それにしてもGAEは機能制限が多いので、アプリケーションを選びますよね。

ところで新型インフルエンザが広がっていますね。感染拡大防止は重要なのですが、それと同時に社会・経済的影響も心配ですし、過剰反応にならないといいのですが(例えばこの記事)。素人にはよくわからないのですが、今回の新型インフルエンザ対策は、致死率が高いとされる鳥インフルエンザ向けの感染防止策で動いてますが、今回の新型インフルエンザに適切なのでしょうかね。

2009年5月16日

結局、昨日かいたいように例えばSaaS方式のクラウドコンピューティングの場合(SaaSがクラウドコンピューティングなのかは疑問だけど)、SaaSはウィークリーマンションのようものですから、家賃は高めだけど引っ越せばすぐに生活ができることができることがメリット。同様にSaaSのメリットというのは提供期間が短いサービスを短期間に準備してこそ価値があり、逆にカスタマイズはできるといっても限度があるし、長時間を利用する場合は価格的メリットも下がります。また、HaaSは借地みたいなものですが、プレハブ住宅をもっていればそれを組み立てて建てるだけどと同様に、アプリケーションやミドルウェアがあればそれにあったOSを選んで、いっしょに動かせばいいことから、機動性はあります。また、OSというレイヤがHaaSインフラの差異を吸収してくれますから、アプリケーションやミドルウェアを別のHaaSインフラまたはオンプレミスサーバへの移行はできるはず。

一方で機動性という点で微妙なのはPaaS。いまのPaaSインフラは実行可能なプログラミング言語にも制限があるし、実行可能な言語でも機能制限があります。このため利用するPaaSインフラにあわせてアプリケーションを開発しないといけないので、開発に時間がかかります。また、PaaSインフラが提供するミドルウェアは独自なので、あるPaaSインフラ向けに作ったアプリケーションを他のPaaSインフラで実行するのは不可能に近い。

もちろん研究者としておもしろいのはPaaSなのですが、PaaSインフラが普及するには乗り越えないといけない壁が多いように思います。そのひとつはアプリケーションがそのPaaSインフラから出ていっても大丈夫な仕掛けでしょう。ただ、逃げ出す先は他のPaaSインフラだけでなく、オンプレミスシステムも含まれる必要があるでしょう。その意味ではWindows Azureはオンプレミスでもクラウドコンピューティングでもアプリケーションを動かせるようにするのは正解だと思います。また、PaaSは、SaaSのカスタマイズ機能ほどとはいいませんが、相当お手軽にユーザがアプリケーションが開発できるようにしないと、HaaSとの差異が出せないでしょう。今後はクラウドコンピューティング向けの開発環境やツールなのどによる開発効率と、インフラが提供するAPIなどによる機能の豊富や利便性がPaaSインフラの差別化要因になりそうです。ただ、同時に開発者にPaaS用アプリケーション開発をしてもらうためのインセンティブを与えないといけません。例えばGoogle App Engine (GAE)はJavaやPythonに対応していますが、現状ではGAE向けの仕事は非常に少ない。このためオンプレミスシステム向けのJavaやPythonのよる開発よりもGAE向けの開発の方が給料が高いと思わせないと、少数の新しいもの好きな開発者以外はGAEに手を出すことはないでしょう。

いまはダメダメなPaaSですが、こうした問題が解決されればPaaSは大化けする可能性があると思いますし、クラウドコンピューティングがイノベーションになれるか否かはPaaSが伸びるか否かにかかっていると考えています。

2009年5月15日

某誌のクラウドコンピューティングの解説記事の仕上げ。実は書きすぎて大幅文字数オーバーとなり、ひたすら削る作業でしたがね。この解説記事ですが、編集サイドはクラウドコンピューティングの経済性にふれてほしいという要望。でも経済性についてはあえてふれず。というのは個人的にはクラウドコンピューティングとオンプレミスシステムと比べたときに、前者の方が安くなるとははまだ言い切れないから。学術研究者である以上は、確証のないことはいえないし、わからないことはわからないといわないといけませんから。

さてクラウドコンピューティングにおけるSaaS方式はウィークリーマンションのように家具込みの賃貸住宅、PaaS方式は(家具なしの)賃貸住宅、HaaS方式は借地。だからPaaS方式ではユーザ側がアプリケーションを用意しますが、それはその賃貸住宅用に家具を用意するのと同じ。HaaS方式ではユーザが用意するOSやミドルウェアというのは借りた土地に建屋を建てるようなものです。さて住宅やビルの場合、家賃やテナント料は契約更新で値上がりすることもあるし、大家の都合で取り壊されるかもしれません。それと同じでクラウドコンピューティングも利用料が値上がりする可能性はあるし、クラウドインフラが停止するリスクもあります。だからといってクラウドコンピューティングはよくないから、オンプレミスシステムに移行すべきというつもりはありません。これは大手企業でも自社ビルをもつところは少ないし、工場の建屋は自前でも工場の土地は借りていることが多いのと同じです。クラウドコンピューティングにするか、オンプレミスにするのかはユーザの都合次第です。

その意味では国内大手企業ではクラウドコンピューティングへの移行はななかな進まないと予想しています。理由はシステム的な問題ではなく雇用制度。法律的および道義的な問題から、国内企業は従業員を担当業務がなくなったからといって解雇はできません。クラウドコンピューティングのメリットのひとつは運用や保守はインフラ提供事業者任せにできることですが、国内大手企業ではオンプレミスシステムからクラウドコンピューティングに移行しても、オンプレミスシステム向けに雇ったシステム運用・保守要員を解雇できるとは限りません。つまり国内ではクラウドコンピューティング移行しても人件費を含めた運用や保守コストの圧縮が難しいということです。もちろんシステム要員の方々のなかには他の業務にかわれる方々もおられるでしょうが、そうではない方々もおられます。そうなるとクラウドコンピューティングに移行することで、後者の方々を遊ばしておくよりは、オンプレミスシステムのままの方が安くつくと判断する企業もあるかもしれません。すごく後ろ向きの理由なのですが、実際には多いのではないかと予想しています。例えば工場なのでは、経営者はNC制御などのコンピュータ制御の最新工作機械を導入したくても、従業員は旧来の工作機械しか使えないので、最新工作機械の導入を見送っていることが多かったそうですしね。

2009年5月14日

新聞などで報道されているように、NECが文科省&理化学研究所の次世代スーパーコンピュータプロジェクトへの撤退を発表。実は補正予算の発表直前になって、補正予算で次世代スパコン開発に追加予算をつけて計画の前倒しをするという案が、素粒子系の研究設備の予算案に負けたという話があり、変だなぁと思っていたのですが、NECが次世代スパコンの撤退を打診したためだったようですね。

同プロジェクトは当初からNECによるベクター型プロセッサと富士通によるスカラ型プロセッサのどちらかにするのかが焦点でしたが、結局で出てきた設計方針は両方式を複合させることにより、ベクター型とスカラ型の両方を優位性を活かすというもの。複合型というと聞こえがいいのですが、両メーカともにそれぞれの既存方式の延長線上にあるだけといわれていました(このプロジェクトは技術部分は秘密扱いになっているので第三者にはさっぱりわからない)。目標としてはLINPACK性能10PFLOSと世界最高性能のスパコンを狙っており、本年度中に試作・評価を初めて、2010年度に稼働開始、2012年には完成する予定でした。理研はNECの撤退表明を受けて、早速、スカラ型だけで当初性能を出すことを表明していますが、だったら最初からベクター型(NEC&日立)とスカラ型(富士通)の妙な折衷案などにせずに、スカラ型だけで進めればよかったでしょう、ということになってしまいます。

もちろん、折衷案に至った背景には地球シミュレータから始まる政治的な要素もいろいろありますし、国産高性能計算機開発への経済的支援という側面も否定できませんでした。なのにその当事者が支援だけ受けて逃げちゃったわけで、関係者はさぞお怒りのことでしょうね。また、残された富士通はスカラ型だけで性能を出すことが求められますから、たまったものではないでしょう。とはいっても、このプロジェクトは費用も莫大で平成18年度〜24年度が1154億円、これに運営費年80億円×運営期間分が上乗せされます。ここまでに投入された国税は300億円ちょっとだと思いますが、どう後始末を付けるのでしょうね。もっとも当方の勤務先も同プロジェクトの大学間ネットワーク部分で関わっているので、まったくの無関係というわけでもないわけですが。

2009年5月13日

お台場にいって見本市。RFIDから組込コンピュータ、ソフトウェア開発、データセンター、セキュリティの展示に分かれていて、もう何でも入りというか、情報系の実質最大の見本市かもしれませんね。分野を増やした方が集客が望めるということでしょうね。それにしても景気の明暗がわかる見本市でしたね。組込コンピュータは人が少ない。またデータセンターは冷却装置の展示や、PUE値をあげている出展が増えました。ソフトウェア開発は人は多いのですが、開発コストをさげるための製品の展示が増えました。意外に(失礼)RFIDは人が多い。まぁ去年後半ぐらいから(評価ではなく)実業務へのRFIDの導入例が増えているので、地に足がついてきたということかもしれませんね。全体的に地味な出展が増えました。つまりブースに金がかかっていないということです。

2009年5月12日

MacOS X 10.5.6からMacOS X 10.5.7にアップデート。マイナーアップデートと思いきやアップデートファイルのサイズはなんと449MB。電話回線モデムでつないでいる人はほとんどいないと思いますが、何日かかるのでしょうね。

さて昨日のGoogleのサーバ数が300万台というの話の信憑性のつづきです。この数字自体はかなり怪しいようですが、それはおいておいて、関心事はクラウドコンピューティングインフラとしての適切なサーバ数。メンテナンスコストを考えると規模の経済。数が多い方がメンテナンスコストも通信費もさがります。ただ、何万台ものサーバを使ったスケールアウト指向のクラウドコンピューティングインフラは、データ一貫性などの失うものも多いのです。つまり多ければいいというものではないのです。そこで議論しているのが合理的なサーバ数。例えばデータを保持するサーバを分散ハッシュのような方法で決めるにしても、データの参照&更新時の遅延を考えるとサーバ数は多くても困ります。

クラウドコンピューティングインフラでは高度な分散アルゴリズムを駆使して分散データ管理をしますが、その分散データ管理手法はアプリケーションを選びます。分散ハッシュとかトランザクションなどに相当詳しくないとイメージできないと思いますが、簡単に言うと、例えばクラウドコンピューティングへの要求、例えば多重化するサーバ数を増やす、データ参照時のコストを小さくしたい、データ更新時のコストを下げたい、サーバ故障時の回避処理を速くしたいなどたくさんがありますが、これらはどれかひとつを重視すると他は犠牲になります。だから万能なインフラは作れないし、一つのインフラで、複数のデータ管理アルゴリズムを共存させることはきわめて難しい。そうなるとアプリケーションに要求に応じて分散データ管理方法、つまりクラウドコンピューティングインフラを選ぶことも考えられますし、クラウドコンピューティングインフラ自体もクラスター化されるかもしれません。ひとつの大規模クラウドコンピューティングインフラの中に、多様なデータ管理アルゴリズムの小・中規模クラウドコンピューティングインフラが混在させた方がいいという考え方も出てきます。

2009年5月11日

昨晩は徹夜仕事で眠い中、午前中は慶大大学院の授業。オフィスに戻って大急ぎで論文の仕上げ&送付、それから雑誌原稿の執筆。いろいろたいへんです。ところでEmobileのUSB型データ端末(D23HW)が到着。さっそくMacBook Airで使っているのですが、もちろんわかっていたこととはいえ、確かに速い。ちなみにこの端末はMacBook Airにぴったり。端末の一部が折れるようになっているのですが、それを折るとちょうどMacBook Airからアンテナが立っているようになります。

ところでクラウドコンピューティング関連の打合せがあったのですが、最近、クラウドコンピューティングで必ず話題になるのは、Googleのサーバが300万台という情報の信憑性と霞ヶ関クラウド。前者については数字だけが一人歩きをしている感じですね。いずれにしても、クラウドコンピューティングのサーバ数というのは軍拡競争のようなものでして、実ユーザが少ないのですが(軍備だったら使わないことが大前提)、現状ではサービス数が多いインフラの方がいいインフラに見えますからね(軍備だったら他国への威圧効果)。その意味ではレーガン政権のときの米国がとった対ソ連の軍拡戦略。つまり米国は軍拡をすることで競争をあおってソ連に軍拡をさせることでソ連の経済崩壊を招かせる戦略が、クラウドコンピューティングにおいて再現できるかもしれません。そうなるとクラウドコンピューティングのインフラ提供者は1強と多数の弱小インフラという状況も考えられます。

後者の霞ヶ関クラウドに関しては総務省の2009年度補正予算案をみるのが一番いいのですが、「霞ヶ関クラウド」をはじめ、「電子行政クラウド」や「自治体クラウド」、「クラウド・ネットワーク」などの「クラウド」というキーワードがいっぱい。一時流行った「ユビキタス」を「クラウド」に置き換えただけという気がしますが、「クラウド」が「ユビキタス」と同じ運命をただらないことを祈りたいです。ちなみにコンピュータを所轄する経産省の2009年度補正予算案にはクラウドというキーワードはグリーンITのひとつとして一ヵ所登場するだけ。経産省は「ユビキタス」というキーワードを使うことを嫌っていました。今回も歴史は繰り返すのでしょうか。それにしてもクラウド・ネットワークってなんなのでしょうね。

2009年5月10日

文科省は、企業がポスドクを雇うと、ポスドク1人につき5百万円を企業に支給するそうです(記事)。文科省の2009年度補正予算で5億円を計上しているそうですが、同省の2009年度補正予算案の(5)成長力強化のための高度人材の活用(17億円)の一部が該当するのでしょう。たしかにポスドクのおかれている状況には問題がありますし、企業も積極的に雇うべきだと思います。でもポスドクさんというのは5百万円の持参金でも付けないと、どの企業も雇わないような人材なのでしょうか。また、今年度はいいとしても来年度以降に持参金制度がなくなると、ますます企業はポスドクを敬遠する可能性はないのでしょうか。おそらく文科省としては親心で、まじめにポスドクさんの雇用促進を考えたのでしょうが、本当にこれでいいのでしょうか。

2009年5月9日

成田空港に到着です。パリ発成田行きの機内では噂の健康質問票が配られました。成田空港のパスポートコントロールの直前にある健康相談室の前は大混雑、長蛇の列となっていました。といっても係員に、機内で配られた健康質問票を渡すだけなのですがね。そういえば昨日、成田経由で帰国した方に感染者がおられたそうですが、こればっかりは本人の責任ではないですから、お気の毒ですよね。さて一部の大学では新型インフルエンザの発症国への渡航禁止や、渡航後数日間の自宅待機令を出しているそうですが、なんか過敏になりすぎですよね。感染者数や亡くなられる方の数という点では新型インフルエンザよりも普通のインフルエンザによるリスクの方が大きいような気がしますけど。

ところで海外にいくとよく考えるのですが、「海外にいることのリスク」と「日本にいることのリスク」です。ビジネスとは違って、(情報系の)研究者という立場からいうと、(当方の現勤務先が特別な気もしますが)予算面では明らかに日本の方がいい。でも研究環境面では日本にいることによるリスクもあります。ただ、これは情報系の研究(その中の分野によって違いますが)が個人の能力次第なのか、組織力になるのかによってちがってきます。いまの情報システムというのは、インフラ側は機能てんこ盛りにすることで、インフラ上で動くアプリ側の開発コストは下がっているといえます。例えばクラウドコンピューティングであれば、アプリ側はアイデア次第、実装は手っ取り早くスクリプティング言語で作れば、運用はインフラ任せ。つまり、アプリ側の研究開発の主体は個人に向かっていますが、インフラ側は逆に大規模組織と資金が必須で、個人では手を出せない分野になってきました。重要なのはアプリ側の研究をするとしたときに、アイデアが沸く研究環境かもしれません。そう考えると複数拠点をもっていろいろな刺激を受けることかもしれません。

2009年5月8日

ルイ・ビトンの本店に行って最上階にある併設美術館を鑑賞(当方はブランド品への関心がゼロというかマイナスです)。この美術館は現代アート中心の美術館なのですが、出来た理由は曰く付きの美術館。フランスでは商店が日曜の営業は法律で制限されいますが、例外はミュージアムショップ。あまり知られていませんが、ルイ・ビトンは本店を日曜日も営業するために、ルイ・ビトン本店全体が美術館のミュージアムショップということにしているそうです。さて企画展が中心のようですが、なかなかのコレクションでした。

パリに来ていていつも思うのは、一世を風靡した時代の国力はないけど、当時の資産を守ることで、それなりにやっていっていることでしょうか。その意味ではウィーンやロンドンも同じなのですが、パリ(とロンドン)は新しいものや異質なものに寛容ですよね。個人的には現代美術が好きで、現代美術の多い美術館に行くことが多いのですが、その理由の一つは行った先の近代美術館や現代美術館で展示作品を見ているとその街の文化的な許容性が見えるということもあげられます。その意味ではパリは現代美術を扱う美術館がたくさんありますし、その作品の量と斬新さではトップクラスですね。東京はというと現代系美術館を含めて、評価が確立した作品でないと展示しません。多様なものや新規なものを許容力のある社会になってほしいと思いますが、それができないのであれば許容力のある国にいくしかないのかもしれません。最近は日本にいることがだんだん息苦しくなってきましたね。夜、ANAの成田行き便で息苦しい日本に帰国です。

2009年5月7日

昨日、オルセー美術館に続いて、今日はパリ郊外にあるジヴェルニーにあるモネの家です。モネはジヴェルニーの風景に一目惚れして住まいを構えたそうですが、いいところでした。また、モネは自らの最高傑作は自宅の庭といっていたそうですが、すばらしいお庭ですね。確かに最高傑作だったかもしれません。

日本から頂いたメールによると日本では豚インフルエンザの報道が賑わしているようですが、フランスでも多少は報道されていますが、それよりも政治のニュースが中心。ちなみに泊まっているホテルの方と豚インフルエンザの話をしたところ、感染者が4人だそうですが、フランスでは通常のインフルエンザで毎年2500人の方がなくなっているそうで、大騒ぎする理由がないそうです。一方、日本のメディアは過剰に反応しますが、もう少しデータを重視して、取り上げるべきニュースを選んでほしいです。

2009年5月6日

パリオペラ座バスティーユでヴェルディのオペラ「仮面舞踏会」を鑑賞。「仮面舞踏会」は初めて見る演目。さて出来ですが、すごいというシーンはなかったものの、指揮のRenato Palumboのタクトが絶妙で、あらがなく全体としてよくまとまっていました。歌手ですが、Riccardo役のEvan Bowersは声質が優しい方で役としてはあっていたかもしれませんが、やや迫力不足。Renato役のLudovic Tezierは豹変する役をうまく歌っていました。Amelia役のDeborah Voigtですが、黒人ソプラノ歌手ですが、アリアを含めていい出来でした。また、占い師( Ulrica)役のElena Manistinaも黒人メゾソプラノでしたが、迫力のある歌声。小姓(Oscar)役のAnna Christy は男装の女性ソプラノ歌手でしたが、歌だけでなく演技でも講演でした。Oscar といえば「ベルサイユのバラ」でも男装の女性でしたが、何か関係あるのですかね。舞台はシンプルですが、演出自体はパリオペラ座に珍しくオーソドックスだったので、ちょっと拍子抜け。これで今年2本目のヴェルディのオペラとなりました(この一年間では実は5本目のヴェルディのオペラとなりましたが)。

2009年5月5日

フランスでもiPhoneを使っている人をよく見かけるようになりました。またiPhoneに限らず、タッチスクリーン携帯電話が増えましたね。逆に以前より見かけなくなったのがNokiaでしょうか。店頭でも(もちろんいまでも多いですが)以前よりも数を見かけなくなりました。ところでNokiaは2009年第1四半期(1月ー3月期)の業績レポートが発表されましたが、92億7,600万ユーロで前年同期比26.7%減、純利益は1億2,200万ユーロとなり前年同期比90%減。かろうじて黒字維持というところでしょうか。ただ、出荷数も18%減ですから、かなり厳しい状況には変わらないですね。

気になるのは業績レポートの4ページにあるスマート携帯電話(NokiaではConverged mobile deviceといいます)の出荷台数。2009年第1四半期は前年同期の3.3百万台から3.6百万台に増えているとは、iPhoneなどのスマート携帯電話のマーケットが大きく伸びている状況を考えると、Nokiaはマーケットの伸びについていけていません。Nokia初のタッチパネル式携帯電話(Nokia 5800 Xpress Music)の出荷は260万台と好調なようですが、販売単価が急激に減少しているそうですから、収益に貢献するかは疑問。

さらに深刻なのは収益源だったハイエンド携帯電話のNseriesの出荷数量は5百万強(前年同期比50%減)となり、スマート携帯電話を含むハイエンド携帯電話としては減らしていることになります。欧米の通常携帯電話マーケットは飽和状態ですが、成長が見込まれるハイエンド&スマート携帯電話でもNokiaはぱっとしません。そうなると新興国や発展途上国マーケットに頼らざるを得ないのでしょうが、新興国は欧米以上に景気の影響を受けていますから、Nokiaとしては辛いところでしょうね。実際、中東・アフリカ、中国、アジア地地域での端末販売数の落ち込みが大きい。Siemensのネットワーク事業と合併したNokiaのインフラ事業ですが、売り上げは2.990百万ユーロ(12.1%減)で赤字は361百万ユーロとさらに拡大。やはりこの合併は失敗だったのではないでしょうか。

携帯電話マーケットをよく存知の方には常識的なことですが、この業績レポートからもわかるようにNokiaは世界市場ではシェアトップですが、北米では出荷台数が少ない。北米でのシェアは8%程度といわれ、サムソンよりも低い始末。2009年第1四半期の前年度同期比では伸びているもののその比率が低いのが現実です。

さてNokiaは業績見込みとして、携帯電話の出荷台数は第2四半期(4-6月期)の出荷数は第1四半期に対して微増、2009年通年では出荷台数が前年比10%程度減少の見込んでいますが、例年、季節性により海外携帯電話マーケットは第2四半期は第1四半期よりも微増するので、第2四半期の微増は織り込み済み。問題は通年の減収が10%程度におさまるかどうかですね。

2009年5月4日

フランスは住んでいたこともあったにも関わらず、さっぱりフランス語はわからないのですが、仏語新聞の紙面を見ていると、フランスでも4人の感染があったようですね。それからフランス人はマスクをつける習慣はまったくありません。SARSが流行したころに日本人がマスクを付けたままTGVに乗ったところ、伝染病の保持者と勘違いされて、TGVから降ろされるという珍事件も発生したことがあります。というわけでフランス人は日本の花粉症対策でマスクをかぶる人の写真をみると、日本は公害がひどくてマスクが必要だと本気で思い込んでいたりします。

2009年5月3日

パリです。ところでフランスの3大発明として「メートル法」、「革命」、「付加価値税(消費税)」だそうです。よくよく考えるとどれも情報と関係がありますね。「革命」は一見すると関係なさそうですが、「新聞」という情報メディアが大きく寄与しているとされています。印刷技術が発達する以前は、情報の伝搬は遅く狭い。この結果、情報は一部の貴族や裕福な商人、宗教関係者に限定されていたといわれます。印刷技術の発展により、新聞や本という形で情報が多くの人々に伝搬されるようになると、情報をもつ人の数も量も増えたために、(違う立場の人を含めて) 政治的な議論が可能になったことが、一般大衆を含む政治運動、つまり革命や民主主義の原動力となったとされます。ただ、その後に登場するテレビは一方向的かつマクロ的な情報伝搬メディアですし、伝搬費用がかかるために資金を集められる個人や団体に優位になってしまいました。しかし、現米国大統領はその大統領選においてインターネットという双方向かつマイクロ的な情報伝搬メディアをうまく使ったとされます。今後は(テレビではなく)インターネットが政治を左右するメディアになるのでしょう。インターネットがテレビが歪めた民主主義を元に戻すのか、はたまた新しい政治体系を作るのかは興味があるところです。

2009年5月2日

フランスといえば違法ダウンロードの規制法案が話題を集めています。著作権があるコンテンツを違法にダウンロードした場合、2回まで警告、3回目にインターネットのアクセスが遮断するというもの。Nicolas Sarkozy仏大統領の肝いりによるコンテンツ保護法案なのですが、実効性はあるのでしょうか。違法ダウンロードをした本人ではなく、IPアドレスをベースにユーザを特定するそうなので、ネットカフェやフリーのWiFiアクセスポイントなどが潰れることになりそう。また、ISPの負担も大きいですよね。どうなることやらです。ちなみに仏大統領の夫人はミュージシャン(Carla Bruni)ですから、コンテンツ保護にも熱心なのかもしれません。ちなみに仏大統領夫人のCDは結構売れたそうです。

2009年5月1日

豚インフルエンザが流行っていますが、パリに逃亡です。成田空港はすごいことになっているかと思いきや、マスクをしている人はまばらで拍子抜け。

ということでパリにきたのですが、今日はメーデー。さらに主要労働組合が初の統一デモを行ったということもあって、パリはいろいろあったようですね。到着した頃は一段落した頃ですが、デモのために市内の主要道路の一部は封鎖が続いているために、空港からホテルにたどり着くに時間がかかりました。それにしてもフランスはストとかデモが結構多いのですが、市民も寛容ですよね。電車やバスが止まっても一般市民のストへの支持は7割以上ということも多いし、一週間、ストが続いても支持率は変わらないことも多いのですよね。ちなみに止まっているホテルの方にいわせると、今年のメーデーは金曜日だったので(フランスではメーデーは休日になります)、3連休となったためにデモよりも行楽を優先した人が多かったので、デモ参加者は減ったそうです。

2009年4月30日

休日出勤の代休日ですが、出勤です。今日はさすがに午後からの出勤にしましたが。研究者の仕事というのは個人商店みたいなもの。研究予算を獲得して研究するということの繰り返しだし、そもそも個人商店は一人ですから、休みをとったからといって、誰かが仕事をやってくれるわけではないので、休んだ分だけで仕事が累積していくことになります。

2009年4月29日

私事でお休みです。皆様方にいろいろお世話になりました。

2009年4月28日

休日出勤分の代休日をとれ、ということでしぶしぶ今日を代休としましたが、予定通りに朝から会議。さすがに代休日なので6時過ぎには帰りましたが、代休の代休は取れるのでしょうかね。

ところで新聞社の記者さんから(IT関連で)「明るい話はないですか?」という問い合わせ。「ない」と即答してしまいましたが、ちょっと反省ですね。景気回復後(いつになるかはわかりませんが)にブレークしそうな(流行言葉で言うとイノベーションを起こしそうな)技術がいくつか出てきていますよね。まぁ、当方は予想屋ではないので、この辺の予想は他に方にお任せしますが、だいぶ景気回復後に流行りそうなサービスや需要のいくつかは見えてきましたよね。

2009年4月27日

慶大で大学院授業。今日も教室変更です。履修者全員を先週の部屋には収容できないことが判明。結局、正規履修者は61人、それ以外に他キャンパスや学部生の履修をもあるそうです。いったいどうなるのやらですね。

ところでポーケン(Poken)をいただいたのですが、よくよく考えると当方のまわりにはポーケンユーザがいないのでデータ交換ができません。さてポーケンですが、SNSのユーザIDなどの交換などが主な目的だと思われますが、SNSにどっぷりはまった人は多いですから、SNS的な、またはSNS向けのグッズは流行るかもしれませんね。SNSユーザならば名刺をもらうよりも便利かもね。ちなみにポーケンはmixiに非対応だそうです。よくよく考えると当方はmixiアカウントを持っていないので関係ありませんでした。

2009年4月26日

結局、日曜日も夕方からオフィスとなりました。さて昨日の続きですが、データセンターは昔のようなハウジングやレンタルサーバから仮想マシンの提供に移行していますから、データセンターのコンピュータなどは利用企業ではなく、そのデータセンターが提供した多数のコンピュータで仮想マシンが下層マシンが動くことになります。この場合は管理の都合から、データセンターがひとつのシステムとして扱えるようになるはずです。つまりデータセンターがひとつのコンピュータ。その場合はサーバ用コンピュータはデータセンターの部品として扱われることになります。逆にこれからのデータセンターで一番重要なIT機器はロードバランサーかもしれません。なぜロードバランサーなのかというのはまたいずれ書くことにします。

2009年4月25日

結局、夕方からオフィス。今月は全日曜は出勤でしたし、さすがに法定休日数が守れるかが不安になってきました。

ちょっと実験のためにLinuxが必要となり、MacPro上に仮想マシンVisualBoxをダウンロード・起動して、Ubuntuのイメージファイルをそのままロード。もちろんAmazon EC2を使って良かったのですがね。世の中はOS向けの仮想マシンから、ネットワークの仮想化の技術が急速に進んでいますね。データセンターによってはコンピュータだけでなく、1G-Ethernetまでも仮想化されています。つまりコンピュータではなく、分散システムそのものが仮想化されてしまう時代です。

問題はその先です。データセンターが仮想化される時代は来るでしょうか。つまりデータセンターが仮想化されて別のデータセンターに乗る時代はいつくるでしょうか。というのもGoogleやMicrosoftのようにはいかないものの、データセンターは省電力化のために、たくさん小さいデータセンターを集約して大きなデータセンターが増えていくことが予想されます。そのときは個々のサーバではなく、データセンターごと仮想化して別のデータセンターに実行するかもしれません。データセンターにサーバの様子を見に行ったら、データセンターは空っぽ。そのサーバはそのデータセンターごと別のデータセンターが動いていたという事態もでてくるかもしれませんね。

2009年4月24日

実は昨日までは、特殊な政府系研究予算のプロポーザルを作っていました。予め自然科学系研究者全体のなかで数十人が候補者としてセレクションされて、その候補者だけが応募できるという予算です。予算の性格的に行って情報系よりも物理やバイオ系が向いているのにも関わらず、数多い自然科学系の研究者のなかで、情報系研究者、さらに当方をその候補者に選んでいただいただけでもありがたいことです。それと一番ありがたかったのは将来の科学技術を真剣に考える機会をがあったことでしょうか。その予算は新しい研究分野を作ることと、10-15年先の社会に影響を与えることが求められていたのですが、候補者内定後の2ヶ月間、10-15年先の科学技術を真剣に考える機会があったのはいい経験でした。もちろんその予算をいただけるかは別の問題になるわけですが、個人的にはこの先の自分自身の研究方向性がかなり明確になったことは大きかったですね。

それにしても世の中は大きな不景気の真っ最中なのですが、歴史的にいって、大きな不景気の後は価値観が変わります。ですから企業も研究者もいままでと同じ手法、同じ内容では通用しないわけで、その変化の時にいられたのは研究者としては幸せなのかもしれません。

2009年4月23日

早朝出勤して、というか徹夜の続きで出勤して、午前中はいろいろ仕事。その後、名古屋でクラウドコンピューティング関連の講演。新幹線はN700系だったので、先月から始まった新幹線の無線LANサービスを初体験。新幹線一編成で2Mbpsという話でしたが、メールを読む分には十分かもね。ただ、個人的にはそこまでネットワークにつながっていたいとは思わなかったりします。

ところでテレビや新聞では有名タレントが公然わいせつで逮捕された話題でいっぱいのようですが、被害者が出たわけでないわけで、騒ぐことなのですかね。個人的に驚いたのは事件よりも周りの騒ぎ方の方だったりします。また報道によりますと、タレントの方を「最低の人間」と人格否定までされている大臣までおられますがね、そこでいうこともないし、仮にそこまでいうのならば酔っぱらって失態を起こして辞められた大臣はどうなるのでしょうか。それにしても最近のメディアは、話題にすべきことではなく、話題にしやすいことに報道することが多くなったような気がします。これではネット上の一部の電子掲示板の投稿とレベルが同じです。話題になっていることだけを話題にしていては、(いまは話題になってはいないけど)話題にしないといけないことが話題になりません。

ところで大臣は、次の日に発言を撤回したそうですが、ただ、「はらわたが煮えくりかえり、言ってはいけないことを言った」というのを失言の理由付けにされると、今度は危機管理能力が疑われることになります。個人的には「最低の人間」の発言よりも失言の理由の方が気になりました。

2009年4月22日

今日も徹夜。ただし、昨日のようにオフィスには泊まらずに、家で徹夜仕事となりました。さすがに二晩続けての貫徹は辛いです。

2009年4月21日

今日は徹夜仕事となってしまいました。情けないのですが、明後日締め切りの仕事が3つ重なっている状態で、にっちもさっちもいきません。国研の研究者はお気楽そうに思われているそうですが、ワーカホリックにならないと勤まらないです。同じフロアーの研究者を見ていても、何時に出勤するかは別にして、12時間以上滞在は当たり前だし、休日出勤も普通に多いですから。もちろん研究時間と研究実績は無関係なのですが、それでもやっぱりいろいろたいへんです。

2009年4月20日

今日は慶大の大学院の授業。先週は教室がいっぱいになって立ち見が出たので、倍はいる教室(40人収容)にかえてもらったのですが、やはり立ち見が出る事態となりました。慶大の教務担当者曰く、履修者は暫定で61人だそうで、大学院の授業としては前代未聞状態になっています。ともかく再度、教室変更です。この先、いったいどうなるのでしょうかね。だいたい地味な内容の授業なのですがね。

大学といえばMSN産経ニュースに「日本の大学は多すぎる? 増える「ナゾの学部」」という記事がありました。たしかに謎の名称がついた学部や学科は増えたかも。キャッチーな名称の新学部設置すると初めのうちは受験者を確保するのですが、受験生はよく見ています。4年たって、もしその学部の卒業生の就職状況が悪いと、受験者は一気に減ることになります。そこで一部の大学は学部の名称を変えて受験者数を増やそうとします。個人的にはいい教育が受けられるのであれば学部や学科の名称はなんでもいいと思いますが、受験生確保のために定期的に学部や学科の名称を変えるのは感心しません。

また、大学関係者ならばよくご存知だとは思いますが、大学の教員一人あたりの学生数は平均では学生20人だそうですが、有名大学でも40人を超えているところは結構あります。経営的には教員一人あたりの学生数は多い方がいいのでしょうが、教育の充実をはかってあげてほしいですよね。また大学も生き残りをかけて学生の奪い合い状態で、定員充足率が120%以上になっているところが多いのですが(昨年度は定員充足率が1100%越えになった大学まで登場)、全入時代ですからどこかの大学が多めに入学させるので逆に定員を大幅に割っている大学も多い。その一方で一部の大学は退学率があがっています。退学率(2004年度入学の学生さんが2008年3月までに退学した率)が40%越えというトンデモ大学があるそうですが、東京や大阪などの都市圏で、それなりに名前が知られた大学でも20%を超えているところは少なくない状況だそうですね。退学者が多いのでまずは多めに入学させておいて経営安定をはかる大学も結構ありますが、その一方で大幅定員割れなのに大量退学という状況の大学も多い。キャッチーな名称の新学部や新学科を作る前に既存学部や学科のテコ入れをしてあげてほしいです。この記事にもどりますが、大学数は20年間に1.5倍に増えているそうですが、大学ってそんなに儲かるのでしょうかね。

ついに太陽に御神託がくだりました。Sun Microsystemsを買収するのはOracleになったようですね。個人的にはCiscoかEMCあたりが買収するとおもしろいと期待していたのですがね。それにしてもOracleからみるとSunMicrosystemsの事業すべてが欲しいわけではないでしょうから、サーバとストレージ、Solaris以外の多くの部門は売却されるのではないでしょうか。ところでMy SQLはどうなるのでしょうか。OracleにしてみるとMy SQLは潰したいでしょうから、My SQLはOracle中で飼い殺しにするかもしれませんね。もしかするとMy SQLを潰すのが、今回の買収の最大の目的だったかもしれません。それはOracleがMy SQLをどう扱うかでわかることになります。それからSPARCですが、当方が富士通の経営者だったら、Oracleに乗り込んでSparc部門を買い取ります。Sparcに将来があるかはわかりませんが、Sparcの終わり方ぐらいはSparcで商売をしている会社が決めた方がいいです。いずれにしても御神託で太陽が救われることを祈りたいです。

2009年4月19日

さらにいろいろあって、今日も休日出勤です。まぁ午後からの出勤となりましたがね。

2009年4月18日

いろいろあって、朝から休日出勤です。書類から論文まで仕事量が飽和状態。なんとかしてほしい。もちろん自分で何とかしないといけないわけですが。

2009年4月17日

東芝は2009年3月期の最終損益を3500億円の赤字(営業損益は2500億円の赤字)を発表する一方で、5000億円規模の資本増強を発表。大型の買収でも考えているのでしょうか。やはりエルピーダを買うのでしょうかね。メモリに運命をかけるのならばひとつの戦略かもしれません。東芝は研究開発費は、2008年度3,900億円から、2009年度は3,200億円に減額するそうですが、小向の方面では情報系の基礎研究予算は半減以下とか7割減という状況のようですね。東芝は知り合いも多いのですが、なんとか耐えて欲しいです。もちろん東芝のライバルとされる日立と比べるとまだまいいわけですが。

それとGoogleも1-3月期決算を発表していましたが、メディアによって評価が違うのが興味深い。新聞系はGoogleは(株式公開後)「初の減益」や「成長鈍化」などのネガティブな記事が並びますが、Web系のニュースは「検索事業の成長と経費削減で予想を上回る利益」や、他のWeb系ニュースですと「成長減速もコスト削減効果で純益8.9%増」などのポジティブな記事が目に付きます。まぁ新聞系はGoogleを含むネットメディアは商売敵なのですが、Web系のニュースはネット広告で稼いでいますから、そのネット広告の最大手であるGoogleの広告収入の減少を強調すると、自分たちのクビをしめることになりますからね。いずれにしてもGoogleの収益のほとんどをしめる広告収入が伸びなくなってきているのは事実なのでしょう。それにしてもGoogleという会社は広告収入に頼りすぎていますよね。

2009年4月16日

モバイルエージェントの研究をしていた(している)ということもあって、モバイルエージェントとクラウドコンピューティングの関係を聞かれることがあります。実はモバイルエージェントとクラウドには意外な関係があります。モバイルエージェントという概念を明確化したのは、今はなきGeneral Magicという会社ですが、General Magicの作った世界最初のモバイルエージェントシステムであったTelescriptでは、Telescriptのエージェント実行環境や実行環境同士を結ぶネットワークの全体をクラウドと呼んでいました。これはGeneral Magicの方が1996年に書いた論文におけるクラウドの説明です。"We often refer to a Telescript platform as a cloud. Inside a cloud, most communication is accomplished using agents that go between places." という定義ななされています。まぁ、ネットワークの絵を雲で書くことが多いからのような気がしますが、Telescriptのネットワーク全体をクラウドコンピューティングインフラと考えれば、当たらずとも遠からずというところでしょうか。

クラウドコンピューティングの内部処理というのは非同期処理が基本なので、エージェント的なアプローチはもしかすると向いているのかもしれませんが、クラウドコンピューティングではプロセスという概念がいままでのOSとは違ってくるので、いままでのエージェント的なモデリングやシステム構成はいいとは思えませんがね。もっともエージェント系の研究者は流行物好きなので、クラウドコンピューティングが流行れば、自称クラウドコンピューティング向けエージェントの研究がたくさん出てくるわけですがね。

ちなみにモバイルエージェントの研究者は、(エージェントではなく)分散システムの研究者上がりが多いので、同期処理やデータ分散などのクラウドコンピューティングでも王道のテーマで攻めてくるでしょうね。かつてのユビキタスコンピューティングの研究がそうであったように(ユビキタス系で最難関国際会議とされるPerComはもともとMAというモバイルエージェントの会議の後継として企画しました)、クラウドコンピューティングの国際会議にいくと、元モバイルエージェントの研究者がまた集まっていそう。というか、PerComの設立メンバー、つまりモバイルエージェントの研究者だった連中と、クラウドコンピューティング系の国際会議を実際に企画中だったりします。

2009年4月15日

スパムメールによるCO2排出量に関する記事があったのですが、スパムメールに関わる電力消費の80%近くは、ユーザーがスパムを削除して正規のメールを探し出す作業だそうです。スパムメール一通あたりの排出量0.3グラムという積算はよくわかりませんが、確かにスパムメールに関わる電力消費や時間ロスは大きそう。でもよくよく考えると、スパムではないメールも書いたり読んだりするのに電力消費をしているわけですから、地球のためにメールは読まずに捨てるというのがいいかもね。

ところでいまのコンピュータというのは計算負荷が高くても低くても、電源が入っているかぎりは消費電力はあまりかわりません。ということでメールを読み書きする時間を決めて、それ以外はコンピュータを止めておくというのもいいかも。UUCP時代に戻ってしまいますが、それはそれでいいかもね。

2009年4月14日

今日は愚痴です。毎年、国際会議のプログラム委員長をしていますが、他の国際会議に文句を言いたくないのですが、最近、マネージメントに問題がある国際会議が急に増えた気がします。いちおう毎年、両手では数えられないぐらいの国際会議の××チェアとかプログラム委員(PC)をさせていただく(させられる)るので、多くの国際会議マネージメントをみる機会がありますが、今年になってから悪化していますね。最近、驚いたのはACM主催の国際会議。この会議のPublicity Chairになることになったのですが、実は昨年の会議ではPublicity Chairになっていて、会議関係者が昨年の組織と、今年の組織を間違えて広報してしまって、それが発覚したのは論文締め切りの一週間前。いまさら変更もできず、去年の組織がマネージメントすることになりました。さらにプログラム委員も本人に了解をとっていなかったので、査読が遅れに遅れている状況。ACM主催の国際会議でもこの状況ですから、他の会議はひどいというか、むちゃくちゃという状況になっていることも多い。

いくつかの理由があげられますが、その一つは経済不況の影響。大学などの教室を無料で借りて、こぢんまりと開いた国際会議でもなければ、スポンサーをさがさないと資金的に厳しい状況になりますが、いまはスポンサーになってくれる企業は少ない。だというのに派手なイベントにしたがるお偉い先生方が役員になっていたりすると、費用が加算で国際会議は大赤字になります。それとここ数年の傾向とはいえ、発表キャンセルが急増しているように感じます。米国の有名大学でも寄付金は大幅に減っている状況で、StanfordやMITクラスでも学長名で全教員に経費削減への協力をもとめるメールを送られているそうです。特にIVYリーグに代表されるように寄付金比率の高い米国大学は悲惨だそうです。

さすがに有名国際会議は発表キャンセルはそれほど目立っていませんが、参加者数が大きく減った会議は多い。一方、非有名な国際会議だと論文は採録されていても発表キャンセルするケースが多発。研究の世界も、有名国際会議に通そうと思ったら、優秀な人材と高価な研究機材が必要なので、有名国際会議にコンスタントに通せる研究グループはまだまだ資金的には余裕がありますが、非有名な国際会議だとそうもいかなくなるのが現実なのです。さて国際会議に論文を通す理由はいろいろですが、いまは有名国際会議でも有力研究者の参加が減っている状況ですから、比較的なクローズだけど、有力の研究者が確実に集まる国際会議に論文を通して、海外の有力研究者と密に議論したり、研究を売り込む方がいいかもしれませんね。その方が論文の参照率もあがるように思います。さらにマネージメントに問題がある国際会議は論文も集まらないうえに、査読者に選別に問題があることが多く、ダメ論文が平気で採録されることになります。こう書くと悲観的になりますが、いまは国際会議が多すぎる状況なので、淘汰されること事態はよいことだ思っています。

ただ最近、困るのは当該分野でも一番といわれる難関国際会議でも最近は査読者の質が下がっていることでしょうか。難関国際会議では査読後にプログラム委員会議やメールで議論するのですが、最近は当該分野の研究者だったら絶対知っているだろうと思われる既知の研究を、担当した査読者が知らず、新規な研究だと言い出す人が多くなりました。これはそのプログラム委員の能力不足というよりも、そんな無知なプログラム委員を選んだプログラム委員長の能力不足なのですが、そんなプログラム委員を窘めないといけないので、下手にプログラム委員を引き受けると疲れることになります。いま心配なのはこの国際会議。マルチメディア分野では最難関ということになっていますが、去年のプログラム委員には査読能力に欠ける方も少なからずおられました。今年もプログラム委員になっているので気が重くなってきています。

2009年4月13日

慶大の大学院授業。受講者が40人越えとなり、立ち見にくわえて、教室に入れない人がでる事態。まぁ初回だから様子を見に来た人も多いと思いますが、学部の授業ならばともかく大学院の授業としてはびっくりですね。もちろん、受講するか否かは別にして教室においでいただいたのありがたいわけですがね。

ところで、昨日の休日出勤の時に撮った写真をWebにおいておきます。撮影対象は前回と代わり映えがないし、枚数も少ないのですが。今回は、前回のように大昔のレンズではなく、現代のレンズ。さすがに解像度&コントラストが高いですね(前回の写真は点光源の滲みがすごいことになっています)。逆にその場の空気というか、雰囲気みたいなものがなくなりますがね。ところで写真のように勤務先の隣のビルは某通信会社から某製紙会社にかわるようですね。

2009年4月12日

今日も日曜出勤となりました。平日は打ち合わせや委員会などで外出することも多いので、研究をしようとすると早朝と夜、休日ということになってしまいます。というわけで平日はだいたい9時前にはオフィスにきて、外出前に一仕事をこなすことになります。今月は(霞ヶ関方面のおかげで)仕事量が多くなり、帰れるのは22時頃。それでも会社員の方と比べるとかなり楽なのですがね。

さて職種上、裁量労働制のため就業時間は自由なので「残業するな」とはいわれませんが(その代わり残業代もつきません)、問題は休日出勤したときの振替休日。人事担当の事務方からは「休日出勤をしたら必ず振替休日をとれ」といわれるわけですが、平日に休めるぐらいならば休日出勤などはしませんよね(法定休日数は確保するようにしていますが)。というわけで未消化の振替休日が溜まっていくことになります。どうしたらいいのでしょうね。

それはともかく、当方に予算関連の話をもってくる人がおられますが、当方にいわれても困ります。補正予算のことは当該省庁にお願いしてください。また、当方に経済活性化、雇用、省エネの三つを同時に解決する政策案を聞かれても困ります。でも補正予算はすごいことになっていますね。1998年の大型補正の時もむちゃくちゃでしたが、今回の補正予算はそれを超える状況が予想されますね。そもそも予算案があって、それをベースに金額を積み上げたのであればまだいいのですが、補正予算額が決まってから予算案を決めることになるので、各省庁の担当者はたいへんだと思います。役所はあくまでも政策の執行機関であって、予算額などは政治の問題あって、役所の問題ではないですからね。

2009年4月11日

昨日の続きです。推定で、Googleは300万台、Microsoftが100万台、Amazonが10万台程度のサーバを保持しているといわれています。こうしたサーバ群はデータセンターに格納されますが、いままでのデータセンターと違うのは、サーバの数が桁違いに多いことに加えて、データセンターにおかれたサーバはばらばらに動くのではなく、ひとつの巨大データセンターがひとつのコンピュータのように動いているということです。

つまり巨大データセンターが計算システムの最小単位になるということです。これは様々な変化をもたらします。ひとつのデータセンターは数十万台のサーバから構成されていますから、質よりも量になり、個々のサーバはどうでもいい存在になっていきます。今月初めにGoogleのデータセンターの情報が一部公開されましたが、そのとき公開されたサーバは信頼性よりも価格重視の構成、つまり個々のサーバの信頼性よりも数で信頼性を確保するという構成でした。いずれにしても巨大データセンターは規模の経済ですから、サーバ数を増やせば増やすほど調達コストも運用コストは下がります。

またハードウェアの売り方も変わりそうです。個々のサーバを売るというのはコンピュータの部品を売るようなものになり、むしろデータセンター単位の売り買いが中心になる可能性もありえます。ハードウェアベンダーもRackableのような高密度サーバ専門のメーカや、EMCのようなデータセンター向けのストレージに特化したメーカが躍進するのでしょう(個人的にはCiscoとEMCが最近、仲がいいのが気になりますね)。問題なのはDellやHP、IBMのような大手ですよね。オンプレミス向けサーバ市場では現在シェアを持っていますが、オンプレミス向けサーバと(パブリック)クラウドコンピューティング向けサーバでは要求される信頼性と価格が違いますから、両方を手がけると矛盾を抱えることになります。データセンターはPUE重視なので、計算性能だけでなく冷却や電力供給を考慮することになるので、いわゆるプラント屋のようなシステムベンダーが登場するかもしれませんね。Googleは冷却水の取水プラントのビデオを公開しましたが、ほとんど工場ですよね。

2009年4月10日

都内でクラウドコンピューティングのセミナー、それからオフィスに戻ってお仕事。セミナーの内容はだいたい予想通りだったのですが、確認するという意味ではよい機会でした(予想に反して話さなかったところはいくつかありましたが・・)、。個人的には主催者側の記者さんのAmazonのデータセンターの規模予測が一番おもしろかったです。先月上旬にFinacial Timesの記者がかいた世界のサーバーの20%は4社(Google、Microsoft、Amazon、Yahoo)が買っているというブログが話題を集めたのですが、真偽についてはいろいろいわれていましたが、確度の高い話だったということになりますね。

クラウドコンピューティングはGoogle、Microsoft、Amazonが独走状態になっていますが、3社ともに雲の中、つまりクラウドコンピューティングでもインフラ側の情報は基本的に非公開。このためメディアが取材という形で非公開情報を取り出すことをしてくれないと何もわからないのが現実。その意味では推量でもいいので、雲の中を見せて欲しいのです。これをいうとクラウドコンピューティングでもコア技術のMapReduceとかGFSなどは論文として発表されていると反論されるのですが、Googleは一世代の前のシステムしか公開しないので、MapReduceやGFSの論文が発表された頃には、先に行ってしまっているのです。おそらく先行企業とそれ以外との差はますます広がっていくのでしょう。

それにしても今日はスーツ姿の人が多くてビックリでした。クラウドコンピューティング系のお勉強会というと20代前半の人が多くて、スーツ姿の人は皆無でしたが、2月か3月ぐらいは雰囲気が一変しています。3月に当方が講演したクラウドコンピューティングのセミナーでもスーツ姿の方ばかり。講演中に実際にクラウドコンピューティング上でプログラミングしている方を聞いたら、たった一人。参加されている方は多かったのですがね。クラウドコンピューティングは一部の技術者からビジネスの世界に移行していますね。

2009年4月9日

年度末に購入したいくつかのソフトウェアをインストール。ところでユーザがソフトウェアをインストールするというのはいつまで続くのでしょうか。

仮想マシンはサーバだけではなく、クライアントPCでも使われはじめていますが、だったらOSは仮想マシン用イメージファイルとして配布すればいい。さらに進んでアプリケーションもOSにインストールされた状態で、仮想マシン用イメージファイルとして配布してくれればいい。例えばユーザはMicrosoftのWebページで、ほしいアプリケーションなどにチェックをいれると、そのアプリケーションをインストールした状態のWindowsの仮想マシン用イメージを生成してくれて、それをユーザのコンピュータに自動ローディングすればいい。

この方式にすると何がいいかというと、ユーザはソフトウェアをインストールする手間がなくなるということもありますが、むしろセキュリティが一気に高められるのです。ソフトウェアのインストールは、外部システム(例えばMicrosoft)に任せてしまえるわけですから、OSからユーザがソフトウェアをインストールする権限や機構を排除できます。そうしてしまえばマルウェアやウィルスに感染する危険性を減らせることがあります。どうも仮想マシンとセキュリティの話なると、仮想マシンでマルウェアの悪さからコンピュータを守るなど既存のOSを前提にした安直な話ばかり(知り合いでもこうした研究をしている方が多いので怒られますが)。でも仮想マシンのセキュリティへの効用というのは、ユーザによるソフトウェアのインストールを禁止しても大丈夫ということにあると思います。なお、この方法にはもうひとつメリットがあります。それはインストールするアプリケーションによってOSそのものの最適化ができるということです。いまのOSは汎用狙いなので、無駄も多いわけですが、アプリケーションが決まっていればそれに応じてOSの構成を最適化できます。

ちなみにこの考え方を発展させるとソフトウェアのロード機能もなくせます。つまり、ソフトウェアはインストールだけではなく、メモリ上にロードされた状態でOSごと仮想マシン用イメージを作ってもらって、そのイメージをコンピュータにローディングすれば、ここのソフトウェアをロードする機能もOSから不要になります。ロードしたソフトウェアが止まったらどうするのということになりますが、そのときはもういちどイメージごとローディングすればいい。もちろん現在は効率的とはいえませんが、将来的にはOSを含む仮想マシン用イメージがソフトウェアの配布形態になるのではないでしょうか。OSというと、OSはこうあるべきだという、建前論が先に来るのですが、仮想マシンが前提になればOSの位置づけも変わるはずです。柔軟に考えればOSも大きく変わる余地は残っていると思います。

2009年4月8日

Google App EngineがJava対応だそうです。それと開発環境もEclipseに対応。というわけで早速、お試しです。

App Engine用のEclipseプラグインのインストールをして、大急ぎでJavaからシステムプロパティを読み出すプログラムを書いて、Google側にデプロイして実行。これがその実行サーバ(これをクリックすれば実行されます、一部ユーザ情報を隠しています)。システムプロパティをプロパティを表示するだけの簡単アプリですが、これでもいろいろわかります。まずApp Engine側のJava VMは、Sun純正で"HotSpot(TM) Client VM"でバージョンは"1.6.0_13"。ここで気になるのはJava VMがServer版ではないということのですが、クラウドコンピューティングのサービスはサーバそのものではないのでクライアント版にするのは正解なのかもしれません。また、AndoridのようにGoogle特製Java VMという噂もありましたが、普通にSun純正でしたね(ちょっと拍子抜け)。ちなみにOSの情報も取り出そうとしたのですが、Linuxという名称は返してくれますが、バージョンなどは隠されているようです。上記のプログラムとは別にServletの方も調べたのですが、ServletエンジンはJettyのようですね。

ただ、ここまでには苦労してしまいました。みなさんインストールをしようとしているのでサーバが混んでいたのでしょうか、プラグインのダウンロードだけでも相当な時間がかかる始末。そのうえ当方はEclipseはJ2EE用ということ気がつかず、通常版にインストールしてしまうというお茶目なポカまでやって、インストールやり直したりなどで無駄な時間もかかってしまいました。でも、はまったのはこの先で、ささっと書いたプログラムはローカルでは動くけど、Google側へのデプロイで失敗してしまう。10時過ぎまでいろいろ試行錯誤を繰り返したのですが、結局、解決せずにそのまま帰宅。朝方、やってみると何事もなかったようにデプロイ&実行に成功。どうもGoogle側の問題だったようです。さてApp EngineのJavaですが、ドキュメントを読む限り、Javaに対する機能制限は厳しい。例えば当方が試した限りでもスレッドもダメでしたし、ソケットもダメ(わかってはいるけど念のため試したくなるのが人情ですよね)。というわけでJSP程度が限界で、Javaだからといって多くを期待してはいけないということのようです。

さてさて話はかわりますが、緊急経済対策は15兆円ですか。これだけ税金を透過すれば消費拡大に何らかの効果はあるのかもしれませんが、いまはサブプライムローン問題に端を発した深刻なクレジットクランチが発生していて、それが企業の設備投資や個人消費を低迷させている状態のはず。例えば値引きをしても買い手が付かない状態なのですから、補助金やポイント補助にどれだけの効果があるのでしょうか。世界的にクレジットクランチを解消しない限りは景気は戻らないような気がします。そして日本に関してはモノづくり&輸出産業依存という産業構造を変えることにお金を使った方がいいように思ったりしますがね。

2009年4月7日

ヤフーはUSENからGyaOを買い取るそうですね。昨日、インターネット対応テレビ向けのインターネットサービス「テレビ版Yahoo! JAPAN」を発表したばかりだったのですが、今日はGyaOの買収。これらに以前からやっているヤフー動画を組み合わせて相乗効果を狙うつもりでしょうか。ここで疑問なのは別の日にプレスリリースしたのか。いろいろ話題が多い会社とはいえ、疑問が残りますね。

不景気でネット広告費がへっているそうですが、今年に入ってヤフーのプレビュー(PV)数は減っているそうで(2月は前年度同月比4%減)、ヤフーの営業利益減っているはず。昨日の「テレビ版Yahoo!JAPAN」にしても、今日のGyaOにして、サービスとしてはおもしろいのでしょうが、営業利益に貢献するのは数年先。さてこのところヤフーの株価が低調状態ですが、今回のGyaoの買収という話題性でどこまで株価を上げられるかですよね。というのはヤフーは増益を堅持することで株価を高くしてきた企業。今回のGyaoについても市場は増益を期待するわけですが、GyaOはUSEN時代から赤字続きでしたから、営業利益に貢献するかは謎。同様にインターネット上のビデオ配信といえば著作権を半ば無視したYouTubeですから赤字ですから、有料コンテンツで儲けようというのはだいぶ先でしょう。

ここで気になるのはヤフー株に頼ってきたのは親会社のソフトバンクの財務状況。ソフトバンクはヤフー株の4割を保持しており、ソフトバンクはそれを担保にして借金に借金を重ねてきました。しかし、現状のようにヤフー株価が低調になると担保価値がさがるわけで、ソフトバンクとしては資金繰りの心配をしないといけなくなります。いずれにしても明日のヤフー株の動きは気になるところですね。話題性でヤフー株はあがるとは思いますが、予想よりも低いとなると、ソフトバンクのメインバンク(みずほ)が担保割れから一部負債の返済をせまるということになり、ソフトバンクモバイルの売却の噂が再燃するかもしれませんね。

さてソフトバンクモバイルはiPhoneを扱っていますが、iPhoneはPCに近い分、送受信されるデータ数が多く、都市部のソフトバンクモバイルもの基地局はパンク気味といわれます。ソフトバンクモバイルは基地局の増強が求められていますが、これの設備費用の捻出もヤフー株の株価と関係してきます。白犬のお父さんもさぞや心配のことでしょう。

2009年4月6日

お話1: 王様が10トンの真水をくださるそうです。領民みんなが生きていくためにはたぶん500トンぐらいの毎年真水を使うそうで、その2%をくださるそうです。実は昨年の9月に水槽に穴が空いてしまって、水がたくさん流れ出てしまいました。おかげで領民は喉がからからです。誰かが王様のところに行って、水槽の穴が空いて水が流れ出てしまって困っています。穴をふさいでください、とお願いをしました。王様はたいそう心配されて大臣に「10トンの水を用意してあげなさい」といいました。でも、お水では穴はふさがりません。またすぐにお水が足りなくなってしまいます。それに領民はあとで王様にお水を返さないといけないそうです。領民はいっときの喉の渇きは潤せそうですが、本当に幸せになれるのでしょうか。

お話2: 王様は2トンほどの真水を用意して、3月末から領民みんなに同じだけ配ることにしました。領民は喉は渇いていましたが、このさきもっとお水が足りなくなることが心配なので、飲まずに各自の水槽にお水を貯めてしまいました。このため領民はあいかわらず喉がからからのままでした。

お話3: のどが渇いた人が水貸し屋さんに水を貸してくれるように頼みにいきました。でも水貸し屋さんは貸してくれません。実は水貸し屋さんも別の水貸し屋さんから水を借りていたのですが、急に返して欲しいといわれているので、領民に貸す水がないそうです。そして貸した水を返して欲しいといった水貸し屋さんは、水を貸している水貸し屋さんが、いったいどれだけ他から水を借りているかわからないし、どれだけ水を貸しているかがわからない。だから返してくれるか心配なので、いま貸している水を返して欲しいといっています。それを聞いた王様は領民にお水を用意すれば、水貸し屋さんはいままでのように領民に水を貸すようになると思ったそうです。水貸し屋さんの心配はなくなって、いままでのように領民に水を貸してくれるようになったでしょうか。

2009年4月5日

このところ毎週、日曜日は出勤状態ですが、今日も午後から出勤となりました。休日出勤でもしないと収拾がつかなくなっています。というわけで休日出勤の振替が消化しきれずに、すでに一年以上前の休日出勤分も消化しきれていません。結局、召し上げ処分となるようです。もちろん民間企業よりはいいのでしょうが、国研もなかなかたいへんだったりします。

さてIBMによるSun Microsystemsの買収交渉が難航しているようです(その後の報道では決裂だそうです)。MicrosoftのYahoo!買収騒動がいい例ですが、買収される側の経営不振による買収交渉では、交渉が決裂した場合は買収される側のダメージは大きい。株価が下がるのはもちろん、顧客も従業員も逃げていきます。IBMにしてみればSun Microsystemsは競争相手。仮に買収できなくても、交渉に難航しているという情報が流れるだけでもSun Microsystemsを弱体化できますから、それだけで買収交渉のメリットがあることになります。またSun MicrosystemsにとってIBMよりもいい条件を出す買収者がいるとも思えない。というわけでIBMにしてみると相手の足下を見ながら買収価格を決めて、相手が応じなければやめればいい。

過去をふりかえると、IBMから提携話や買収話で双方にのって利益があったという例はあまり聞かないのですよね。(さすがにSun Microsystemsはあてはまらないと思いますが)中小のIT企業の場合、IBMのような超大手企業からの提携話があるだけで、業界内ステータスがあがると思って飛びつくのですが、超大手企業というのは中小企業がもつブレーク技術が怖いわけで、その場合はその企業と提携してその技術の独占販売権などを手に入れるのだけどあえて野ざらしにする。つまり、その技術を握りつぶすために提携することもよくあったりします。もっともいまはIBMではなくGoogleなのかもしれませんがね。

ところでSun Microsystemsといえば、当方は高性能&大規模サーバを扱う立場ではないので、カタログ的スペックでしかわからないのですが、最近のSun Microsystemsの製品は性能対価格費はなかなかいいと思うのですが、ただ、Sun Microsystemsの製品ラインナップをみていると、プロセッサとかハードディスクをいっぱい載せたときの性能単価や容量単価は結構安いのですが、最小構成モデルのお値段が高いのですよね。この辺はIBMやHPの方が商売上手というか、評価用に最小構成の格安モデルを用意しています。Sun Microsystemsはソフトウェアでは損して元取れ的なビジネスが上手ですが、ハードウェアでは下手ですよね。SPARCワークステーションにしても下位モデルを格安で売るという発想にいたらないために、LinuxやFree BSDを使ったPC UNIXの台頭を許してしまいました。

2009年4月4日

米CNETがGoogleのサーバについてのインタービュー記事を出したのですが、そこに写真付きでサーバがでていますが、なかなか興味深い。さてこの記事で一番驚いたのはGoogleのPUE。PUEのグラフが出ていますが、おどろくほどPUEが低い。なんと1.19だそうです。国内の最新データセンターでは1.8程度でしょうから、国内勢に勝ち目はないです。さてサーバですが、噂通りに各サーバ(のマザーボード)にUPS(バッテリ)を付けていること(ネットワーク機器も機器単位にバッテリ搭載)、その理由も説明されていて、ずまりお金、つまり集中型のUPSはお金がかかるけど、ノートPCのように分散制御すると安くなるからだそうです。また写真を見る限りではHDDのとりつけはマジックテープ、LANポートはひとつ、それとUSBポート、PS/2マウス&キーボード、シリアルポートはあるようですが、VGAポートはないようですね。記事には電源は12Vだけという説明があります。それにしても一見するとチープなサーバですが、徹底的に無駄を省いたサーバなのでしょうね。また、運輸用コンテナ内にサーバ・ラックを設置して、1コンテナあたり1,160台サーバを格納・運用しているようですね。

ところで記事に登場するGoogleの運用担当役員のUrs Hoelzle氏ですが、当方が博士課程の学生だった頃に何回かお会いする機会があり、当時は当方もHoelzle氏もオブジェクト指向プログラミング言語の研究をしていたので、ECOOPなどの国際会議で発表セッションが同じになることも多く、いろいろお世話になりました。なにかの国際会議(やっぱりECOOPだったでしょうか)で合ったときにHoelzle氏からSun Microsystemsからプログラミング言語プロジェクトの打ち切りが決まったので(Javaプロジェクトの影響だったそうです)、新しくできたベンチャー企業に近々移るということで、その企業のサービスのことを語ってくれたのですが、当時の当方はまったくピンときていませんでした。もちろん企業とはGoogleでした。研究者にもいろいろなタイプがありますが、Hoelzleさんは言語設計から実行時性能最適化までいい仕事をたくさんされてきた方なので、PUEを突き詰めたサーバの運用担当の役員という向いているかもしれません。

もう一つ余談です。当方は2002年ぐらいに10台のノートPCでクラスタを組んで実験をしていたのですが、ノートPCはバッテリが内蔵されているので、結果的に集中形UPSを使うよりも安くあがりました。PCクラスタは構築そのものはIBMに頼んだのですが、当初、IBMの方々はノートPCを使うことを反対されていましたが、見積を計算しているときに安くあがることに気づいたそうで、その構成を指定した当方は感心さえれたことがありました(もっとも設置場所の電源容量が小さくて普通のサーバはおけなかったのです)。ちなみにそのときのPCクラスタの写真がこれ。PC-Cluster on Chairとか、Mobile PC Cluster呼んでいました。でも自前管理システムは凝っていて遠隔リブートはもちろんネットワーク構成も仮想化されており、実験には便利でした。

2009年4月3日

整理していたら引き出しから3.5インチのフロッピーディスクの10枚入りパックがひとつでてきました。でも考えてみると、ここ数年はフロッピーディスクを使っていないし、(秘書さんのコンピュータを除くと)フロッピーディスクドライブを積んだコンピュータはもうないかも。でもフロッピーディスクの亡霊はそこらじゅうでいきているというのか、ワープロや表計算ソフトのファイルセーブのアイコンはフロッピーディスク形が多い(例外もあってiWork'09にはファイルセーブのアイコンがないですが)。フロッピーディスクが使われなくなってきていますから、ある年齢以下の人はフロッピーディスクを見たこともないし、これからも見ることもないしょう(30才以下の方でも5インチフロッピーは見たことないでしょう)。そうなるとフロッピーディスク形のアイコンはメタファーというか、アフォーダンスとしていいのかということになりますね。もっともSaaSやクラウドコンピューティングのようにネットワークの向こうのサーバで、ワープロや表計算ソフトを動かすようになったときに、ファイルセーブという概念そのものが消失してしまう方が先かもしれませんが。

ワープロソフトウェアといえば、一太郎の開発元のジャストシステムがキーエンスに第三者割当増資の引き受けを依頼したそうですね。ジャストシステムは事実上のキーエンスの子会社となるわけですが、キーエンスとジャストシステムという組み合わせは意外ですね。個人的にはジャストシステムの製品の中ではATOKをMacintoshでも、Windowsでも、さらには携帯電話でも使っております。というわけでATOKの行く末だけはとっても気になります(ATOKなしでは日本語は書けないです)。ところで一太郎ですが、Macintoshユーザということもあって一太郎を普段は使いませんが、日本語ワープロとしてはMS-Wordよりは使い勝手がいいように思います。もっともMS-Wordの出来がひどすぎるかもしれませんが。

2009年4月2日

勤務先の隣にある某女子大では入学式でしょうか、サークルの勧誘の人たちでいっぱい。通り道いっぱいに広がって勧誘しているので、そのなかをかき分けることになってしまいましたが、サークルの勧誘はいつの時代も同じですね。ちなみにこの女子大はビルだけで、キャンパスらしいキャンパスがないので、こんなときでもないと大学という感じがしません。昼過ぎに広尾、それから芝方面。広尾はあいかわらずこじゃれた店と昔ながらの店が入り交じった空間。

AmazonはElastic MapReduceというサービスを発表。そうですか、Amazonはそうきました。ちょうどClouderaのようなサービスでしょうかね。仮に1000インスタンスで1時間使っても115ドルちょっと。もちろん安くはないですが、1000台の仮想サーバを維持することを考えれば破格です。もちろん、MapReduceというのは用途を選ぶというか、癖がある分散システムなので使いこなせる人は少ないかもしれませんね。それとMapReduceというか、Amazonが実装に使っているHadoopを試したことがある人だったらわかると思いますが、100台程度の場合、MapReduceを使うメリットが常にあるとは限らないので、相当数のインスタンスを確保して使うことになるでしょうね。いずれにしても大規模データ処理をコモディティ化するわけで、衝撃的なサービスです。一時流行ったグリッドコンピューティングがやろうとしてできなかったことを破格の値段で実際に提供するわけで、グリッドコンピューティングの研究はいったいなんだたんだろうという感じですね。また、情報大航海など、国内では大規模データを扱う技術に大型の研究予算が使われています。こうした研究プロジェクトをすべて否定するものではないにしても、情報大後悔にならないうちに軌道修正が迫られるかもしれません。ところでAmazonはHadoopをプロトコルレベルで公開してくれると、Hadoopベースシステム同士のインターオペラビリティが実現できておもしろいと思うのですがね。

2009年4月1日

今日から新年度。いろいろ混乱。特に事務方は人の入れ替わりがいろいろあってたいへんそう。さてクラウドコンピューティングのインターオペラビリティを前提にIBM、Sun Microsystems、SAPなどが、オープンクラウドマニフェストを発表。といってもビジョンだけなのですが。さてAmazonとMicrosoftは署名せず、Microsoftはプロセスが気にくわないようですがね(きっとMicrosoftは初動で主導権がとれなかったのでごねているのでしょうか。でもMicrosoftの実装能力を考えるといずれは逆に主導権をとるかもね)、それはさておき個人的にはクラウドコンピューティングのインターオペラビリティは無理だと思っております。

その理由ですが、クラウドコンピューティングのインフラはOSみたいなものです。過去にOSのインターオペラビリティの試みはいろいろありましたが、ことごとく失敗。まさに死屍累々という状態。そのなかでPOSIXはUNIX系OSのAPIを標準化は数少ない成功例といえますが、現実には同じUNIX同士でもOSによって機能は相異するわけで、各OS上で動くアプリケーションは差別化のためにOS固有の機能を使うことになるので、POSIX準拠のOSならば動くアプリケーションというのは限定されることになります。つまり、クラウドコンピューティングのインターオペラビリティを決めるのはたいへんだし、仮にインターオペラビリティを維持するためにクラウドコンピューティングの標準APIなどが定められても、サービスの実装でそのAPIを使っている限りは他のサービスとの差別化ができないわけで、結局、サービスはインフラ特有のAPIを使いまくるということになるのではないでしょうか。なお、もしクラウドコンピューティングのインターオペラビリティのための標準化がなされるとしたら、POSIXのときのように米国が政府調達基準を使ったときでしょう(Microsoftも米国政府が動けば、Windows-NT系ではPOSIX準拠していたように標準化に乗りますから、今回、Microsoftが乗らないということはまだ米国政府はまだ動いていないということが推測できます)。

むしろ個人的に興味があるのは次の3点。ひとつ目は互換OSならぬ、互換インフラが登場するか。メインフレーム時代には富士通や日立などは、IBM の互換機を必死に作られていたわけですが、クラウドコンピューティングでも特定のインフラに対して互換性のあるインフラが登場するか否かは興味があるところです。二つ目はサービスが、ゲームソフトのように複数プラットフォーム、つまり複数のインフラ向けに用意されるのか。ゲームソフトはPS2、PS3、Xbox360の複数プラットフォームに移植・販売することになりますが、クラウドコンピューティングも同様のことが起きるかもしれません。三つ目は米国が政府調達コンピュータ基準に相当するような政府利用クラウドコンピューティング基準を作るか否かです。これに関わるのですが、クラウドコンピューティングに関していうと米国防省の動きが少ない(というか見えない)ことです。国防省がクラウドコンピューティングに関心を持つというか、介入してくると状況は一変することになります。その意味ではIBMあたりのプライベートクラウドというのは、クラウドコンピューティングとしてみると?マークがつきますが、軍用にクラウドコンピューティングインフラを作るとしたら合理的かもしれませんね。

どちらにしてもクラウドコンピューティングが普及するか否か、クラウドコンピューティングのインフラの出来不出来よりも、インフラ上のサービスが充実するかしないか。なのでクオリティの高いサービスが数多く登場するように競わせないといけませんし、当面はインフラ事業者がサービス開発事業者に援助するということになるのではないでしょうか。

 

最新版
一覧

Ichiro Satoh

Ph.D, Professor
National Institute of Informatics

2-1-2 Hitotsubashi, Chiyoda-ku, Tokyo 101-8430 Japan
Tel: +81-3-4212-2546
Fax: +81-3-3556-1916