Diary

Ichiro Satoh

もともとは研究用ソフトウェアの開発履歴に関するページだったのですが、開発関連よりも雑談の方が多くなったので、2001年分から別のページを用意することにしました。リンクは勝手にしてください(でもリンクしたい人なんているのでしょうか)。

最新版
一覧

2009年12月31日

暦的には今日で今年は最後。今年はテクノロジー的にはいろいろ新しいものがでてきておもしろい一年だったように思います。研究者としては論文実績が要求されるのですが、単著論文に限ると今年は英語論文誌が2本、国際会議が5本でした。ここ数年の論文数とくらべるとやや低調だったのですが、逆に招待講演や解説記事が多いなど、メディアなどへの露出は多かった年になりました。テレビまで出てしまいましたからね。来年はどんな年になるのでしょうか。まずは執筆が遅れている単行本を書き上げないといけませんね。

2009年12月30日

政府が新成長戦略を発表しましたね。これまでの不安をあおりつつ「安全・安心」を強調するというロジックから抜け出せたようですが、内容に関しては評価が分かれるかもしれませんね。現状分析はいいのですが、問題はどう成長させるかという具体的な成長戦略策なのですよね。いずれにしても科学技術およびIT業界の方におかれましては、新成長戦略(基本方針)のP21の科学・技術政策とP22のIT政策は目を通されておいた方がよいかと思います。

2009年12月29日

用事で築地方面にいくことになった、ついでに築地市場を探索。1時間ちょっとの滞在時間でしたが(お昼近いので市場としては終わりに近いのですがね)、師走の築地市場の写真をおいておきます。写真はサイズは変更しましたが、それ以外には撮りっぱなしの状態です。いちおうデジタルカメラで撮影ですが、何十年も前のオールドレンズを使ったので、電灯や明かり取り窓などの点光源では「滲み」が出てしまいました。まぁ、それを狙ったのですがね。

2009年12月28日

勤務先は今日で御用納め。もちろん研究職をしていると世間のカレンダーとは無関係なのですが、研究職以外の方々にお送りするもの書類や原稿などはそうもいかず、ひたすら書類や原稿を書いては送るということを繰り返しておりました。これで仕事に集中できます。

ところで昨日、KVSがことを書いていて思ったのですが、コンピュータ、特にソフトウェアの技術はデジャヴが多いですよね。歴史は繰り返すというべきか、本質的には同じ技術がしばらくすると新発明として再登場するのですよね。例えばKVSは分散システム上を想定されているとはデータ構造だけみると40年前に使われていたISAMと同じ。最近流行のNoSQLにしてもKVSがプリミティブすぎて使いにくいので、グラフ構造などのデータ構造を導入しようという動きがありますが、これは大昔、ISAMでは使いにくいので、何らかのデータ構造をいれようということで、ネットワーク構造や階層構造などの高次なデータ構造が導入された研究や商品が登場したのを再燃させている感じ(ちなみにそうした研究や商品は関係データベースに収れんされていきました)。クラウドコンピューティング上のデータベースも関係データベースは無理といわれていますが、大昔、関係データベースは実装不可能といわれていた時代があったわけで、まわりまわってクラウドコンピューティング上のデータベースはNoSQLではなくSQL、つまり関係データベースに落ち着く可能性はゼロとはいえないかもね(もちろん分散が絡むと簡単ではないはずですが)。

ちなみにNoSQLのコミュニティはグラフデータベースが話題になっているようですが、大昔のネットワークデータベースといわれるものと同じなのですよね。というわけで過去の繰り返し通りならば、NoSQLの今後はデータ構造とそれにあった問い合わせ機構を分散システムの制約と折り合いを付けながら作るということになりそうですね。もちろんISAMやネットワークデータベースの時代は分散システムはないので、ISAMやネットワークデータベース向けの分散システムにおける一貫性制御などの研究はないのですが、1990年前後に流行ったオブジェクト指向データベースでは分散トランザクションの研究されましたので、そうした過去の研究との差異が出せるかは注目したいところですね。

こうかくとNoSQLやKVSにネガティブな印象をもっているように見えますが、現状を見る限りはデジャブをみているようでつまらないというだけです。どうせ研究するのならば過去の技術の再発明ではなく、本質的に新しいことを研究したいです。

2009年12月27日

ちょっとだけ休日出勤。なぜか最近、Key-Value-Store (KVS)に興味ないのですか?と聞かれることが多いです。その答えは興味はなくはないが、研究する気はない、というところでしょうか。3つの理由があって、一つ目は世の中にあるKVSを使ったシステムのほとんどは必要性に迫られて作ったものが多いのですが、その必要性が当方にないのです。もう少し正確に言うと、どんなKVSシステムがいいのかは必要性によって決まるので、必要性のない者が研究してもいい結果は出せないからです。もちろん論文のための研究はいくらでもできるのでしょうが。ただKVS近い分野では分散ハッシュの研究が途中からこの論文のための研究に陥ってしまいました。怖いのは国際会議や論文誌で当該論文を査読する側の研究者も論文のための研究をしている人たちばかりだと、どんな技術が必要のかわからず、新規性があれば論文採録ということになっていましたからね。

二つ目は研究トレンドは大規模データの維持・管理から、大規模データを扱った処理に関心が移っているので、いまさらKVSに手を出しても、時代はKVSの先に行ってしまっているから。当たり前だけどデータは集めるだけでは何の価値もなく、集めたデータをどう使うなのですよね。実際、最近のGoogleあたりの動きをみていると残念ながらコンピュータサイエンス系の博士課程学生よりも統計系の学生さんの方を採りたいようですね。コンピュータサイエンスの研究者としては考えさせられる事態なのですがね。

三つ目は特許の問題。これはいずれまとめて書くことにしますが、KVSのように企業ベースで発展が進んだ技術は特許で囲まれていることが多く、企業研究者のように特許調査を頼める立場だったり、所属企業及びクロスライセンスの関係で関連特許への抵触を心配しなくてもいい立場でない限りは手が出しにくい。実際、KVSの研究を端から見ていると特許に抵触してそうなものも見受けられます(指摘してあげたのですが、特許罪悪論でヒステリックに反論されてしまいました。特許侵害と特許に対する個人的信条は関係ないのですがね)。もちろん修士以下の学生さんならば仕方ないと思いますが、プロの研究者や博士課程学生さんの場合、研究分野の関連特許を調べもせずに研究をしたら、その時点で研究者失格の烙印が押されることになります。どうせ研究するならば論文はもちろん、特許の網をかいくぐって研究していただきたいところです。

2009年12月26日

また徹夜仕事。なんか一日おきに貫徹状態。なんだかなぁ、という感じです。

ちょっと書くタイミングを逸しておりましたが、今日、学術出版社のSpringerが出している論文誌に投稿していた論文が採録になったという通知が来て思い出したのですが、今月中旬、Springerが身売りすることになったそうですね。Springerといえば学術図書出版業界ではおそらく最大手だと思いますが、そのSpringerですら身売りということは学術出版業界の状況はたいへんなのでしょう。それにしても短期的にはSpringerが発刊している論文誌や、Lecture Notes in Computer Science (LNCS)を含む書籍に影響はでないのでしょうが、長期的には論文誌やLNCSも商業化する可能性はあるかもしれません。コンピュータサイエンスに限らず研究者の評価というのは論文が中心なのですが、論文を載せる論文誌や国際会議論文集が評価基準にならなくなる可能性はあるわけで、その場合、どうすればいいかは難しい、というか学術研究そのものが見直される可能性もありますね。

2009年12月25日

クラウドコンピューティングによる電子行政のミーティング。今回はベンダーではなく、当事者の方々だけなので議論が濃い。というのは日本の電子行政がダメなのは行政サイド以上に、国内ベンダーはビジョンも設計能力も稚拙なのですよね。クラウドコンピューティングと叫びながら既存の情報システムの処理をクラウドコンピューティングにのせることに必死になっているだけ。せっかく新しい情報システムなのに、これまでの業務のスピードアップや省力化だけでは何も変わらない。企業でも政府でもクラウドコンピューティングを使うことで業務そのものを変えるという発想をして欲しいし、それをねらった提案をして欲しい。

例えばいまの行政システムというのは、システム化以前の事務処理、つまり紙ベースの書類を担当者間で受け渡しによる事務処理をそのまま電子化しています(これは企業のシステムも同じ)。このためデータ化された書類の受け渡しの手段はメールの添付ファイルなどで電子化されるにしても、実態は何も変わっていない。むしろ各担当者にデータのコピーが残るためにその一貫性が保てないという問題を作っているだけ。もちろんファイル共有を使って書類の受け渡しをするにしても、いったんクライアントに書類をダウンロードして、クライアント側のアプリケーションで編集した後に書類をアップロードするので、誰かが編集中は他の人は書類の変更はできません。

クラウドコンピューティングの(あまり強調されていないのですが)重要な特徴は、クラウドコンピューティングはフォンノイマン型アーキテクチャーだということ。いいかえればデータとアプリケーションが同じクラウド側にあるということです。データとアプリケーションはいっしょならば、(アプリケーションがクライアントにある状況と比べると格段に)一貫性制御は容易になります(もちろんクラウドは規模が大きいので、クラウド内部のデータ一貫性制御は別の難しさがありますが)。例えば書類もそのなかで排他的制御領域を分割することにより、排他領域が重ならない限り、誰かが編集中の書類でも他人が編集することができるようになります。これにより大幅に事務処理のスピードアップができますし、それと同時に事務手続きを含む、業務そのものも変わってくるはずです。

つまりクラウドコンピューティング時代の業務処理というのは、担当者間の書類を受け渡しではなく、むしろ書類は動かさずに、複数のアプリケーションがよってかかって処理するような方がいい。ちなみに講演などでこれを説明するときは、これまでのように複数の担当者間で書類がグルグル回すのではなく、書類のまわりで複数のアプリケーションがグルグル回すようなイメージと説明していますがね。その意味ではワークフロー的なモデルはクラウドに向いていないのですよね。このあたりはわかる人にしかわからないでしょうが。

なんか愚痴っぽく書きましたが、情報システムは所詮、下位構造にすぎないのですが、下位構造の変化は、上位構造である業務そのものに影響を与えるし、その影響は社会にもおよぶということです。これだけ情報システムが使われている以上は情報システムの設計者は社会の設計者になれると思うのですが、当の情報システムの設計者は既存の社会システムを情報システムにのせることに注力を注いでいます。もったいないですよね。もっと自分たちの立場をもっとうまく使えばいいのにね。

2009年12月24日

締め切りで追い込まれております。クリスマスイブですが徹夜仕事です。

2009年12月23日

ついにまた年末になってしまった。まだまだ1月だと思っていたのに。

2009年12月22日

来客・打ち合わせの多い一日となりました。午前中に2件、午後に3件。そのうちのひとつはクラウドコンピューティングによる電子行政に関するヒアリング。さすがに電子行政の当事者によるヒアリングなので中身の濃い。というのは国内のコンピュータ屋さんや通信屋さんからヒアリングを受けることがあるのですが、ビジョンからして稚拙というのか、空っぽというのか、ヒアリングされる側の方があきれることになるし、こちらも本質的なことは話さないし、仮に話してもわかってもらえるはずがない。それはともかく今回のヒアリングで当方が申し上げたことをここで書いておきます(ヒアリングをまとめるために文章でまとめて書いておいて欲しいということなので)。

クラウドコンピューティングによる電子行政というと、どうしても設備やサービス共通化による購入および運用コストの削減という視点になります。まぁその効果は否定しませんが、それはクラウドコンピューティングの意義の1万分の1もみえていない。クラウドコンピューティングによる電子行政というのは新しい国家間関係なのです。クラウドコンピューティングでは一般の企業はサービス提供者になれます。これまでの企業の情報システムは自社向けサービスで手一杯でしたが、クラウドコンピューティングでは計算リソースは潤沢にありますから、自社向けのサービスを他社に提供することができることにります。つまりクラウドコンピューティングの時代では、企業はサービスを提供する側のサービスを利用する側に分かれることになります。これは国家間にも当てはまります。ある国が電子行政サービスを構築したとき、これまでは自国内向けが前提でしたが、クラウドコンピューティングの時代では他国にも提供することができます。というか他国にも提供するところまでやらないと電子行政サービスとして本物ではないです。

ここで問題はサービスを提供する側のサービスを利用する側の関係です。もちろん電子行政サービスを利用する国の行政手続きはそれを提供する国に近くなるので、後者の国にある企業は前者の国に進出するのは容易になります。ただ、これはあくまでも表面的な関係。本質的に重要なのはサービスを提供する国家はサービスを利用する国家を実質的に監視・支配できること。今後、行政手続きは紙ベースのものではなく、電子ベースのものが主になるでしょう。そうなったときに電子行政というのはある意味で国家行政そのものになります。しかし、そのとき他国の電子行政サービスを利用するということは行政権を放棄することと同じ。一方、電子行政サービスを提供する国家からみればそのサービスを利用する国家を事実上支配できることになります。ただ、このとき国家の大きさとか、軍事力などは関係がない、覇権に必要なのは使いやすい電子行政サービスを提供できること。それができない国家は長期的には他国の電子行政サービスに依存することになり、国家としての独立性を失っていくことになります。また、そのとき国家を支配するのは国家である必然性はなく、民間企業である可能性もあります。ちょっと言葉が適切でないかもしれませんが、これからの戦争の道具はクラウドコンピューティング、それもクラウドコンピューティング上のサービスなのかもしれません。

電子行政を語るならばこれぐらいのビジョンを持って語って欲しいです。

2009年12月21日

午前中は来客、午後から某研究機関の外部評価、夜はオフィスに戻って打ち合わせ。いくつかの大学や研究機関の外部評価委員をさせていただいておりますが、評価される大学や研究機関が現状維持をするために外部評価を実施しても、評価される側はいわゆる評価疲れをするだけだし、評価する側も評価する甲斐がない。人員の時間と手間をさいて実施する外部評価ですから、現状維持ではなく、変えるために外部評価を使って欲しいです。そのために当方の評価が何らかの貢献ができれば幸いです。今回の評価は5年の研究計画の4年目ということで重要なフェーズなのですが、出口戦略に陥ってほしくないですね。そもそも学術研究というのは当初予想通りの結果がでるとは限らない。むしろ失敗する可能性の方が高い。だから、仮に研究が当初計画通りにうまくいっていなくても、無理して当初の研究目標にあわせる必要もない。むしろ次のステップにつながる研究をして欲しいし、このまま進めてもダメなことがわかっているのならば研究計画中でもテーマを変えてしまった方がいいです。それにしても今回は一人の外部評価委員に対して理事以下、15人以上の事務・研究スタッフが張り付くので、当方としては面接を受けている気分でした。なお、当方のような後先考えない言動の多い研究者に外部評価委員をさせるとは某研究機関はすごいです。

2009年12月20日

ひきつづき海外出張疲れでぐったり中。そういえばスパコンの予算は復活したそうですね。科学技術予算が大幅に減らされている中、復活したのですが、成果を出して欲しいですよね。こちらは縮減される予算の次善策で奔走中ですがね。

2009年12月19日

3回分の海外出張疲れでぐったり中。

2009年12月18日

打合せと来客の日。ところで14日にみずほ証券の株誤発注による東京証券取引所への損害賠償に関する裁判の判決がでたのですが、今日、みずほ証券は不服として控訴したそうです。なかなか複雑な事件なのですが、ソフトウェア産業界にあたえる影響は、Winny判決とは比べて、みずほ証券の株誤発注とそれにともなう損害賠償請求の方がはるかに重要だし、その影響も桁違いに大きいと思うのですが、Winny判決とちがって話題になりませんね。判決(14日)は海外出張だったので、日本では話題になっているのだと思っていましたが、まるで話題にならなかなった様子。なぜなのでしょうね。

2009年12月17日

帰国です。やれやれというところでしょうか。さて先週は台湾でCyber Physical Systems (CPS)のワークショップ、今週は国際会議PerComのTPCミーティング。さてメジャー国際会議では、PerComは国際会議RTSSと並んでCPS絡みの論文の投稿が多そうな国際会議ですが、CPS絡みの論文は皆無でした。ここで不思議なのはCPSの研究成果。NFSがCPSに大量予算投下をしたのは2年以上前。なのに成果がいっこうに出てこない分野というのはどうなのでしょうね。もっとも日本ではそのCPSに予算投下を望む先生方が多いようですが、大丈夫なのでしょうか。

そうそう今回、泊まったホテルはMITの生協の隣だったのでいってみました。店内にはMITグッズがいっぱい。ただ、笑えるグッズも多く、個人的にウケたのはTシャツに「MIT DAD」や「MIT Grandparent」と書かれたものがあったこと。つまり自分の子供や孫がMITに行っていますということになります。確かにMITにいっているお子さんやお孫さんはご自慢なのでしょうが、授業料も半端でないぐらい高いので、お金持ち自慢なのかもしれません。日本の大学も作ってみてはいかがでしょうか、某T大学とか某K大学、某W大学あたりならば学生本人よりも、親御さんの方がグッズを身につけたいでしょうから。

2009年12月16日

ボストンからシカゴを経由して成田に移動。シカゴから成田の移動はANAのNH11便でしたが、NH11便は今月二回目の搭乗。

ところでMITで開かれたPerCom TPCで話題に上ったのですが、ユビキタスコンピューティングでテニュアがとれるかという問題。米国大学の事情を知らない方のためにちょっとだけ解説をしておくと、米国大学では教授を含めて教員は任期付き。任期なしの教授になるには勤務先の何年か努めて、テニュアとよばれる(大学内)長期在職権をとらないといけないのです。さてユビキタスコンピューティングですが、通信やミドルウェアまわりの研究者はテニュアが結構とれているのですが、ユーザインターフェースに近い研究者はテニュアがとれてないようです(もちろん例外もありますがね)。数年前にスタンフォード大で、ユビキタスコンピューティングでもユーザインターフェースに近い研究をしていた教授がテニュアがとれなかったときは、ユビキタスコンピューティングのコミュニティでは話題になりましたし、若手の優秀研究者が何人か当該分野を見限るという事態になったのですが、この状況は続いているということです。

ただ、この問題は根が深い。まずユビキタスコンピューティングでも通信やミドルウェアまわりの研究者がテニュアがとれているのには、彼らはもともと通信や分散システムなどの研究実績があって、自分の研究の応用分野としてユビキタスコンピューティングを扱っているという背景があります。ユーザインターフェース系や行動認識でテニュアがとれないというのは、一過性のアイデア指向になりがちで、長期に続けられる研究ではないと見られているからです。関係者ならばよく御存知だとは思いますが、ACM CHIなどがアイデア重視から評価重視に切り替えたのもテニュアがとれないという背景がありましたが、学問的に体系化できるかが今後の分岐点になりそうです。

ユビキタスコンピューティングの研究の問題は、過去の研究の継承ができていないこと。このため似たような研究の繰り返しになるので、学問的な深みができていません。奇抜なアイデアもいいのですが、そろそろ過去の研究を残して、それを継承した上で先を進める仕掛けを用意しないと分野として終わってしまいます。そしてそれで苦労するのはユビキタスコンピューティングから入ってきた研究者で、気がついたら自分の研究分野がなくなって、その研究成果も認められなくなるという事態になりかねない(他にバックグラウンドのある研究者は生き抜けるでしょうが)。ただ、この心配は現実になってきているように思います。

2009年12月15日

今回のMIT出張のもうひとつの仕事のMIT CSAILでの打ち合わせですが、MIT CSAILというのはMITのコンピュータサイエンス研究所(LCS)と人工知能研究所(AIラボ)が合併してできた研究部門。ひさしぶりのMITとなりましたが、CSAILになってコンピュータサイエンス系の研究がAIラボに近づいていて、AIラボ系の研究が一時のMITメディアラボ的な研究に近づいている感じ。MITはどちらかというとモノやプログラムを作る文化だったのですが、多くの研究が具体的なアプリケーションを設定してからの研究が多く、原理を追究するような研究は激減のようですね。それにしてもMITの連中はやっぱり頭が切れるよね。ディスカッションしていても楽しいというか、こちらが研ぎ澄まされますね。

ところでコンピュータサイエンス系の博士課程学生さんにはGoogleが人気なのですが、Googleに就職しやすいテーマを選ぶ学生さんまでいって驚くというか、考えさせられます。MITの博士課程の学生さんは天才肌の方が多く、自分の頭の良さを証明するために研究している方が少なからずおられましたが、いまはGoogleに勤めることが自分の頭の良さの証明になるようです。ただ、悲しいかな最近、Googleはコンピュータサイエンス系の博士より、統計系の博士の方をとりたがっているのですよね。Googleは膨大なデータの収集と蓄積の研究開発は一段落していて、いまはそのデータをいかに処理するかという段階に入っているのでしょうね。

さて日本ではMapReduceやKVSなどを最新トレンドになっていますが、すでに膨大なデータを保持したり、処理を割り当てる技術ではなく、処理の中身にトレンドに移っています。なのでMapReduceやKVSが話題になるた度に日本は遅れているなぁと感じてしまいますし、それに気づいている人が少ないのが心配です。

2009年12月14日

MITの仕事での国際会議のIEEE PerCom 2010のTPCミーティングとMIT CSAILの研究者との打ち合わせ。ちなみにTPCミーティングというのは論文の採否を決める会議。コンピュータサイエンス系の国際会議でも最難関会議だけ合って、議論は白熱というか、TPC委員の力量が試される場。ちなみに投稿数は225件、そのうち24件ほど採録予定。ということで今回は採択率はややあがって10%強。以前は7%台だったのでやや低調でしょうか。ただ、例えば12%台との採択率と国際会議と10%台の国際会議では論文クオリティに歴然とした差がでる世界だったりします。

夜はTPC関係者と夕食を食べに行ったのですが、MITの関係者との夕食会のレストランはいつもMITの二つレストラン、中華レストラン(Royal East)とシーフードレストラン(Legal Seafood)となりますね。今回は前者でした。もちろん北米ではおいしい中華レストランだとは思いますが。(米国や欧州研究者はおいしいと喜んでいましたが、先週、台湾出張でおいしい中華レストランに連れて行ってもらった者にはちょっとがっかりでした。

2009年12月13日

シカゴを経由してボストンに移動です。中二日で海外出張が続くとさすがに辛いのですがね。用務先はMITなのですが、MITに行くときはいつも同じホテルになるし(便利さを考えると当然の帰結なのですがね)、また先方との会食も某中華レストランか某シーフードレストランのどちらかなのですが、今回も同じパターンになりそう。

ところでMITといえば、修士学生の頃だったころにMITのCS専攻とMedia Labに行く機会があり、今思うと研究者としての分岐点になったような気がします。ともかく驚いたのはMITの大学院生の勉強量、彼らの行動を間近でみていると、一日10本以上の論文を読んでいます。当時、ぬるま湯の日本の大学にいた当方にとっては衝撃でした。そして彼らと互角に戦うためにはどうすればいいのか真剣に悩みました。その答えはまだ得られていませんがね。

それとMedia Labという派手な研究というイメージがあります。ただ、決して派手なアイデアだけで研究しているわけではなく、そのアイデアの背後では研究者も学生もすごく勉強していますし、バックグラウンドとなる専門をしっかりもっています。ただ、日本の研究者はその派手さだけをみて真似しようとするので、悲惨な結果になるのですよね。

2009年12月12日

一瞬だけオフィスで。Java EE 6が発表されましたが、まるで注目されていない感じ。時代はかわりましたね。プログラミング言語の方の新規格であるJava 7についても、新機能がいろいろ追加されるようですが、こちらもまるで注目されていない感じ。プログラマーが望んでいるのは言語への新機能の追加ではなく、プログラムの生産性向上だと思うのですがね。例えばクロジャーはあれば便利だと思うけど、クロジャーを使いこなせるプログラマーは相当優秀だし、そんなプログラマーは少数。それよりも普通のプログラマーへの対策の方がよっぽど重要。それにJavaに関しては新規開発よりも過去のコードの改良・メンテナンスの方が多いような気がしますが、Java言語の改良は新規開発重視なのですよね。

話はかわってWebニュースにLarrabeeの詳細記事があったのですが、なかなか考えさせられますね。近い将来におこるであろうスカラ型プロセッサの性能向上の停滞を考えると、ベクター型プロセッサを取り込まないといけないのでしょうが、ベクター型プロセッサを必要とする処理はグラフィックスぐらい。そのグラフィックスは専用プロセッサ、つまりGPUで十分ということ。LarrabeeというとそのアーキテクチャがCellプロセッサとの類似性が指摘されますが、LarrabeeはCellと違って汎用目的なので数段難しいのでしょうね。

ただ、個人的にはLarrabeeの想定しているアプリケーションと世の中の動きが乖離しているような気がします。IntelはLarrabeeの発表時に「Recognition(認識)」、「Mining(分析&抽出)」、「Synthesis(合成)」という3つのジャンルをあげていました。3つのジャンルの重要性がわかるのですが、そのジャンルの処理はどこでするのでしょうかね。例えばクライアント側なのか、サーバ側なのか、それともクラウドコンピューティングのデータセンターなのか、で求められるアーキテクチャも違ってきます。PCはさまざまな処理ができる万能機械であることが求められましたが、クラウドコンピューティングでは例えばHadoopに特化したデータセンターがあるように特定のデータ処理に特化したコンピュータの方がいい場合もあり、専用化と汎用化のバランスが違ってきますから。

ところでLarrabeeやCellのようなリングバスがいいのでしょうかね。Intelは二次元メッシュ結合の48コアのプロセッサを発表しましたが、Larrabeeも二次元メッシュ化する場合もありますし、クラウドコンピューティング側との親和性を持たせるのならばFat-Tree結合という選択もあるかもしれません。個人的にはシステムソフトウェア屋なので、数値計算はしませんが、コアの接続形態がどうなるかは大きく影響するので、Larrabeeの今後はすごく気になるのですよね。

2009年12月11日

海外出張直後は忙しいのですが、目が回りそうな忙しさ。某大手新聞の取材があったのですが、1月1日号、つまり元旦特集用の取材。もうそろそろ正月なのですね。季節感を感じました。こんなことで季節感を感じるのは悲しいのですがね。そのほか打ち合わせや外出で、結局、オフィスに戻ったのは11時過ぎ。

2009年12月10日

さて帰国です。今回のテーマはCyber Pysical Computingだったのですが、最後までのその定義がわかりませんでした。それにしてもCyber-Physical Systemsの定義って何なのでしょうね。皆さんいうことが違いますが、Cyberとして何を念頭に置いているかで分類できそう。ひとつは情報理論研究者のNorbert Wiener が提唱したサイバネティックス(Cybernetics)を念頭に置いている方。もうひとつはSF作家William Gibsonが自著「ニューロマンサー」や「クローム襲撃」で初めて使ったといわれるサイバースペース(Cyberspace)を念頭に置いている方。どちらが正しいというわけでもないのでしょうが、研究として提案されている内容は結局、リアルタイム、組込、ユビキタスコンピューティングの既存研究の延長ばかりなのですよね。Cyberならではの研究がほしいですね。

話は変わりますが、最近になって「ニューロマンサー」や「クローム襲撃」を読み返してみたのですが、この二つとくらべると、映画のマトリックスとか漫画の攻殻機動隊はウィリアム・ギブソンのコンセプトの域を超えているかというか、ぱくりというべきか(例えばマトリックスという用語はクローム襲撃で仮想空間で使われるのが初出のはずだし、電脳空間という言葉はニューロマンサーにおけるサイバースペースの和訳が初出)。マトリックスや攻殻機動隊のファンの人には怒られるのでしょうけど、どちらも作者自身がウィリアム・ギブソンからの強い影響を認めているわけですから。それからウィナーのサイバネティックスの方ですが、こちらは大学生時代に読んでみたのですが、さっぱりわからず、その後も数年おきに何度かトライしたのですが、当方の数学力では歯が立ちません。やはり神童といわれた天才の書いた本は難しい。

2009年12月9日

Cyber-Physical Systems (CPS)ワークショップの2日目。今回のワークショップは台湾政府がCPSに予算をつける計画があり、そのテーマ設定をするための会議。当方はEUで同様の会議を何度もやっているので、いつもの会議スタイルなのですが、台湾サイドの関係者は手慣れていますね。もちろん優秀どころを集めたのでしょうが、米国側よりも成果は出せるかもしれませんね。

日本でもCPSをやりたがる研究者は少なからずおられるようですが(それもCPSからは遠い分野の研究者からなのですよね)、日本の場合は米国同様に、CPSの研究をしたいというよりも研究予算を念頭に話す人が多い、つまりNFSがCPSに大型予算を出しているので、日本でも当該分野で大型予算を出すべきというロジック。予算が欲しいという意図が言葉の端々に漂っていて聞いていても嫌になるというか、哀れな感じすらします。米国で研究しているから日本でも研究すべきという予算指向のロジックはそろそろ卒業してほしい。

2009年12月8日

Cyber-Physical Systemsのワークショップ。米国、香港、韓国、台湾、EUの当該研究状況の説明。ここでEUの動向を説明は当方。というのは日本の研究所に所属しておりますが、EUの科学技術研究計画FP7/FP8の研究テーマ設定委員と評価委員をしておりますので。ところでCyber-Physical Systemの各国の状況ですが、米国以外はどちらもCPSの定義すらないないという状況だそうです。まぁ予想された状態ですがね。そもそもNSFがCPSプロジェクトに望んでいるように情報システムを一から作り替えたとしても、世の中が受け入れるとは限らないです。IPv6の失敗を繰り返さないでほしいですね。

ちなみにEUの仕事をしているのは将来、日本の研究者は日本ではなく米国やEU、アジアの研究予算をもらわないといけなくなると思っているから。そのためにノウハウをためるのが目的。事業仕分け委員会など科学技術予算の削減が問題になっていますが、予算削減に文句をいうぐらいならば海外の予算を取りにいった方がいい。ただ問題は制度的に日本の研究者は海外の研究予算がとれない。こればかりは研究者の力では解決できず、政府に海外の研究予算に獲得できるように外交・制度整備をお願いしたいですね。国内の研究者が不満を持つべきことは研究予算の減額よりも、日本にいる研究者は米国やEU、アジアなどの研究予算がとられないという制度的な問題のはず。

夜は101ビルディング(101階建て?)の85階のレストランでお食事。やっぱり85階は高かったです。

2009年12月7日

台湾に到着です。夜は会議関係者と市内にいって夕食。ただ連れて行かれたレストランが、そごうデパートの地下レストラン。ところで台湾はあいからずの活力がありますね。ところで会議の会場は中央研究院というところ。情報系だけでなく統計や物理、地学などなどいろいろな研究所があるので日本でいうと産総研に近いようなのですが、組織的には勤務先(NII)に近く、研究所と大学の中間のような組織のようですね。

先日、Intelの48コアのプロセッサのことを書きましたが、ニュース記事によるとIntelはLarrabeeへのGPU搭載をキャンセルしたようですね。HPC屋さんには結構ショックな出来事ではないでしょうか。GPUの科学計算への応用を考えると先日の48コアプロセッサよりもLarrabeeベースのGPUの方が重要ですからね。GPU大手のNVIDIAにしてもAMDではCPUからプログラムをGPUに流し込むのでCPUとGPUの統合といえないのですが、CPUとGPUを独立して設計できることになりますが、Larrabeeの場合は詳細資料がないのでなんともいえませんが、イメージとしてはコアはCPUというよりもGPUに近いとされ、そのGPUにx86命令回路(初期のPentiumであるP54Cがベース)がついているというところでしょうか。なのでLarrabeeでGPUがキャンセルになるということはLarrabeeそのものがキャンセル可能性があるということになります。やはりCPUとGPUの同時設計はIntelといえども難しかったのでしょうか。プロセスが45nmなのか32nmなのかはわかりませんが、回路設計よりも熱問題があったという可能性もありますね。

2009年12月6日

先週の出張疲れでぐったり中です。でも明日から台湾出張、2日間をあけて米国出張が続くことになります。台湾出張はCyber-Physical Systems (CPS)に関するワークショップに招聘されました。おそらく台湾政府でCPS関連の予算計画があるのでしょうね。ただ、CPSは米国で流行っているとはいえ、米国NSFが大型予算を投下したためなので、研究コミュニティから自然発生的にうまれた研究トレンドではなく、作られた研究トレンドなので、そのトレンドに乗るか否かは難しいところ。特に米国の場合は予算ドリブンで研究トレンドがかわります。典型的なパターンは、NSFまたはDARPAなどが特定のテーマに大型予算を投下する、そうすると研究者は自分の研究テーマと予算テーマが近いことにして予算に応募、ただもともと違うテーマなので研究テーマが発散。最悪の場合、予算をもらっている研究者全員が予算テーマの周辺をやっていて、誰もコアとなるテーマをやっていないという事態になります。いずれにしてもテーマが発散するので大した成果も出ずに終わってしまうことになります。CPSにしても最近大流行のスマートグリッドにしても研究者がそのテーマを研究したいのか、予算がほしいのかは見極めないといけませんね。

2009年12月5日

3日前になりますが、Intelの48コアのプロセッサを国際会議IEEE ISSCC'2010で発表すると発表しました。ニュースメディアやブログなどでは話題になっていたようですね。実はこのページで何か書こうと思ったのですが、スルーしていたのはいくつか疑問があったから。48コアは多いのですが、IntelはISSCC'2007で80コアのプロセッサを発表しており、そのプロセッサもコアの接続は今回と同じ2次元メッシュ型ネットワークでした。個人的に気を引いたのは、まずは(2次元メッシュ型ネットワークということは)Larrabeeベースではないこと。消費電力が25〜125Wと(コア数の割に)少ないこと。そしてコアはP54Cベースだったこと。P54は1994〜1996年くらいの90MHz世代のPentium。32bitプロセッサですから、メモリ空間は4GBに制限されると思うのですが、どうなのでしょうか。情報不足でなんともいえませんが、メモリが4GBだとするとコア数の割にメモリが小さく、使いこなすのは難しそうです。クロックは不明ですがコア単位ではAtomどころかARM搭載のマイクロサーバよりも性能は低いはず。不思議なことにニュースメディアでP54Cの低性能な32bitプロセッサというということを指摘しているものは当方が知る限りゼロ。どうなのでしょうかね。

ただ、そうはいっても48コアのプロセッサのアーキテクチャはいくつかの知見は得られそうです。例えば2次元メッシュ型ネットワークにした理由。最新プロセッサ技術ならば立体回路による複雑なネットワークも組めたはずだし、シングルチップ・クラウドというならばFat-Treeのようにクラウド向けデータセンターによく見られるネットワーク構造にしてもよかったはず。想定しているデータ処理では多段的な処理がいいと見ているのでしょうかね。ハードウェアによるキャッシュコヒーレンシ機構回路がないということは一貫性制御よりもスループットを重視した設計と見て取れます。逆に言えばキャッシュコヒーレンシが問題にならないようなプログラム実行形態を想定しているということでしょうか。その意味ではHadoop(MapReduce) の移植をしているというのは妥当なのかもしれません。

2009年12月4日

昨日発表されたGoogleの日本語入力システムが話題になっていますが、昨日は結局時間がなくて試せず、深夜にやっとインストール。第一印象は恐ろしいというもの。何が恐ろしいかというと、これまでWebの検索キーワードというのは世の中のトレンドをつかむ重要な情報源になっていたのですが、Googleはその検索キーワードを入力する以前の段階で、ユーザの書き込む情報を集められるということ。その情報の有用性はWebの検索キーワードやWebコンテンツどころではないかも。もちろん現状はそうした仕掛けにはなっていませんし、プライバシー上の問題がでてきますが、システム安定化や辞書改良のためのログデータ収集ということであれば許されてしまうでしょうし、そのログデータでもかなりのことがわかります。おそらくGoogleは漢字変換で得られた直接または間接情報を使ってくるだろうし、漢字変換に関わる情報持たない他社がGoogleに勝つのは難しいことになります。ところでGoogleの日本語入力を使うときに表示される入力補完候補は集合知が見えると同時に、その集合知のマニアックぶりが話題になっていますが、その入力補完候補はマニアックぶりを含めてすごい情報がつまっていることになります。この入力補完候補を吸い上げて使うサードパーティもでてきそう。

漢字変換って考えてみるとすごい情報源ですよね。その意味ではATOKをもつJustSystemは某社に買収されましたが、ATOKのオンライン版、つまりサーバ側の何らかの処理で漢字変換する仕掛けができればJustSystemにはとてつもない価値が出てきそう。今回のGoogleの日本語入力システムをみて、楽天やヤフーあたりがJustSystemの買収を狙っているのではないでしょうか。逆に言うとMicrosoftは自社漢字変換を持ちながら、改良を止めてしまったのは、Internet Explorer 6時代にWebブラウザを進化を止めてしまった以上の失策でしょう。失礼ながらMicrosoftは技術的な目利きができる人がいない、または当該の人がいてもその人の能力に問題がありそう。

2009年12月3日

電車に多重債務者向けの債務免除を扱う法律事務所は司法事務無償の広告がでていますが、当方は原稿、論文、事務書類、査読が多数締め切り遅れという多重債務状態になっています。多重締め切り遅れを免除する方法って世の中にないのでしょうか。それにしても方々に迷惑をかけております。本当に済みません。

2009年12月2日

まだ疲弊中。ただ、来客などもあり休むわけにもいかず、早朝から出勤です。先日も書いたように、先週まで開かれていた事業仕分け委員会で、当方がいただいている予算も削減対象。中には1/3になったものも。3年間予算で研究開始から2ヶ月なのですが、すでに来年度以降の予算状況はわからなくなってしまいました。また文科省の特別教育研究費削減が縮減になっていますが、勤務先のネットワーク関連予算はこの予算だったはずなので、勤務先としても大幅な予算削減はさけられない予感。ただ、この状況は勤務先に限らず、どの国大や国研でも変わらないでしょうがね。

まぁそうした環境変化はあるわけですが、税金で研究させていただいている研究者としては与えられた状況の中で最大パフォーマンスを尽くすだけ。それといただいている研究助成については説明用の資料を用意しておく方がいいとのことですので、その準備はしておかないとね。

それと業界でネタですが、それとこちらの記事ガートナーがサーバ市場の落ち込みのレポートを出しているそうですが、気になるのはSun Microsystemsの落ち込みが3割を超えていて、EUがOracleとの合併の調査を延期するということ。延期しているうちに資金繰りがショートする可能性もゼロとはいえないかも。大丈夫でしょうかね。

2009年12月1日

さて搭乗したANAのシカゴ発成田行きのエコノミークラスは結構混んでいました。隣はハーバード大学の物理研究者。ものすごい勢いで論文を書いていました。通路ははさんだ隣側の方は某銀行のレポート(これが電話帳のように厚い)をひたすら読んでいました。当方も普段は仕事をしてすごしますが、今回は脱力状態。出張自体もそうですが、それ以上に出張直前が目が回るような忙しさだったこともあり、さすがに疲弊困憊状態。到着までに原稿を書いておきたかったのですがね(遅れてすみません)。成田到着後にそのままオフィスによりたかったのですが、フラフラになりながらそのまま帰宅となりました。年内にまだ2回の海外出張が残っているかとおもうと気が重くなります。いよいよ体力勝負となってきましたね。切り抜けられるでしょうか。

2009年11月30日

ANAのシカゴ発成田行きに搭乗。あとは13時間ちょっとを耐えるだけ。ところで、よほど疲れた顔をしていたのでしょうか、ANAのカウンターでチェックインするときに同情されてしまいました。その結果、通路側&前にない席がところにシートアサインしてもらいました。これで多少は楽に過ごせます。同情するならビジネスクラスにアップグレードしてね、と思いたいところですが、前列に席がないだけでも十分。そもそもアップグレードしてもらえるような高いチケットではないので仕方ないです。

2009年11月29日

日曜日ですが、シカゴ大学で打ち合わせ。それにしてもシカゴ大学は結構怖いエリアにあるのですね。話に聞いてはいましたが、実際に行ってみると実感。そして再来週はボストンに飛んでMITでお仕事です。ところで年末の北米は2年ぶりなのですが(前回はNYC)、盛り上がりがいまひとつの感じがします。御存知のように米国のデパートなどは感謝祭後からクリスマスまでの1ヶ月間弱のバーゲンセールで一年間の売り上げの1/3程度を稼ぐかき入れ時。シカゴのことはよくわからないのでなんともいえないのですがね。

2009年11月28日

シカゴに移動です。シカゴのLyric Operaでヤナチェックのオペラ「Kataya Kabanova」を鑑賞。初めて観る演目。そもそもチョコ語のオペラははじめて。ヒロインであるKataya役はフィンライン人ソプラノ歌手のKarita Mattilaでしたが、この役の第一人者といわるだけに完璧な出来。というか他の歌手がついていけていない感じ。その他の歌手ですが、姑であるKabanicha役はJudithForstは役に徹した歌い方、Katayaの浮気相手となるBois役はBrandon Jovanovichは出番は少ないものの声質もいいし、好印象。養女役のVarvaraもよかったです。さて出来ですが、チェコ語のオペラは難しいはずですが、どの歌手もあらがなく完璧な出来。特にKarita Mattilaはさすがのひとこと。ただ、おもしろかったかといわれるとちょっと疑問。イタリアオペラのような盛り上がりがないのですよね。演奏は指揮がMarkus Stenz。名前からわかるようにドイツ人指揮者でしたがいい指揮でした。オーケストラも非常にいいでき。ただ、シカゴ交響楽団で耳を超えたシカゴの方には普通なのかもしれませんが、欧州のメジャー歌劇場の水準と比べてもいい出来でした。ところで演目のKataya Kabanovaですが、なかなかいいオペラですね。メトロポリタン歌劇場やロイヤルオペラが上演するはずです。それからLyric Operaははじめてだったのですが、米国三大オペラハウスに数えられるだけあって豪華ですね。ちなみにシカゴらしくオペラハウスの上は高層ビル。

2009年11月26日

感謝祭シーズンですが、イリノイ大学で打ち合わせ。行き先は初期のWebブラウザのMosaicやNetscapeのふるさとであるNCSAの隣のビル。それにしても米国はスマートグリッドが流行っていますね。プログラミング言語意味論で有名な研究者もスマートメータの検証の研究をしている状況。実際、飛行機からも風力発電用の風車がいっぱいみえます(写真)。たまたま実験地域を飛んでいたのだと思いますが、尋常な数ではなかったです。

2009年11月27日

急遽、イリノイ大学まで出張。往路のANAのシカゴ便はガラガラ。一列に一人程度でしょうか。なんかJALに乗っているみたい。それからシカゴの空港の入国審査もガラガラ。それからChampaignまで移動して軽く打ち合わせ。案件は明日から。実は米国は昨年の5月以来のはず。久しぶり。年内の海外出張は今回を含めてあと3回。それにしても昨日は結局、貫徹になったので、北米出張は辛い。

2009年11月25日

午前は雑務。打ち合わせで外出。いったんオフィスに戻ってまた外出、またオフィスに戻って昨日のスライド作成の続き。

さて事業仕分け委員会が話題にあがっていますが、当方が頂いている研究助成も、事業仕分け委員会で1/3に縮減判定された予算枠に入っているので、来年度は大幅減額も考慮に入れないといけない状況。まぁ国研の研究者としては予算を頂いて研究をさせていただいている立場なので、頂いた研究助成の範囲で最大のパフォーマンスを出すことに注力するのですが、研究によっては減額されて中途半間になるよりは中止勧告を頂いた方がいい場合もあります。ただ研究とは無関係なことに振り回されると、だんだん疲れてくるのは事実。

2009年11月24日

来週、情報処理学会のセミナーで講演をするのですが、与えられたお題が「クラウドコンピューティングと組込コンピュータ」というもの。なかなか微妙な組み合わせですよね。クラウドコンピューティングと組込コンピュータは関係なさそうですが、よくよく考えるとクラウドの影響はPCよりも組込コンピュータの方が大きいかもしれません。もちろん組込コンピュータといっても制御やリアルタイム系などのミッションクリティカルなものは別にして、インターネットに常時接続できる組込コンピュータはクラウドコンピューティングと無関係ではいられない。

Androidがいい例だと思うのですが、カーナビを考えた場合、Googleは無料でカーナビのネットサービスを提供しています。地図データのダウンロードや目的地のセットや経路検索もすべてネットワーク側なので、Googleのカーナビサービスに接続できる環境があればGoogle Earthのような地図ビューアーがあればカーナビが提供できることになります。そうなるとカーナビシステムの価格は大暴落する可能性があります。どうようのことは至るところでおきそう。これをいうと組込系の方は組込コンピュータの独自性、例えばハードウェア制御や信頼性を強調されます。もちろん組込コンピュータでハードウェア制御や信頼性が必要なのは当然なのですが、問題は組込コンピュータをつかった製品の商品価値はどこにあるかです。いまはデバイスそのものではなく、アプリケーションで商品価値を出す時代。そのアプリケーションがクラウドコンピューティング側に吸い取られている状況にはもっと危機意識を持った方がいいと思います。アプリケーションがクラウド側にとられると組込コンピュータは急速コモディティ化していくことになります。

2009年11月23日

休日ですがいそがしいですね。先週はいろいろなことがありすぎ。その後始末だけで一日が過ぎてしまった感じです。

わけあってスマートグリッドの研究テーマ設定という仕事をしているのですが、スマートグリッドは(日本の)ITSと似たところがありますよね。理念としてはいいし、参加者の性善説を仮定できるので実証実験レベルならばいいのですが、現実世界で使おうとすると問題が多すぎる。ITSでは自動車から交通信号を制御するという提案がいっぱいあります。確かに歩行者のいない夜道の信号ならば自動車が近づいたら自動的に信号を青に変えた方が合理的。でも自動車(個人所有物)から交通信号(インフラ)を制御できるようになった瞬間に、ズルをする人たちが出てきます。そしてそのズルを防げないと実用化は難しい。

スマートグリッドでもスマートメータで改造して、電気代を誤魔化される可能性があります。また自宅にある太陽光や風力発電の余剰電力をインフラ側が買い取るならば電力を誤魔化されかもしれません。そこまで行かなくても買い取り価格が高いならば太陽光や風力発電ができても、電力会社の電気を使って、太陽光や風力発電の電力を買い取らせることもありえます。そしてこれらの不正利用は自宅の機材を改造すればできて、インフラ側に不正アクセス必要性はないということです。確かにテロまがいのスマートグリッドの不正アクセスも問題ですが、現実にはカジュアルな不正の方が社会的な損失は多い。これは道路で交通事故による直接的損失額よりも、不正駐車による交通障害による経済損失の方が大きいのと同じ。

ちなみにITSでは車載コンピュータの改造によるインフラのの不正利用を防ぐために自動車内で車載コンピュータ同士が認証する仕掛けが研究されています。スマートグリッドでもスマートメータ同士が認証することになるかもしれませんね。もちろん不正利用の防止技術は研究者の仕事といわれそうですが、ただスマートグリッドにはITSの轍は踏んでもらいたくないです。実環境で実現性を明確にしておかないと実証実験レベルで終わってしまいます。

2009年11月22日

スパコンの予算は復活される方向のようですね。立場上、是非はコメントする立場ではないのですがすこしだけ。いまどきの科学技術研究にはスパコンは必要なことは議論するまでもないのですが、今回の流れをみているとスパコンを作る側と使う側で利益相反が起きているように思います。

作る側にしてみればどうせ作るならば世界一の性能のコンピュータを作りたいでしょう。例えば世界一の性能のコンピュータに関する論文は著名な国際会議にも採録されるでしょうが、世界二のコンピュータに関する論文は通るとは限らない。ただ、使う側は解きたい計算がスパコンで解ければいいわけでそのスパコンが世界一である必要はない。それに懸案のスパコンは世界一を狙うために開発費が1200億円、またアーキテクチャも独自。NECと日立が連合が脱落してベクトル型とスカラ型の混合からスカラ型になったとはいえ、Sparc系はすでにマイナープロセッサ(スパコンではSparcはさらに少ないはず)。

経済原則からいえば開発費がかさめばその分、利用料は高くなります。使う側はというと、今回の事業仕分けで科学技術予算が削られるご時世ですから、スパコン使用料も減らしたいところ。世界一の性能だからといって割高なスパコン使用料を払ってくれる研究機関はそうは多くないはず。さらに独自アーキテクチャなのでソフトウェア開発に費用と手間がかかります。スパコンのソフトウェアは性能を上げるためにコンパイラの最適化だけではなく、ハンドコンパイルまでしてチューニングをしますが、アーキテクチャが違うと既存のテクニックは使えない。一方、IBMのPowerやIntel x86/x64ベースのスパコンは世界中にありますから、それらのスパコン用のソフトウェアは使い回しもききます。懸案のスパコンはアーキテクチャが異なるので新規開発が必要だし、チューニングテクニックも無い状態。なのでスパコンが完成してもチューニングができるのは処理が比較的簡単なLINPACKぐらいで、実アプリケーションがスパコンの性能を出して切れるまでには数年かかりそう。

当方は科学計算をする立場ではないのですが、科学計算をされる方にとって上記のように費用的にも手間的にも、使う側にとって懸案のスパコンはいいスパコンとは思えなかったりします。つまり、使う側からしてみると海外のスパコンの方が利用料も安いし、アーキテクチャが類似していてソフトウェアの流用が容易なので、使う側にとっては海外のスパコンの方がメリットが高いような気がします。というわけで実際に科学計算を必要とされる方々が、世界一であることを評価されていて、それに見合った経済的負担をしても懸案のスパコンを使いたいのかを精査されることを望みたいですね。それと気になるのは懸案のスパコンでは計画段階でどのような需要とコスト予測をしていたか。またすでに500億円を超える国税を投下してまったですから、予算存続可否にかかわらず計画立案に関わった方々を参考人招致してでも、どんな需要とコスト予測をしていたのかも精査すべきかも。

実はお御所の先生から、世界一のスパコンを開発を通じて国産技術の維持・発展が最重要とありがたい説教をいただいたのですが、携帯電話業界に限らず国産技術の拘りがガラパゴス化につながったと部分は否定できないように思います。そもそも独自性の高いコンピュータは使う側に費用でも手間でも負担を強いるならば本末転倒になってしまう。それと一時的には世界一だった地球シミュレータも何百億円という国費を投入したわけですが、それに見合うだけの成果があったのかことも精査した方がいいかもしれません。地球シミュレータの評価をすることなしに世界一のスパコンが必要といわれても納得できる人はすくないのではないでしょうか。

ところでスパコンの費用に関すると開発期間の関するのリンクに失敗していたのですが、直しておきました。

2009年11月21日

作業の片手間にMacBook ProにWindows 7をインストール。Parallels(仮想マシン)を介してインストール。Windows 7自体は無事にインストールできましたが、なぜかCygwinがうまくインストールできない。Parallels上だからなのか、Windows 7のためかは謎ですがね。性能的には使えなくはないけど、積極的に使いたいとは思えない程度。初期のAtomプロセッサ程度でしょうか。ということでWindowsマシンで再チャレンジを検討中。でも手持ちのVistaマシンはなぜかプロセッサが低省電力版Core DuoかAtomなどの非力マシンばかり。個人的には64bit版のWindows 7をインストールしたいので、手頃なマシンを探さないといけませんね。犠牲は旧MacBook Proあたりでしょうか。ただ、時間もないのでインストールは当分先になりそう。

2009年11月20日

今日もぎりぎりの状況。仕事量がキャパを超えているのは確かなので、重要度の低い案件から切らないと周囲の方々に迷惑をかけます。というわけで反省です。それにしても仕事をしているつもりで、人に仕事を作る人にはならないようにしないとね。

2009年11月19日

ともかく忙しい。どうしようもないほど仕事がたまっているのに時間がとらしてもらえないのがつらい。自分の研究の説明をするのは仕事ですが、さすがに精神的に疲弊してきますね。ところで先週の13日に書いたスパコンの費用と計算量に関する問い合わせが多いので、補足説明図1図2を用意しました。

2009年11月18日

組込コンピュータ関連の見本市で横浜みなとみらい。ほぼ毎年いっている見本市ですが、今年は企業展示ブースがどこも小さい。不景気に影響を感じさせますね。そうなるとスペースが空くのですが、そのかわり地方自体などがブースを構えて、その地方の企業の展示が多くなっていました。ただ、こちらも小さい展示が多いので、小粒感の印象が残る見本市となっています。こうした見本市では何が展示されていたかよりも、何が展示されていなかったが重要なのですが、まずAndorid関連が増えているのに対して、携帯電話が激減。Andoridも試作品レベルが多い。また車載もへりました。それと組込コンピュータの見本市ではボードを並べるところが多いのですが、ボードも減りましたね。

当たり前ですが、組込コンピュータはそのコンピュータを組み込んだ機器が売れるだけ数がでますが、組込コンピュータのコストの大部分は開発費。だから組込コンピュータ業界としては製品の数が出ることよりも、新規開発が増えることの方が利益につながります。さて現状はというと家電業界も自動車業界も製品が売れないし、新規開発は大幅に減っています。問題はメーカは製品の種類を減らしていますから、景気がよくなっても組込コンピュータ業界は景気がよくなるとは限らないこと。

2009年11月17日

クラウドコンピューティング関連の講演。ちょっと過激な内容でしたが、いかがだったでしょうか。さて米国ではMicrosoftの開発者向けイベント(PDC'09)が開催されていますが、クラウドコンピューティング関連の発表が目白押し。いくつかは事前に聞かされていましたが、それを超える内容でした。というか内容が盛りだくさんすぎてついて行くのがせいいっぱい。Microsoftは出遅れ気味でしたが、追い上げてちょっとリードしている感じ。これをうけてGoogleとAmazonがどう動くのでしょうか。

2009年11月16日

AmazonやMicrosoftのアジア地域のクラウドコンピューティング向けデータセンターがシンガポールや香港、台湾に作られる報道が続いています。日本にクラウドコンピューティング向けデータセンターという方々にはショッキングなのですが、クラウドコンピューティングの本質からいえばデータセンターはどこにあってもいいわけですから、日本に拘る必然性はないかもしれません。

さて早速、シンガポールデータセンターの費用をいろいろ推測しているのですが、気になるのは電気代。ご存知のようにGoogleやAmazon、Microsoftなどのクラウドコンピューティングインフでは、サーバの運用効率も機器の減価償却費も極限まで下げており、彼らにとっての最大のラニングコストは電気代ですから。東京電力の事業所向けの場合、個別割引がないとすると1kWhは夏場は11.74円、それ以外は10.59円なので、だいたい1kWhは11円。米国ならば大口契約では4セント程度。さて問題のシンガポールですが、JETROの資料によると事業所向けは1kWhは0.22シンガポールドル。ちなみに1シンガポールドルが65円なので日本円に換算すると1kWhは14.3円。巨大データセンターの消費電力は50MWh程度なので、日本だと48億円、米国ならば20億円程度、シンガポールだと63億円。実は日本よりもシンガポールの方が電気代は割高。電気代が安いのに魅力のない日本っていったいなんなのでしょうね。

土地代ですが、日本とシンガポールは大差ないはず。建屋ですが、こちらは地震がないだけシンガポールの方が安く上がりそう。次に人ですが、シンガポールの方は英語がしゃべれます。ただ、人口が多い国ではないので、エンジニアの絶対数では人的リソースは日本と大差がないはず。人件費も日本の7割ぐらいなので無茶苦茶安いわけでもない。通信遅延を考えると地理的に東南アジア・極東・オセアニアの中心にあるシンガポールは有利。RT あと太平洋間のケーブルが太いので、日本はアメリカにぶら下げればよいと考えているのかもしれません。

クラウドのデータセンターがどこにおかれようと構いないと思いますが、MicrosoftやAmazonが日本にデータセンターを置かなかった背景はきちんと調査すべきです。それから電力計算はすごくざっくりですが、桁とかは違っていますかね。間違っていたら教えて下さい。それから米国のデータセンター向けの電気代はこの論文が詳しいです。クラウドコンピューティングに興味のある方は必読です。特に結論があるろんぶんではありませんが、こうしたデータはなかなか出てこないので。

2009年11月15日

クラウドコンピューティングでは「所有」から「利用」が強調されます。ただ、インフラ事業者の収益性、そして可用性やセキュリティの担保を考えると、「利用」よりも「代行」とした方がいいかもしれません。つまりIaaSならばハードウェアの管理を代行してもらう、PaaSならばプログラムの実行環境の管理を代行してもらう。ただ、代行といってもアウトソーシングのイメージではなく、株式会社に近い方法をイメージしています。ユーザはクラウドインフラ事業者に投資する。そしてインフラ事業者はユーザに代わってインフラの管理を代行して、インフラ事業者に債権者(出資しているユーザ)及び第三者(出資していないユーザ)へのサービスを提供する。インフラ事業者は第三者へのサービスによる収益の一部を配当として債権者に支払う。

なんでこんなのことを考えているかというと二つの理由があります。ひとつはクラウドコンピューティングはインフラ投資の高額化です。MicrosoftやGoogleは資金力もあるとはいえ(自社で購入・管理するかは別にして)インフラの拡充を続けられるかは不安視しています。もしクラウドコンピューティングが普及してしまうと(個人的には4,5年程度先だと思っていますし、その頃には仮想化はあるでしょうが、プライベートクラウドという言葉はないでしょう)、サーバの数が足りなくなる恐れがあり、インフラが需要に追いつけない場合を危惧しています。

もうひとつの理由はクラウドコンピューティングにはエージェンシーコスト、つまりインフラ事業者とユーザのあいだには避けられない利益相反があり、それを解消する必要があるから。例えば可用性を例に取れば、ユーザにとっては可用性が高い方が利益になりますが、インフラ事業者は可用性向上はコスト要因であり、必ずしも利益になりません。そこで一部のユーザを株主としてインフラ事業者と利益を一致させておいて、その株主になっているユーザが、ユーザとしての利益と株主としての利益を一致させるようということです。株式会社におけるエージェンシーコストでは、株価と連動したストックオプションを経営者に与えることで利益相反をさけますが、例えばインフラ事業者にストックオプションのようなインセンティブを与える方法は可用性のように利益を下げる場合にはうまくいかないので、一部ユーザをインフラ事業者側の利益とユーザ側の利益の両方の享受者にして利益相反の解消を狙っています。株式会社と言うよりも生協に近いかもしれませんがね。

ガートナーの予測ではないですが、クラウドコンピューティングはこれだけ定義がバラバラで、ベンダーが同床異夢状態ですから、このままでは早々にブームそのものは下火になると思います。だからといってクラウドコンピューティングへの流れは止まらないでしょうから、2,3年後に生き残っているベンダーやインフラ事業者はキーワードだけでなく、収益性を含めて事業家に成功したところだけでしょう。そのときに備えてサービス提供者も、インフラ事業者も、ユーザもメリットがある形でビジネスモデルを構築しないといけません。ブームが終われば収益性が最優先になりますからね。

2009年11月14日

事業仕分け委員会の続きですが、委員会のやり方の是非は別にしても、説明責任の必要性を思い知らされることになりましたね。当方も予算はそれなりにいただいている方なので、先月、霞が関から当方が研究代表者になっている研究予算に関する資料の提出が求められていました。もちろんその資料は直接、事業仕分け委員会向きというわけではないようですが、税金による研究予算をいただいたら国民にわかるように研究の貢献を説明することが求められます。そうした説明資料では、国民への貢献は何かをかくことになります。事業仕分け委員会の言い方をするとリターンですね。研究は当初はまったく予想もしない効果がでるということが多いのですが、だからといってリターンの説明をしなくてもいいというものではありません。ところで事業仕分け委員会への批判をされている方々にリターン=お金という発想の人が多いのには驚きましたが。それと最近の傾向は、今回の仕分け委員会でも重視されていましたが、そのリターンを得られる時期に関する説明責任です。実際、当方もロードマップを作って、政府計画のターゲット年ごとにリターンを数字であげるという作業をすることとなりました。今後は説得力のある研究ロードマップをつくれることも研究者の重要な資質になりそうです。もちろんリターンを意識しすぎると出口戦略になっていくので、むしろリターンは実現しないかもしれないというリスクをどう許容させていくかということになりますが。

ところで事業仕分け委員会では重複助成が話題になっていましたね。現時点で科研費基盤Bと科研費萌芽、総務省研究助成の3つ研究予算の研究代表者をさせていただいている当方がいっても説得力は何もないのですが、予算の集中するのは仕方ない部分もあり、研究のアウトプットが最大になるように分散と集中をどうバランスさせるかということになると思います。というのは研究は複数のテーマをあつかっているからこそ見えてくることもあり、1研究者1テーマにしてしまってもよくない。ただ、まわりを見ていても一部の研究者への集中の弊害がおきていないとはいいにくい。以前、共同研究でご一緒させていただいた研究者は、(研究分担者を含む)科研費の獲得数が多いことが自慢のタネ。さらにはもらっている科研費数が多すぎてマネージメントできないことも自慢される始末。あきれましたし、こうした方とは関わりたくないです。まぁこれは極端な例なのでしょうが、研究者側に問題がないとはいいきれません。予算数や予算額を自慢するのではなく、自慢できるアウトプットが求められますね。

2009年11月13日

勤務先の行事へ対応。昨日はプレゼン続きでしたが、今日は座っていることが仕事。あいまに刷新会議の事業仕分け第三グループの中継を一部だけ拝見。事業仕分けの委員も委員ですが、受ける当該部局の方々の返答もツッコミどころ満載でしたね。何事もそうですが、現場を知らないと説得力のある反論ができないということなのでしょうね。事実上の凍結判定となったスパコンのところだけを書きますが、そもそもスパコンは手段なのですが、作ること自体が目的になっていたように見えます。どうしても解かないといけない問題があって、その問題を解くには膨大な計算量が必要で、高性能なスパコンが必要といえばいいのに、世界一のスパコンを作ることを目的にしたら、通るものも通らない。

さてこのスパコンは諸般の事情でベクトル方式とスカラ方式の併用型からスカラ方式に変わったりと迷走を続けましたが、もちろん外的な要因はあるにしてもプロジェクトマネージメントはしっかりしていたといえるのでしょうか。例えばマネージメントに関わられている方々はスカラ型でも性能的な要求が満たせることを定量的に示されたのでしょうか。勤務先がこのスパコンとは多少の関わりがあるので、わずかですが見聞きすることもありました。贔屓目にみてもマネージメントは膨大な予算を使うプロジェクトに見合ってるとは思えませんでした。ハイパフォーマンス計算系の研究者の方々が事業仕分け委員を非難する気持ちはわからないでもないけど、だったらマネージメント側の責任も追求すべきなように感じます。というかすでに何百億円という税金をつかっているのですから、凍結騒動でマネージメント側の責任を不問にしてしまうとまた同じ失敗を繰り返します。

もちろん世界一に拘る人たちの気持ちもわからないではないけど、スパコン競争はカーレースとは違います。カーレースでは速度(計算速度)の争いになりますが、スパコン競争は走行距離(計算量)。それもチームが出場させている複数のレーシングカーの合計走行距離を争う競争。だから高額な予算を使って世界で一番速いレーシングカーを作ることは勝つための必須条件ではなく、そこそこのレーシングカーを安く調達して数多くのレーシングカーを走らせて、合計走行距離を増やしてもいいです。それとスパコン競争はスパコンができてから計算性能ではなく、開発を始めたときから競争が始まっています。例えば世界一のスパコンをつくるのに4年間かかって、その半分の性能のスパコンをつくるのに2年間かかるのであれば、後者のスパコンをさっさと作って、先にできた時間、つまり2年間にガンガンに計算させれば、2倍性能スパコンを1年間動かしたのと同じ効果が出せます。半分の性能のスパコンを2台作れば1台分の計算はできるし、スパコンは性能が高くなるほど開発費も開発時間も指数的に増えますから、そこそこの性能のスパコンをたくさん用意した方が安く上がりますから、性能半分のスパコン2台の合計費用は1台分の値段よりも相当安くなります。

ところで事業仕分けは財務省主計局の予算執行調査がベースになっていて、仕分け委員会における主計及び委員からの問い合わせも予算執行調査資料がベースになっています。仕分け委員会にのぞまれる当該部局の方々におかれましては、この資料で指摘されていることへの回答は事前に用意されていると思いますが、それができていない人もいたようですね。ところで博士課程時代にJSPSの特別研究員だったのでいえる立場ではないのですが、今日の第3グループの質疑は博士課程進学者の人数を減らす方向に寄与することだけは確かな気がします。

2009年11月13日

勤務先の行事へ対応。昨日はプレゼン続きでしたが、今日は座っていることが仕事。あいまに刷新会議の事業仕分け第三グループの中継を一部だけ拝見。事業仕分けの委員も委員ですが、受ける当該部局の方々の返答もツッコミどころ満載でしたね。何事もそうですが、現場を知らないと説得力のある反論ができないということなのでしょうね。事実上の凍結判定となったスパコンのところだけを書きますが、そもそもスパコンは手段なのですが、作ること自体が目的になっていたように見えます。どうしても解かないといけない問題があって、その問題を解くには膨大な計算量が必要で、高性能なスパコンが必要といえばいいのに、世界一のスパコンを作ることを目的にしたら、通るものも通らない。

さてこのスパコンは諸般の事情でベクトル方式とスカラ方式の併用型からスカラ方式に変わったりと迷走を続けましたが、もちろん外的な要因はあるにしてもプロジェクトマネージメントはしっかりしていたといえるのでしょうか。例えばマネージメントに関わられている方々はスカラ型でも性能的な要求が満たせることを定量的に示されたのでしょうか。勤務先がこのスパコンとは多少の関わりがあるので、わずかですが見聞きすることもありました。贔屓目にみてもマネージメントは膨大な予算を使うプロジェクトに見合ってるとは思えませんでした。ハイパフォーマンス計算系の研究者の方々が事業仕分け委員を非難する気持ちはわからないでもないけど、だったらマネージメント側の責任も追求すべきなように感じます。というかすでに何百億円という税金をつかっているのですから、凍結騒動でマネージメント側の責任を不問にしてしまうとまた同じ失敗を繰り返します。

もちろん世界一に拘る人たちの気持ちもわからないではないけど、スパコン競争はカーレースとは違います。カーレースでは速度(計算速度)の争いになりますが、スパコン競争は走行距離(計算量)。それもチームが出場させている複数のレーシングカーの合計走行距離を争う競争。だから高額な予算を使って世界で一番速いレーシングカーを作ることは勝つための必須条件ではなく、そこそこのレーシングカーを安く調達して数多くのレーシングカーを走らせて、合計走行距離を増やしてもいいです。それとスパコン競争はスパコンができてから計算性能ではなく、開発を始めたときから競争が始まっています。例えば世界一のスパコンをつくるのに4年間かかって、その半分の性能のスパコンをつくるのに2年間かかるのであれば、後者のスパコンをさっさと作って、先にできた時間、つまり2年間にガンガンに計算させれば、2倍性能スパコンを1年間動かしたのと同じ効果が出せます。半分の性能のスパコンを2台作れば1台分の計算はできるし、スパコンは性能が高くなるほど開発費も開発時間も指数的に増えますから、そこそこの性能のスパコンをたくさん用意した方が安く上がりますから、性能半分のスパコン2台の合計費用は1台分の値段よりも相当安くなります。

ところで事業仕分けは財務省主計局の予算執行調査がベースになっていて、仕分け委員会における主計及び委員からの問い合わせも予算執行調査資料がベースになっています。仕分け委員会にのぞまれる当該部局の方々におかれましては、この資料で指摘されていることへの回答は事前に用意されていると思いますが、それができていない人もいたようですね。ところで博士課程時代にJSPSの特別研究員だったのでいえる立場ではないのですが、今日の第3グループの質疑は博士課程進学者の人数を減らす方向に寄与することだけは確かな気がします。

2009年11月12日

ともかく忙しいです。打合せとプレゼン、それから徹夜仕事。今週は完全にオーバーフロー状態になっております。溜まったタスクをリブートしたいところですが、人間にリセットボタンってないのですよね。なんかPCがうらやましくなってきました。

2009年11月11日

Googleの有名開発者たちがGoというシステムプログラミング言語を発表。さっそく言語仕様はざっと見ましたが、新しい処理が書けるというよりは複雑だったことがシンプルに書けそうなので好印象だったりします。ただ、Unix&C言語時代と違って、EclipseやVisual Studioなどの統合開発環境を使って開発効率をあげる時代。統合開発環境を想定した言語仕様をいれもよかったと思います。それとC言語だけなど特定言語だけでシステム開発する時代でもない。他の言語の親和性はどうなのでしょうか。それとスクラッチからプログラムを書く時代ではなく、既存プログラムやサンプルプログラムを拡張しながらプログラムを作る時代。新しいプログラミング言語はどうしても既存ソフトウェア資産がないので、その言語設計はどうしてもスクラッチからプログラミングすることを想定していまいがちなのですが、Go言語はどうなんでしょうか。既存のGoプログラムに手を入れやすいプログラミング言語か否かが普及するか否かを決めるのではないでしょうか。個人的にはその意味ではPythonぐらいプログラミングスタイルの自由度を奪った方がよかったような気がします。それから時代が時代なのでマルチコアへの対応を重視しているようですが、Googleとしては今後のプロセッサのロードマップとしてはプロセッサのコア数は増えると想定しているようですが、ヘテロコアはあまり想定しないと解釈することもできるのですが、どうなんでしょうか。もちろんGo言語だけで判断できることではありませんがね。なんでプロセッサの技術トレンドの話を持ち出したのかというと、GoogleのようにIntelプロセッサの大口利用者は今後のロードマップが長めに知らされているものだから。こうした大口利用者やOSメーカをウオッチしていないといけないのですよね。

さてGoを開発した理由として、「コンピューティングの状況が一変したのに、10年間以上システムプログラミング言語が登場していない」とあります。確かにその通りです。でも別の見方をするとここ10年間、新しいシステムらしい新しいシステムは登場していないという気もしないでもない。こう書くといろいろ反論されるわけですが、世の中が新規に開発された新OSを望んでいるかというと、技術者を含めて多くの方は、新しいOSよりも枯れたOSを機能強化した方が安定かつ安全でいいと言い出す状況。Google は有力開発者を抱えているのですから、システムプログラミング言語の代表であるC言語は1970年前後にUnixの開発のために作られたように、Goで新しいOSや、新しいミドルウェアを開発して、世の中に問うて欲しいです。そのGo言語のプロジェクトにはC言語とUnixの開発者もおられるわけですから。

2009年11月10日

リコーがユニークなカメラシステム(GXR)を発表したようですね。確かに画期的なカメラシステムですね。でも個人的にはGR LENSという名称に反応してしまいました。というのはGR LENS 28mm F2.8を使っておりますので(カメラではなく交換式のレンズの方ね)。いまだにGR LENS 21mm F3.5がほしいとかつぶやいております(周辺光落ちが激しいので使いにくそうですが)。個人的には今回の50mmの撮像素子のままでいいのでMマウントかスクリューマウントのカメラユニットを出してくれたら買わずにはいられないと思います。是非検討して欲しいですね。距離計はどうするかですが、プレビューで確認などはせず、広角レンズを付ければ目測でも大丈夫といいきってみたり。それとGXRという型番ですが、これに反応する人もいそう。往年のリコーの一眼レフにXRというシリーズがありましたから。リコーはユニークなカメラが多い。太陽電池内蔵カメラ(XR SOLAR)というエコな一眼レフカメラを出していましたが、使っていた人はいるのでしょうかね。MIRAIという名前の前衛的なカメラシリーズもありましたね。以上、わかる人にしかわからない話でした。そしてたぶんわからない方が幸せだと思います。

2009年11月9日

Sun Microsystemsからエンジニアの流出がともらないようですね。個人的な知り合い数人からも退職のメールをいただいていますし、JRubyの開発者3人も8月にやめていますし、今度はJPythonの開発者もやめるそうです。まぁカリフォルニアにいたい人たちだから、カリフォルニアにオフィスがある企業に移るのでしょうが。この分だとクリスマス休暇明けは退職ラッシュではないでしょうか。OracleがSun Microsystemsを買収したわけですが、買収が完了する頃には優秀な人材はほとんど残っておらず、Oracleにとって価値がある資産は顧客名簿ぐらいでしょう。ただ、Sun Microsystemsの顧客名簿の価値も怪しい。ご存知のようにSun Microsystemsは東海岸の金融系システムに強いのですが、リーマンショック前後で金融業界も様変わりしているようですから、Sun Microsystemsの顧客名簿は実体とあわなくなっている可能性はあります。

実は個人的に心配しているのはSun MicrosystemsよりもOracleの行く末の方。もちろんデータベースの需要がなくなることはないでしょうが、短期的にはIBMやMicrsoftがデータベースのディスカウント販売に踏み切られると、データベースを主な収入源としているOracleとしては辛いことになります。ただ、Sun Microsystemsの買収でオープンソースデータベースのMy SQLを確保できたことはデータベースの値崩れに防止には一役買いそうですが。また、長期的にはクラウドコンピューティングの影響も大きいでしょう。Oracleの顧客はOracleのデータベースが優れているというよりも、管理者がOracleのデータベースに慣れているという人の部分があるとされます。ただ、クラウドコンピューティングになって、データベースの管理がクラウドインフラに任されるようになるとデータベースの選択もクラウドインフラに任されることになります。

それと大手IT企業の顧客企業の動向です。というのは大手IT企業が企業買収を続けた背景には、顧客企業の巨大化があげられます。素材業界や食品業界などさまざまな業界で、M&Aの結果コングロマリット的な巨大企業が誕生したのですが、(そうした企業を顧客にする)大手IT企業からみると顧客企業からの要望は、顧客企業の巨大化とともに多様化していき、その要望に手っ取り早くあわせるために大手IT企業も買収して、商品・サービスの拡充をしたとされます。つまりIT企業の買収による巨大化は顧客企業の巨大化と連動していることになります。逆に言えば顧客企業の巨大化の行く末によっては、IT企業の巨大化は強みにもなるし、弱みにもなります。だから今後ともOracleの顧客側企業の巨大化が進むのであればOracleにとってSun Microsystemsの買収は価値があると思いますが、巨大化が止まる、特にスリム化が進んだりすると大きな負担になりそうです。当たり前ですが企業を含めて組織は大きくなればなるほど身動きが遅くなりますから。

ところでSun Microsystemsが米国東海岸の金融系に強かった背景に元DECエンジニアたちがDECの拠点があった東海岸の金融機関にうつったことがあげられます(米大手金融機関はNYCにありますが、データセンターはボストン周辺にあったりします)。その彼らがDECを葬り去ったSun Microsystemsの製品を重用したのは皮肉ですが、DECエンジニアとしてはAIXやHP-UXよりはSolarisの方が信頼性が高く見えたのかもしれません(DEC VMSに近いWindows NT系は当時は使い物になるレベルではなかったはず)。Sun Microsystemsのエンジニアの今後の動向はIT業界に影響を与えるのでしょう。

2009年11月8日

クラウドコンピューティングではクライアントはダム端末化していくのですが、ダム端末化するにしてもWebブラウザとして実現されるのでしょうか、仮想デスクトップとして実現されるのでしょうか。パブリッククラウドは通信遅延&帯域に制約があるので、Webブラウザで通信で描画コマンドを受信しつつ、描画することでレスポンス性能を稼ぐことになるといまのところは予測していますが、気になるのはプライベートクラウドの方です。社内ネットワークなど通信遅延がある程度押さえ込まれていれば仮想デスクトップという選択もありそうです。特にいわゆるプライベートクラウドのユーザ、つまり企業では情報管理が求められますが、仮想デスクトップはクライアントに情報を残さないというメリットがあります。実際、仮想化技術の大手VMwareやCitrix、Micrsoftは仮想デスクトップにご熱心ですよね。

さて日経BP ITproに「OSは変わった」という記事があり、ここでクラウドのクライアントは単なるスクリーンとなるということが述べられています。当方もクラウドコンピューティングになるとクライアントはダム端末化、つまりスクリーン化してくると思っているのですが、ただクライアントのスクリーン化はGoogleとMicrosoftのビジネス戦略の違いが見え隠れしているように思います。技術的にいえばGoogleはHTML 5のようにWebブラウザの高機能化を進めて、いろいろなアプリケーションをWebブラウザ上で扱えるあようにすることを目指しているようです。一方、MicrosoftはWebブラウザ上ですべてのアプリケーションが扱えるようになるとは思っておらず、Webブラウザでは扱えないアプリケーションを使うユーザについては仮想デスクトップを提供するという戦略のように推測されます。

ただ、ビジネス的に見ると違ってきます。簡単に言えばGoogleはWebブラウザの内側でビジネスをしている企業、MicrsoftはWebブラウザの外側でビジネスをしている企業。つまりGoogleはWeb検索やAdSenseをはじめとするWeb関連技術でビジネスをしています。従ってWebとして実現される範囲が広がるほどGoogleのビジネスチャンスは増えます。一方、MicrsoftはWebブラウザの外側の世界、デスクトップOS(Windows)とデスクトップアプリケーション(Office)でビジネスしています。MicrosoftとしてはライバルであるGoogleの得意なエリアでの戦いは避けたいのが本音でしょう。

それと両社の戦いは広告スペースの奪いでもあります。Microsoftからみればクライアントの描画方法として仮想デスクトップが主流になれば、Webブラウザの内側以外の世界の広告スペースを独占できます。というのは仮想デスクトップではサーバで作ったGUIのビットマップデータをクライアントで表示するので、サーバ側でGUIに広告を貼ればユーザはそれを見るしかないからです。当然、Googleとしては広告がWebブラウザの外側に流れ出すことだけは避けないといけません。つまりGoogleはWebブラウザという領地を広げてくる戦力でしょうし、MicrosoftはWebブラウザの外側にある領地を固めつつ、Webブラウザの領地拡大を抑える戦略になるのでしょう。

さてビジネスモデルが広告収入である以上は、テレビの視聴率と同様にたくさんの端末も抑えないといけません。というか端末をたくさん抑えた方が勝ちます。GoogleはPCだけではなく、携帯電話もいれて端末を増やそうとしています。この状況はMicrosoftも同じはず。先週、Micrsoftはバルマー社長は「3 Screens and a Cloud」という戦略を協調したそうですね。ここで3つのスクリーンとはパソコン、携帯電話、テレビだそうです。これから両社の端末のぶんどり合戦もはじまるのでしょう。立場上、国内家電メーカの方と会うこともないのですが、テレビそのものが広告スペースという発想の方にはまだお会いしていません。これからはPCはもちろん、テレビも携帯電話も広告スペースにすぎないと思った方がいいのにね。

2009年11月7日

休日出勤です。9月は休日日数が2日となり、勤務先の管理部門からありえませんといわれて、10月は休日出勤をしないようにしていましたが、そろそろ自主解禁です。さて昨日の副大臣級の某会議絡みの仕事だったのですが、急ぐべき課題だから通常国会に法案提出は正しいけど、昨年の試行○○のように準備不足で走り出すのもいいとは思えない。以上、わかる人にしかわからないつぶやきでした。

2009年11月6日

最近、気になっているのがHPが提唱しているCellsという概念。IaaS系のクラウドコンピューティングを対象にしているのですが、Cellというは仮想プロセッサやメモリを含む計算リソースの単位。というのはクラウドコンピューティングではインフラ側のサーバの性買うな計算性能はわからないし、IaaSでも仮想マシンを介しているので、実際の計算性能はみえない。でもクラウドインフラは計算性能もわからないのに時間で課金するので、矛盾しているから。もちろんHPのCellがこの問題を解決してくれるかはわからないのですが、クラウドコンピューティングを前提にした論理的な計算リソース単位が必要になるのは間違いないと思います。ところでCellといえば、HPのCellは概念的にはSony/東芝/IBMがCellプロセッサのときに提唱したSoftware Cellによく似ていますね。いま考えると(サーバ側の)Cell構想はクラウドコンピューティングと同じでしたから当然といえば当然かもしれませんが。

2009年11月5日

Micrsoftが都内で開催されたDeveloper向けイベントのビデオを拝見。バルマー社長がいつもの熱血ぶりで開発者向けに公演しておられます。いつも思うのですが、Micrsoftは開発者に優しい会社ですよね。プラットフォームや技術が新しくなっても、既存のWindows開発者がついていけるようにパスを用意していますし、VisualBasic 6のように古いWindowsソフトウェアの実行性も用意しています。

さてMicrosoftのクラウドコンピューティングであるWindows Azureも既存Windowsソフトウェア開発との親和性重視。今回のイベントでもバルマー社長自ら、既存のWindows開発者が容易にAzureの開発ができることを強調していました。もちろん既存のWindows開発者を優遇する姿勢自体は評価できるのですが、これを新参開発者からみると、これまでのソフトウェア資産や経験が豊富な古参開発者に有利ということになります。しかし、新しいアイデア、新しいアプリケーションというのは古参の開発者ではなく、新参者によってもたらされることが多い。一般論ですが、技術者というはベテランになればなるほど保守化していきます。つまり古参プログラマーにイノベーティブなアプリケーションは期待できないことになります。

例えばiPhoneのソフトウェア開発が盛り上がったのは、iPhoneというプラットフォームが優れていたということもありますが、iPhoneは新しいプラットフォームのために古参開発者がいないために、新規参入がしやすく、アイデアがある新参開発者が集まったと分析しています。一方のWindowsは古参開発者の重視の姿勢がイノベーションを止めてしまっているように思います。

これに関わる事例はセガの方から伺ったことがあるのですが、セガのアーケードゲームであったバーチャファイターは、新規ユーザを増やすためにコントローラのボタンの数を変更したことがあったそうです(ボタンを3つと4つ)。その理由は、バーチャファイターの凄腕のユーザがでてきたのですが、すでに強いユーザがいると新たにバーチャファイターに興味をもったユーザがいても、既存の凄腕ユーザに勝てないと思って、躊躇してしまうのだそうです。そこで(これまでのバーチャファイターに慣れた)凄腕のユーザが下手になるようにボタン数を変更して、ユーザ間の強さの差を小さくして、新規ユーザが入りやすくしたそうです。

もちろんゲームとソフトウェア開発は違いますが、Windowsがイノベーティブでありつづけるには古参開発者を切り捨てる策が必要なのではないでしょうか。あくまでも個人的には印象ですが、WindowsとWebサービス関連、iPhoneの開発者を比べると、Windowsの開発者が平均年齢が高いですよね。特に腕がいいという開発者は40歳台の人も多い。もちろんWindows開発者は年寄りとはまでいいませんが、若い開発者の参入が減っていることは確かではないでしょうか。

2009年11月4日

なんか忙しいですね。まわっていない感じ。科研費書類を書きはじめたいのですが、その余裕がありません。ちなみに勤務先の科研費の締め切りは二週間前でした。科研費萌芽は来年もいただくし、総務省の予算もはじまったばかり。科研費の申請内容よりも、科研費を出すべきか出さないべきかが悩ましい。

知り合いからD23HWのMac OS X 10.6 (Snow Leopard)への対応方法を教えていただく。当方場合はMacOS Xを10.5(Leopard)から10.6にあげたときの唯一の問題はD23HWが使えなくなったことなのですが、10.6に対応しているD24HWのユーティリティを使えばいいと教えてもらう。早速試したところ確かに10.6でD23HWが使えるようになりました。感謝。

2009年11月3日

昨日、ITベンダーのクラウドコンピューティングへの関わりが二分していると書いたのですが、その補足。そのなかでもIBMはクラウドと名付けた製品を幅広く展開しています。ただ、これはIBMはここ数年でサービスが収益になるように企業構造を変えてきています。だから、IBMはクラウドコンピューティングのインフラ側ビジネスで収益がでなくても、他社のクラウドインフラ上で自社のサービスを売って儲けることができます。しかし、国内メーカは旧態依然のハードウェアビジネスから抜け出せていませんし、国内SI事業者もシステム構築・運用で商売している状態。つまり、国内メーカも国内SI事業者もサービスを収益源としているところは少ない。だから、IBMがクラウドを前面にビジネス展開しているからといって、それを真似るべきではないのです。というかIBMと国内メーカ&SI事業者は収益モデルが違いますから、まだHPやDellあたりを真似た方がいい。昔からの習慣でIBMの真似をしているだけならば、残念ですが先はないでしょう。実はこれは日経コンピュータのクラウドコンピューティングの解説記事または先週の基調講演で話したかったことだったのですが、さすがに自重。だって上記を某国内メーカの方にいったら、メインフレーム時代を経験した役員にはIBMの真似をしていればなんとなると思っている人がいると言われる始末でしたから。

それと当方の立場では書きにくいというか、当該府省の方々がこのページを読んでいるのを承知で書くのですが、クラウドコンピューティングに関しては行政サイドもややミスリードした部分があるかもしれません。クラウドコンピューティングが話題になれば、クラウドという名称がはいった業界支援をはじめます。もちろん行政サイドとしては新しい技術の発展を狙っており、悪気はないのはわかっています。でもサービスで儲けられない国内メーカやSI事業者をクラウドコンピューティングに導くのは、巨大データセンターを作る資金力もないし、広く利用されるサービスを作ることもできない国内メーカやSI事業者の衰退をはやめるだけです。また業界構造を変えずに業界支援すると古い構造を温存させることになります。いまからIBMの後追いは難しいでしょうが、サービスを収益源にできるように誘導する方が長期的にはいいはずです。国内のメーカやSI事業者は例えば製造業や金融、公共などの産業セクター毎に専門部署をもっていますし、特化した人材も抱えています。こうした産業セクターに対してサービス提供業化できる下地はあると思います。インフラ作りも大切でしょうが、サービスのないインフラをつくるのは、ソフトウェアのないコンピュータと同じで無用な長物です。

2009年11月2日

最近はIT業界はなんでもクラウド状態。パブリッククラウドなどどのベンダーもクラウドを名付けた製品やサービスでいっぱい。でもクラウドといえば規模の経済で圧倒的な低価格なパブリッククラウドがあります。例えばパブリッククラウドも本来は仮想化技術を駆使した高信頼性情報システムなのですが、なまじクラウドという名前が入っているので、顧客の方はパブリッククラウドと同列にあつかいます。この結果、プライベートクラウドというかサーバ仮想化製品はハードウェア込みで高く売れた商品だったのに、パブリッククラウドと価格競争をする羽目になっていますね。まぁ自業自得なのですがね。ただ、OracleやDell、HPあたりはクラウドという言葉にどちらかというと積極的ではないようですが、逆にIBMや国内メーカはクラウドを連発状態。それぞれの戦略の違いが将来、各社のどのように影響してくるかに興味があったりします。

それと個人的にはクラウドコンピューティング=コスト削減とは思ってないのですが、この際、クラウドコンピューティングにコスト削減効果があるとかないとかはどうでもよく、むしろクラウド=コスト削減というイメージができていることの方がはるかに重要のはず。顧客はクラウドといったらコスト削減をイメージするので、システム購入価格や管理費用の引き下げを求めてくることになり、結局、クラウドコンピューティング=コスト削減というイメージが現実になってしまうのだと思います。というのは現在のクラウドコンピューティングビジネスは技術というよりもマーケット戦略。このため技術よりもマーケットの都合が優先されてしまうでしょう。

2009年11月1日

クラウドコンピューティングはビジネスモデルが欠如していますよね。Googleは収入のほとんど広告収入から、Amazonは書籍などの販売が収入源、Microsoftはソフトウェア販売。つまり大手のクラウドインフラ事業者はいずれもクラウドコンピューティングで収入を得ていません。もちろん将来の収入源として先行投資とみることができますが、ある時点でクラウドインフラの構築・運用費はクラウドコンピューティングのビジネスから得られて、きちんと黒字がでるようにしないとクラウドコンピューティングは長続きしないでしょう。

それでどんなビジネスモデルを構築すべきですが、インフラ事業者による巨額な先行投資を仮定していいのであれば何とかなりますが、問題は先行投資に必要な資金がない場合のビジネスモデル。ひとつの方法はクラウドインフラを証券化して、クラウドインフラの運用利益を債権保持者に配当として還元します。問題はインフラの償却期間が短いので、売り抜けが多くなりますから、配当を相当手厚くしないといけないでしょうね。もうひとつは生協のようにユーザが出資者となる方法。この場合、出資したユーザは優先的な利用権が与えられることになりますが、利用権以上の価値を出せるかがキーになりそう。ただ、考えれば考えるほど副収入がないとインフラ事業はやれないという結論になってしまうのですよね。

2009年10月31日

例によって格安当日券で、新国立劇場でモーツアルトのオペラ「魔笛」を観劇。魔笛は毎シーズン、一回以上見ている作品。今年の3月にヘルシンキでフィンランド国立オペラで見た以来。さて出来ですが、ヒロインのPamina役はCamilla Tilling でしたが、観客をうならせるような歌声ではないのですが、あらもないしなかなか歌唱力でした。声質も風貌もPamina役にあっていました。出演箇所はすくないものの魔笛といえば夜の女王様、それも二幕目のコロラトゥーラなのですが、夜の女王様役の安井陽子はよかったですね。声を振るわせるだけのコロラトゥーラになる歌手も多いのですが、声量もあるし鮮明な歌い方。説明が難しいのですが、日本人ソプラノのとは思えないコロラトゥーラで、海外歌手でいうとEdda Moser風の歌い方といいましょうか、正統派のドイツ人歌手がうたう夜の女王様役になっていました。Papageno役はMarkus Butter。コミカルな役所ですが、役だけでなく歌の出来もよく、主役はPapagenoと思わせるぐらいでした。また夜の女王様の3人従女役は安藤赴美子、池田香織、清水華澄でしたが、個性を出すというよりはハーモニーという歌でした。Sarastro役は松位浩。ドイツ人の老練なバス歌手という感じで日本人バスとは思えない歌声。歌は総じてよかったのですが、唯一残念だったのは主役であるTamino役のStefano Ferrari。ルックスは王子様風でいいのですが、歌に重みが無いし、声質もTaminoにはあっていない感じ。まぁTaminoは主役といっても出番は少ないのでいいのですがね。演奏ですが、指揮がAlfred Eschwe で、オケは東京交響楽団でしたが、指揮はそつなくきめて好印象でしたが、オケは弦楽器はいいのですが、金管の出来はお世辞でもいいとはいえませんでした。言葉悪いですが、東京交響楽団らしい演奏ともいえますがね。演出は以前の公演と同じだそうですが、舞台も演出も非常にいい出来でした。魔笛は舞台変更が多いので舞台セットは結構難しいのですが、新国立劇場の高性能舞台装置を存分につかって、スピーディな舞台変化をさせていました。

2009年10月30日

昨日の講演ではクラウドコンピューティングによる電子行政について言及したのですが、世間のクラウドコンピューティングによる電子行政の議論はせいぜいサーバ集約化によるコスト削減レベルで稚拙なものがおおいですよね。クラウドコンピューティングと既存情報システムの最大の違いは、クラウドインフラは事実上無限の計算リソースがあるので、行政機関が全国民や全法人に行政サービスを提供できることです。例えば国税庁が法人向けの法人税管理サービスをつくって、それを国内全法人に提供することも不可能ではない。つまりクラウドコンピューティングを利用した電子行政というのは行政機関内のシステム集約とかではなく、行政機関がサービス提供者になるかということ。そしてもう一つは例えば市町村が自ら使うために行政管理サービスをクラウドインフラ上に構築・運用したときにそれを他の市町村に提供するのかです。これまでは市町村はそれ自身の行政管理処理でシステムが手一杯でしたが、クラウドインフラならば他の市町村に提供する余裕がでてきます。その意味ではクラウドコンピューティングを前提にするのであれば市町村はサービス提供者になるか、利用者になるべきでしょう。

特にクラウドコンピューティングによる電子政府(電子行政)とかいうのであれば、自国向けにつくった電子行政サービスを他国にも提供するぐらいの覚悟がほしいし、それができないようなシステムやサービスは作るだけ無駄です。将来、国家間の電子行政サービスの提供・利用関係が国家の関係になっていくのではないでしょうか。なぜかというと利用側の国は提供側の国に国家の根幹部分まで依存してしまうからです。その結果としてサービス提供側の国を中心とする連邦国家ができかなねい。ただ、そういう時代になったとき国家の意味は大きく変質している可能性がありますが。

2009年10月29日

東京ビックサイトで開催された日経BPのイベント(ITpro Expo)のクラウドコンピューティングセッションで基調講演。事前に当方の講演は満員になったというのはきいていましたが、300人ぐらい入る大部屋がいっぱい、事務局が補助イスをだしても立ち見の方がおられたそうです。聞いていただいた方皆さんに感謝です。大きなイベントの基調講演だと技術系の方だけでなく、非技術系の方も聞かれるので講演内容が難しいのですよね。今回は思い切って非技術的な内容にするかわりに、技術系の方にも関心を持っていただける話題をいれるという構成にしてみたのですが、いかがだったでしょうか。

ちなみに当方の講演の概要についてはこの記事が詳しいかも。ちなみにこの記事は講演の前半部分が中心だったり。というのは講演の後半部分はアグレッシブすぎて記事にしにくかったのでしょう。それと講演時間は超過気味になってしまいましたが、実は当初、会場人数を多くても200人程度と勝手に予想していたので、聞かれる方々はある程度、クラウドコンピューティングについてはわかっている方々と想定していたのですが、会場の人数をみてやや入門的な話をいれることにしたのでした。結果としては時間超過気味になり、事務局には迷惑をおかけしました。それからこれでもスライドをだいぶ削ったのですよね。講演のスライドは30枚ちょっとだったのですが、実は当初は50枚ほどでした。せっかくなので今回使わなかったスライドもどこかでお話したいですね。

スライドが欲しいという方が多かったので、ここにしばらくおいておきます。

2009年10月28日

自前にオフィスを出て、横浜方面で某メーカと打合せ。午後は青山方面の某データベース会社、オフィスにもどる。さて概算要求絡みの騒動が終わったかと思ったら、今度は二次補正絡みの依頼。個人的にはつきあいきれなくなっていますけど。二次補正ですが、臨時国会ではなく通常国会なので、これから詰めるのでしょうが、科学技術系予算に限ると地球温暖化対策に重点配分になりそうですね。それがいいかわるいかは立場によるかもしれませんが、これまでのような全本位作戦が通じないのも確かかもしれませんが。科学技術振興も選択と集中の時代ということなのでしょう。

2009年10月27日

某省依頼の資料作成のなか、Google App Engine for Java (GAE/J)のスレッドの識別子とハッシュコードがいつも同じということを教えてもらって、早速、それを調べるプログラムをつくってみると確かにその通り。まぁ1インスタンスに1スレッドだから実害はないのでしょうが。大急ぎで書いた簡単なプログラムですが、これをクリックするとGAE/Jのシステム情報を調べて返します。ただ、こんな1,2分で書いたプログラムも、ボタン一つで数十秒後には世界中にサービスとして公開できるところがクラウドコンピューティングの威力ですね。しばらくはこのサービスはおいておくのでGAE/Jのシステム及びJavaまわりの情報を調べるときにでもお使い下さい。

さて話をGAE/Jに戻しますが。GAE/Jは謎が多すぎます。でもGAE/JはクラウドコンピューティングのなかでもPaaS方式を代表するプラットフォームのひとつ。そのGAE/Jですらプログラムを実行する上で基本的な情報が公開されていないのはクラウドコンピューティング向けの開発の実情を表しているのでしょう。既存のシステム向けの開発では、例えばプログラムから呼び出すライブラリなどは開発環境側に用意されているので、いざとなれば逆アセンブルしてライブラリの仕様を調べることもできたのですが、PaaSではクラウドインフラ側にライブラリが用意されているのでそんな強引な技はつかえません。ドキュメントがないと結局、いろいろ試して推測するしかないです。クラウドコンピューティングは文字通り雲なのですが、雲の中身は外から見えません。GAE/Jに限らずクラウドコンピューティング向けのソフトウェア開発は試行錯誤の連続。そして想定した通りに動かなくてもその原因もわからないということが多そう。

2009年10月26日

所内で産学共同研究の打合せ、国際電話、早大で打合せ、所内で打合せ、某省からの電話。まぁ変化があっていいのですがね。ただ、個人的には書きかけのプログラミングに集中したいところです。まぁ、そのまえに先月の引っ越しで解体する羽目になった実験用クラスタを再構築する作業が残っていますね。やらないといけないこといっぱい、やりたいことはもっといっぱい。

2009年10月25日

NHKで電気自動車のドキュメンタリー番組をやっていたので見ていたのですが、電気自動車っていろんな意味でおもしろいですね。電気自動車の話をきくといつも悩むことがあります。バッテリと車体の耐用年数は違ってくると思うのですが、どちらが長いのでしょうね。前者が長いのであれば車体は購入、バッテリはリースとすると電気自動車の値段を下げられます。というのは車体の耐用年数以降もバッテリーは価値を持ちますからね。逆ならば電気自動車で一番高い部品はバッテリなので、何回も買い換えないといけないとするとずいぶん高くつく自動車となります。

2009年10月24日

あいかわらず、このページで10月20日に「Googleはいずれは巨大データセンターは手放す」と書いたことへの問い合わせをいただいております。当方としては、至極当然で、別におどろくようなことはないと思いますが。例えばGoogleの「Datacenter as a Computer」という論文が6月頃でましたが、Googleが巨大データセンターの構築・運用技術はコアコンピタンスと思っているのならば、自社の巨大データセンターの構築・運用技術をわざわざパブリックドキュメントにしません。

さてGoogleは各所に巨大データセンター間でデータとアプリケーションを多重化を目指しています。Microsoftは今年のPDCで発表になるかとは思いますが、地域間多重化に進もうとしています。そして両社ともに巨大データセンター間連携に技術開発の焦点を移すでしょう。つまり彼らのコアコンピタンスは巨大データセンターの構築・運用技術から、巨大データセンター連携技術に移行しつつあります。それにともない巨大データセンターそのものは部品化していくでしょう。まさにDatacenter as a Computerですね。さて日本はというといまだに「国内に巨大データセンターを」と言い出す人が多いのですが、いまさら巨大データセンターを作っても海外の大手クラウドインフラの部品になるだけです。

ところでGoogleが巨大データセンターを作り始めたのは、あくまでもWeb検索というアプリケーションを動かすためですから、所望のアプリケーションが実現できるのならば巨大データセンターそのものに拘る必然性はないし、サードパーティに巨大データセンターの構築・運用をアウトソーシングした方が安いならばアウトソーシングするでしょう。GoogleもMicrosoft、Amazonも巨大データセンターは彼らにとって手段だし、主要な収益源ではないのですよね。日本の企業は市場拡大時に虎の子の技術を守りすぎて供給不足になって失敗することが多いですが、時には積極的に技術供与して外部から安く調達した方がいい場合もあります。

2009年10月23日

クラウドコンピューティングというとやたらにSLAの数値を気にする人がいっぱいおられます。例えば可用性が99.9%ではダメとか、99.99%でも心配となります。確かに可用性は大問題なのですが、クラウドコンピューティングにはSLA値大小以前に本質的な問題があります。それはクラウドコンピューティングではSLAに示された数値が妥当なのかを検証が難しいことです。既存システムならば自前で管理するにしても、管理委託するにしても、システム構成をみたり、そのシステムの管理を通じて、例えば可用性がどれぐらいなのかある程度みえてきます。そうなれば当然、SLAに示された数値の妥当性もわかります。しかし、クラウドコンピューティングそもそもはクラウドコンピューティングインフラが雲のように見えないことになっていますから、つまりシステムの構造がどうなっているかさえみえません。みえなければ当然、クラウドインフラ事業者が示したSLAが妥当なのかもわかるはずがありません。つまり、可用性の高低以前に、インフラ事業者が提示した可用性の真偽がわからないことがクラウドコンピューティングの可用性の本質的な問題なのです。

第三者的に検証がむずかしい数値はあくまでも参考値にすぎませんから、そんな数値に一喜一憂するよりはトラブル対策を考えておく方がよほど建設的だと思うのですがね。

この問題への解決策として当方が提案しているのはこのページや日経コンピュータの最新号(10月14日号)に書いたように損害保険会社をモニタリングシステムとして使う方法です。つまり損害保険会社はクラウドコンピューティングのユーザ向けに可用性に関する保険商品をつくる。ユーザはその保険に加入します。そして可用性に何らかのトラブル我があったときは保険金が支払われます。さて損害保険会社は保険金を支払いをさけるためにクラウドコンピューティングインフラの可用性を調べて、問題があればインフラ事業者に助言もするでしょう。この話にはもう一段あって、その損害保険会社は保険を証券化して、インフラ事業者に買わせます。インフラ事業者は証券の価値を下げたくないので自主的にも可用性向上をするはずです。企業におけるエージェンシーコストの解決の問題と同じで、インフラ事業者に可用性向上へのインセンティブを作ることが重要になります。技術で解決できる問題もありますが、技術以外の方法を使った方が効果的な場合もあります。それと可用性の「見える化」は大切でしょうが、見えるだけでは解決できないことも多いです。

そうそう日経コンピュータといえば来週は出版元主催セミナーでクラウドコンピューティング関連の講演が一件があるのですが、日経コンピュータの解説はおとなしかったので講演はちょっとアグレッシブにいきたいところですね。たぶん事前登録をすれば無料だそうです。当方の講演はそろそろ満席だそうですが。

2009年10月22日

午前中はオフィスで仕事、午後はICタグのISO委員会。4時過ぎに日本テレビからクラウドコンピューティング関連の取材申し込み。そのまま緊急インタビューとなりました。日テレのニュースZEROには流れることにながれました。当方のぎこちない受け答えよりも、散らかったオフィスが全国放送されることの方が問題。ニュースZEROではWindows 7の発売とクラウドコンピューティングの二つを取り上げるという構成になっていたのですが、Windows 7にかけた時間よりもクラウドコンピューティングにかけた時間の方が長い。MS様には申し訳ないのですが、Windowsって話題にならないということですね。時代の変化を感じさせました。

それにしても、いつテレビ取材があるかもわからないので、身なりやオフィスはきれいにしておきましょう。ということを痛感した数時間でした。

2009年10月21日

昨日書いたことがよくわからないとお叱りをうけたので補足。それは「Googleはいずれは巨大データセンターは手放す」という予想に関してなのですが、この予想は次の4点が背景になっています。(1)巨大データセンターは長期的に儲かる商売ではないということと、(2)巨大データセンターもいつかはコモディティ化すること、(3)GoogleもMicrosoftも巨大データセンターの構築・運用が彼らのコアコンピタンスとは思えないこと、(4)競争健全化のために行政によるサービスとインフラの分離圧力が出てくるだろうということです。

GoogleにしてもMicrosoftにしても巨大データセンターの構築・運用は現状では完全な持ち出しのはずです。今後はクラウドコンピューティングの利用が広がれば収益性は出てくるでしょうが、他社との競争がありますから長期的にはその収入は限界費用に近づくはずです。儲からない商売をいつまでも温存すべきではありません。

次に巨大データセンターがコモディティ化するかですが、歴史的にいえばどんな最新技術もいずれにはコモディティ化します。現在は巨大データセンターの構築・運用技術は急速に発展していますが、ある段階で熟成されて大きな発展は望めなくなるでしょう。例えば昔、高層ビルは特定の建築会社だけが作れる最新技術の集大成とされていましたが、いまは高層ビルの建築技術はコモディティ化されて、世界中に高層ビルができています。巨大データセンターが技術がある程度熟成されると誰が構築・運用しても同じという状況になることが予想されます。つまり巨大データセンターもコモディティになるかも。GoogleにしてもMicrosoftにしてもひとつの巨大データセンターは一台のコンピュータに過ぎないですから。

さて、ご存知のようにGoogleは特注のサーバを使っているにしても、その部品はすべてコモディティ品です。逆に言えばサードパーティが作ろうと思えば作れます。なのでGoogleの強みは巨大データセンターを構築・運用するための独自ソフトウェア群になります。Googleは現状では巨大データセンターを構築・運用するための技術に注力を注いでいますが、Googleなどの技術支援や自動運用技術の発展によりサードパーティでも構築・運用ができるとしたら、Googleは自社で巨大データセンターを構築・運用するでしょうか。クラウドコンピューティング的な発想、つまり「所有」から「利用」を考えると、クラウドコンピューティングはGoogleにとっても所有するよりも利用した方がいいことになります。だとするとGoogleにしてもMicrosoftにしても巨大データセンターは段階的に手放して、巨大データセンター間の連携部分に注力していくことになるはず。当然、クラウドコンピューティングでもインフラ関連の技術開発の主戦場は巨大データセンター間連携に向かうでしょう。

また、Microsoftはソフトウェア販売を生業にする企業ですから、いまはAzureはMicrosoft 社内運用ですが、将来、Azureのプラットフォームを外販する可能性はあります。Azureはユーザから見ればOSですが、MicrosoftにとってはOSは商品ですからね。Googleが開発した巨大データセンターを構築・運用するための独自ソフトウェア群は一部がオープンソース化されていることもあるので、商品としてはうらずに、巨大データセンターを運用するサードパーティに対する技術移転及びコンサルティングで儲けることになるでしょうが。

そして重要な点は巨大データセンターはサービスを提供するインフラに過ぎないと言うことです。それはGoogleにとってもMicrosoftにとっても同じはずです。では何が彼らのコアコンピタンスになるかですが、最終的にはGoogleもMicrosoftもアプリケーションやサービスになるのではないでしょうか。Microsoftはアプリケーションなどのソフトウェアで儲ける企業です。Googleは基本的にはサービスを提供して、それに関わる広告ビジネスで儲ける企業です。ただ、広告収入というのは間接収入であり、広告収入だけでは成長に限界があるのも事実だと思います。そうなるとGoogleも直接収入、つまりサービスそのもので儲けるビジネスに転換が望まれるはずです。そうなったときに巨大データセンターはサービスを提供するための手段ですから、手段に拘る必要は何もないと思います。

それとクラウドコンピューティングが普及すると、クラウドインフラ事業者によるサービスとクラウド上のサードパーティによるサービスの競争を健全化するために、行政による何らかのインフラとサービスの分離圧力が働くと予想しています。というのは現状はサードパーティが、GoogleやMicrosoftのクラウドインフラを使ってサービスを提供しても、クラウドインフラ事業者の方が圧倒的に有利な立場にあると言うことです。分社化などの圧力が働く可能性は否定できません。

以上はあくまでも遠い将来ことですがね。ただ、当方の場合、遠い将来を予測して、そのときに必要な技術を研究するのが仕事なのですよね。

2009年10月20日

LADIS'09という国際会議でMapReduceやBigtableのJeff Deanさんが発表したスライドが公開されたので、早速見ているのですが、興味深いのSpannerというプロジェクトです。そこでは想定サーバ数が100万台〜1000万台、ストレージ容量で1エクサバイト(10の18乗バイト)、データセンタが100〜1000カ所。クライアント台数が10億台を念頭に置いているそうです。個人的に気になったのはサーバ数ではなく、データセンターの数。なんで気になるかというと下記の二つのケースが想定されるからです。

一つ目の理由ですが、ご存知のようにGoogleはデータセンターの管理コストを極限まで下げてきました。そして管理コストを下げる方法とは巨大データセンターを少数作って運用するおとです。これを考えると100〜1000カ所というのは多すぎるのです。おそらくGoogleはサードパーティにデータセンターを構築・管理させることを狙っているのではないでしょうか。つまり何らかの方法でサードパーティが巨大データセンターが構築できるビジネスモデルを用意してくるのではないでしょうか。

それとデータセンター数が気になるもうひとつの理由は通信遅延との絡みです。クラウドコンピューティングは、はるか遠方にデータセンターがあるので、データセンターとクライアントのあいだの通信遅延はどうしても避けられません。これを避けるためにユーザに近い場所にデータセンターを作る必要がありますが、巨大データセンターを世界中に作るわけにはいきません。また、通信ネットワークではケーブルの本数を増やせば帯域は広げられますが、通信遅延を短くするのは難しいです。これらの問題を考えると、今後のクラウドコンピューティングは、巨大データセンター以外に、比較的小さいなデータセンターをユーザの近くに作って、通信遅延が問題になる処理だけを小さいなデータセンターで実行させることになるのではないでしょうか。つまり少数の巨大データセンターを世界の複数ヵ所に設置して、それぞれのまわりに小さいなデータセンターが衛星のように配置するイメージです。そしてこの比較的小さなデータセンターはユーザの近くで作られるので、東京圏や大阪圏、または都道府県など地域毎に作られる可能性があります。ただ、こうした地域クラウドについてもGoogle自身が構築・運用する可能性は低いと思っています。

余談ですが、個人的にはGoogleはいずれは巨大データセンターは手放すと予想しています。その代わりデータセンター専門会社などが構築・運用する巨大データセンターを利用することになるのではないでしょうか。というのは巨大データセンターはクラウドコンピューティングにおいて必要なインフラですが、長期的には他の事業者との競争によって収益性は期待できないからです。クラウドコンピューティングはコンピュータを所有から利用に変えますが、これはクラウドコンピューティングのインフラ提供事業者にとっても同じはず。つまりGoogleやMicrosoftなどはいまは巨大データセンターの構築競争に明け暮れていますが、いずれは巨大データセンターを手放して、例えば巨大データセンターの構築・運用会社のデータセンターを利用することになるのではないでしょうか。もちろんずっと先のことでしょうがね。もちろん当方の予測が当たる保証はありませんが、やはり研究者としてはクラウドコンピューティングそのものではなく、クラウドコンピューティングの先にある世界を想像しながら仕事をしたいですね。

2009年10月19日

先週の出張中に発刊された日経コンピュータの10月14日号をやっと確認。というのは6ページをほどの解説記事を書かせていただいたから。さて中身はクラウドコンピューティングの非技術的な解説。非技術的といっても情報系業界の方向きですが。ちなみに日経コンピュータの紙面では冒頭に大きな字で「サービス化が変える事業構造・・」とありますが、本当のタイトルは「クラウド時代のSIビジネス」の方だったりします。このへんは商業雑誌は御都合もありますし、暗いことばかりいっても決して良くないので、いいところを引っ張り出された思っています。実は当初のタイトル案は「クラウド時代にSIビジネスに明日はあるか」だったのですが、さすがに自粛しました。また、当初、冗長だった文書を簡潔にしていただいのは編集サイドの技ですね。

さて、この解説ですが、ざっとよむとクラウドコンピューティングによるSIビジネスへの影響が概要に手短に書いた解説にみえるとおもいますが、細かく読むと相当きついことが書いてあります。それでいったい何を書いちゃったのかは図書館や書店で日経コンピュータを探して雑誌を読んでみて下さい。それから、きっと雑誌を買ってあげる、または定期購読してあげると日経コンピュータの編集部はとっても喜ぶかと思います。

2009年10月18日

今朝の日経朝刊に2010年度の採用状況が出ていましたが、自動車・部品が56.4%減、電機が40.4%減、通信が1.6%減、情報・ソフトが28.8%減だそうですね。通信の採用減の小ささが目立ちますね。さすがインフラ産業は不況時に強いということでしょうか。情報・ソフト業界の減少は、金融などの大型システム案件が減っていることに加えて、組込系や車載系の仕事を減っているのが影響しているのでしょうかね。気になるのはその組込系や車載系の需要が戻るかですが、どう考えても厳しそう。車載系コンピュータにしても組込系コンピュータにしても、費用の多くはハードウェアではなく、ソフトウェア開発費用。しかし、ソフトウェアはいちど開発したらあとはソフトウェアの複製または軽微な修正だけとなります。例えば、これまでは国内の自動車メーカは車種が多く、そして車種が増えるほど車載用ソフトウェアの開発案件も増えるという背景がありました。ただ、ご存知のように国内自動車メーカは欧州メーカのように車種の絞り込みに動いていますから、自動車需要が回復しても車載系コンピュータの開発案件は減るわけでして、そうなると当然、車載系のソフトウェア開発市場は縮小することになります。これは組込系にもいえるわけで、例えば家電の組込コンピュータの開発需要も、家電メーカなどの日本のメーカは横並びで同様商品を市場に投入していたからですが、企業の合併や他社製品の購入が増えると開発案件はやはり減ることになります。本当は明るい話にするつもりで書き始めたのですが、暗い話になってしまいました。

2009年10月17日

補正予算の凍結と来年度概算要求の同時に進行に進んでいるようで、たいへんですね。そのうえ大臣だけでなく、副大臣や政務次官にもお伺いをたてないといけないようで、ご苦労されているようですね。それと以前は9月後半になると郵便でいくつかの省から概算要求資料が届いていたのですが、最近はPDFで送られてくることがほとんど。そして今年は二週間ぐらい遅い。ざっとみてみたのですが、概算要求でも科学技術予算は全般として減額ですが、増額されている分野もあります。もちろん予算動向、とくに概算要求はひとつの指標にすぎないですがね。ただ、政権が変わったということを抜きにしても、科学技術予算は潮目の変わり目であることはわかりますね。というわけで科研費の応募内容を書き換えることにしてしまいました。今年度で科研基盤Bが終わるので応募書類を作らないといけないのです。

ところで来年度の概算要求額が大きいことが話題になっていますが、これまでも概算要求段階では各府省は無茶な予算を要求してきたので、いまさら話題にしてもという気がします。むしろ予算要求を減額させる査定機関が財務省だけというのが問題かもしれませんね。本来は議会が府省の予算要求を減額させるべきなのですが、日本の場合は議会が増額させていたという経緯がありますからね。

2009年10月16日

なんとか帰国です。さすがにくたびれたので、オフィスにはよらずにそのまま帰宅。メールの返事が書けておりませんが、週明け早々までお待ちいただければ幸いです。さて今回はマルタ島にいくことになったのですが、泊まったホテルの方と話しているとリーマンショック後はマルタ島を訪れる観光客が激減しているそうです。その方によるとマルタ島は実質的な英語圏ということもあって、イギリス人観光客が多かったのですが、そのイギリスが経済危機でイギリスからの観光客が大きく減っているそうです。ちなみにイギリス人にいわせると、ロンドンはアメリカからの観光客が多かったのですが、アメリカの経済危機で観光客が減っているそうですがね。

2009年10月15日

これから帰国の途。まずはルフトハンザでフランクフルトにでて、それから全日空で成田です。ちなみに全日空はオーバーブッキングさせてしまったようで、出発日の変更をしてくれる乗客を募るアナウンスをしておりました。明日のフライトにすると350ユーロとビジネスへのアップグレードだそうです。手を挙げる人がいたのかどうかはわかりませんでしたが。全日空のCSRはAmadeusのはずですが、Amadeusの問題なのでしょうか、なんらかの事情で飛ばないといけない客がいたのでしょうか。

2009年10月14日

国際会議の3日目です。なぜか会議の終わりにクラウドコンピューティング関連の基調講演が二つ。ひとつはEU-FP7のクラウドコンピューティングというかグリッドコンピューティング関連、どちらかというとe-Science系ですが、内容はいまひとつ。EUのクラウドコンピューティングが出遅れているということを知るのにはいい機会でした。もうひとつはMSRのRoger Bargaさんの講演。さすがにデータベース屋だけ会って、講演はDryadLINQの話が中心でしたが、講演後に夕食をはさんでMSのデータセンターの今後の予定や、Azureの実装の話なのいろいろ教えてもらいました。PDCまで黙っていてね、ということなので、内容は書けませんがね。

ところで、当方は出張でみていないのですが、日経コンピュータの10月14号に書いた記事に関する問い合わせが数件。記事ですが、一見するとおとなしく、よく読むと物議を醸す内容になっているはず。それにしても今回は当方の文章能力不足で担当編集者さんにはお手間を取らせてしまいました。やはり雑誌レベルの高クオリティ原稿を海外出張中に仕上げるというのは無理がありました。反省です。

2009年10月13日

国際会議の2日目。論文発表は相変わらずという感じですね。夜は美術館で展示支援プロジェクトのデモがあるというので参加してみました。さてデモはありがちな展示支援システム。完成度もアピール力もお世辞でも高いとはいない。まぁここまではいいのですが、気になるのはその先。ありがちな問題もそのまま抱えているのですが、その問題に気づくほど実証実験がされていないこと。個人的には立場が複雑で、このプロジェクトは欧州のFP7の予算なのですが、FP7/FP8の研究テーマ決め及び研究評価に関わる立場なので、一人の研究者としてみるのか、評価委員としてみるのかで違ってきます。このプロジェクトの評価委員ではないので、直接関わることはないのですが、このプロジェクトの中間評価結果の報告は受けている立場なので悩ましい。中間評価では研究内容が多岐にわたりすぎているので絞り込むことと、実アプリがないという指摘がでたですが、その回答がこの展示支援プロジェクト。正直いってさらに成果が低水準になっている気がしないでもない。研究予算は提案書に従って採択していますから、その提案書通りに研究してほしいです。

2009年10月12日

国際会議の1日目。午前はセッション座長、午後は発表。やっつきてきな内容でしたが、好評だったようなのでよしとしましょう。さて他の発表ですが、問題設定を想像でつくって研究している人と、実際の問題に対して研究してる人では、発表内容や質問内容も違っているのが印象的でした。かわいそうだけど前者の研究しかしたことのない方には後者の研究の意図すらわからないし、自分がわかっていないこともわからない。実際、当方が座長をしていたセッションでは、前者の方が後者の方にずれた質問をぶつけていました。

それはともかくコンピュータサイエンスも現実の問題を解決することが求められるようになってきていますし、その傾向はつよくなると思います。まぁコンピュータサイエンスにおける原理をみつける研究も残ると思いますが、原理をみつけていればいい時代は終わりつつあるように思います。そうなると現実世界の問題を知りうる立場、そして現実世界で研究成果を評価できる立場にある研究者しか居場所がなくなるわけですが、それはそれで仕方ないでしょうね。

2009年10月11日

マルタ島に移動です。EU加盟国なので通貨はユーロ。英国統治になっていたこともあり、言語はマルタ語ですが、英語も通じます。ちなみに電源プラグは基本は英国型のようですが、同じホテルでもバラバラ。それはともかくマルタ島は歴史的にはエジプトやギリシャと並んで古い歴史があるそうです。個人的にはマルタ島というと、改造された古いバスというイメージがあったのですが、EU加盟後に大部分が新型バスになったそうです。ただ、昔のバスもたまに見かけます。ちなみに車線も英国と同じ。なので日本の中古車を見かけます。そうそう夜は国際会議に付属したカクテルパーティだったのですが、カクテルはありませんでした。まぁ飲まないからいいのですが、ちょっとだまされた気分。

話はかわって、Microsoftの子会社(Danger)とT-Mobileのスマートフォーン向けのサービスで、サーバ側で管理されていたユーザ連絡情報、写真、カレンダーなどを失ったそうです。でも日本の年金システムの受給情報のトラブルのことを思うと、かわいいものに見えてしまいますね。さて今回のDangerとT-MobileのトラブルはSAN絡みのようですが、今後のためにもトラブルの詳細は公開してほしいところですね。なお、年金システムについては管理会社からトラブルに関する情報は期待できそうもないですね。

2009年10月10日

今日から海外出張です。まずはパリに移動です。なんか先週の土曜日も飛行機乗り換えでパリにいたような気がしますが、今年、7回目の訪仏。パリは4回目。乗り継ぎの飛行機がCDGではなくOrly空港からでるのですが、パリで一泊することになりました。早朝、パリを出るの慌ただしいのですがね。ただし、せっかくのパリですからポンピドーの国立近代美術館にいってみました。飛行機で知り合いの経産省の方(OECD出向中)とばったり。最近はIEAの仕事が多いとか。IEAの相当なお偉いさんも同じ飛行機だったようですね。それとスッチーさん3人に顔を覚えられていました。8月末に乗ったパリ便と同じクルーだたようです。

2009年10月9日

先日、電子行政とクラウドコンピューティングに関するヒアリングがあったのですが、可用性に話題が集中。でもよくよく考えると電子行政システムに限ると実は高可用性は必ずしも必要とは限らない。

というのは電子政府システム構想によって始まった既存の電子行政システムで24時間稼働をうたっているシステムはほとんどありません。中には平日の9 時から18時までしか動かないシステムもあります。週休二日、一日12時間稼働させているシステムに、高可用性を要求することに意味があるとも思えない。むしろ可用性が多少下がってもシステム費用を下げた方がいい場合も多い。

もちろん民間企業ならばシステムの高可用性は大切でしょう。稼働率が99.9%でも、停止するかもしれない0.1%の時間(8時間強)が、運悪く手形の決済日が重なったりしたら、手形が不当たりになって倒産してしまう危険性があります。でも政府は民間企業と違って、潰れないということが前提になっていますから、一日ぐらい電子政府システムが止まっても政府が潰れることはない(そう願いたい)。システムの停止は、民間の場合は機会損失になることがありますが、行政の場合は処理が遅れるだけ。その遅れに巻き込まれる利用者はたまったものではないのですが、人手による窓口業務では処理の遅れは珍しいことではない。

さて日本人は「国がきちんと」というフレーズが大好きです。政府は民間企業よりも何事も「しっかり」、「きっちり」していて然るべきだと思っている人は多い。その結果、政府系システムは民間の情報システムを上回るに高可用性がなければいけないことになるし、可用性から想定されたトラブルや停止は短時間であっても許してもらえない。こうした過剰な要求はシステムの購入・運用コストを大幅にあげることになります。またメディアも行政の失敗を過度に指摘する傾向があるようです。以前、新聞記者さんに伺ったところでは、記事で行政をいじめても反撃してこないことに加えて、これまで行政の問題を指摘すると行政はそれを修正してきたという歴史があるそうです。ただ、予算が枯渇している現状では問題を指摘されても対応できるとは限りません。

というわけで電子行政システムは民間システムと比べて可用性が低くてもいい場合もあり、現状のパブリッククラウドコンピューティングの可用性でも十分な電子行政システムはあると答えておきました。まぁクラウドコンピューティングの話はどうでもいいとしても、政府システム=高可用性システムという固定概念からは脱却してほしいところですね。

2009年10月8日

国内でもKindleが発売になるそうですね。ちょっと興味はひかれますが、個人的には飛行機の離着陸のときに使えないのが気になったり。それはともかく日本語のコンテンツを揃えるのはたいへんになるでしょうね。6,7年前でしょうか、なぜか某省の電子ブックのための委員を頼まれたのですが(何で当方に頼んできたのかはまったく不思議。委員会の正式名称は失念)、ちなみにその委員会は、電子ブックメーカ、出版業界、印刷業界、書店業界などなどの方々が委員をされておりました。ともかく驚いたのは出版社側委員の要求が無茶なのです。まず本をそのまま電子化しない限り電子ブックにはコンテンツを出さないと宣言。その一方で日本の書籍の印刷・製本クオリティは異常に高い。例えば横書きの書籍の場合、左右ページの各行の高さが一致しているのですが(過剰品質、海外ではありえない)、その行合わせも電子ブックで再現することは絶対条件、さらにページをめくる動作も再現を求めるし(再現する意味がないし)、フォントは書籍とまったく同じフォントを利用しろといったり(解像度が低いとかえって読みにくいよ)、無茶というか、無い物ねだりとしか思えない要求を突きつけていました。当然、メーカの方などは本を読むのは出版社ではなく、読者だろう、読者が納得すればいい、などなどと応酬戦となりました。

ただ、その委員会の事務局した某総研が調査したところ、当時、一般的な読者というのは電子ブックはあくまでも本の置き換えという位置づけ。このため本とまったく同じであることを望む人が多いという期待に反した結果が出てしまい、電子ブックの推進のはずの委員会が、出版社の主張を裏付け、さらに電子ブックのハードルをあげる結果になってしまいました。もちろん当時は携帯小説などはない時代ですから、いまなら再現性の低い電子ブックを許容してくれる出版社が多いかもしれません。ただ、それでも日本の場合、電子ブックの表示クオリティを許容できる読者ばかりではないということは認識すべきですよね。コンテンツホルダー側の保守的発想にも問題もありますが、それ以上にユーザの要求が過度なために、結果として世界標準から外れてガラパゴス化し、海外で安く手に入るものが日本では手に入らない。仮に手に入ってもいわゆるジャパンプレミアム、つまり海外相場よりも値段が高くつく結果になります。このため読者の方が海外版Kindleのハードウェアスペックを満足できるか否かが、国内における電子ブック普及の第一歩ですよね。

ちなみにその委員会で出版社の方で電子ブックにもっとも否定的な方がおっしゃっていたのですが、日本で電子ブックが普及するとしたら、(1)電子ブックだけのコンテンツを揃えること。つまり読者は書籍がある限りは書籍と電子ブックを比較してしまい、書籍の方を買いたがるということ。(2)電子ブック用のコンテンツは書籍一冊単位ではなく、毎月何冊かを選べるなどの既存の書籍とはまったく違うビジネスモデルにするということでした。これは電子データの複製や配布は安いですが、印刷に使う輪転機というのは生産コストが一番安価な生産マシンなので、トータルで印刷コストに勝つのは難しいということです。これらはいまでも当たっているような気がしますね。

2009年10月7日

昨日の報道発表ですが(日本時間では一昨日)、AdobeはフルセットFlashをスマートフォンに対応させるそうですね。Webブラウザ上のリッチコンテンツはFlashの独壇場だったのですが、HTML 5が出てきて先行きが怪しくなってきましたね。もちろん、ゲームなどの描画重視のコンテンツはFlash優位なのでしょうが、それ以外はHTML 5でも十分な気がします。ところでFlashはともかく、JavaFXはどうなったのでしょうか。それにしてもJavaってJava ver.5あたりから新規機能が総じて不評なのですが、コミュニティベースの開発マネージメントの限界なのでしょうかね。Javaはぶくぶく膨れあがった仕様や機能でメタボ状態ですが、GoogleのNoopのようにJavaのダイエットが必要な時期かも。

2009年10月6日

法人化されてからは業務日誌を付けることになったのですが、先月分の業務日誌を作っていて、先月は休日が2日だったことに気づきました。先月は5連休とかもあったのにね。というわけで法定休日数(4週間に4日)を下回っているので、(勤務先の)コンプライアンス上の問題になり、人事担当者から叱責を受けることは確実です。ただ叱責されても仕事量が減るわけではないのですよね。それにしても国研の研究者も楽ではないのです。企業などで週休二日制に慣れた方には向かない仕事かもね。

ところで自宅のメインPC(MacBook Pro 17)のキーボードが調子が悪い。常時、コマンドキー(Windows PCにはない)が押された状態になってしまう。酷使されていたのでキーボードが壊れることはありえるが、なんでコマンドキーなんでしょうね。

2009年10月5日

海外出張直後は忙しいのですが、今日も忙しかったですね。夕方になると何の打ち合わせだったのか混乱してくる始末。

さて話は変わって、6月にセブンイレブンもEdy対応が発表されたのですが、今日、その対応開始が10月7日と発表になったようです。実は先月の後半にセブンイレブンの電子マネー担当の方に伺ったところでは、準備作業が間に合わないということで、おそらく当初予定の数日遅れで対応開始というところでしょうか。それにしてもセブンイレブンはNANACOを立ち上げたのにも関わらず、Edyの軍門に下ってしまった感じですね。ここで気になるのはNANACOの行く末。NANACOは当初、詳細な顧客情報を得られれば電子カードの導入・管理費用は十分ペイできるということで始まりました。ただ、開始数日後には顧客情報の詳細入力を取りやめることになり、そもそも採算のあうビジネスではなくなっていた可能性もあります。おそらくセブンイレブンはNANACOの導入・普及活動に数百億円は使っていると想像しますが、撤退する場合は勉強代としてあきらめることになりますが、いまのようにNANACOを続ける限りは維持費もかかります。NANACOに関しては次の関心事は撤退するタイミングになりそうですね。電子マネーはプリペイド型の電子マネーは利用者からお金を預かっている状態なので、サービス終了が難しいのです。ということでセブンイレブンのお手並み拝見というところですね。

それからあまり知られていないようですが、Edyの手数料は2%といわれています。ということはEdyで買い物をされると、セブンイレブン及びその加盟店の手数料分担がどうなるかは知りませんが、セブンイレブン及びその加盟店からみると2%だけ値引き販売していることになります。経済情勢から利益率が下がっている状況では小さくない数字です。

2009年10月4日

帰国しました。フィンランドに出張していたので、フィンランド絡みの話をひとつ。Googleはフィンランド南東部の街、Haminaにある製紙工場を買収してます。もちろんデータセンターを作るそうで、200人の雇用が見込まれるそうです。ここまで報道発表されているのですが、ここからは個人的な予測です。

Haminaのデータセンターは注目をしていて、というのは既存のデータセンターは違うものになる可能性があるからです。というのはGoogleは土地だけではなく、工場ごとつまり建屋や倉庫も買い取っているのです。実はフィンランドでは工場の跡地がショッピングモールなどに変わることが多く、例えばヘルシンキのノキアの元主力工場はいまはショッピングモール、北欧最大の陶器製造会社アラビアの工場もショッピングモール兼図書館にかわっています。おそらくGoogleがHaminaにつくるデータセンターも工場の建屋などをそのまま活かすつもりではないでしょうか。現在の巨大データセンターはプレハブに近いとはいえ新規建造ばかりですが、Haminaのデータセンターの出来によっては、今後は既存の建物を活かすという方向もでてくるかもしれません。経済コスト的には郊外にプレハブ建築のデータセンターを作った方が安くあがりそうですが、環境負荷などを考えると既存の設備や資材をなるべく活かすという方向は十分にありえると思います。

もちろん工場の跡地というのは電源供給設備がすでに整っているという大きなメリットがありますが、Haminaのデータセンターが気になるのはむしろ冷却方法。もとは製紙工場。ご存知のように製紙工場というのは大量の水を使います。このため取水・排水設備は整っているはず。そしてフィンランドの気候的にいって水は夏場でも冷たいので、取水した水を冷却せず、単に流すだけでもデータセンターを冷却できるかもしれません。つまり実質、PUEが1.0のデータセンターになる可能性があります。まぁこれは個人的な想像なのであたるかどうかはわかりませんが、Googleが製紙工場の水回りを使わないことも考え難いです。

それはさておきHaminaという地名を聞いて、フィンランドに多少の知識のある方ならばピンときたと思います。Haminaは以前はロシア・ソビエトとの国境の街で(いまより国境が西にあった)、地理的にロシアに近い。実はこれが重要なのかもしれません。そこにはフィンランドのエネルギー事情があります。フィランドを含めて北欧の電力供給は水力発電が中心ということになっていましたが、水力発電はグリーンエネルギーということでもてはやされますが、天気に左右されやすいという知られた問題があります。さらに北欧はここ数年、降雨不足で水力発電量が減っていますし、そのうえ消費電力は増えているので、ここ数年は慢性的に電力不足。このためスウェーデンは原子力発電を増やしましたが、フィンランドも原子力発電の増やす方向ですが、同時にロシアから電力を買うということにしたのです。このためロシアから送電網はここ数年で強化されており、Haminaはロシアに近く、仮に水力発電が足りなくてもなってもロシアのからの送電があるのです。Googleがロシアからの電力供給まで考慮したかは当方はわかりませんが、データセンターでは電力の安定供給は条件に入っていたはずです。当方はHaminaという地名を聞いたときにはまず最初にロシアから電力供給が頭に浮かびました。

結局、データセンターは寒冷地に作ればいいというものではなく、例えば水冷にした場合は取水や排水ができるかは決め手になるし、同時に電力も安定かつ安価に確保できることが条件になります。例えば水力発電はグリーンエネルギーかもしれませんが、降水量や天候に左右されます(平均降水量に対して15%前後のズレがある。つまり30%の変動があるということ)。また雪氷冷房が話題になっていますが、やはり気候変動をうけます。グリーンエネルギーはきれい事だけではすまないのですよね。

2009年10月3日

秋とはいえフィンランドは冷えますね。今朝の最高気温は2℃でした。日中はあがるといっても6,7℃でしょうか。さて帰国のために空港です。一昨日に引き続きフィンランドの大学のこと。いまフィンランドは大学の独法化と統合の真っ最中。例えばフィンランド工科大、フィンランド商科大、フィンランド芸術大が統合されてアアルト大学になるそうですが、お墓の下のアアルトさんもびっくりですよね。それはさておき日本の感覚からすると、フィンランドの大学は企業からのお金が集めがうまいので、いまさら独法化をしなくてもいいような気もしますがね。国際会議にフィンランドの大学の研究者にきくと、身分が公務員でなくなるので給料に自由度が上がるというメリットが(既存の教員ではなく)大学にあるそうです。それからフィンランドでは授業料は無料なのですが、フィンランド人と留学生で対応をかえる可能性があるそうです。具体的にはフィンランド語の授業は無料、英語の授業は有料になる可能性があるとか。たしかにフィランドは留学生が多いので、留学生まで無料にするのは財政的に辛いということかもしれませんが、長期的にはデメリットもいろいろありそう。

もうひとつフィンランドの大学といえば、フィンランドは資格という概念がないことで知られています。例えば司法試験はなく、弁護士になるには大学での専門教育を受けていることが条件になるそうです。日本の弁護士さんや会計士さんにきくと司法試験や会計士試験は実務には役に立たないということでしたから、資格試験という受験勉強はやめた方が人材育成という点でも有効なのかもしれません。まぁ逆に言うと日本が資格偏重なのは大学はその教育が信頼されていないということなのでしょうね。いちおう大学教授という肩書きのある身としては複雑な心境なのですが。ところでIT業界はIPAの情報処理技術者試験から、Oracleなどの企業認定資格などがいっぱいありますが、派遣化しているSI会社で社員を送り込むときの肩書きだけになっている資格も多そうですね。ちなみに情報処理技術者の資格は学生さんでもとられている方がおられますが、逆に実務経験が10年以上あるベテラン技術者が受験勉強なしで情報処理技術者試験を受けたらまず落ちるといわれています。つまり資格が技術者の正しい評価になっていないことですよね。まぁ技術者を正しく評価できないから資格に頼るということなのでしょうがね。

ところでアアルトいえば、ヘルシンキのアカデミア書店の二階だけでなく、ヘルシンキ空港にもアアルトカフェができていました。アカデミア書店のアアルトカフェと違って、空港のアアルトカフェはカップなどがAino Aaltoものでした。実は自宅のコップがAino Aaltoものなので、家と変わらないのでやめておきました。ちなみにアカデミア書店のアアルトカフェは映画「カモメ食堂」で主人公がカフェで見かけた日本人にガッチャマンの歌詞を訪ねるシーンに登場します(カモメ食堂はAino Aaltoのものの食器を使っていましたね)。

2009年10月2日

国際会議の3日目。ゲームデザインのチュートリアルがあったので、聞いてみましたが、ゲーム設定やイベントをUMLで書いているにはちょっと驚きました。国際会議はタンペレという街なのですが、フィランドでは第二の都市ということになっていますが、小さい街ですね。ただ街のど真ん中に水力発電所が二つあります。市内に流れる川が急流で発電所の設置に向いていたそうです。これを中心に工場がつくられて街が発展したそうです。そのため市内には工場または工場跡地が多いですね(跡地と行っても廃墟ではなく、ショッピングモールなどにかわっている)。

夜はヘルシンキ国立オペラでオペラ「Falstaff」。先々週のOtteloに引き続きVerdi作品、それもシェークスピア作品のベースにした作品となりました。Falstaff役はRoberto de Candia。下品に歌わないといけない難しいとされますが、Roberto de CandiaはFalstaffの雰囲気を出しながら歌いきっていました。というか彼一人で頑張っている感じもありましたが。他の歌手は地元の歌手で固めたようですが、Ford夫人役がAnna-Kristiina Kaappola、Ford氏役がJaakko Kortekangas、Fordの娘役がAnu Komsi、その恋人役がJussi Myllys、Mrs Quickly役がNadine Weissmann、Meg婦人役がLilli Paasikivi、Falstaffの二人の従者Bardolph役がPetri Backstrom、Pistola役がPetri Pussila、Dr. Cajus役がIlkka Hamalainen。みなさん歌はうまいのですが、イタリア喜劇というよりも、シリアスなシェークスピア劇状態。たぶんイタリアはもちろんラテン系の国だったらブーイングものです。演奏ですが、指揮はPietro Rizzo。まとまっていましたが盛り上がりもなかったというところ。ただ、全体としては楽しくみれたのはRoberto de Candiaのがんばりに加えて、舞台と演出の良さでした。ヘルシンキ国立オペラではなく、ウィーン国立歌劇場のプロダクションだそうですが、さすがに舞台装置のよくできていましたし、演出も無駄がなかったですね。ただ、オペラとしての出来は先々週の新国立劇場の方がうえかもね。

2009年10月1日

国際会議の二日目です。今日は朝から寒いです。東京の真冬並というか、真冬以上というべきか。さてこの国際会議はACM主催となっていますが、国際会議はネットゲームでもビジネスよりの会議に併設されているので、スーツ姿の人が多い。ちょっと戸惑います。ところで国際会議には専門書籍の本屋さんがブースを出すことがありますが、この国際会議はさすがフィンランドだけあって、スキルアップ向け講座会社のブースがいくつか出ていました。そのうちのひとつの宣伝文句が○スキル+△スキル+□スキル=ジョブとなっていて、就職には専門能力が必要なお国柄がでていますね。

夜、国際会議のパーティがあったのですが、ひたすらビールを飲むだけ。食事はもちろんのこと、おつまみもなし。それでもフィランドの方はかまわないようで、うれしそうにビールを飲んでいました。ちなみにアルコールは税率が高いから、ただ酒のときは思いっきり飲むのだそうです(会場で渡された引き替えクーポンの分しか飲めませんが)。こちらは何か食べたいので早々に退散。

ところでポスター発表もあったのですが、発表される学生さんたちは研究成果の発表というよりもスポンサー集めだそうです。というのはフィンランドでは修士論文や博士論文を書くときに企業にスポンサーになってもらうことがあり、そのテーマも企業の要望にあわせますし、企業から大学に論文テーマの提案をすることがあるようです。フィンランドではノキアと大学の強いつながりが指摘されますが、ノキアが大学に研究予算を出しているというよりは、大学がノキアの研究を代行しているという方が近いかもしれません。それとノキアの研究員が大学の教員を兼任していたりするので、区別できないという感じ。ちなみにノキアはフィンランドの輸出の25%以上を占めていて、いち民間企業にすぎないのですが、同時に国策企業という一面があったりします。フィンランド科学技術省(TEKES)でフィンランドに行くことがあるのですが、TEKESの役人を見ているとノキアには気を遣っていますからね。ただ最近は本社をフィンランド以外に移すと社長が叫んでみたりと、ノキアと国はそれなりに緊張状態だったりするようですが。

 

最新版
一覧

Ichiro Satoh

Ph.D, Professor
National Institute of Informatics

2-1-2 Hitotsubashi, Chiyoda-ku, Tokyo 101-8430 Japan
Tel: +81-3-4212-2546
Fax: +81-3-3556-1916