ChatGPTに知能はあるか
1. 創発性
2. 論理
the bird in a herd
a bird in a herd
the bird in a herd
a bird in a herd
今年も米国ハワイ州マウイ島に来ている.昨年2月の「なぜ円は安くなったか」の投稿から8ヶ月後に為替相場は歴史的な円安を記録した.2月は地球上で2番目に知能の高い生き物の繁殖シーズンで,ラハイナにはMartin Lawrenceがあってもワイキキには同水準のギャラリーは存在しないのは,単に”知っているかどうか”を超えた真の(知的)情報格差の顕著な分断を表している.この理解の深さを伴う「情報格差」を「教養格差」と呼ぶことにすると,世界はすでに指数的な差をつけている.マルサス的な考察をすれば,英文による「知識」の増加量は日本語のそれに対し「幾何級数的」に増大してきたからだ.幸い,テクノロジーは一昔前の世代とは比べ物にならないほど,グローバルな知へのアクセス可能性と効率的な運用ツールを提供する.だから,未来を担う世代は,それらを駆使し,古い方法論を捨て去り,コーカソイドと互角に議論できる水準の英語運用能力とクリエイティブクラスの能力を早期に身につけ,日本を出ることだ.
私たちの奇妙な形をした島国では11月に経済産業省によって大企業幹部を責任者とする半導体の合併会社が設立された.このプロジェクトは成功するだろうか.政策決定者らは,ポーズとしては「スタートアップ」を掲げつつ(10年前に西海岸で「スタートアップ」を始めた僕からすれば今からルーズソックスという感じだ.当時この言葉は日本で通じなかった.あとAIも通じなかった),依然として既成大企業という実質的な国家事業体の寄り合いに託生する構図を続けている点で「グローバル化」を掲げながら実態は留学生数を増やすといった分かりやすい目標だけが設定される形式主義に即座に陥るのは「教養格差」に依る(かなり柔らかく表現している).
今回の記事では「コンピューターの未来」,とりわけマイクロプロセッサの未来に向けた戦略 – どのようなマイクロプロセッサとその周辺産業を作るべきか – についてやや専門的なレベルで考察する.プロセッサ性能の基本と歴史を概観しながら,5~10年後のコンピューティングに求められる需要予測とアーキテクチャの設計,そして日本が勝つための戦略を論じる.主に省庁の官僚や政策決定者,半導体産業に関わる経営幹部等の意思決定者に向けたものだが,コンピューターを勉強中の人々への励ましのメッセージでもある.尚,「コンピューター」とは古典コンピューターのことだが,最近論文も著した量子コンピューターについての考察は別の機会に書くことにする.数学的には古典計算機は量子計算機の特殊ケースだ.
そして,以下の内容を読んでも理解できなかった半導体産業に関わる意思決定者や政策決定者がいるとしたら,僕に連絡して下さい.まず,ムーアの法則を概観するところから始めよう.
1970年代初頭IBMのロバート・N・デナードによるトランジスタスケーリングの基本レシピによればトランジスタサイズを1/k(~= 0.7, k=√2)倍にすると,プロセッサの主要なパラメーターごとのスケーリングファクターは
・寸法 1/k (面積 (1/k)^2 ~= 0.5 倍)
・遅延 1/k (周波数 k ~= 1.4)倍
・電源電圧 1/k
となり,したがって,(1) トランジスタの寸法を30%(0.7倍)縮小すると面積は50%縮小し,トランジスタ密度は2倍になる.(2) それに伴い性能は約40%向上(遅延0.7倍,周波数1.4 倍)し,(3) 電源電圧を 30%低減し,エネルギーを65%,電力を50%削減する.まとめると,集積度は2倍,40%高速化し,消費電力は変わらない.
そしてムーアの法則の経験的観測では,(1) トランジスタ数は約24ヶ月で2倍, (2) 20年間で1000倍の性能向上,を実現し,例えば1971年のIntel 4004では1 coreキャッシュなしトランジスタ数23Kだったのが,7年後のIntel 8008では1 coreキャッシュなしトランジスタ数29K,そこから21年後にはIntel Nehalem-EXが8コア24MBキャッシュトランジスタ数2.3Bへと進化した.2015年のOracle SPARC M7では32コア10Bトランジスタとなり,コア数が増大してきた.これには後述するように,ムーアの法則によってトランジスタの集積度は向上する一方で,シングルスレッド性能はすでに横ばいであり,トランジスタの速度とエネルギーはほとんど改善されないことから,エネルギー最適化された大規模な並列処理が性能改善の主要なポテンシャルとなっているためである.
したがって,コンピューターの性能向上を考える上では,シングルスレッド性能はほとんど改善されず,エネルギーが性能を左右するという前提に立つ必要がある.そのためにはシングルスレッド性能の高い大型コアと低周波・低電圧だが性能の低い小型コアを多数組み合わせるアプローチや,暗号エンジンやメディアコーデックに特化したアクセラレータや動的に変更可能なFPGA等のカスタマイズハードウェアの利用などが有効である.例えばエネルギー効率が特に考慮されるモバイル端末のSoCでは数十またはそれ以上のアクセラレータを搭載することでエネルギー効率と性能のバランスをとることができる.また,メモリ階層を移動したりプロセッサ間でデータを同期させるためにもエネルギーは消費されるため,プロセッサ・ダイ上でのデータ移動に関するエネルギーの最適化も性能向上に寄与する.
まずはここまでが昨今のマイクロプロセッサの性能を考える上での基本的な原則である.
1971年に最初の商用マイクロプロセッサ「Intel 4004」が登場して以来,マイクロプロセッサのアーキテクチャは複数の系統が生まれては集約したり分岐したりを繰り返し,今も統一されていないし,これからもそうだろう.なぜか.プロセッサが単一のアーキテクチャに集約する可能性のあったイベントとして,歴史上,最も示唆的なのは,1980年代初頭カリフォルニア大学バークレー校とスタンフォード大学パロアルト校で開発され,C言語,UNIX,大学などの研究成果を基に,それ以前の複雑化したCISC(Complex Instruction Set Computer)への反動としての新たなオープンなアーキテクチャパラダイムを作ったRISCマイクロプロセッサである.MIPSの設計者ステファン・プルジブスキによれば,RISCとは「1985年以降に設計されたあらゆるコンピューター」である.
RISCプロジェクトは同時代やそれ以前のCISCプロセッサとは異なり,マイクロコードやメモリからメモリへの命令をもたない固定長の32ビット命令,大きな汎用レジスタ,パイプラインなどの第2第3世代のマ イクロプロセッサを定義する特徴を備え,1命令あたりのクロックサイクル(CPI)を一般的なCISCの3~4サイクルに対し1サイクルに短縮した.大きなレジスタファイルベースの設計は,コンパイルされたプログラムの命令使用特性を徹底的に分析し得られた”頻繁に使用される命令のサブセットは極めて限定的である”という洞察によるものである.RISCが開発されるとインテルやモトローラなど当時のワークステーションメーカーは自社のアーキテクチャを捨てて独自のRISC CPUを設計し,それらは驚くほど互いに似ていた.従来のアーキテクチャとの互換性を必要としないことから,ARMや日立製作所など組み込み用のニッチな用途をターゲットにしたRISCベンダーが登場した.RISCの思想はコンピューター・アーキテクチャーの世界で確固たる地位を築いていた.
それでもプロセッサが分岐を続けた理由は,プロセッサの成功は技術的なメリットよりもそれを使用するシステムの数量に大きく依存することに依る.システムの数量の決定要因は市場であり,市場を決定するのはアプリケーションである.例えば,1974年にモトローラがマイクロプロセッサー市場に参入したとき,主要な用途はゼネラルモーターズやフォード向けの自動車市場だった.1974年に発表された8ビットのRCA 1802の最も重要な用途は, NASAの宇宙探索機7機であった.1977年に発表されたApple IIは表計算VisiCalcによって市場に浸透した.使用されるシステムの数量によってプロセッサの成功が決まる原則は以降も変わらない.1980年代以降のデスクトップ市場ではソフトウェア業界が次々と多くの機能を開発することで,エンドユーザーは高いパフォーマンスを求め,汎用機のためのより高性能なマイクロプロセッサの需要が増加した.そして汎用機が主役になる1980年代半ば以降では,互換性が求められるコスト重視のPC市場と,価格は二の次で性能重視のワークステーション市場に分岐する.前者はオープンスタンダードを採用し何百ものメーカーが低価格のコンピューターを生産できるようにしたx86プラットフォームによるIBM互換機が市場を席巻する中,RISCはUNIXワークステーションをターゲットにした後者に属し,両者は異なる需要を満たし共存した.さらに1990年代前半に登場した第2世代のRISCプロセッサは,ベンダごとに異なる機能が採用され,第1世代との類似点はもはやなくなり,RISC自体も分岐していく.この頃,x86もRISCの考え方を多く取り入れており,CISCやRISCの区別は重要ではなくなっていた.
こうして需要の変遷とともに複数のアーキテクチャが生まれは,決して一つに集約しないのは,CPUの性能を上げるにはCPIを下げる,プログラムの命令数を減らす,クロック周期を短くするなどの工夫が必要であり,どれか一つの要素を減らすと他の要素が増えてしまう原理的なトレードオフがあるためである.RISC CPUの対照的な設計を表すAlpha21064とPowerPC601は,前者は高速なクロックとシンプルな命令セット,後者は各クロックで多くの処理を行う強力な命令を持ち,重視する観点次第で各々が異なる設計と特徴を持つ.性能がトレードオフにある限り究極のプロセッサは原理的に存在しないのなら,需要が分岐する限り,プロセッサもまた異なるアーキテクチャに分岐し続けるだろう.
マイクロプロセッサの性能向上に対し,データの局所性に基づき必要な帯域幅と低レイテンシを提供するメモリ階層化技術が発達してきた.これによりキャッシュ階層の上位レベルで,メモリサイズと速度は最適化され,結果上位レベルのメモリのみ高価・高速であればそれ以上の大幅な性能差は生じない.この効率的なメモリ階層の実現が大量の高価・高速メモリを搭載したコンピューターが大きな性能向上を示さない主な理由である.歴史的には,プロセッサとメモリ間の速度バランスはシーソーゲームであり,求められる性能も変化してきた.プロセッサのクロック速度が平坦化する以前は特に,メモリ階層の出現によりDRAMに重視されていたのは速度よりもコストあたりの容量だった.これにはダイ上に搭載できるDRAMの面積と予算が有限であることも背景にある.プロセッサとメモリ間の速度差が拡大すると,キャッシュ階層レベルは1階層から2~3階層となり両者のバランスは保たれた.シングルスレッド性能が頭打ちになるとディープパイプラインをはじめとするコアマイクロアーキテクチャの追加実装に性能向上は依存し始める一方,これらの技術はエネルギー効率が悪く,やがて非ディープパイプラインへ回帰し,キャッシュサイズを増やす方が効率が良いとされるようになった.結果,DRAMに割かれるコストや面積は増加した.
こうして,主に効率的なメモリ階層技術によってプロセッサとメモリ間の速度差のバランスが保たれてきたが,メモリ密度はほぼ2年ごとに倍増する傾向にある一方でメモリ速度向上は緩やかであるから,大規模で高速なキャッシュに依存した1980年代後半のRISC CPUアーキテクチャのように,設計や用途次第ではメモリ速度が性能のボトルネックとなる可能性がある.したがってこれらのバランスが保たれている限りでは,高性能メモリを大量に搭載することによる性能向上は限定的かつ有限である.
我が国の半導体産業の特徴は装置材料の低レイヤー市場で世界シェアを持つ一方,設計や製造の技術は韓国や台湾に移転し上部レイヤーは空洞化した.”半導体自給率”は将来,食料自給率やエネルギー自給率同様に先進諸国の指標となり,設計製造市場を再び取り戻すにはTSMCのファウンダリモデルやサムスンのメモリ半導体モデルなど,特定市場かつ未成熟領域に特化し始めるのが妥当な戦略である.後述するように,FPGAをはじめプログラマブルなマイクロプロセッサの大規模な需要増加が予測され,事実,インテルは2015年にFPGA大手のアルテラを買収,AMDは2020年に同じくFPGAに強みをもつザイリンクスを買収している.既にコンピューターメーカーとなった自動車産業が自社でSoCの設計を内製し,全産業が独自に最適化したプロセッサを必要とする時代に突入しつつある一方で,有限なエネルギー予算の中でエネルギー効率を追求することが性能向上の究極のドライバーとなった今,大規模な並列処理ルーチンを固定機能アクセラレータに準じる動的にプログラム可能なプロセッサに分散させることでエネルギー効率と処理速度を最大化し,これがデータセンターにおいてもエッジコンピューティングにおいても常識となる未来がごく自然に推論されるからである.したがって必要なのは,超分散カスタマイズロジック時代の固定機能コアまたはプログラマブルコアおよびそれらを管理または設計する統合システムである.
一方,我が国の半導体製造技術は戦略性と機密リテラシーの欠如により知的財産を他国に安易に流出させてきた.特に定年等で退職する技術者の情報流出を防ぐための厳格な機密契約を入社段階で結び,中核技術はあえて特許公開しないか各国での同時知財化を徹底するといった基礎的な情報機密化措置を民間企業の自主性に委ねず法的規制で義務とすることは,国策として検討に値する.
半導体産業を焼野原から作るには,装置材料分野の国内資源や生きた研究資源を活用しつつ,プロセッサの成功とは使用するシステムの数量に依存するという原則を踏まえ,上述した統合システム,例えばソフトウェアルーチンの固定機能コア化を実現するシステムプラットフォームを開発しながら,同時に10nm未満の設計ルールを実現する半導体ファウンドリーをも兼ね備えた企業を,既存企業でなく新たな新興企業として経済的に支援し育成していくことが望まれる.その前提段階として,産業を牽引する潜在的人材層への啓蒙,すなわち希少な学術エリートコンピューター人材を,流行に捉われず本質的な価値の創造へと向かわせる価値観の醸成,コミュニティが鍵になるだろう.
自然と人工物は相克してきた。少なくとも近代的な価値観では。
“例の問題”に再び向き合いはじめ、昨年初頭前稿を書いてからしばらく経った頃、ひとつの仮説を見出した。詳しいことはここには到底書くことができない。やや具体的には、進化のより進んでいることを示唆する信号、自然物とそうでないものを区別する信号、そしてそれらを支配する情報の保存と伝達のシステム、とりわけ、知能を持つ生命やその身体の発する振動あるいは草木と風の送受信する振動。かつて、生態学者の間には森は安定状態、あるいは復元性=resilienceを全体最適化するひとつのリダンダントなシステムであるという理論があった。現象にはメカニズムがあり、鳥や人間の歌もまた、系のルールに従っている…。昨年冬はマウイ島やメキシコ湾に、必要なデータを採取しに行くことを計画し航空券も手配したところで機会を逃し、そうこうしているうちにパンデミックで空路が途絶え、極東の奇妙な形をした島に隔離されてしまった。
2019年1月の前稿『20年後の世界と取り残される人々 激動の時代の始まり、塗り替えられる勢力図』では中国をめぐる脅威、既に2014年には世界一だった購買力平価(PPP)ベースのGDPと、増大する経済力・技術力を背景に南シナをはじめ急速に軍事力を拡大していることを書いた。それから日本国内でこの問題を案じるような人物にはついぞ出会うことはなかった。
前稿から1年半の間、世界はさらにどこかの地に歩みを進めた。昨年4月に香港では逃亡犯条例改定案を契機にデモが過激化し、今年6月に香港国家安全維持法が可決、香港での反中国的言動の自由は事実上禁じられた。1月には習近平が一国二制度による対台湾政策を提示、蔡英文はこれを否定、その後蔡は台湾総統選に勝利したが、今も統一か独立宣言による武力侵攻かの危機に晒されている。昨年3月には米ソ冷戦後初の特別な危機委員会となる「Committee on the Present Danger: China (CPDC)(現在の危機委員会:中国)」が米国で設置、今年8月には中国ファーウェイ社製の通信機器にバックドアが仕込まれているとし、関連企業への禁輸措置を強化、米国からの半導体やソフトウェアの同社への供給を全面禁止した。世界はすでに冷戦の様相を呈している。
私たちの社会は、2050年までに高密度化する都市とロハス的理想郷としての陬遠地域の二局構造に収斂していくだろう。今とりわけ九州のある地域を足がかりに検証している。二元論的な、あるいは要素還元主義的な、文明というある種の生態系システムへの再考に、人間社会は直面する。そのことは人間と、ネットワークを流れる情報を含む、人間以外のあらゆる全てとの関わり方について再考の機をもたらした。今から17年前、高校三年の時、この近代合理主義への問題を懐柔できず彷徨する羽目になった。森や草木の遠望される形態は、高解像な4K映像を通じて、45億年の進化に裏打ちされた、圧倒的な正義として表示される。ピクセル密度の変化は「画素数」という一見してリニアな量的変化を超えて、何か質的な変化を私たちにもたらしているように思える。周波数知覚の認知が可聴域限界を閾値として、いわば「相転移」するかのように。そうして見える空撮映像は、文明という人工物の「玩具」に過ぎないことを露呈してしまった。
1. Webブラウザが相対的な重要性を増す
Web上のソフトウェアインターフェースの多くはJavaScriptによって書かれている。これは多くのWebブラウザがECMAScriptとして標準化された仕様に準拠し実装されていることに依る。一方でJavaScriptには決定的な速度的制約がある。
高速化を阻んでいる最初の要因は実行時に機械語に翻訳される点である。JITコンパイラが登場しインタプリタ方式の時代から比べて高速化したが、事前にコンパイルされ最適化されるネイティブコードの実行よりもはるかに遅い。通常ネイティブ言語で書かれたソフトウェアは環境(特にCPUアーキテクチャ)に依存するのでオープンなWeb上のアプリケーションを記述するのに向かなかった。
もうひとつの原因は言語仕様上の特性にある。動的型推論、擬似的なクラス、配列の不在により柔軟性がもたらされている反面、実行時チェックによるオーバーヘッドが常にかかかる。
こうした速度上の問題を解決するために各ブラウザベンダーは様々なアプローチをとっている。MicroSoftは静的片付けやクラスの拡張機能を持ったTypeScript、Mozzilaはasm.jsという形でより最適化されたJavaScriptにより高速化させるという方針を進めている。一方でGoogleは同様な傾向のDartに加えてコンパイル済みのネイティブコードを直接ブラウザ上で動かすことのできるPNaClを推進している。これはLLVMにより生成された中間コードを配布実行することで第一のボトルネックであるマシン依存とネイティブコードによる実行速度のトレードオフを解決するものだ。
こうした傾向が進むことでブラウザ上のWebアプリケーションとこれまで端末に依存していたネイティブソフトウェアとの実行速度が縮まり、Web上でダウンロードした大規模ソフトウェアをそのままブラウザで実行することが一般的になる。ChromeBookはまさにこのような未来を想定してデザインされている。
2. マイクロマシン(ナノマシン)技術が日常を覆う
組み込みコンピュータはすでに私たちにとって身近なものとなっている。例えば信号機、自動販売機、家電、車などありとあらゆる機械は今や内臓コンピュータの助けなしではあり得ない。一方でこれまで機械加工により製造されていた各種構成デバイスがフォトリソグラフィを中心とする半導体集積回路製造技術により制作される小型のMEMS(Micri Electro Mechanical System)に置き換わっている。MEMSは従来の機械構造を集積化しシリコンウェーハ上に構成するもので、東北大学の江刺正喜氏が世界的権威である。特にマイクロセンサや通信モジュールの小型化高性能化によりこれまで実現できなかった高度なデバイスが構築できるようになってきている。さらにFPGAまたはPSocといったプログラマブルなマイクロコントローラは従来回路図上で行っていた回路設計や論理合成をソフトウェア上で実現可能にし、ちょうどWebコンテンツの制作が民主化したのと同様な現象が起こる。これにより多種多様なデバイスが世の中に溢れ、私たちの日常的な環境はマイクロマシンで埋めつくされるようになる。ウェアラブルコンピュータという言葉はこの傾向の一面を切り取ったものに過ぎない。
3. 分子コンピューティングと人工知能の基礎が芽生えはじめる
今日のあらゆるIT技術は人工知能に向かっているとも言える。それは一言で言えば人間が避けるべき仕事を人間よりも高いパフォーマンスでこなしてくれる存在だ。AppleやGoogleは来るべきこの未来のためにテクノロジー企業を買い漁っている(ように見えないだろうか?AppleはともかくGoogleは間違いなくyesだ)。
しかし人工知能の実現にはコンピューティングの更なるパラダイムチェンジが必要である。2004年のIntel Pentium4を最期としてプロセッサ単体のクロック数上昇は止まり、(並列処理による進歩は続いているが)これは電子回路によるコンピューティングの限界を示唆している。コンデンサの集積密度が上がるほどに電力と発熱の問題が深刻化するためだ。
そこで次世代のコンピューティングは量子コンピューターに委ねられるという世論があるが、近い将来より実現の可能性が高いのは量子でなく分子によるコンピューティングだと思われる。量子コンピューターには依然解決困難な壁が多くあり、また特定の演算向けとなるのに対し、ナノテクノロジーによる汎用的な分子コンピューティングの基礎研究はすでに一定の段階に入っている。1kgのラップトップPCサイズの物質が10の25乗個の原子を含んでいるとすると、潜在的には10の27ビットのメモリを保存でき、また過去1万年の全人間の思考に相当する計算を10マイクロ秒で実行可能な能力があると言われている。
ソフトウェア分野での鍵となるのはパターン認識とそれによる機械学習アルゴリズムでありこの手の研究は方々で行われている。ソフトウェアの性能はハードウェアと日進月歩なので詰まる所コンピューティングの進歩次第となるがこの萌芽が近い将来顕在化し始めるだろう。
東京に帰ってから二ヶ月が経った。
複数の事情が重なって春になるまでは日本にいなければならない。
私の友人であり同時にアメリカにおけるメンターでもあるチャドはPayPalのファウンダーの一人であるPeter Thielをクライアントに持つ投資会社のアナリストで、前歴はフォトグラファーとしてインターネット業界に関わった後ハーバードの大学院でファイナンスを学びVCやPrivate Equity業界に転職した。
彼がWestfieldのカフェで話してくれた感動的なアドバイスを忘れないように書いておこうと思う。
「ビジネスを成功させるには、次の3つの鉄則がある。
“Be first、Be smarter、Cheat”
カズは最初の2つは大丈夫だから、あとは最後だね。この辺は中国人がとてもうまい。僕も前の会社にいたときは会社には内緒でインターネットビジネスをやっていたんだ。
僕の祖母は一昔前にすごく成功した経営者で、Landonっていうファミリーネームは祖母の家系のものなんだけど、彼女が僕によく言っていた言葉がある。どんなものでも売れるんだって。
これは僕がフォトグラファーをやってたときに関わっていたwebサービスで、観光業者向けにハワイとかリゾート地の写真や動画を販売するサイトなんだけど、このハリネズミの動画ひどいだろ?これ僕が撮ったんだけど、本当にひどいよね。でも売れるんだ。
このサイトは最初の年は購入してくれたユーザーは0で、次の年は10人だった。その次の年は50人くらいだった。
もうやめようってことにもなってたんだけど、徐々に写真や動画の素材も増えてきて、5年目あたりで一気にユーザーが数千人に増えて売り上げもそれなりの規模になって、最近他の会社に売却したんだよ。どんなサービスも売れるまでには5年くらいは必ずかかる。
これ見て、HDの最高画質のだと100ドル以上もして誰が買うのかって思うよね。でもほら、これを見ると12人も買ってる。
こんな動画でも誰かにとっては重要で、買う人がいるんだよ。」
今月はロサンゼルスにあるスタートアップハウスに籠ってプログラムを書いている。オンラインスポーツネットワークのスタートアップを経営するジョーダンが、親戚が所有する別荘を最大十名程度が寝泊まりしながら作業ができるように開放しているもので、オフィスはプールやバスケットボールのコートがある庭の一角を占めるガレージを改造した部屋から1分足らずで行き来出来る場所にある。(それにしてもアメリカのスタートアップ関係者は本当にガレージが好きである)ロサンゼルスといってもワーナーが近くにある、かなり外れたところにあるので車を使わない限りどこにも行くところがない。サンフランシスコでは毎晩のようにスタートアップ関連イベントかまたはサルサに通っていたので、生活はがらりと変わった。来月は再びサンフランシスコに戻る。
日本のメディアにはセレブリティという概念がないと思う。むしろ格差を隠蔽して総中流を演出するのが日本のメディアの目的の一つだという指摘もある。例えば国内でも有数の俳優が街中の庶民的な店で飯を食い、上手そうな演技をする。たとえ本当に上手くとも、そこに据えられた意味は、私と君達は一緒だというメッセージである。
2000年初頭のITバブルの頃、初めてメディアの中にセレブリティが登場する。つまり大衆とは異質な存在であることを公に主張する者が現れる。新種の存在が現れるときには必ず象徴というものが必要で、六本木ヒルズはその役割を果たした。
要するに日本におけるITバブルの終焉とは、メディアの中でのセレブリティという存在を改めて否定し、高度成長期の旧来の価値観に揺り戻す儀式となった。運動会で全員手をつないで一斉にゴールをするという話があったが(想像しただけで気分が悪くなりそうだ)、皆で一斉に幸せになるというコンセンサスに希望を持てないのは、それが既に嘘であることに皆気づいているからだろう。ヒルズがITバブルの頃の新種のセレブリティを象徴したように、世代交代による新陳代謝を繰り返しながらいつの時代にもメディアに現れ続け、スーパーマーケットのゴシップ紙に顔が並ぶハリウッドのセレブのような存在は、たとえ世界が狂い始めようともこの国には新しい成功がどこかにあるということの象徴としてあり続けている。
先月台北にいたときには約1年ぶりにゴルフをして、改めて奇異なスポーツだなと思ったのと同時に、アングロサクソン的だとも感じた。クラブに球を当てるときの初動が全てで、後は飛んでいく球に委ねられる。米の栽培や茶のようにプロセスに手を尽くす文化をもった日本人にはこういうスポーツはスポーツとして成立させられなかったはずである。
日本には本当に何でもある。何でもあるというのは、必要なものが全て揃っているというよりもごく稀にしか必要とされないものですら流通していて、割と簡単に手に入るというニュアンスに近い。ここアメリカではあれば便利だがなくてもどうにかなるものは多くないし、誰が買うのか全く想像がつかないようなものはあまり売っていない。
何でもあるということは本来ポジティブな面であるはずなのだが、しかしそれらを生産するのに使われる膨大な人的資源を考えれば実際にはデメリットとなっている。明らかに非効率だからである。日本人の勤勉さはかなりの部分が余剰的な価値単価の低いものに使われ、それはゴルフで言うところの初動がいたるところで誤っているからに他ならない。
これを正す最善の手段は学術的な水準を上げる以外にはないだろう。
9月の第二週にサンフランシスコ市内で行われた電子音楽祭では、いい意味でなく現代芸術化するシーンの一端を見たような感慨を受けた。
少なくとも以前はcomposeとはパズルのピースを一片の狂いもなく埋めるパーフェクトデザインを指していた。今はcomposeとdesign(DJ)の境界が曖昧である。複雑さと微細さが人間の考案する組織-システム-に追いつかなくなったために、そして記録と再生が遥かに容易になったために、かつて主流であった”完成”という態度を暫定的にでも諦めてやり過ごしている。抽象絵画の黎明期にはサロンでは常識的な態度であるFiniに対立した作家が新しい時代の勃興を勝ち取っているが、根本的に視覚芸術と原理が異なる音響芸術との比較はできない。レヴィ=ストロースの言葉を借りれば「栽培された思考」であるところのcomposeと「野生の思考」であるdesign、要はブリコラージュのような方法こそが主流になっていくのであろうか。
そういうわけで、こうした時代にあっては、構造のための理論的な支柱がないがゆえに必然的に見堪えのあるところは音の生成の過程となる。その意味で際立っていたのはJemes Feiだった。彼は台湾出身である。 現代的な楽器のインターフェイスはしばしば、アウトプットと身体性との距離が大きいのでコントロールがより難しい。そしてコントロールを諦めたことが露呈したその瞬間、興が冷めるわけである。身体性から切り離されるほどに、そして情報エレクトロニクスの技術が進んだ結果考慮すべき要素が次第に複雑かつ微細になるほどに、音は人間のコントロール下から当然離れていく。Jhon CageのChance Operationという概念はまさにこのコントロール不能となりゆく傾向に対し、それでも人間はコントロールしているのだと言い張るアカデミックな権威の皮を借りた正当化を許されようとする諦めに他ならない。 こうした一時しのぎを通過しながら、歴史は次なる概念を導入する必要に迫られる。
近年の傾向を集約して延長すれば和声と旋律が融解し音程感から自由になった「ビート」のようなものに集約されていくのだろうか。だとしたら、あまりに退屈である。
World Wide Webの生みの親であるティム・バーナーズ・リー氏も指摘するように、個人情報が漏洩する危険性は日に日に強くなっている。ソーシャルネットワークにポストする情報はもちろんのこと、ネットワークに接続されている限り我々の位置情報は逐一記録されているし、昨年話題になったようにスマートフォンは指の動きを常に記録している。米国では50以上の団体が小型カメラや赤外線を装備した無人機の利用を許可されている。
こうした合意なしに取得されてしまう情報を恣意的に削除したり堰き止める手段はサービスやデバイスを使わない以外に今のところほぼないので、個人でできることは余計な情報を自ら流さないようにするくらいだろう。
今はまだ個人データの利用方法が成熟していないので事態は表面化していないものの、遅かれ早かれ騒がれることになる。集合知が「集める」段階からオーガナイズされるレベルに今後進むのはほぼ間違い未来と言えるからだ。
つまり個人がなんらかのインターフェイスによって入力したデータ(本人がいとしようがしまいが)によって次なる価値を生み出す試みである。
今世界で最も注目すべき話題はBRICS銀行の動向だろう。東京にいるとそんなこととはまるで無縁のように感じられてしまう。メディアを中心にそういった世界の大きな風の流れをセルフディフェンスのようにふわりと何事もないかのように受け流す在り方がこの国の閉塞感を作り出すひとつの要因になっている気がしている。ドル中心の経済は数年後には大きく様変わりしているのだろうか。
ところでソフトウェアにおける機能とは車にとってのエンジンやステアリングといったものに過ぎない。
すべて揃って動けばそれは車と呼ばれるがそれだけでは車でしかない。だから私たちは多様な車を生み出し、選ぶ。シート、ハンドル、ペダルの位置関係やハンドルを切る重さ、エンジンの音、サスペンションの効き具合、そうしたものをトータルでイメージして具体化するということがソフトウェアにも求められるはずだがそういったデザイン性、つまり体験をデザインするということがあまり重視されていない。このデザインは技術と深く関わっている以上いわゆるデザイナーというよりむしろエンジニアこそ手がけるべき領域である。もっとソフトウェアが芸術であるという理解がされていいし、エンジニアはアーティストと認知されるような仕事をしていかなければならない。
そしてそれができるのは多くの場合個人である。
あなたのプロダクトにある問題が起きていることに、あなたは気づく。そこであなたはこう考える。
Can we built a solution for that problem?
答えはYesだ。さて、この問題解決に着手しよう。。。
知っての通り起業家のためのバイブルとして各国で圧倒的に支持される本書は日本でも邦訳が出るらしいが原著を先々月頃から読んでいたので、一足先に書評を書いておこうと思う。と、書ければベストだったのだがもう出ているらしい。
原著で読む場合はAudible.comで著者Eric Ries本人が読んでいる朗読が手に入るのでこちらもお勧め。
要旨としてはスタートアップビジネスにとって、早めにMinimum Viable Productと呼ばれる最低限の必要機能を備えたプロトタイプを世に出し、サービスの作り手の想像の範疇で試行錯誤するのでなくユーザーが真に望むサービスへの改良をフィードバックループの中から探れというもの。Lean methodからすれば冒頭に書いた問題解決のプロセスからは3つの問いが抜けている。
1.Do consumers recognize that they have the problem you are trying to solve?
2.If there was a solution,would they buy it?
3.Would they buy it from us?
4.Can we built a solution for that problem?
つまり限りあるリソースの中で着手する前に顧客が望んでいるか。
言うはたやすいが、一度でもプロダクトを世に問わせたことのある人であれば、行うに難い場面をいくらか想像できるのではないか。可愛い我が子のデビューはスティーブジョブズのプレゼンテーションのように完全に整えられた状態で飾らせたいと思うのが親の常であるだろうし、本書にも書かれているが皮肉なことにユーザー数も収益も少しあるより”ゼロ”の方が人は可能性を感じるので、作り手含む関係者各位の期待を裏切るまいという心理が働けば完成品への拘りが尚更生まれる。
膨大なコストをかけて完成させたプロダクトや新機能が蓋を開けてみたらユーザーの望むものではなかったという著者のIMVUでの苦い経験(実際には投資家や従業員からのプレッシャーを考えれば相当な苦難だったに違いない)から語られる教訓には相応の説得力が込められている。
アントレプレナーが直面する各フェーズに沿って本書は進行していく。米国一のオンラインシューズストアでAmazonに好条件で買収されたZaposやHP、Facebook、Dropboxなどシリコンバレーのスター企業がフレームワークのテストケースとして次々と挙げられ、Zaposについてはトニー・シェイ『ザッポス伝説』がこれまた面白いのだが、アメリカ最大のオンラインシューズストアもはじめは小さな実験からスタートしている。オンラインで靴を買う需要が本当にあるのか試すために、ネットでオーダーが入ると靴屋から商品を全額で買い取り郵送で送るという地道な作業を繰り返した。
本書ではこの過程を著者が説くフレームワークの一部を当てはめ、それがどうプロダクト改善のためのプロセスに有用だったかを解説している。
本書の何が新しいのか。全て想像できる範囲内にあるという意味においては正直これといって新しいことは何もない。ただあまりに有名になった数々の成功神話と固定観念と、そして創造者であるがゆえに持つ衝動から離れ、泥臭くも賢明な創造の舞台に上がる前の手人文字としてこれ以上のものはないだろう。NIKEのキャッチコピー”Just Do It”式のギャンブルでなく再現可能な科学として抽象化できる教訓はこれが限度ではないか。私たちが知っている美しいプロダクトはそのプロダクト程美しくないプロセスで生まれている。
タイ、バンコクからマレーシア、バターワース行きの列車に乗っている。
バターワースはタイ国鉄とマレー鉄道の中継点であるが、バターワースからはクアラルンプールまでKTMを使う。マレー鉄道KTMは3月に貨物列車が脱線した影響でシンガポールまで運行しておらず現在クルアーン止まりだからだ。
因みに広告コピーでしばしば使われる、「マレー鉄道で半島縦断」は嘘である。マレー半島の陸路での縦断はタイ国鉄とマレー鉄道あるいはバスの組み合わせで可能になる。
バンコク、Pratunam地域はきってのショッピングエリアとだけあって平日でも活気がある。特に服屋は数、量、価格ともに卸市のようでありバイヤーなら何日もいられるだろう。タクシーに乗れば日本人と分かるやメーターを止めて運賃交渉に入るほど商売気が湧いている。そのため少々疲れることもある。
先日FacebookがInstergramを買収した。同社にとって過去最大級の買収であり、またこれまでの人員確保のためのそれとは違いサービス自体の吸収を目的にしている。よく競争相手として上がるGoogleがすでに多くのサービスを飲み込み、検索エンジンを入口としたコングロマリット型のサービスを展開してきたのと異なり、FacebookはこれまであくまでFacebook自体の改良と他社との連携という形で発展してきた。Facebook対Googleというタームが正しいかはさておき、売り上げ規模もまだ桁違いの両社はようやく比較の土俵に上がり得た段階にあるのかもしれない。勢力図はますます集約化が進むだろう。
4/11執筆
コンピュータの進化を待っている情報産業分野というのは確実にある。動的な巨大データのビジュアライジングもそのひとつであろう。ソーシャルネットワークをはじめとするwebサービスにおけるユーザーの軌跡としてデータベースに蓄積された人知をある切り口により取捨選択し視覚的かつインタラクティブに表現することの可能性である。
それはまさにカーネギーメロンの教授でprocessingの作者であるベン・フライが扱っているような技術分野であり、実は私たちはSNS上のネットワークの視覚化すら未だまともに実現していない。フォロワーのフォロワーを網羅的に知るには、現状では最低でもフォロワーのURLを経過しなければならない。
オンライン上の結びつきが視覚化されると例えば自分の投稿したメッセージがRTされどこのコミュニティにまで波及したのかが一目で補足できる、といったような可能性が当然でてくる。このアイデアは一般ユーザーに始まり次は企業のマーケティングに応用されるだろう。
データビジュアライジングの可能性はすでにインフォグラフィックが証明している。時間の貴重性がますます意識される現代において、情報を視覚化し伝達スピードを高速化する仕事は今よりも確実に重要視されるようになる。
現状では新聞の風刺絵のような要素が強く、何より情報として固定化された静的なものであるが、コンピュータの進化がこれをアクティブにする。最初の進化は静的で一方向的な情報ソースから動的で双方向的なものに、次の進化はモバイルインターフェイスの進化による入力データの即時性と多様性から起こるだろう。