Wikipedia 2006 (その2)

Yochai Benklerによる"The Wealth of Networks"という講演。ネットワークベース(P2Pベース)の生産、デジタルコピー、プロダクトよりもプロセスということを基調に、Wikipediaが如何に良いか、といっていう話。テクノロジーが古い産業への脅威(P2Pが音楽業界への脅威となったように)でもあるが、新たな産業や生産形態も生み出した。というような話だったが、あまりまじめには聞かず。

その次のRishab Ghoshによる200 years of collaborative ownershipという話。これは例に挙げたJames Wattの話が面白かった。彼は確かに蒸気機関を発明したが、その特許をとり特許の有効期間を変更させライバルを徹底的に叩いたために、その後蒸気機関の効率が上がらないままになってしまった。特許が切れた後、Cornwall(当時のシリコンバレー)の人はそれまでのあくどさに対してWattの会社をボイコットした。が、James Leanという人が高圧式のエンジンの細かな使用と設計図を1811から新聞(?)に載せてCornwallで出したところ、皆がそれを元に改良したので、その後技術革新が進んで効率が一気に上がった。

同じような歴史は、185年後、195年後にソフト業界で繰り返されている。ソースを公開したソフトが出て、皆が改良した。
なぜ皆オープンソースに貢献しようとするのかということに関するちょっとした経済学的(というほどもないけど)考察。物々交換のときは、Aliceは自分が持ってきた魚よりもポテトのほうに価値があると感じ、Bobはポテトよりも魚のほうに価値があると感じるので成立する。オープンソースプロジェクトにおいて、「他の人は、giveよりもtakeが多いと思う」というアンケートにyesと答える人よりも、「自分は、giveよりもtakeが多いと思う」と答える人のほうが少ないものの、自分はtakeのほうがgiveより多いと思う人も多い。Linuxカーネルは5千5百万行あって、14,005人年くらいのコストであるが、投資が分散されて行われ、個人的な参加者も多いので可能であった。
Brewster Kahleの発表は面白かった。彼はMinskyやDanny Hillisと一緒に働いていたこともあるようだが、Minskyに言われたように、「大きなゴール」をまず決めて、そこから考えるというやり方をしているといっていた。まあ話し方からも、あの辺の人々と共通したものが感じられるわけである。

彼はWAISをやり、Alexaをやり、Internet Archiveをやっている。Internet Archiveでは、可能な限りいろいろなものをデジタル化して保存しようとしている。

1976年の米国における著作権法の改正により、知識がだれかの所有物として扱われるようになってしまった。その最初の犠牲者はソフトウェアへの著作権の適用で、フリーソフトウェア運動はその話への反応だった。音楽や映画に対しては、Creative Commonsが生まれている。

営利団体による努力は色々と行われた。DejaNewsはNetNewsの検索サイトだったがGoogleに売られ、IMDBはまだ活動しているがAmazonに売られ、CDDBはGracenote, inc.になり、WAISはAOLに売られ、FTP softwareはNetmanageに売られ、CygnusはRedhatに売られた。

そういう商用化の流れに対して、Non-profitの組織が生まれてきた。Apache Foundationはフルタイムがいない。OSAF。Mozilla Foundationは、Google Toolbarを載せることによってお金が入った。Wikipediaもnon-profitだが、これらはどれも生き残ることに成功している。

Open Hardwareへの動きもある。PetaboxはInternet Archiveで使っているサーバーだが、自分達で設計してそれを公開している。$100 Laptopもオープンである。

というところからようやく本題。大きなゴールは、知識をすべての人にアクセスできるように(Universal Access to Knowledge)ということである。

例えば、すべての本をデジタル化することを考える。合衆国議会図書館には全米の本がすべて保管されることになっていて、だいたい2千6百万冊から、2千8百万冊ある。本の文字のことだけを考えると、大体一冊1MBくらいなので、すべてのデータは26テラバイト程度であり、60,000ドルでサーバーを用意すればすべてのコピーを保管できる。

電子化した本を読むためのUIも作ってみたが、BookMobileという、移動印刷屋(?)のプロジェクトもやっている。百万冊くらいのデータをバンで運び、一ページ1セント位で印刷すると、1ドルくらいで一冊作れる。このバンがインドで2台走っている。中国とエジプトでは、本をスキャンして電子化している。V字型で、本が傷まない程度に開いてページをめくって写真を撮る機械を作り、400冊/日くらいのペースでスキャンしている。一冊スキャンするのにアメリカでやると$30程度かかってしまうが、2千6百万冊でも7億5千万ドル(800億円くらい)かければ、すべての本を電子化できる。全米の図書館の年間予算の..%くらいの額を一度だけ使えばよいので、技術的・経済的にも可能である。

問題は著作権である。我々が注意したのは「問題を規定すると、それが問題になる」ということである。著者が死亡して時間もたち、現在の著作権者が分からない本がたくさんある。これらを「迷子の本(orphan book)」と呼ぶようにした。イラク戦争で相手をテロリストと呼ぶようにすると自動的に「攻撃すべき相手」という意味を持つが、迷子の本と呼ぶと、皆が助けてあげなくちゃという気持ちになるので。

Amazon著作権者が分かっている本からデジタル化をはじめている。我々はその反対である。Microsoftも実は資金を提供してくれた。

音声は、2-3百万枚程度のオリジナルな(異なる演奏などを含まない)CDタイトルがあると考えられている。全部吸い上げてしまうこともは技術的には可能だが、また著作権の問題があるので、狙うのはニッチになる。まず、バンドが自分の演奏をCDに焼いて人に配る、という文化がある。インターネット後は彼らはオンラインに置いて聞いてもらおうとするが、もし人気が出てしまうと、ISPからの請求書が上がってしまう。そういうバンドに電話をして「うちのサーバーなら、容量無制限、帯域無制限で置けますよ」というと、まずは「信じられない、嘘をつくな」という反応が返ってくる。まあひとつにはlossyな圧縮が気に入らないということもあるが、ちゃんと説明すると大体分かってくれて今は30,000位のコンサートがデジタル化されている。それから、ヨーロッパでは演奏を録音したものに関する著作権は演奏後50年で切れるようになっているので、1956年以前に録音されたものは合法的にデジタル化してよい。一枚当たり$10かかるが、(確か)Amsterdamのサーバーに蓄積中である。

動画は100年ほどの歴史しかなく、十万から二十万本ほどの映画が作られてきたと考えられている。今は6000本ほどがInternet Archiveに入っている。映画以外には、ニュース番組や教育番組や政治番組などの映像がある。趣味で作られた映像もたくさんあって、Legoの人形をコマ撮りしたアニメ、Lego Movieもひとつのジャンルをなしていたりする。これらもアーカイブしている。2000年以降は、20のテレビ局(BBCNHKなども含む)を24時間録画している。2001年9月以降、一週間ほどそれらすべてを比較して見られるようにしてみたりもした。

ソフトウェアは簡単で、これまで5万本ほどが作られている(もっとありそうな気もするが)。

Webは、1996年から2ヶ月ごとにスナップショットを取っている。

ためるだけでは駄目で、アクセスできるようにしなくてはならない。そのために図書館の歴史を研究してみたが、それで気が付くのは、図書館は非常にしばしば火事にあったり、非常にしばしば政府によって焼かれてしまっているということである。これを保存するには、まずはコピーを作ることである。アレクサンドリア図書館ver. 2を作るべく、Amsterdamと、AlexandriaとSan Franciscoにサーバーを置いている。これで次の数世紀を生き残れるかどうか試したい。

さて、これから何をすべきかを考えたい。open network、Seattleのwireless.netやMIT roofnet、SFlanなどの流れが良い。皆が自宅にwireless routerを持っているのだから、それら同士がつながるようにすれば良い。Webサーチもオープンなものにすべきである。nutchというサイトでは、1人の女性がgoogleよりも多くのウェブページをインデックス化した(がそのために彼女はGoogleに雇われてしまった)。個人でも頑張れできる。Torのような匿名ネットワークも重要である。米国では匿名での出版に関する長い歴史がある。Defensive Patentも重要である。特許をとるときに防御的に使うために取ることをはっきりとさせてとる。Wikipediaのページにもっと詳しい属性を付けられるようにすべきである。encycropediaには、propediaやmicropediaというインデックス用のものがある。このインデックス化をもう数段挟めば、インターネット全体をもっと必要な情報のレベルによってインデックス化できる。本の集合に対するアノテーションもできればよい。

という話だった。大きな話だが、着実に小さなステップを踏んでいるというなかなか素晴らしい話である。彼の講演の後また例によって頂上作戦を取るべく直接話をしてみた。Dannyと知り合いだという話はともかく、Bob Stein(彼と昔一緒にプロジェクトをしたことがあるはずだ)が最近やっていることを耳打ちしてみたり。未来の本に関してはいろいろな動きがあるのだが、そろそろ何か面白いものがでるかもしれん。

Lightning TalkではTinLizzieのデモを5分ほどしたのだが、目玉だったはずの2D Croquetはうまく動かなかった。ああ。車の例をもっとみっちりするべきだったかな。

夜は、MIT Museumを借り切ってパーティー。Lisp Machineがあったり、ロボットがたくさんあったり、インタラクティブ・アートがあったり、ストロボがあったり。SICPの授業では、82年頃(?)、HPに48台Scheme用のChipmunkというマシンを作らせて、それを使って実習をしていたそうだが、その機械がすでに博物館入りしている。近くの人としゃべっていたら、「俺このマシンでSussmanにScheme習ったんだよ。自分が勉強に使ったマシンが博物館入りしているのを見るのはちょっとがっかりするよね」と言っていた。そりゃそうだ。