text

情報自由論第6回

フィルタリングされる自由

著者:東浩紀
初出:『中央公論』2002年12月号、中央公論新社


情報技術の進歩は、私たちに自由を与えてくれるものであると同時に、また私たちから自由を奪うものでもある。哲学者ならば、このような逆説は、自由の本質から必然的に生じるものだと答えるかもしれない。しかしこの逆説は、いまや、そのような抽象的な返答では支えきれない重みをもっている。情報技術が自由を与えるのか奪うのか、そのバランスは、次から次へと現れるテクノロジーをどのように社会体制のなかに組み込むのか、早急な判断を迫られている私たちにとって、きわめて具体的な検討課題になりつつあるからだ。前回では、その課題が、いま、サイバーリバタリアニズムの限界として立ち現れていることを確認した。

だとすれば、私たちはいまや、抽象論から離れ、新たな技術をどのように使いどのように使うべきではないのか、具体的なガイドラインを積み上げる作業に入るべきだろうか。しかしそれもまた簡単にはいかない。情報技術と自由のあいだの両義的な関係は、だれが何のために使うのか、といった「意図」や「目的」のレベルで整理できるものではないからだ。たとえ完全に善意に基づいたシステムが作られたとしても、運用段階でのリスクは避けられない。ビッグ・ブラザーの専制は恐ろしいが、リトル・ブラザーの乱立も同様の危険を孕んでいる。

住基ネットとユビキタス

第二回の議論と重なるが、あらためて強調しておきたい。たとえば、この夏には、住基ネットの稼働がマスコミの関心を集めた。個人情報がデジタル化され、ネットワークのなかで機械的に処理されることに対して、多くの国民が強い不安を抱いていることが明らかになった。そのおりに不安の根拠として挙げられたもののひとつが、情報漏洩のリスクである。韓国の住民登録証制度や米国の社会保障番号制度は、個人情報の漏洩や売買をもたらし、ときに刑事事件に発展している。しかも、住基ネットの稼働にあたっては、準備期間の短さから運用面で混乱する自治体が相次ぎ、住民票コードの不達や誤配が多発するなど、コンピュータ・セキュリティ以前のアナログな弱点も明らかになっている。このようなシステムが批判に曝されるのは、当然のことだ。

しかし、同時に見逃すことができないのは、その批判のすぐ横で、個人情報のデジタル化を加速する新事業が着々と整備されているという皮肉な事実である。たとえば、IYバンク銀行は、来年にも、NTTドコモの一部機種を対象に、携帯電話で個人認証を行いATMで預金を出し入れできる新たなサービスを導入する。同じく来年春には、携帯電話の認証機能を利用してイベントの入出場を管理するぴあの電子チケット事業が始まり、JR東日本のICカード(Suica)とクレジットカードの連携も始まる。KDDIのGPS付き携帯電話では、すでに、利用者の現在位置を測位し、最寄りの店舗を通知するサービスが実施されている。これらは氷山の一角であって、携帯電話、ATM、交通機関、クレジットカード、チケッティングなど、従来は分散して蓄積されていた個人情報が、市場原理に基づいて、いまや各所で急速に連結されつつある。

そして、その個人情報の流れは消費者には制御できない。現在流行のユビキタス・コンピューティングの構想は、日常生活を構成する多くの電化製品をネットワークに接続し、ユーザに意識させることなく、位置情報や状態情報をつねに交換させるような環境の実現を志向している。いまでもすでに、象印によって、家電の利用状況をモニタリングし、高齢者の安否を確認するサービスが始まっている。バイオメトリクスを利用した新たな認証技術は、私たちの存在そのものをデータ化しネットワークのなかに組み込もうとしている。その延長線上にあるのは、ユーザが何もしなくても、改札を通れば運賃が引き落とされるし、友人宅に近づけばマンションの入口が開くサービスである。しかしそれは、裏返せば、私たちがだれでどのような資格の人間なのか、個人情報の開示なしには、改札も通れなければ友人宅も訪問できない、高度に管理された環境の実現でもある。

多くの市民はその流れを許容している。それは、とりあえずは、国家主義的な監視と関係ない動きのように見えるからだ。しかし、ここに本当に差異があるだろうか。差異はあるのかもしれないが、それはもしかして、私たちが思っているよりもはるかに小さな差異ではないだろうか。プライバシーが丸裸にされる、というのであれば、ユビキタスやバイオメトリクスの精密さは、住基ネットの比ではない。そしてそこに生じるリスクは、技術的な解決で抑え込めるものではない。サービスが充実すればするほど、個人情報の流通量は増えるし、その管理業務に従事する人間も増える。担当者にモラルがなければ、いくらシステム面のセキュリティを強化したところで、個人情報は簡単に漏れる。また、ここでは、官と民の差を強調することにもそれほど意味がない。事実、ATMやコンビニの記録映像は、いまでも犯罪捜査に利用されている。

したがって、私たちはやはり根本に立ち戻る必要がある。つまり、抽象的で人文的な問題意識を導入する必要がある。第四回で述べたように、私たちはいま、価値の多様化に駆動される消費社会の層と、セキュリティ化に駆動される情報管理の層が共存する、二十一世紀型のポストモダン社会に生きている。この社会では、多様性の追求と管理の強化は決して矛盾しない。それどころか、逆に、情報管理を徹底し、電子機器のカスタマイズを進めれば進めるほど、多様で豊かな市民生活が可能になる、と信じられている。住基ネットを推進する行政も、ネットワーク・サービスの充実に邁進する民間企業も、この信念は共有している。しかし、私たちが疑うべきは、そのような信念そのものなのではないか。

ユビキタス・コンピューティングの先駆者と言われる坂村健は、未来社会についてつぎのように語っている。「コンピュータは、低価格化、超小型化、低消費電力化し、身の回りのあらゆるモノの中に入り込み、ネットワークで結ばれるようになる。バッジ、服のボタン、靴の中、眼鏡、時計など装飾品の中にも入り込むだろう。家には床から壁まで、また家電製品はもちろん、家庭用品から衣類、食品のパックに至るまでコンピュータが入るだろう。すべてのモノがインテリジェント・オブジェクト化しネットワークでつながれることにより、人々を取り巻く環境全体が高度の分散情報処理能力を持つようになる」注1。おそらくこの夢は、部分的には実現するだろう。私たちを取り巻く電子環境は、ネットワークを満たす個人情報を処理しながら、つねにユーザの志向を先回りし、適度な多様性を演出するようになるだろう。坂村が強調するように、著作権保護や障害者福祉はいまよりもはるかに充実するだろう。にもかかわらず、その同じシステムは、かつてドゥルーズが見通した「管理社会」のインフラそのものなのだ。これが私たちの社会が陥っている矛盾である。

二十一世紀のポストモダン=情報管理型社会では、自由(多様性)は個人情報との交換で提供される。しかし、そのような自由は本当の自由なのか。それは、一見抽象的だが、いま多くの人々が感じている具体的な疑問でもあるはずだ。今回と次回では、この疑問について考えてみたい。

消極的自由と積極的自由

現代社会において、自由の理念はどのような問題を抱えているのか。少し原理に遡ってみよう。そのためには、まず、イギリスの政治学者、アイザィア・バーリンが半世紀前に行った「消極的自由」と「積極的自由」の区別を見ておく必要がある注2。消極的自由とは「他者からの干渉の欠如」を、積極的自由とは「自己支配」を意味する。そしてバーリンは後者の追求は危険だと論じる。というのも、完全な自己支配、あらゆる影響から解放された「本当の自分」を追い求める試みは、結局のところ、そのような自己支配を可能にしてくれると囁く、あやしげな権威への隷従に繋がってしまいがちだからだ。人間はみな弱い。完全な自己支配など原理的にできない。まさにその弱みに、権威主義者はつけ込んでくる。

第四回でも参照した大澤真幸は、最近の長い論文で、この区別を踏まえたうえで、自由の概念を二つのレベルに分けて考えるべきだと論じている注3。一方には、複数の選択肢から何かを「選ぶ」自由がある。このタイプの自由は、選択肢が増せば増すほど大きくなる。これはバーリンの消極的自由の概念に相当する。

しかし第二に、それ以前に、選ぶことを選ぶかどうか、という「動機」のレベルがある。目の前に無数のドアがあっても、そのいずれのドアにも入る気が起こらなければ、選択肢の多さは無駄になるだけである。これは積極的自由の概念に相当する。自己支配を実現し、自分の欲望をしっかりと捉えなければ、消極的自由の拡大(他者からの干渉の減少)は何の役にも立たない。消極的自由の価値は、積極的自由の存在を前提としている。したがって、前者のみを切り離して擁護しようとしたバーリンの立論は、実は論理的に欠陥があるのではないか、と大澤は批判している。

この指摘のうえで、大澤はさらに示唆的な議論を展開している。そもそも私たちは、どのようなときに自由を感じるのか。それは、複数の選択肢からどれでも選ぶことができるという「偶然性」の感覚と、そのなかでこれを選ぶしかないという「必然性」の感覚が重なり合ったときなのだ、と大澤は述べる。

偶然性の感覚は、選択肢の増加すなわち消極的自由の拡大から生じ、必然性の感覚は、動機付けの整備すなわち積極的自由の確保から生じる。この二重性が示しているのは、人々が自らを自由だと感じるためには、複数の選択肢が示されると同時に、「あなたはこれを欲望するべきだ」と介入してくる他者がいなければならないという逆説である。大澤が「第三者の審級」と呼ぶその介入者の役割は、具体的には、両親や教師など、社会規範を代表する人間によって担われている。本論でここまで用いてきた言葉で言えば、規律訓練型権力による「大きな物語」の導入、規範や価値観の一定の強制こそが、近代社会において、自由を成立させるための不可欠な条件だったということになる。

以上の考察はあまりに抽象的に響くかもしれない。しかしそれは、きわめてアクチュアルな問題提起に繋がっている。というのも、私たちが生きるポストモダン社会は、いままで繰り返してきたように、まさに、その規律訓練型権力の弱体化、「大きな物語」の消失により特徴づけられるからである。言い換えれば、規範や価値観の多様化が推進され、自己決定の理念が行き渡った結果、もはやだれも自信をもって「あなたはこれを欲望するべきだ」とは教えてくれない、それが現代社会に生きている人々の条件だと言える。

このような「第三者の審級の真空状態」は、自由の条件を根底から脅かしてしまう。大澤は、インターネットに見られる情報の飽和状態や、インフォームド・コンセントに象徴される自己決定権の肥大化を例に挙げている。信頼できる専門家が不在のまま、とりあえず自己責任による選択を強いられたとしても、私たちは判断停止に陥ってしまうだけだろう。「あまりに強力な検索装置は、かえって検索の機能を否定してしまうように、あまりにも完全な消極的自由は、自由の反対物に変じてしまう」注4。自由主義の理念に導かれた近代の民主社会は、二十世紀末まで、ただひたすら、消極的自由の拡大に向けて歩んできた。メディア環境の成熟や科学技術の進展もその拡大に寄与した。現在の多文化主義的なポストモダン社会はその延長線上にあるが、そこでは、皮肉なことに、消極的自由の拡大がむしろ私たちの自由を窒息させつつあるのだ。

二つの表現規制

しかし、この議論には、ひとつ補足しておくべき点がある。大澤は、現代社会では「第三者の審級」、すなわち「大きな物語」が弱体化し、自分が何を欲望するべきなのか、それを教えてくれる存在が退場しつつあると主張した。それは確かに正しいのだが、同時にここで見逃してはならないのは、その不在が、まさにいま、分散処理型の情報管理によって、別のかたちで補われつつあることである。第四回でも強調したように、「大きな物語」の弱体化は、単にリゾーム的な無秩序を導くのではない。それは、複数の「小さな物語」を分離しつつ共存させる、より巧みな管理社会の構築へと繋がっている。

ふたたびレッシグを参照してみよう。『CODE』の第十二章は、インターネット上の表現規制を可能にする複数のシステムを比較検討している。規制の対象となるのは、成人にはアクセスが許されるが、児童には許されないと考えられている一群の表現、すなわちポルノである。

インターネット上のポルノから児童をどのように守るか、といった問題は、米国では、一九九〇年代半ばより、たえず政治的争点になり続けてきた。その過程で、通信品位法(CDA)、児童オンライン保護法(COPA)、児童インターネット保護法(CIPA)といった規制強化法が成立し、そのたびに市民団体から提訴され、違憲判決が下されて施行が中止あるいは延期されるという泥沼の闘争が続いている。レッシグが、言論の自由を死守する原則論に立つのではなく、まずシステムの質を問おうとするのは、そのような状況を背景としてのことである。そして、この問題は、つい半年ほど前に青少年有害社会環境対策基本法案がマスコミを賑わしたばかりの日本社会にとっても、決して他人事ではない。

レッシグによれば、表現規制のシステムは大きく二種類に分けられる。ゾーニングとフィルタリングである。ゾーニングとは、ユーザの資格に応じてネットを区分する方式である。成人IDをもつユーザはアダルトサイトにアクセスできるが、もたないユーザはアクセスできない。あるいは逆に、児童IDをもつユーザは、アダルトサイトへのアクセスを禁じられる。この二つの方法は、法的かつ技術的に大きな差異を抱えているが、しかし両方ともゾーニングである。

他方、フィルタリングとは、言論の特性に応じてネットを区分する方式である。このサイトは何点、あのサイトは何点、と内容に応じて特殊な採点(ラベリングあるいはレイティング)を施し、ユーザの要求に応じて特定の点数のサイトだけを配信するシステムだ。

フィルタリングのモデルはすでに存在する。ワールド・ワイド・ウェブ・コンソーシアムが提唱する「インターネットの内容選択に関するプラットフォーム」、略称PICSである。日本でも、財団法人インターネット協会によって、このプラットフォームに準拠したフィルタリング・サービスが提供されている注5

PICSはフィルタリングの過程を二つの部分に切り離す。第一にソフトがある。第二に採点表(フィルタ)がある。ソフトは、採点表を参照し、個々のサイトを配信したりしなかったりする。これはつまり、PICSというプラットフォームそのものは、フィルタリングの形式を提供するだけで、内容には関わらないことを意味する。そしてまた、どのようなタイプのフィルタリングが好ましいのか、ユーザが主体的に選択できることも意味している。未成年を抱える家庭や公共機関は、前もって、アダルト向けサイトを排除する採点表をインストールしておけばいい。その具体的な内容については、さまざまなレイティング機関のあいだの市場競争に任せることができる。

ゾーニングは法的整備を必要とする。児童に対して何が規制されるべきで何がそうではないのか、判断する機関が必要だからだ。対してPICS的なフィルタリングは、市場原理により機能する。また、ユーザによるコントロールも可能である。したがって、国家主導型の規制に抵抗感を覚え、個人主義と自由主義を愛する人々こそ、ゾーニングよりフィルタリングのほうを許容しやすい。

フィルタリングの危険性

ところがレッシグは、その判断こそが危険だと主張する。その理由は、ひとはゾーニングの存在は意識できるが、フィルタリングの存在は意識できないからである。

ゾーニングにおいては、ユーザはまず、あるサイトへのアクセスを試み、つぎに自らのIDが原因で拒絶される。したがってその拒絶の理由を問うことができる。そのような異議の存在は、規制の無際限の強化に対する重要な制約になる。対して、フィルタリングにおいては、ブロックされたサイトは最初から環境内に存在しないので、ユーザがそのサイトにアクセスを試みることはない。したがって、ゾーニングと異なり、規制の存在そのものを意識させないようにすることができる。

むろん、ユーザが自分の判断でフィルタリング・ソフトを使用しているのであれば、その存在を意識しないことはありえない。しかし実際には、PICSに準拠したフィルタリングは、端末のPCだけではなく、プロバイダや企業、自治体など、さまざまな段階で掛けることができる。そして、その場合、個々の局面でフィルタの使用を告知する仕様は用意されていない。そのかぎりにおいて、ユーザは、たとえフィルタリングの存在について一般的な告知を受けていたとしても、特定のサイトへのアクセスを拒絶されたという実感をもつことがない。したがって、その拒絶の理由を問う動機ももたない。これは言い換えれば、フィルタリングのアーキテクチャに基づいた表現規制には、際限なく精緻化し肥大化する危険性があるということである。だとすれば、たとえ法による規制という古くさい外見をまとっていたとしても、というよりむしろそれゆえに、ゾーニングのほうがより安全なシステムだと言うことができる。

レッシグのこの主張はきわめて明快である。連載の読者であればお分かりのように、この主張には、アーキテクチャに対して法や規範を対置し、情報管理型権力と規律訓練型権力のあいだでバランスを取ろうとするこの法学者の立場がきれいに凝縮されている。実際には、ゾーニングとフィルタリングの差異は、これほど単純には整理できないのかもしれない。しかし、レッシグのこの比較は、単純で図式的なだけに、規制と自由のあいだの現代的な関係を浮かび上がらせてくれる。

自由からの逃走

しかし、レッシグのこの議論は、彼自身が明示的に論じているよりも(暗示的には記されている)、もう少し複雑で厄介な問題にも通じている。『CODE』がフィルタリングを例に取り上げた問題は、決して、表現規制に関わるだけの個別的なものではない。それは、より一般に、私たちの社会を構成する秩序原理そのものに関わっている。

私たちは多様性を賞揚する世界に生きている。大澤の言葉で言えば「第三者の審級の真空状態」に生きている。たとえ児童保護のためとはいえ、多くの市民が、中央集権的なゾーニング、規範の強制に抵抗感を覚えるのはそのためである。フィルタリングというアーキテクチャは、まさにそこで、自らは価値中立であることを主張しながら、多様な規範意識を共存させ、かつ衝突を避けるための技術的解決として登場している。それは、情報管理型社会における規制一般のひとつの雛形である。

したがってその応用可能性は広い。規制対象としていま挙げられているのは、とりあえずはポルノが中心で、あとはテロリズム関係など特殊な情報である。しかし、レッシグが指摘するように、フィルタリングが可能な領域は無限に広がっている。多様なフィルタが提供され、細かいカスタマイズが可能になれば、市販のフィルタリング・ソフトは、個人が触れる言論や表現の領域を任意の基準で限定する汎用ツールに成長していくかもしれない。ひとことで言えば、自分の見たくないもの(あるいはだれかが自分に見せたくないもの)を見ないようにさせてくれる、とても便利な道具になっていくかもしれない。「たとえばキリスト教右派のレイティングがほしければ、かれらのレイティングシステムを選べばいい。もし無神論左派のレイティングがほしければ、それを選べばいい。自分向きのレイティング機関を選ぶことで、ソフトウェアがフィルタをかけてくれるコンテンツを選べることになる」。

確かにこれは極端な予測ではある。しかしレッシグは、わずか数ページの記述ではありながらも、インターネットという巨大なインフラのアーキテクチャに引きずられ、社会全体がそのような方向に向かう可能性を真剣に危惧している。「社会の観点からすると、市民たちが自分に関心のない問題をあっさり無視するようになったらひどいことになる。まさにその市民たちは、まさにそうした問題を処理するためにリーダーを選ばなきゃいけないんだから」注6。フィルタリングが可能にする多様性の共存は、あまりに完全に行われると、政治的共同体の崩壊に繋がる危険性を帯びている。

また別の角度から見てみよう。大澤は、前述のように、消極的自由の拡大が引き起こす困難の例として、インターネットを特徴づける情報の飽和状態を挙げていた。フィルタリングのシステムは、まさにその困難を回避するために考案されている。それは、個人の自由を狭める規制のシステムであると同時に、見方を変えれば、消極的自由の領域(選択肢の数)を制約し、積極的自由(動機)が弱体化していても選択が行えるように、個人の自由を支援する装置だと捉えることもできる。実際、オンラインの有害情報から児童を「保護する」という発想が出てくるのは、フィルタリングの導入とパターナリズムが密接に結びついているからである。前述のように、フィルタは必ずしも自分で選ぶ必要がない。教育機関や企業、未成年をもつ家庭などは、むしろユーザに意識させずにフィルタを導入しようとするだろう。これこそがフィルタリングの危険性だ、というのはすでにさきほど述べた。

しかし、私たちがここで考えたいのは、また別種の危険性、ユーザがそこで主体的にフィルタリングを導入するときの心理の問題である。大澤とレッシグの議論が交差するところに浮かび上がってくるのは、情報の飽和状態に倦み疲れ、多様な規範意識に辟易したユーザが、自らの「自由」を取り戻すため、つまりは選択肢を狭めるため、むしろ積極的にフィルタリングに依存していく可能性である。

あまりにも拡大した消極的自由は、もはや自由の感覚を与えてくれない。その結果、私たちは、いま、その消極的自由を制限してくれる「価値中立」的な情報処理に急速に依存し始めているのではないか。それはいわば、現代版の「自由からの逃走」と言えるかもしれない。エーリッヒ・フロムが一九四〇年代に記したように、近代の規律訓練型社会では、その逃走は、全体主義化あるいは市場経済下での画一化として現れた注7。対して、ポストモダンの環境管理型社会では、それは情報管理に対する過剰な依存として現れるわけだ。


(現在準備中)