ised議事録

10-081. 倫理研第6回:辻大介講演(1)

題目:「開かれた社会へ向けて存在の匿名性を擁護する」

倫理研第6回:開かれた社会へ向けて存在の匿名性を擁護する

辻大介 TSUJI Daisuke / 倫理研第一回~

http://homepage3.nifty.com/dt/
関西大学社会学部 助教授

 1965年生まれ。東京大学大学院人文社会系研究科博士課程中途退学。専門は社会学、社会心理学、コミュニケーション論。共著書に『子ども・青少年とコミュニケーション』(北樹出版、1999年)、『日本人の情報行動2000』(東京大学出版会、2001年)、『メディアとことば1』(ひつじ書房、 2004年)など。言語行為における虚構性・現実性についての理論研究、および、現代社会における若者のコミュニケーション、対人関係、そして情報行動について計量的調査・分析を行う。インターネットやケータイの普及した現代情報社会は、えてしてネガティブな面ばかりが強調され不安惹起的に語られるが、今回、計量的データに基づいて冷静にリアリティを捉える社会学者として、ised@glocomに参加。

0. 前回の倫理研の結論

 辻です。今日は「存在の匿名性を擁護する」というタイトルなのですが、前回の倫理研では、管理社会化をある程度容認せざるをえないのではないか、存在の匿名性は擁護できないのではないか、という示唆が出されました。まずそこに至る議論の流れを整理しておきたいと思います。

 東さんが前回提起されたのは、情報過多によって認知限界が到来することで、存在の匿名性は原理的に擁護できなくなるのではないか、という問題でした。社会の情報化によって複雑性が増大するけれども、私たちはその複雑性に対し、サイモンがいうところの「限定された合理性(bounded rationality)」しか持っていない。これまでは国家という規律訓練型権力によって複雑性を縮約する方法を取ってきたわけですが、それには限界がある。そこで情報技術によって複雑性を縮減する、あるいはその縮減を支援する必要が出てくるだろうということです。

 では、どのような支援が考えられるでしょうか。たとえばAmazonによるお薦め商品の紹介という機能を考えてみます。Amazonには多種多様な選択肢が提示されていますが、私たちはその量の多さに、下手をするとなにも買えなくなってしまう。それに対してAmazonは、「あなたが欲しい商品はこういうものではないですか」と選択肢を提示してくれる。ただそのためには、自分がこれまでどういう商品を買ったのか、という個人情報をそのシステムに引き渡す必要があるわけです。

 これをアナロジーとして考えますと、情報社会において複雑性を縮減するには、個人情報の引渡しが必要とされるのではないか、という予測に繋がります。今後私たちが情報社会倫理を考えるとき、「存在の匿名性」を放棄することを容認する、存在を「顕名」化していくしかないのではないか。その存在の顕名化の必要性を容認する方向で、これまでの既存の倫理的な概念――そこにはプライバシーも含まれるかもしれませんが――を組み替えていく必要があるのではないか。前回、このような議論が展開されたわけです。

 ここで「存在の匿名性」という言葉を使いましたが、これは東さんの「情報自由論」で提示された概念です。その対概念は「表現の匿名性」というもので、これは「ひとが能動的な表現行為を行い、しかもその責任者の名前を隠したいときに必要となる匿名性」と定義されています。たとえば2ch的な匿名性といってもいいかもしれません。それに対して存在の匿名性は、「ひとがただ存在しているだけのとき、そこで名前が奪われ知られるのを防ぐために必要な匿名性」になります。たとえばAmazonによって、誰がなにを買ったのかという情報が奪われてしまう。それを防ぐのに必要な匿名性が、存在の匿名性というわけです。また「顕名」という言葉は匿名の対概念にあたります。

 また前回の議論では、複雑性を縮減する装置が国家から情報技術へ移行すると論じられました。いいかえれば、人々の内面に働きかける規律訓練型権力から、単に個人情報の束として人々を制御する環境管理型権力への移行です。であるならば、これまで私たちの社会は国家に縛りをかける憲法という仕組みを持ってきたけれども、それと同様に、情報技術というアーキテクチャに縛りをかける、新しい仕組みについて考える必要があるだろう、と。これが前回の要約になります。

疑問と出発点

 ここまでの議論について、私もある程度方向性としては賛成できるところがあります。しかし、疑問点もある。「縛りをかける」というとき、白田さんは次のようにおっしゃっていました。

…誰かに自分がなにを買ったのかが知られるのは嫌ですよね。しかし、完全に無人で処理されていればどうか。しかも個人特定的ではなくて、あるカテゴリーに対してデータ処理がされているだけであればどうか。(中略)個人情報や嗜好情報の管理に、認知的な能力をもった人間は一切関与してはならないというルールを明確化すれば、この問題は回避できるのかもしれない。

倫理研第5回: 共同討議 第2部(3):国家からコンピュータへ移る「複雑性の縮減」装置

http://ised.glocom.jp/ised/09090820

つまり個人情報の管理に関して、人間は一切関与せず、機械に任せるほうがいいのかもしれない、とおっしゃっているわけです。たしかにありうる話です。しかし、はたして機械任せでうまくいくのだろうか。これが私の疑問なのです。

 ちなみに白田さんは、この非人格化された機械任せの権力のことを、「リトルブラザー」(Little Brother)と対置させるかたちで「ビックブラザー」(Big Brother)と呼称していました。ここでAmazonのような私企業は、リトルブラザーの側に分類されるとしましょう。白田さんが問題提起されていたのは、ある種の認証性・人格性を帯びたリトルブラザーが乱立する状況ではなく、むしろ人間がその情報管理に一切関与できないという意味で、非人格的なビックブラザーによる管理のほうがよい、というものです。「非人格的」と形容するのであれば、ブラザーという呼称は不適切ですので、ここでは仮に「ビッグイット」(Big It)と呼んでおきたいと思います。そして今回、私が議論の出発点にしたいのは、このビッグイットの実効性・有効性はどれくらいあるのだろうかという疑問なのです。

 これも前回提出された論点ですが、Amazonの商品推薦システム程度のベネフィットであれば、「目利きの人」を代わりに立てても構わないと考えることもできます。逆にいえば、詳細かつ包括的な個人情報を、ビッグイットに引き渡す動機付けは生まれにくいと考えられます。それよりは、個人情報を渡すのはどことなく怖い、という感覚のほうが強いのかもしれない。しかし、殺人のような凶悪犯罪がビッグイットによって劇的に減少する、あるいは無くなるというベネフィットが示されたとすれば、それはビッグイットに情報を差し出す強力な動機付けになるでしょう。これは東さんが指摘されていることですが、環境管理型権力によるセキュリティを求める動機付けの背景には、私たちの社会が強いリスク不安を抱えているということ、いわゆる「リスク社会化」が背景にあります。

 しかし考えてみると、このビッグイットに詳細な個人情報を分析することで、殺人であれ人間のあらゆる行動を正確に予測可能となり、犯罪を事前に予防する管理ができる、という前提があるわけです。しかし、以下で私がまず論じたいのは、この分析・予測可能性は完全なものではないということです。その予測の精度が劣るのであれば、逆にそれは運用コストのほうがかかりすぎてしまう。本来低リスク者であるはずの人が、間違えて高リスク者として管理されてしまう可能性もある。逆に、高リスク者であっても低リスク者として判定される可能性もある。そうなると、予防抑止も逆効果になってしまうわけです。つまり、ビッグイットが非常に正確に人間の行動を予測することができるという前提が原理的に不可能であって、無理にそれを計算させようとすれば、ビッグイットはある種の暴走を引き起こすリスクをはらんでいるのではないか。そのように私自身は考えているのです。この疑いを足がかりに議論を進めていきたいと思います。

1. 機械から神 (deus ex machina) は出ない――存在の匿名性の消極的な擁護

 要するに機械はあくまで機械であって、前回の設計研で八田さんが使われていた表現を借りれば、「機械仕掛けの神(deus ex machina)」にはなれない*1。この疑問はこの点に尽きます。非常に単純な事実を確認するところから始めたいと思うのですが、情報技術の能力がいかに高度化したとしても、解けない問題は解くことができないということを論じたいと思います。

自己言及命題と暴走

 たとえば例題1として、「最大の自然数は奇数か偶数かを求めなさい」というタスクを与えるとします。この問題は不良設定問題(ill-posed problem)*2といって、そもそも設定の仕方を間違えた問題です。もともと自然数公理系を考える際に、最大の自然数を設定するということ自体が矛盾しているのです。たとえば、「丸は三角か四角かを求めよ」と問うようなものです。丸が三角か四角かという問題であれば、そのナンセンスさはすぐ分かりますね。しかし、この不良設定問題を機械に与えてしまうと、永遠に1,2,3,4,5,6……いう数列を無限に計算していきます。その計算は終わることがなく、単に計算を無限に繰り返し続けてしまう。こうした無意味な無限のタスク処理を繰り返すことを、ここでは「暴走」と呼びたいと思います。

 こういった問題はいくつも考えることができます。たとえば例題2として、「<この命題は偽である>という命題は真か偽か」という問題はどうでしょうか。これはクレタ人のパラドクスと呼ばれているものですが、この自己言及的な問題もやはり解くことができない。<この命題は偽である>という命題が真であると仮定しても偽であると仮定しても、矛盾が生じてしまうわけです。

チューリングマシンの停止問題

 そもそも通常のコンピュータ・プログラムであれば、こうした暴走を止めるために、外部から強制的に介入する装置が組み込まれています。ただし、ビッグイットの場合には、その人間の介入なくして暴走を回避できることが要請されます。では機械自身が暴走を回避するようなことはできるだろうか。答えは否です。そのようなアルゴリズムをつくることは、少なくとも現在のチューリングマシンでは不可能です。「チューリングの停止定理」*3がすでにそれを証明していて、任意のチューリングマシンがいつ停止するのかを事前に決定するようなアルゴリズムは存在しない、ということが分かっています。

 この停止定理は、いわゆる「ゲーデル不完全性定理」の第1定理と数学的に同値であることが知られています*4。先先の例題2「クレタ人のパラドクス」に見られる自己言及命題は、実はこのゲーデル不完全性定理のアイデアの核をなしています。この定理を簡単に表現すれば、「いかなるシステム(公理系)Sも、真であるにもかかわらず証明も反証も不可能な命題を含む。さらにSの無矛盾性はSにおいて証明不可能である」というものです((註:ゲーデル不完全性定理については、高橋昌一郎『ゲーデルの哲学―不完全性定理と神の存在論』(講談社現代新書、1999年 asin:406149466X)や、松岡正剛の千夜千冊『ゲーデル再考』ハオ・ワンなどの解説を参照のこと。)))。よってチューリングマシンとしてビッグイットを設計してしまうと、こうした自己言及的な問題を解くことができないために、暴走の可能性を常にはらんでしまうことになります。

暴走は止められるか

 それに対して、非チューリングマシンとしてビッグイットを設計するというやり方も考えられるでしょう。このあたりは専門的に詳しくないので確言はできませんが、チューリングマシンとは異なる設計であるということは、おそらく人間と同様に間違えてしまうことを許容する、そして間違える代わりにある程度はうまくいく、といったシステムの組み方になるだろうと思います。しかし、人間と同じレベルなのであればそもそもビッグイットに任せる意味はないわけです。それならば人間に任せてしまえばいいだけです。

 ではビッグイットの暴走を人間が止められるように、いつでも強制介入できる仕組みを入れておけばいいのか。しかし、これはその介入を行使できる人間がビッグイットという環境管理型権力を帯びることを意味します。つまり、人間の介入を許してしまう以上、それは非人格的なビッグイットから、人格的要素を抱えるビッグブラザーと化してしまうわけです。

 となると、問題は、暴走危険性の低い範囲内で人間の行動を予測、あるいは計算可能できないか、ということになります。たとえば弾道計算や動物の行動計算は、かなりの程度正確なシミュレーションが可能です。つまり、自己言及的な命題が出現しないようなかたちであれば、ビッグイットもうまくいくのではないか。こう発想することも可能です。その場合、たしかに自己言及パラドクスは起こりません。しかし、どうしても人間の行動決定においては、自己言及的な状況が出現してしまうことを次に示したいと思います。

ダブル・コンティンジェンシー

 先ほどのクレタ人のパラドクスと同じく、古代ギリシャからワニのパラドクスとして知られているものを紹介しましょう。まずAとBという二人がいて、AがBに次のように言います。「俺がお前を殺すか殺さないかを当てられたら、殺さないでおいてやろう。だが、はずしたら殺す」と。それに対してBはAに対して次のように答えます。「あなたは私を殺すでしょう」と。その場合Aはどうすべきか。ここで殺すとすれば、それは殺すつもりだったことになる。つまり、Bの予測は当たっていることになるので、当たっているからには殺すことはできません。しかし、殺さないとなれば、そもそもBの発言は偽であることになります。そうすると殺すことになる。しかし殺すとすれば、……といったぐあいに、永遠にこのようなプロセスが続き行動決定が不能となってしまうわけですね。しかし、私たちはこのような状況に追い込まれたとしても何らかの決定を為すわけです。人間の行為は、完全に合理的に決定されているわけではない。いいかえれば、完全に合理的には予測することはできません。人はどこかでエイヤッと思い切って決断するところがある。これはごく当たり前の話ですね。

 さて、こうした自己言及的な状況は非常に例外的なものなのでしょうか。かなり例外的(アノマリー)なものであるとすれば、こういった状況を勘案せずにビッグイットが計算を行ったとしても、ある程度予測は正確に成り立つはずです。しかし、このワニのパラドクス的状況というのは、社会システム理論でいうところの「ダブル・コンティンジェンシー」(二重の偶有性*5と呼ばれる状況と同型なんですね。

 ダブル・コンティンジェンシーとはなにか。まずAとBが、「お互いにあいつは私を殺そうとするかもしれない」という疑心暗鬼の状態にあるとします。AもBもこう考えるわけです。「もしも相手が私を殺すつもりだったら、先手を打ってあいつを殺したほうがいいだろう」つまり、ある種正当防衛のような状況ですね。「でもそうじゃなければ、無駄な人殺しはしたくない」と両方とも考えている。このように、互いに相手の出方がいかようにも想定されてしまう結果、行為に踏み出せない状況がありえます。これはさらに次のように記述できます。

 第1段階:Aが「もしBがAを殺そうと考えているつもりならば、AはBを殺す」と考えています(図:第1段階)。したがって、ここでAはまず、BがAを殺そうと考えているかどうかを確認する必要があるわけです。どうもBは俺(A)を殺そうとしていないのであれば、Bを殺さない、という結論が出るわけです。

図:第1段階
図:第1段階

 しかし、本当にそれだけの勘案ですむのでしょうか。そうともいえません。というのも、いまのところは私もBを殺すつもりはないけれども、勝手にBのほうが勘違いをして「Aが俺を殺すだろう」と思いこんでいたとしたら、その場合Bはその前にAを殺そうというふうに考えるはずだからです。このように想定すると、BはAを殺そうと思っていることになりますから、AはBを殺したほうがいいという結論になってしまいます。これが第2段階にあたります(図:第2段階)。

図:第2段階
図:第2段階

 このように、ちょうど図のフキダシの部分を次々と入れ子にしていくことができます。以下同様にして、細かい説明は省きますが(これについては補足資料を参照してください)、第3段階、第4段階、第5段階……という無限の斟酌が必要になる結果、結局のところ決定不能に陥ってしまう。これをダブル・コンティンジェンシーというのですが、ルーマンの考え方では人間の相互行為やコミュニケーションに本源的に付きまとうものとされます(Luhmann[1984=1993], 辻[2003])。しかし、繰り返しになりますが、人間は常にダブル・コンティンジェンシーに悩むわけではありません。人間というのは端的に行動してしまう。せいぜい第三段階ぐらいまでは考えることがあるにしても、第十段階まで考えるということはおそらくない。ある程度の段階まで想像すると、面倒くさくなってエイヤッと決定してしまう。この決定次第で、双方の行動の結果が変わってしまうという揺らぎがコミュニケーションには存在するわけです。

予測精度はどこまで信頼できるか

 ダブル・コンティンジェンシー状況の解は、合理的に決定可能ではありません。それは多かれ少なかれ偶然性をはらんでいます。ということは、その帰結は確率的にしか予測できないわけです。自然科学においても、量子力学のレベルではこうした確率的にしか予測できない事態が出現します。しかし社会科学的に、こういった確率的な予測精度を上げ続けることはできるのだろうか。たとえば推測統計学の重回帰分析という手法を用いるとします。これはまず様々な人の属性、たとえば性別や年齢、あるいは具体的な状況における行動履歴までいろいろと調べて、その属性情報をもとに重回帰式という予測式をつくります。しかし、社会調査にたずさわってきた経験から言うと、この重回帰分析における決定係数R*6が0.8を超えることはまずありません。予測精度は、この決定係数Rを二乗した値にあたりますから、仮にRが0.8だったとしても、その精度は0.64。つまり64%程度です。要するに、外れる確率が36%あるということです。

 しかし、もし仮に従来のような社会調査の規模を超えて、詳細な個人情報をビッグイットが集めて、きわめて精度の高い推測式というのができたとしてみます。これが自然法則のようなもの、あるいは動物の行動パターンのようなものであれば、ある種の普遍性が期待できるでしょう。しかし、人間の行動にはそのような普遍性が期待できません。社会の変化、状況の変化に応じて、人間というのは行動パターンを変えてしまうからです。そもそも、このこと自体がダブル・コンティンジェンシーに由来するものだと思われます。要するに、どれだけ精密に現状を「説明」できる式ができたとしても、それが精密に将来の行動を「予測」できる式になるわけではない、ということです。

 以上をもって、「機械仕掛けの神」は存在しえないという結論になります。私たちはビッグイットに非常に詳細かつ包括的に個人情報(存在の匿名性)を引き渡したとしても、その予測が有効に機能する保障はそれほどない。Amazonの推薦手法はかなりうまく機能しているように見えますが、それは相手であるAmazonの出方を伺ってから、自分の出方(なにを買うか)を決める――ダブル・コンティンジェンシー的状況を勘案する――必要が薄いからだといえます。つまり、Amazonでの消費行動は「動物的」な行動だといえるでしょう。

 ビッグイットによる犯罪抑止システムを構想するとして、犯罪発生後に容疑者を特定する目的で個人情報を提供する、あるいは活用するということはありえるかもしれません。しかし、あらかじめ犯罪リスクを管理する目的で、「事前に」情報提供を活用する必要性、あるいは実効性というのは、おそらく薄いのではないだろうかと私は考えます。

*1:註:設計研第5回: 共同討議 第1部(2):認知限界を縮小する「機械仕掛けの神」――八田真行からの応答

*2:註:解がそもそも存在すること、あるいは一意に存在することをであることを、問題の適切性 (well-posedness) と呼ぶ。不良設定はその逆。参考:逆問題 - Wikipedia

*3:註:以下の書籍、星野力『甦るチューリング―コンピュータ科学に残された夢』(NTT出版、2002年 asin:4757100795)や、次のページの解説などを参照のこと。→チューリング機械(Turing machine)

*4:註:ゲーデル自身によるギブス講演 "Some Basic Theorems on the Foundations of Mathematics and their Implications"(フランシスコ・A. ロドリゲス‐コンスエグラ『ゲーデル 未刊哲学論稿』(青土社、1997年 asin:4791755693 所収)) での指摘。詳細は、星野力『甦るチューリング―コンピュータ科学に残された夢』(NTT出版、2002年 asin:4757100795)の解説を参照のこと。

*5:註:宮台真司の解説を参照のこと。→連載第八回 社会秩序の合意モデルと信頼モデル - MIYADAI.com Blog

*6:註:以下の紹介などを参照のこと。→Interscope 回帰分析 Regression Analysis

トラックバック - http://ised-glocom.g.hatena.ne.jp/ised/10011008