ised議事録

10-086. 倫理研第6回:共同討議第1部(3)

監視社会化と私的領域の消失

高木:

高木浩光
高木浩光
 いま東さんは、たとえば恋愛関係のもつれで殺人に発展するようなものについては、ビッグイットでは予測できないとおっしゃっていました。しかし、そうでしょうか。なにを記録していくのかは定かではありませんが、わりと広い範囲で情報を記録するのであれば、誰と誰がどういう状態にあるかはある程度分析できる可能性があるわけですよね。その分析が可能であれば、その状態が変化しはじめたときに、「なにかまずいことが起きるかもしれない」という予測を支援することくらいはできると思います。

東:

 現実的に考えると、おそらくドメスティック・バイオレンス(DV)の管理ですね。

高木:

 そんなことまでわかってしまうとすれば、それは当然プライバシーの侵害だ。そう普通の人は直感的に思うでしょう。けれども、人間が決してその情報を見ることはなくて、完全に機械だけが管理した状態で行うという前提ができているのであれば、みなさん賛成するかもしれないわけですよね。

東:

 辻さん、いかがですか。

辻:

 うーん。とりあえず、仮の立場でそうだといっておきます。

北田:

 辻さんの議論というのは、ビッグイットがあまり有効に機能しえないことを前提としたうえで組み立てられていると思うんです。けれども、それが有効に機能してしまった場合には大丈夫なのか。これがいま問われている問題だと思います。たしかにプラグマティックにいまの現状を見るかぎり、ビッグイットはおそらく有効に機能しえない。仮に精度の高い推測式というのが出てきたとしても、人間の行動には不変性が期待できないので、その予測の有効性も疑わしいだろう。辻さんには、こういったある種の希望的観測があると思うんです。

北田暁大
北田暁大
 しかし、「ビッグイットは暴走する」という話と、「ビッグイットに情報を提供しても有効に機能しえない」という話は、そもそも水準が異なる。それぞれ解答も異なると思うんです。前者の問題に関しては、リトルブラザー程度に範囲を弱めましょう、という話で解決ができるような気がします。しかし後者の問題については、実は客観的に有効か否かは問題ではない。ビッグイット的なものに依存したいという人々の欲望が高まれば、放っておけば別の意味で―システム的に、システムとして―「暴走」してしまうわけです。いま現にそうした欲望が高まる方向へと向かっていっている以上、「それはしょうがない」―情報提供してもさほど有効に機能しえない―という議論をするということは、この後者の「暴走」を辻さんが承認していることになるのではないか。

東:

 いま北田さんは、監視社会化はよくないという立場から話されているわけですね。

北田:

 もちろん「よくない」といいうるだけの決定的な論拠はないだろうと思ってますよ。でもだからといって「悪くはない」という立場が正当化されたわけじゃない。「悪くはないといいうるのはなぜか」ということをもうちょっと詰めてみるキャラ設定でいってみようと(笑)。

 さきほどの性犯罪者のような例だと、監視技術的な論理を導入してもいいのではないかと思えてしまうんです。しかしDVを防止するために個人のあらゆる情報を収集するとなれば、おそらく辻さんも嫌だと感じられると思うんですが。

東:

 それもいまは微妙かもしれませんね。夫婦間のDVであれば公権力による監視に反発も出てくるでしょうが、児童虐待はどうか。「子供を守る」ということなら、いまの社会風土的にはオッケーでしょう。たとえば保健所が、すでにトラブルを起こしたことがある家庭に監視カメラを据えるとしても、いまの世論は支持するのではないか。


辻:

 では私もキャラを設定しまして……(笑)

東:

 みんな責任もって発言しましょうよ(笑)。

辻:

辻大介
辻大介
 では社会全員を対象にするのではなくて、前歴のある人間に限定して管理するとします。そのことによって、子供に対するDVが予防可能で、子供が幸せな社会になる。それで、なにか問題があるのだろうか? このキャラ設定にしたがえば、まずいことが起きる可能性があったときに、それをテクニカルに解消していけるのであれば問題はないと思われるのです。

北田:

 辻さんは講演のなかで、プライバシーを道徳的な「価値」ではなく、社会的「機能」として擁護するとおっしゃいましたよね。それは説得的でよくわかるんです。まだ罪を犯してもいない人間に対して、情報収集や監視をしてしまっては、それこそ認知的な複雑性が過剰に高まってしまう。だからこそ我々はプライバシーというものを準備しておかなければならないと、辻さんは第2部のところで考えているように思うんです。そうしたプライバシーの捉え方と、子供に対するDVを防ぐために監視社会化は仕方がない、と認めてしまう論理とのあいだには不整合がありませんか。

東:

 いや、辻さんは情報収集してもよいというわけです。

 あらためて問題を整理すると、北田さんは最初にコメントされたように、「知られること」と「責任を問われること」を切り離すことはできないという立場です。一方、辻さんは切り離すことができるという立場です。したがって、家庭に据えつけられたカメラが育児を記録していた場合、それが随時チェックされることで「この育児の仕方は悪い」とか「この接し方はよくない」と指摘されるとしたら、それはよくないと辻さんも考える。しかし、本当にDVや児童虐待が起きた場合にのみ、その情報が遡行的に呼び出されるのであれば、個人情報の収集は構わない。これが辻さんの論理だと思うんです。

辻:

 そのとおりです。

東:

 つまり、辻さんは家のなかにカメラがきてもオッケーなんですよ。

北田:

 オッケーなのか……。ではそのときのプライバシーというのは、いったいどういう機能的意味を持つんでしょうか。

高木:

 いまカメラについて議論しているので、話がわかりにくくなっている気がします。つまり、カメラであると直感的に嫌な感じがしてしまうわけですよ。録画したものをそのまま生データで見れば、あらゆるものが見えてしまう可能性があるわけですから。それなら、カメラなどの直接的なものではなくて、間接的な記録の方法を考えてみてはどうでしょうか。たとえばRFIDタグがいろいろなものに付与されて、いろいろなところにIDのみを記録しているコンピュータがあるとする。そのIDをもとに、動線の微妙な変化をコンピュータが把握するような方法ですね。そのような方法であれば、たとえばゴシップ好きの隣人がそのデータを見ても、なにが起きているかは全然わからない。けれどもコンピュータが分析すると、「これはまずい」という傾向がわかるようなシステムが構築できる。これなら許容する人はけっこう多いかもしれない。

東:

 それは現実的には独居老人問題に関係しそうですね。IT家電で、「ご飯が3日炊かれていないとこの世帯はまずい」というかたちで、独居老人の「安全・安心」を確保するという商品がすでにあるらしい*1。高木さんの例はその発展したバージョンですね。それもおそらく許容されるでしょうね。

東浩紀
東浩紀
 ……さて、議論が煮詰まってきましたが、倫理研はいま「監視社会化はオッケー」という方向に向かっているんでしょうか(笑)。

高木:

 というよりも、辻さんの発表において最初に述べられていた、アーキテクチャに縛りをかける仕組みが必要という議論は、いま私が述べたような意味だと思ったんですね。カメラだとわかりにくくなる部分があるかと思ったので、補足したのです。

加野瀬

 たしかになにか記録しないと判断はできませんから、「ではいったいなにを記録するか」なんですよね。さきほど高木さんがおっしゃったように、映像であれば観てそのままわかってしまうので、嫌悪感は生じてくる。しかし、人間がみてもわからないような情報であれば、記録されてもいいと思える。今後はそういう方向に展開していくわけですよね。

高木:

 たしかにアーキテクチャに縛りをかければ問題はないように見える。今日の議論はそこから出発して、管理社会はどうも問題ないという話になりそうである。しかしいま問われているのは、それは本当なのか、ということですよね。

東:

 ただ、それでは、みな「本当か?」と問いかけるばかりで、結局なにも結論が出ずに終わってしまう気もします(笑)。倫理研もそろそろ結論を出したいところです。というわけで再確認ですが、私たちの結論は、DVや児童虐待の防止のためであれば、家庭という私的空間の内部に電子デバイスがつぎつぎに導入され、公的権力が的確なかたちで情報を処理し、動線が変わったときに保険員がくるのはやむをえない、ということでよろしいでしょうか?

加野瀬

 いまでも振動を感知して通報するようなシステムを警備会社は導入しているわけですよね。いま議論しているDV防止システムが、その発展形として生まれたとしても、みなさん「いいんじゃないですか」と受け入れる気がします。

小倉:

 ただ企業であれば、「それがいい」と選択しているから、それはいいと言いうるわけです。

東:

 なるほど、契約でそうしている、ということですね。

高木:

 『マイノリティ・レポート』という映画は、まさにこの問題を描こうとしたんだと思うんです。映画では犯罪防止の目的で殺人の可能性が見積もられている世界が描かれているのですが、機械ではなくて、超能力者が予測しているという設定でした。機械でやったほうが話は絶対に面白いと思うんですけれども。ともあれこの映画では、主人公が濡れ衣の疑いをかけられてしまい、その追跡から逃げようとします。これはビッグイットが間違った判断を下すリスクの話ですね。そして映画の最後の結論というのは、結局は機械の管理者が単純な不正をやっていて、それを隠すためにその間違った判断を下していた、という割とつまらないものでした。わかりやすくしないと一般の人には受けませんから、結論もそうなったのでしょう。しかし、この映画が本当に描きたかったことは、いま議論されているようなことではないかと思います。つまり、ああいう社会はまずいと本当に言えるのか。映画では汚職がばれるというオチになっていたけれども、じゃあその汚職さえなければいいのか。

東:

 難しいですよね。それに対して悪いと明言しているのは、ここでは北田さんだけでしょうか。

北田:

 悪いという根拠がなかなか存在しない、ということを再確認しているんです。人々はみな受け入れると思うのですが、はたしてそれでいいのだろうか……。

東:

 それでは、我々はなぜ「いいのだろうか」と疑問を呈しているのか。理論的な根拠もない。弊害もない。みんな受け入れている。これは万々歳なはずなんですが。


北田:

 そうです。私がさきほど述べたのは、知られること自体ではなく、どのように責任づけられるのかという水準でプライバシーを定義したとすれば、そのときプライバシーは結局のところなんの意味もなさなくなるだろう、ということです。プライバシーは確実に表層的なものになっていくでしょう。そのとき、みんなプライバシーを放棄してしまうのだろうか…。なんとなく、みんな同意してしまうような気がしますけど。

小倉:

 どの情報がどこまで知られたくない個人情報なのかという核というものがあって、それは論理的にあるものではないと思うんです。その時々の人々の最大多数的な感覚の積み重ねで出来上がってくる。ですから、個々人によって「私はこれを知られたくない」という人と「私はこれを知られてもかまわない」という人と、いろいろだとは思います。ただ、社会的にはある程度コンセンサスのようなものがおそらくはあって、それが侵害されるときには、そのことを上回るメリットを与えてくれという話になる。そさきほどのDVを防止するために監視カメラをつけるという話であれば、子供に対するDVの恐れがあれば、保健所の所長か誰かが、その家庭に監視カメラを設置する権限を持つという話になってくるでしょう。

小倉秀夫
小倉秀夫
 しかし、監視カメラを家のなかに設置するといっても、子供が殴られるかもしれない状態を映すという機能もある反面、そこばかりを映すわけにはいかない。極端な話、夫婦がセックスしている状況も映ってしまうわけです。それを保健所の所長が見るのを許容することを求めるというのは、かなり酷ではないか。夫婦なんだからセックスもたまにしているだろう、というのはコンセンサスとして持っている反面、それを映像で見られるのは嫌でしょう。

加野瀬

 高木さんがそこでおっしゃっていたのは、カメラではない他の手法を考えればいいという話ですよね。

高木:

 たとえば、お父さんとお母さんが同じ位置にぴったり寄り添っているといった動線を把握して、それがどれくらい日々変化しているのかを機械が判断するような。

東:

 (笑)。しかし、夫婦であることは、そもそも「私たちセックスしています」という情報を垂れ流しているということです。少なくとも、世間的にはそう思われている。だとすれば、たしかにRFIDで動線を把握すれば、月に何回、週に何回セックスしたかはわかるかもしれない。しかし、それがどうしたんだ、と考える夫婦も多いかもしれない。映像として映っていない限りは、その程度の情報を奪ったからといって、しかもそれが公開されるわけでもないのだから、その人の尊厳を奪ったことにはならないのかもしれない。となると、多くのひとは、そんな曖昧なプライバシーよりは、子供の安全を確保するほうが大事だと思うかもしれません。

小倉:

 ええ、ですからそこはコンセンサスの問題だと思うんです。その程度なら知られてもかまわない、というコンセンサスがあるかどうか。

辻:

辻大介
辻大介
 動線把握システムの設計次第で、それこそ週に何回いつセックスをしたかを人間には分からないようにすることはできると思うんです。いまどれだけDVの起こる可能性が高まっているかという情報に絞って表示する、あるいは処理できるシステムは組めるのではないか。

東:

 それに、虐待防止というだけなら子供にセンサーをつければいいのかも。家庭全体を把握する必要はないですね。

小倉:

小倉秀夫
小倉秀夫
 RFIDの動きで判断するんであれば、その動きだけが情報として出てくるので、たしかに嫌な情報は解析されないのかもしれせん。しかし今度はその動線情報だけで、「これはDVの動きなのかどうか」を検証するのはどこまで可能かという話も出てくる。その検証可能性が低ければ、今度は無駄に個人情報を出しているということになるのではないか。

東:

 しかし、企業が努力して競争していけば、10年ほどでかなり洗練されたシステムができるのではないか。つまりDVだけを対象に、DVならほとんど予測可能であるというようなシステムが開発される。具体的にはわかりませんが(笑)。

高木:

 そういう研究をやりたいと思っている人はたくさんいるでしょうね。

東:

 あくまでイメージですが、大人が子供に触ると生体電流が変わるとか。なんらかの仕組みで実現できそうな気がします。

白田:

 さて、ここまでずいぶんDVの話が出ているんですが、そもそも知られるということ自体が支配を意味しているということを承認していただきたいんです。古来より我々は、他人に支配されないということを大きな価値として持ってきました。近代以前から、他人に支配されない自治という価値があったことからもわかります。極端な話になってしまうのですが、ローマ時代の各家庭内には“patria potestas”(パトリア・ポテスタース)という父権がありました。これは生殺与奪の権利なんです。つまり家庭内であれば、家族のものを殺そうがどうしようが構わなかった。これは現在の感覚からするとドメスティック・バイオレンスの極致ですよね。しかし、それは認められていた。それにも増して、家庭内において父親が支配している状態――これを“dominium”(ドミニウム)というのですが――を維持するほうが、大事だという感覚があったわけです。

白田秀彰
白田秀彰
 私たちがプライバシーというものを感じるときに、知られるのが嫌だということは、要するに支配されているという感覚自体が嫌だということなんです。それはカメラで撮られているのか、RFIDで把握されているのかは関係ないのではないか。どのような条件を設定すれば私たちはプライバシーを侵害されていないのか、と議論されているのですが、そもそもいかなる情報であれ把握されるのは嫌だ、というところからプライバシーという感覚は始まっているんだと思います。

北田:

北田暁大
北田暁大
 知られることはすなわち支配を受けることである、というお話は、僕も辻さんに対してコメントしたように、そうだと思います。しかし現状は、その等式が壊れつつある状態だと思うんですね。

東:

 いま白田さんがおっしゃったことの裏返しなのですが、「知られることはない」というのは、「自分だけが支配できる領域をつくる」ということですよね。

白田:

 そうです。まさにプライバシー(privacy)の語源である“privo”(プリウォー)という動詞は、公から私的領域を奪い取ってくる(privatize)という意味ですから。

東:

 しかし情報社会は、「自分だけが支配している領域」を持つことを許容しなくなりつつある。いまの社会は、何かを自分だけが持っている、支配しているということを、むしろ非道徳的で非人間的なことだと考えはじめている。

白田:

 そうです。だから情報社会において、プライバシーがこれほど関心の高い問題になって現れてきたというのは、ある意味で当然といえるでしょう。つまり、ここ数千年間私たちが持ってきた、情報を奪われることに対する生理的な嫌悪感を、そろそろ捨てなければいけない状況が出てきた。その状況を直観的に感じ取っているからこそ、プライバシーという過去の価値に過剰なほどこだわっているのかもしれない、という感じはします。

東:

 自分だけが支配できる領域を保つという発想が、そろそろ無理ではないか、と。

白田:

 無理になりつつある。私的領域の確保は、あまりに自明なことだったので、その価値については誰も明言してこなかった。しかし、技術の登場によって、自明ともいえない状況が生じてきた。印刷技術と写真技術の登場によって、私的領域が外に放り出されてしまうという状況に直面してしまったわけです。そこで1890年にウォーレントとブランダイスは“The Right to Privacy”を書きました。もともとプライバシーの権利は、テクノロジーに対するカウンターとして提唱されたという経緯があります。

 そしてその対立関係は、1890年から2005年の現在まで続いていました。要は、個人を社会の側に取り込もうとするテクノロジーの動きと、私たちが数千年間保持してきた「自分の領域を守るんだ」という前提が対立していたわけです。ところが、これからどの段階になるかはわかりませんが、我々は自分自身が完全にコントロールできる領域を放棄しなければならない状況が到来するでしょう。そのときプライバシーの問題は、逆の方向に消えていくことになるのです。

*1:註:たとえば以下の紹介などを参考のこと。→周南マリコム「安否確認システム」

トラックバック - http://ised-glocom.g.hatena.ne.jp/ised/10061008