情報の系列化

 少し以前のできごとになるが2月の上旬にこんなニュースがあった。18歳のアイドルである松野莉奈さんが急死し、その死因について、事務所の正式な発表がなされる前から「ウイルス性の脳症が原因では?」というデマの情報がTwitterなどで拡散したというものだ。*1

 起こったことを時系列に沿って並べると以下のようになる。

 

2月8日 松野さん急死

2月9日 ウイルス性の脳症が原因ではというデマ情報が拡散

2月10日 松野さんの所属事務所が死因(致死性不整脈)を公表。

 

 9日の時点の情報だけに接した人間は、そこで一気にウイルス性の脳症について調べ、その影響はTwitterのツイート検索でも当時は検索候補の上位に「ウイルス性 脳症」という言葉が表示されていたことに現れていた。10日の事務所発表によって、ウイルス性の脳症が死因とする情報はデマだったことがはっきりしたが、それまではデマと気付かずにその情報を信じた人も少なくなかったのではないか。当時、Twitterでは「ウイルス性の脳症」というツイートをたくさん見かけた。ほんの数日待つだけで、調べるべき単語は「ウイルス性脳症」から「致死性不整脈」へと変わっただろう。ツイート検索の候補もそれに応じて変化しただろう。

 芸能人の死という問題に限って言えば、「所属事務所の公式発表を待つ」というのを基本姿勢にしていれば、デマに振り回せれずに済んだという考え方もできる*2が、一般にこういう医学関係のニュース、あるいはさらに一般に専門知が関わるニュースでは、私自身も含めて大多数の人は専門的な知識を持たないため、情報の真偽を自分の力で評価することができない。少し前に問題になったDeNA運営のWELQでも状況は同様であったし、医学以外の領域、例えば原発事故や食品の安全性、STAP細胞地球温暖化、最近では森友学園に関する大阪での国有地払い下げ問題など、専門知が問われるニュースというのは短期では意見が割れやすく、長い時間をかけてコンセンサスが形成されていくものだ。しかしコンセンサスができる前にはもう別のセンセーショナルなニュースが現れて、短期間でなされた評価が消費されて終わる。そして多くの門外漢の人間は「結局どれが正しいの?」ということを判断できず、誰の情報、或いはどこの情報を信じればいいのかということがわからなくなりやすい。人々が社会で起こる問題について参照するメディアが、全体として「短期」に引っ張られ過ぎていて、もう少し時間をかけてまとめられた意見がメディアの中で見かけなくなった。本は別だが。

 「誰が言うかよりも何を言うかの方が重要である」というのが私の個人的な考え方であって、これについては以前にも記事を書いたことがあった。これに関連して最近こんな記事を読んだ。

gigazine.net

 「誰がシェアしたか」を基準にするのは、ある意味では妥当と言える。自分の専門外の問題について理解を深めるために、その分野について自分よりも詳しそうな人間の見識に頼るのは妥当であるし、たとえば教育というのも自分よりも詳しい人間から学ぶ機会を与えるということを前提に設計されている。教育的効果という意味では、「誰がシェアしたか」基準は非専門家の人間に専門家の視点を紹介し、専門知に触れる機会を与えるという意味で意義がある。私がそれでも「何を言うか」の方を重視するのは、専門知は自分で学べばよく、一旦学べば誰が言うかよりも何を言うかで言論の内容を評価できるようになると考えているからだ。

 しかし一方で、世間で起こる問題について人々が意見を参考にする人間がその問題についての専門家であるかというと、いつもそうとは限らない。いや、むしろ「著名人」ではあっても専門家ではない人間の意見が参照されていることも少なくない。起業家が原発問題についてツイートしていたとして、いくらその起業家が大きなお金を動かしているとしても、原発についての専門知を持っていなければ「誰が言うか」に引っ張られるべきではない。これについて、ショーペンハウエルの『読書について』から引用する。

 作品は著者の精神のエキスである。したがって作品は、著者がいかに偉大な人物であっても、その身辺事情に比べて、常に比較にならぬほど豊かな内容を備えており、本来その不足をも補うものであるはずである。だがそれだけではない。作品は身辺事情をはるかに凌ぎ、圧倒する。普通の人間の書いたものでも、結構読む価値があり、おもしろくてためになるという場合もある。まさしくそれが彼のエキスであり、彼の全思索、全研究の結果実ったものであるからである。だがこれに反して、彼の身辺事情は我々に何の興味も与えることができないのである。したがってその人の身辺事情に満足しないようなばあいでも、その人の著書は読むことができるし、さらにまた、精神的教養が高まれば、ほとんどただ著書にだけ楽しみを見いだし、もはや著者には興味をおぼえないという高度な水準に、しだいに近づくこともできる。(ショーペンハウエル『読書について』(岩波文庫)p.138, 139)

 私が個人的に好きな映画の一つに『グッド・ウィル・ハンティング』がある。その後半部分で、主人公のウィルは数学の証明の問題を解くためにマクローリンの公式を使うのだが、それが誰の公式かということはちっとも気にしていない。これも「誰が言うかより何を言うか」の一例と言えるのではないか。映画のスクリプトの一部が載っているサイトを見つけたので引用する。

トム:教師が天分を見抜けないので自分はバカだと思い込む優秀な学生が多い。その点君は幸せだ。ランボー先生は君を認め手を差しのべてる。
ランボー:やあ、ウィル。トム、コーヒーを。
トム:いいとも。
ランボー:解けたか?いいぞ。正しい証明だ。マクローリンの公式か。誰の公式だか…こうなるのか。私が間違いを?
ウィル:それが正解です。次からはショーンの所で。ここはバイト先が遠くて…
ランボー:いいよ。この計算は…
ウィル:計算は合ってます。ゆっくり確認を…
そしてウィルは去る。

(表記を一部修正の上、以下のサイトから引用

http://www.oocities.org/take12take/zeminar1.htm

 

 SNSでは、情報は早くシェアされやすいという速報性のバイアスがかかっている。数日、あるいは数週間、あるいは数ヶ月に渡って時間をかけて調べた結果をまとめた投稿などは、SNSで見た試しがない。4月7日に発表されたニュースは数時間以内、あるいは遅くとも翌日か数日以内にはシェアされてしまう。そこには複数の情報を連ねた系列が存在しない。 他の情報との間の連関が見えない。「情報の断片化」というのは、SNSの登場以前から、ネット上にある情報の特徴としてしばしば指摘されてきた特質であったから、その意味では今更という感じもするが、それだけ指摘されてきたにもかかわらず、ネット上の情報も、そしてSNS上の情報もちっとも系列化されていないのは何故なのかということついては、今更ではあれ考える意義はあると思う。

 もちろんあるサイトの内側で、同一執筆者の記事が連載記事としてまとめて読めたり、ある記事の途中や下に関連記事として同一イシューの記事が紹介されているということはある。けれども他サイトの記事は利害関係に引きずられて紹介されていない。プラットフォームのYahoo!のニュースやLINEニュース、NAVERまとめなど、複数のソースの記事が関連記事として紹介されているページもあるが、そこでは同じ日付の記事どうしが横並び的に参照されていたり、あるいはラグがあってもせいぜい数日か数週間というくらいの時間の幅しかなく、問題の背後にある構造を照らし出すのに必要な時間の幅として十分とは思えない。個々のサービスとそれが提供するコンテンツの時間的な幅の関係については、以前からいくつかの記事を書いた。

[1] 情報と時間 - ありそうでないもの

[2] ランキングと記憶と銀行について - ありそうでないもの

[3] RSSでもキュレーションでもGoogleでもSNSでもなく、欲しい情報をどうやって得るのか - ありそうでないもの

 キュレーションサイトやニュースサイトはそもそもそういう目的で作られたものではないといえばそれまでかもしれないが、では他にそういう目的を持って機能しているサイトなりサービスが大きな規模で展開されているかいえば、今は単行本くらいしかないように思える。新書や文庫本では紙幅の都合などで付いていないこともあるが、巻末の索引や参考文献のページを見ると、2017年の問題を論じる本であっても1990年代や2000年代、あるいはもっと以前の本や記事や論文が参照されながら論が展開されていることが確認できる。TwitterFacebookで、そういう時間の幅をもったツイートや投稿を見かけることはほとんどない。ほとんどのツイートは、今この瞬間の反応の速さを競うようなものばかりで、「自分の方が早くから知ってた」というアピール合戦に終始しているような印象すら受ける。そこでは「真実が何か」ということよりも、「今この瞬間にインパクトのある素材かどうか」という、昨今しばしば指摘される「ポスト真実」(post-truth)の状況が展開している。

 デマかどうかを確かめることやファクトチェックについては、Facebookも対応を取るようになったし、他の様々なサービスでも真実かどうかを確かめることに重きを置く風潮は生まれてきている。WELQの問題もそういう風潮を後押しするのに一定の貢献をしたというポジティブな評価を与えることもできないではない。けれどもこの問題について、ここまでの趣旨に即して考えるならば、情報をある程度の時間の幅を持って系列化し、人々がその系列を容易に確認できるようにすること、そしてもちろんそれは情報を得る各人の興味関心に影響されてフィルターバブルの問題につながらないようにすることが必要ではないか。
 思えば検索エンジンGoogleは創業当初、他の多くのサイトからリンクされているサイトこそが、内容的に価値のあるサイトであるという考え方をベースにしてネット上のページをランクづけすることで、スパムに対して頑健なサービスを生み出したというところに意義があった。もっとも初期のGoogle検索エンジンアルゴリズムについて解説した『PageRankの数理』から引用する。

 HITSとPageRankとは,  地理的にも時間的にもそう違わないところで発見されたのだが,  独立に研究されたきたようにみえる.  この2つのモデルの間の関連は驚くべきものである([110]*3参照).  それにもかかわらず,  この多忙な年以来,  PageRankが主たるリンク解析モデルになったが,  それは,  クエリー独立性(3.3節参照),  スパムに対する事実上の免疫性,  およびGoogleのビジネスにおける巨大な成功によるものでもあった.

(第3章 人気度によってウェブページをランク付けする

    3.1 1998年の場面 p. 32, 33より太字筆者)

 それは学会の論文の相互参照のしくみにヒントを得て生まれたアイデアだったが、その後のネット上のサイトの群れを見ていると、検索エンジンアルゴリズムのアップデートの間で今もいたちごっこを続けているSEO対策を割り引いて考えても、学会の論文参照とはかけ離れたノイズばかりの世界になってしまった。検索者個々人に最適化した結果としてフィルターバブルの問題が指摘されたりもした。学会の論文についてもすでに頻繁に引用されている論文ほどさらに多くの参照をされやすいという歪みがあることは以前から指摘されているが、それにしてもネットほど酷くはない。

 それでは学会の論文参照と今のGoogleはどこがどう違っているのか。あるいは冒頭の問題意識に引きつけて言うならば、どうして他のどの領域よりも多くの情報がアーカイブされているこのネットという空間が、アーカイブという長期の情報が活用されず、短期のセンセーショナルな情報ばかりが消費される最大の消費地のようになり、新聞やテレビもその短期性に引きずられるというような状況になってしまったのか。

 学会の論文参照に相当するシステムをネット上で実現しようとするときにGoogle以外のやり方はないのか。アーカイブされた過去の情報がもっとうまく掘り起こされて有効活用される空間を作る方法はないのか。

 

ある、と思う。あとは「ではいかにして?」だけではないか。手がかりはある。図書館の本の並べ方について、ほとんどの人は文句も言わずに受け入れているのは何故なのか、ということだ。そこにはフィルターバブルなどない。そして個人への最適化もない。けれども人々は図書館へ足を運び、そこでそれまでは知らなかった本に出会う。恣意性のない並べ方をすれば、たとえ「自分個人向け」に最適化などされていなくても、人々は自然にそれを受け入れるのではないか。本の巻末の参考文献について文句をつける人がほとんどいないのも同じ理由ではないか。ではそれをネット上で実現するにはどうするかということだ。

 

*1:

matome.naver.jp

*2:芸能人の死とは異なるが、集団的自衛権をめぐる憲法改正に関する論議で生じる誤解についても、政府の公式発表を参照しないために誤解が輪をかけて拡散していくということがあるのではないかということを以下の動画を見て感じた。

www.youtube.com

*3:Amy N. Langvile and Carl D. Meyer. A survey of eigenvector methods of web information retrieval. The SIAM Review, 47(1):135-161, 2005