おせっかいなサーチエンジン

 私は大学で数学とコンピュータを教えて日々の糧を得ている者であるが,趣味と実益を兼ねて,自分のWebサイトを借り物のサーバマシン上で運営している。アクセス数でいうと一日1500〜2000程度の小規模なものであるが,しかしその内容を分析してみると,直接人間が読んでいるな,と思われるものより,Webロボット,つまり自動的にWeb情報を収集するプログラムによるものが過半を占めていることが分かる。今や,Webページは人間が直接アクセスするものではなく,Webロボットのようなプログラムが集めたデータを仲介役としてアクセスするものになっているのである。
 Webという仕組みが発明され公開されたのは1990年であるが,普通のパソコンでWebにアクセスできるようなソフトウェアが提供されるようになったのは1995年である。いわゆる1990年代後半のインターネットブームはここから始まった訳であるが,まだ20世紀が終了するまではWebページの数も少なく,せいぜい個々のWebページに作られたリンク集というものを通じて情報収集をする程度で済んでいた。1996年にサービスが始まった商用サーチエンジンYahoo! Japanでも,検索機能よりは,人手によってカテゴリに分類されたリンク集の方が利用率が高かったようで,その頃に始めた私の個人ページも,Yahoo! Japanに登録された途端にアクセス数が千単位で上がって驚いた記憶がある。
 しかし,21世紀に入っても全世界的にはWebページの数は増えるばかりで,しかもblogサービスのように,Webページを自力で作成する知識がなくても手軽に記事が書け,更新や削除もたやすい仕組みが整ってくると,Webが提供する情報はうなぎ上りに増えていく。こうなってくると,のどかにリンク集を辿っているだけでは,知りたい情報を探すことが困難になる。そこでプログラムによるWeb情報の自動収集が導入されることになるのだが,人手と違って,信頼性のチェックの機構も作り込まなければならない。
 ここでGoogleが登場する。もともと研究者の世界では,論文引用数による業績評価という尺度があり,彼らはこれを膨大なWeb情報が張り巡らせているリンクの網の目に適用したのである。この評価方式はいろいろあるが,彼らが最初に導入したのは,「社会的に高い評価を得ている論文からの引用を高く評価する」というものである。逆にいえば,低い評価しかされていない論文から引用されても評価値は低く抑えられる,というシビアな,しかし現実的な方式である。Googleはこの評価方式,即ちPageRank(TM)によって,全てWebページを10段階にランク付けし,このランク順に検索結果を表示するようにしたのである。
 これによって,例えば私が書いたblog記事より,大手マスコミの掲示した記事の方が上位に表示されるようになった訳である。「社会的に評価の高い」人(企業)が書いたWebページが見つけやすくなった結果,Googleは利用者の高い評価を得ることになったのである。そのせいもあってか,Google本社のWebページ(http://www.google.com/)は最高のランク10を取得している(2007年10月23日現在,以下同様)。ちなみに,ホワイトハウス(http://www.whitehouse.gov/)も10, 日本の首相官邸(http://www.kantei.go.jp/)は8,私のWebサイトのトップページはランク5である。精進する必要がありますねぇ。
 最近はGoogleとau(KDDI)が提携して,ケータイからもWeb情報を検索できるようになっており,この検索結果の順位によって商品の売上が劇的に作用するといった現象も現れているようだ。私もたまにWebページのランクアップ手法(Search Engine Optimization, SEO)等を聞かれることがあるが,このPageRankの仕組みから考えれば,やるべきことは一つしかない筈である。つまり,他の企業,ニュース媒体,blog等で取り上げられる機会を増やすこと,そのためにはその人の本職,その企業の本業において,どれだけ他人の信頼度を上げることができるか,ということに尽きるのである。Webページは費用対効果の高い本業の宣伝としか考えていない方には逆説的な言い方に聞こえるかも知れないが,ランクアップの「王道」はこれしかないのである。
 ただ,サーチエンジンを通じてのWebページへのアクセスをきちんと把握する手段があれば(ログ解析等),SEM(Search Engine Marketing)の一環として,その結果からある程度,アクセス数を向上させることはできるだろう。そのささやかな実践例として,私のWebサイトで実際に行ったことをお話ししたい。
 最初に述べたように,私のWebページはあまり人気のないものであるが,その理由としては,blogを除いては私の専門に関する記事や論文ばかりで,一般受けしない内容である,ということがあげられる。逆にいえば,その専門分野に絞ってみれば,ランク5というそれなりの評価は得ている訳で,そうなるとそのなかで意外なものが支持されたりすることもある。それが,あるフリーソフトの使い方に関する,たった一ページの短い紹介記事であった。特に深い内容を書いた訳でもないし,他に類似のページがないわけでもない。しかし,私のWebサイト内では常にアクセス数の上位に位置している。なぜここにアクセスが多いのかな,とGoogleでそのフリーソフトの略称で検索してみたら,驚くなかれ,第一ページのトップに私の記事が表示されていたのである。確かに,Google経由で検索されたキーワードにはこの略称が多かったのだ。
 そこで,数年ほったらかしていたこのページのテコ入れを図ることにした。目次をつけ,使い方のサンプルも増やし,古かった情報を最新のものに入れ替えた。そうすると,早速効果が表われた。まあランクアップという程ではないが,昨年比で1.5倍のアクセス数になったのである。おかげで,現状で支持されている内容は大事にメンテナンスすべきである,という教訓を得たのは収穫であった。これだけ即効的に効果が出たのも,定期的に巡回してくるWebロボットのおかげであろう。
 現在のWebの世界は,良くも悪くもプログラムによって高度に自動化されたサーチエンジンがなくては存在し得ないものとなっている。しかし,その背後には,その仕組みを支持する人間がいて,サーチエンジンを殺すも生かすも,最終決定権はあくまで人間の側にある。コンピュータ技術というと,どうしても非人間的なものと捉えられがちだが,内容を知れば,そこには人間の意思が見えてくるはずである。私にはどうにも近年のGoogleのようなサーチエンジンは,近年絶滅してしまった近所のお節介おばさんのように思えて仕方がない。先に述べた,フリーソフト紹介ページのテコ入れ策も,「ほらほらみんな期待しているんだから,さっさとテコ入れしなさいよ」とケツを叩かれてやらされたような気がしてならないのだ。
 小うるさいが,恐ろしく物知りのインターネット界のご近所さん,としてサーチエンジンを付き合っていくのはそんなに悪いことではない,と私は考えている。