このコーナーでは、企業でWebサイトの運営に携わっている方、マーケティング部門等でWebの活用法について考えておられる方向けに、Webマーケティングの実践のための手法やノウハウ、事例をご紹介していきます。市場に出回る書籍や雑誌では論じられることない、Webマーケティングの最前線に触れていただければと思います。
2006年02月21日
SEOからユーザーエクスペリエンスの最適化へ
マーケティングユニット 棚橋
見込み客の獲得あるいは自社商品、サービスの市場浸透という目的でみた場合、Webサイトのアクセス数は最終的な成果指標につながる1つのパフォーマンスドライバーと見ることが可能です。そのため、ユーザーのサイトへの集客はこれまでもWebマーケティングの目的の一部をなし、それを実現するさまざまな手法が実行されてきました。
■Webマーケティング手法の変遷
ユーザー集客の手法の変遷としては、初期のバナー広告やメール広告を中心とした時代から、SEOやリスティング広告(アドワーズ、オーバチュア etc.)に重心を移した最近の手法へという流れをみることができます。
この流れは、ユーザーのインターネット利用がYahoo!に代表されるポータルサイトやメールマガジンに集中していた時代から、Googleをはじめとする精度の高い検索エンジンによって、より多くのWebサイトが参照されるようになった時代の変化とぴったり重なるものでしょう。また、その背景には、インターネット上に存在するサイト数が年々増えたことや、メールに関してもスパムメールやメールマガジンなども含めて一人ひとりが受け取る件数が以前に比べて増えたことの影響をみることが可能なはずです。
こうした流れの延長にあるのが、前回のエントリー「Blog、RSSの普及でWebサイトのアクセス数はどう変わる?」でもみたような、BlogやRSS/Atom Feed、ソーシャルブックマークやSNS(ソーシャルネットワークサービス)などのWeb2.0的サービスの台頭によるユーザーのインターネット利用の変化です。
この変化はユーザーごと、対象となる企業サイトごとに時間的に段階を踏むため、前回、グラフとして示したような変化を実際の計測により事前に可視化することはできないでしょう。また、何より実際の数値は単に受動的に決まるのではなく、サイトオーナー側の努力次第で能動的に変化させることが可能なものです。
とはいえ、多くの変化がそうであるようにそれが起こったあとでなら計測は可能になり、変化を数値によって可視化することも可能になります。ただ、問題はそれを待つだけではあまりにリスクが高すぎるということです。事実をとらえることは重要ですが、ビジネスにおいてはすべてが計測可能な事実であるとは限りません。私たちは限られた事実から思考実験により仮説を立て、何のために何を行うのかを定義した上で実行による仮説検証を行うことで変化を身をもって経験することが重要なのでしょう。
さて、話を戻しましょう。
Web2.0という時代を迎えて、ユーザーが情報の一方的な受け手から情報の発信者にもなりはじめている点はすでに当Blogで何度か指摘してきました。ユーザーはもはや検索エンジン経由で情報を受け取るだけでなく、自ら積極的に情報を発信するようになります。
そこで新たに利用されるようになったインターネットサービスがBlogやSNSであり、この2つに関しては皆様ご承知のとおり、すでに市民権を得ています。また、RSS/Atom FeedもBlog利用者が増えるのにあわせて一般にも普及してきています。さすがにソーシャルブックマークやBlog検索などのWeb2.0的サービスはまだ一般に普及したといえるまでの段階には至ってはいないものの、増え続けるコンテンツ量に対応するためには、GoogleやYahoo!とは異なる形でユーザーの利用コンテクストと情報のコンテクストをマッチングさせるため、こうしたサービスはより必要とされてくるでしょう。
これまでのWebマーケティング手法の変遷をみれば、主要な集客手段がユーザーが好んで利用するインターネットサービスにあわせたものに移り変わっていくだろうことは容易に想像できます。また、積極的にそうしたものを視野に入れながら、Webマーケティングを展開していく企業がより多くのユーザーとの関係性を構築することが可能なのでしょう。
それでは、こうした視点に立ち、現在の主流となっているSEO/SEMを見直し、さらにWeb2.0時代の3S - Search(検索)、Subscribe(継続購読、予約購読)、Share(共有) - をユーザーエクスペリエンスの視点で最適化するには、何が必要になるかを考えてみることにしましょう。
■Web2.0時代のSEO
先日、BMWおよびリコーのドイツ語サイトをGoogleがブラックリストに入れたというニュースが話題になりました。
「(不正なリダイレクトを使って、ユーザーを1つのサイトに集中させる)シャドードメインを所有している」、「実際の検索結果と、検索結果に表示される広告との区別を明確にしていない」などは、Googleのページにはっきりと「悪質なSEO」であると謳われているものです。
こうした悪質なSEOは、ユーザーが「必要な情報を探す」という検索エンジンの機能を低下させます。大量のスパムメールがメールを以前のようなインターネットのキラーコンテンツから程遠いものにしてしまったように、検索エンジンスパムは、ユーザーの情報検索を妨げ、Googleなどの検索エンジンに対するユーザー評価を下落させかねないものです。こうしたスパムをGoogleが厳しく取り締まろうとするのは以上のような点から当然のことだといえます。
ペイジとブリンは一緒にリンクについてのランキングシステムを作り、重要なサイトからわたってくるリンクに対しては高くランクづけをし、そうでないリンクにはペナルティを科した。(中略)ペイジとブリンのプロジェクトが飛躍的に進展したのは、ひとつのアルゴリズムを作ったことによる。そのアルゴリズムはペイジの名をとって「ページランク」と呼ばれたが、特定のサイトに入るリンクの数と、リンクしたサイトのそれぞれに入るリンクの数の、その両方を考慮に入れる。これは学術論文の引用の度数計算の方法を手本にしており、予想通りに機能した。
ジョン・バッテル『ザ・サーチ グーグルが世界を変えた』(日経BP社)より
上記の引用は、SEOでよく言われるリンクポピュラリティについて説明した文章のようにも取れますが、実際にはGoogleのアルゴリズムがどういう発想から生み出されたものかを示したものととらえたほうがよいでしょう。つまり、Googleの「ページランク」は引用と注釈という審査システムに基づく学術論文出版のコンセプトを手がかりとしているという点です。
研究者は各種の引用を注意深く組み立てて、それに基づいて研究論文をまとめる。その際、研究の論点を補強する証拠として、先に出版された論文を引用して結論を導き出す。
同上
ある論文は「先行研究を引用することにより」その先行する論文の「ランキングとオーソリティを自分の論文に付与」できます。数多く引用された論文はさらにランキングとオーソリティを高めることになります。また、「引用に記述的な覚書を付け加えること」を学術の分野では注釈と呼びます。注釈は引用した論文に対する判断です。
Googleはこのような学術論文の引用と注釈の審査システムのコンセプトを手がかりに「ページランク」というアルゴリズムを組み立てています。しかし、よく言われるSEOのリンクポピュラリティとテキストマッチという概念はこれを単純化しすぎているとともに、両者をあたかも別々に働くアルゴリズムであるかのように扱っています。実際には、学術論文の引用と注釈が一体であると同じくリンクポピュラリティとテキストマッチは一体となって働くアルゴリムであるはずです。
さて、では、何故、いまさらこうしたリンクポピュラリティの話を持ち出すことがSEOの見直しにつながるのでしょうか?
それはWeb2.0時代を向かえ、リンクをする人が大量に増えたからです。
■Search、Subscribe、Shareの最適化
Blog、SNSはまさしく引用~注釈のメディアです。もちろん、個人の日記だったりもしますが、話題のニュースやお気に入りの本や映画、音楽について紹介し、その一次情報が掲載されたサイトへリンクされることが非常に多いメディアです。また、ソーシャルブックマークやオンライン型のRSSリーダーも同じように多くのバックリンクを生み出します。これらに共通しているのはリンクをするのが個々のユーザーであるということです。
個人のBlogなどページランクが低く、気にしなくてもいいと思っているなら大きな誤解です。1つ1つはページランクが低くてもその数は膨大です。また、ソーシャルブックマークやSNSにその批判はあてはまりません。はてなのページランクは7、mixiは6です。Bloglinesにいたっては9です(いずれもトップページの2006/02/20時点のページランク)。
※mixiに関しては、会員制でクローズであり、検索ロボットがクロールできないのではというコメントでのご指摘をいただきました。確かにその通りですので、取り消し線を入れさせていただきました。
繰り返しますが、BlogやSNSにリンクをはるのも、ソーシャルブックマークやオンライン型RSSリーダーにリンクを登録するのもユーザーです。ユーザーにスパムは利きません。ユーザーに利くのはより高いレベルのユーザーエクスペリエンスです。
前回も書きましたが、Web2.0時代を迎えてもSEOが有効であることには変わりありません。しかし、こうした環境の変化を視野にいれれば、SEOを実行する際の重点が以前とはまったく変わってしまうことが理解できるのではないでしょうか?
これまでのようなやり方でリンクポピュラリティを増やすことも、ページ内に不要なキーワードを増やすことも、より強力なリンク製造者であるユーザーを不快にさせることはあっても、ユーザーエクスペリエンスを高めることにはつながらないからです。
では、今後はどのようにSEOを行えばよいのでしょう?
それには、Searchというユーザーのインターネット利用の1側面だけを捉えて、その部分だけ最適化しようとするのではなく、ユーザーの3Sの他の2つの要素に対しても同時に最適化を行うことを考えるべきなのでしょう。ユーザーエクスペリエンスの向上を一番の目的と捉え、ユーザーが必要とする情報を、ユーザーが求める形で届けられるようにすることです。
ユーザーが求める形というのは、RSS/Atom Feedで更新があった際に知らせてくれたり、オンライン型のRSSリーダーで共有できるようにすることも含みます。また、コンテンツの内容も、パンフレットをそのまま掲載したような商品情報ではなく、営業マンが口頭で説明してくれるような血の通った内容のほうが、ユーザーも親近感がもちやすいでしょう。
こうした積み重ねがRSS/Atom Feedやソーシャルブックマークの登録者を増やし、より多くの外部リンクを生み出すことでSEOに有利な状況をつくりだします。また、SubscribeやShareへの最適化そのものがWebサイト全体のアクセス数の向上につながることは、前回も書いたとおりです。
これからはGoogleにスパム扱いされる以上に、ユーザーにスパム扱いされることが何よりWebマーケティングにとっては痛手になる時代だといえるでしょう。
関連記事
コメント
いつも興味深く読んでいます。
基本的な質問で申し訳ありません。
はてブやmixiのような会員形式のサービスの被リンクは
クロールされないと思うのですが、されるのですか?
(ロボットがIDとPassを持っていないからクロール出来ないだろうし
Google等の検索結果でmixiやはてブは出てきた事が無いので)
Posted by: Katsukichi : 2006年02月22日 10:45
Katsukichi様、コメントありがとうございます。
mixiに関してはおっしゃるとおりですね。
その他のSNSも基本的に外部に対して非公開なので、
検索ロボットもクロールできないと思います。
勘違いでいっしょに含めてしまいました。
修正コメントを入れさせていただきました。
しかし、はてなブックマーク&RSSに関しては
ユーザーが非公開にしていない限りは、ロボットのクロールが可能です。
試しに、「はてなブックマーク + (任意のはてなID)」で
Google検索してみてください。
検索結果に表示されるはずです。
こうしたユーザーによる評価としてのブックマークやRSS登録が、
Googleのページランクのアルゴリズムに利用されることになるので、
検索エンジンの評価もより民主的になるのではないかと思っています。
Posted by: ミツエーリンクス : 2006年02月22日 17:37