検索スパマーと低品質コンテンツが氾濫する理由

SEO Bookから久々にアーロン・ウォール自らが執筆した記事。最近のGoogleとSEO、コンテンツに関係に関する彼ならではの1考察を。 — SEO Japan

SEO by the Seaを運営する友人のビルが、あるグーグルの特許(日本語)を発掘した。この特許を読んだ後、その内容に驚く人もいれば、疑いが確信に変わる人もいるだろう。

この特許は「ランキングのドキュメント」と呼ばれている。ウェブマスターがページ、もしくはページへ向かうリンクを変更すると、このシステムはこの変更にすぐに反応する可能性があるようだ。より正確に表現すると、このシステムは予想外の方法でランキングを変更することがある。

文書の1つ目のランクおよび2つ目の文書を決定するシステム。この2つ目の文書は1つ目の文書とは異なる。また、このシステムは、1つ目のランクから2つ目のランクに移行する際に発生する移行期間中、文書に関連するランキング要素が変わらない状態で、時間の経過とともに移行ランクを変えるランク移行機能に応じて、文書に関連する移行ランクを変えるものとする。

さらに:

オールドランクからターゲットランクへの移行期間中、移行ランクは次のレスポンスをもたらすと推測される:

  • タイムベースの遅れたレスポンス
  • ネガティブなレスポンス
  • ランダムなレスポンス
  • 想定外のレスポンス

つまり、グーグルはターゲットのランクを決める前に、ランダムと思える方法で、サイトのランキングを変える可能性があるのだ。

例えば、サイトにリンクを構築しており、サイトのランキングが上昇していると仮定する。すると、リンク構築がポジティブな影響を与えていると考えるはずだ。しかし、この特許のコードが有効になっている場合、サイトにはフラグが建てられている可能性があるため、事情は変わってくる。

その後、グーグルはターゲットのランクまで格下げするまで、サイトを弄ぶ。すると、原因および影響を特定すのが難しくなる。

この特許が存在するからと言って、グーグルが実際にこのテクノロジーを利用しているとは限らない。FUD(不安、懸念、不信)対策の一環なのかもしれないが、とりわけこのような動きを実際に目にしているなら説得力はあり、その場合は、肝に銘じておいた方が良いのかもしれない。

ブラックボックスとしての検索エンジン

大昔(1990年代)は、検索エンジンが浅はかなブラックボックスであった。そのため、SEOは繁栄した。キーワードを加え、リンクを数本加えていけば、ブラックボックスは割と予想しやすい、既定的なパターンで反応する。ブラックボックスが何を“見たい”かを見極めれば、ランキングは上がり、ブラックボックスが見たいものを過剰に提供すると、逆に急降下する。

今となっては実に懐かしい時代である。

最近のブラックボックスは知的である。明らかに複雑化している。しかし、ウェブマスターと検索エンジンがビジターの注目を巡って争う構図は変わっていない。

グーグルがSEOに親切だと勘違いしている人はいるのだろうか?いるとしてもごく僅かであるはずだ。かつてグーグルは – 若干説得力に欠ける – 境界線を引いていた。曖昧なガイドラインに従っていれば(つまり、適切な取り組みを行っているなら)、見返りを与えると指摘していたのだ。グーグルとウェブマスターが同じチームに入り、悪意のあるスパマーを敵対視する構図である。

現在、グーグルは味方のふりをすることに飽き、戦線は非公式に引き直されていった。リンクを改善する試みと考慮される取り組みを一つでも行ったら、“スパマー”扱いされる。境界線を確認しなければ分からない状態であっとしても、この点は昔から変わっていないとグーグルは主張するだろう。

説得力に欠けるだろうか?

特許には次のように明記されている:

このシステムおよびメソッドは、ランキングの変更に対するスパマーのリアクションを観察し、活発に操作されている文書を特定すると考えられる。これはランクを変更するスパマーを特定する上で効果が期待できる。

「操作されている」、「ランクを変更するスパマー」とはどういうことだろうか?つまり、スパマーとは、ランクを変えようと試みる人を意味するのだろうか?

ランクの改善を望まないウェブマスターに私は一度もお目にかかったことがない。

グーグルは競争相手

グーグルのビジネスモデルは、広告をクリックしてもらう行為に依存している。最初のIPOの申請時において、グーグルはランクの操作をビジネスのリスクと特定している。

グーグルは、ウェブ検索結果に害を与える可能性があるインデックススパマーの影響を受けやすい。「インデックススパマー」によるグーグルのウェブ検索結果を操作する手段を考案する取り組みが進行しており、増加の一途を辿っている。

ユーザーに再びグーグルを使ってもらうためには、一連の結果がクエリに関連している必要があるため、この取り組みは事業にとってリスクと判断されている。文章化されているわけではないが、グーグルはウェブマスターに資金を投じて広告を掲載させたいのであり、“無料”で掲載させることも、検索広告予算をSEO業者に渡すことも望んでいないのだ。

グーグルがわざわざ競合者を優遇するわけがない。

その一方で、ウェブマスターは無料でコンテンツを提供しており、そもそも、グーグルがビジターを集める上で、このコンテンツがなければ成り立たないと反論する人もいる。しかし、関連するコンテンツは無数に存在するため、この主張を展開するのは無理がある。そもそも、グーグルにコンテンツを掲載したくないなら、グーグルをブロックすることが出来るのだ。それでもグーグルにとっては痛くも痒くもない。

しかし、検索エンジンを考慮して質の高いコンテンツを作成するインセンティブが大幅に減ってしまった点は否めない。コンテンツがコピーされ、盗まれ、そして、格下げされ、検索エンジンのユーザーを惑わして、広告をクリックさせるだけなら、質の高いコンテンツを作るための資金はどこから手に入れればいいのだろうか?グーグルは関連するコンテンツを見つけることが出来るのかもしれないが、“関連する”(トピックが同じ)と“質の高い”(読む価値がある)はイコールの関係で結ばれているわけではない。

このような環境で功を奏するコンテンツモデルがあるとすれば、それは安価に作ることが出来るコンテンツである。安価なコンテンツでも質は高いかもしれないが、コンテンツも例外に漏れず、質が高いと値段も高くつく傾向が見られる。また、注目を集めるための特売品のようなコンテンツを作る手もあるが、相当信頼されているわけではないなら – そして、信頼を得るにもお金がかかる – 本当に優れたコンテンツはやはり視界に入らないのが現状である。

これは新聞各社の主張と同じ主張である。製作費を賄い、利益を上げるだけの広告資金がスポンサーから出てこない – そのため、利益が出るまで製作費を落としていかなければ戦えなくなる。そして、この戦いで犠牲になるのが質である。

テッククランチ & ガーディアンでコラムニストを務めていたポール・カー氏が立ち上げたNFSW Corpは、過激な方針を採用している。全てのコンテンツを有料制に指定したのだ。無料のコンテンツも、注目を集めるための目玉のコンテンツもない。ログイン画面が表示されるだけである。

これがウェブパブリッシングの未来なのだろうか?そうなると、価値の高いコンテンツはグーグルには掲載されなくなる。そして、グーグルが網羅できない良質なコンテンツが増え続けると、グーグルにアクセスする人自体も減っていくのだろうか?

妥協点

グーグルはユーザーを重要視していると主張している。グーグルは検索結果の質を判断する実験を行っている。ユーザーに質を判断させているのだ

「その仕組みを説明する。グーグルのエンジニア達が見解や手法を考案し、検索ランキングアルゴリズムに変更を加える。エンジニア達は検索結果が改善されることを望むが、この時点では単なる仮説に過ぎない。それでは、どのように善し悪しを判断するのだろうか?まず、グーグルは世界中に変更を試す実際のユーザーの集団を抱えており、変更前の結果と照らし合わせて比較させている。これはブラインドテストであり、どちらが変更後の結果なのかは伏せてある。ユーザーは結果を評価し、この評価から変更前から改善されているかどうかを大体把握することが出来る。改善されていないようなら、再び最初からやり直す。しかし、有望なら、ステップアップしてユーザビリティラボに移し – 直に試してもらい、詳細なフィードバックを得るプロセスに移る。あるいは、実際のグーグルのユーザーのごく一部に対して展開して、変更がプラスに働くかどうかを確かめることも可能である。すべてポジティブな結果が出た時点で、ようやくすべてのユーザーに向けて変更を展開してく。」

顧客に焦点を絞ると言う姿勢は立派だが、パブリッシャーのニーズを考慮しないメトリクスを真に受けていいのだろうか。ウェブでのパブリッシングに経済的な価値が見込めないなら、いずれSERPは全体として質の面で落ち、ユーザーは別の場所に向かうようになるだろう。

この現象が既に起きていることを示す証拠がある。Webmasterworldでブレットと名乗る人物が、ユーザーの間でグーグルを完全にスキップして、直接アマゾンやその他のサイトに向かう傾向がみられる点を指摘している。アマゾンのクエリは前年73%増加していた。

グーグルには大勢の優秀な人材が揃っているのだろうが、ウェブマスター達が情報の質に関して競いたくなるようなモデルを考案するまでには至っていない。

最高の質のコンテンツが有料制により隠されてしまうのを防ぎたいなら、グーグルは関連するコンテンツだけではなく、質の高いコンテンツの作成を助成し、奨励する手段を考える必要がある。そのためには、上位に格付けしたくなるようなコンテンツの条件、そして、条件を満たす方法をパブリッシャーに明確に伝えるべきである。広告との競争が少なくなれば、パブリッシャーは資金面で余裕が出るはずである – グーグルにとってもパブリッシャーにとっても決して悪い話ではない。

私自身は、このパブリッシャー天国の登場をかたずを飲みながら待つつもりはないが、グーグルの現在のコンテンツモデルでは、「まあまあ」なコンテンツを作ればそれで合格印を貰えるのではないかと思っている。


この記事は、SEO Bookに掲載された「Rank Modifying Spammers」を翻訳した内容です。

一般認識としては、パンダアップデートで質の低いコンテンツが駆逐されつつある状況のはずですが、確かに質が高いコンテンツとは何か?という議論は残ります。「人気がある」、つまり「ユーザーに支持される」コンテンツが必ずしも「質が高い」わけでもないと思いますし、ネットでも記事の質以上に一時的に注目されることを狙ったタイトルや内容の記事がソーシャルブックマークやツイッターに溢れかえっています。時間をかけてじっくり書かれた記事より、人気ブログの運営者がその記事をざっくりまとめた自称キュレーション?記事の方が人気が出てしまう現状(元コンテンツをベースにしたPVベースの広告収入はキュレーター?に還元され、元記事は永遠に読まれないまま・・・)。

アカデミックな世界はもちろん、文学や映画、そしてテレビや音楽でも、人気と質を同質に見ることは稀だと思いますが、何故かネットの世界、特に検索エンジンのアルゴリズムにとっては、限りなく同一評価になっている不思議な現象があるようです。それによってネット上のコンテンツの質が全体的に低下していくのであれば、Googleも多少その責任を負っているといわれても否定しきれない面はあるかもしれません。

情報の質をどう判断するかという課題は、検索エンジンのアルゴリズム、というか全ての機械アルゴリズムにとって非常に難しいとは思いますが、さて今後どのようにネット上の情報の質を判断するアルゴリズムが検索エンジンしかり各種レコメンデーションエンジンしかり、どう進化していくのか気になります。 — SEO Japan [G+]

Page Top

投稿ナビゲーション