SEO(検索エンジン最適化)を理解する最初のステップは「検索エンジンを知ること」から始まる。
本記事では、検索エンジンの基本的な仕組みについて解説する。
検索エンジンには、「ディレクトリ型検索エンジン」と「ロボット型検索エンジン」の2種類が存在する。
ディレクトリ型検索エンジン
検索エンジンの運営会社が、人力で厳選したサイトのみを登録・分類することで構築したウェブディレクトリ内を検索する。
目視でコンテンツの良し悪しを判断するため、検索エンジンにインデックスされるコンテンツの質は高くなるものの、2008年の時点で世界のWebページ総数は1兆以上存在しており、これらを目視で判別することはもはや不可能である。
よって、現在は次の「ロボット型検索エンジン」が主流である。
ロボット型検索エンジン
ロボット型検索エンジンは、それまで人力で行っていたページの登録・分類をロボットにより自動的に行う検索エンジンである。
ディレクトリ型検索エンジンよりも遥かに効率的にページをインデックスすることが可能であるが、ページの良し悪し(=検索順位)を決める基準(アルゴリズム)を悪用されるケースが多々あり、日々アルゴリズムのアップデートとその克服のいたちごっこが続いている。
ロボット型検索エンジンの主な仕組みは以下の通りである。
クローリング
検索エンジンは、あらかじめインターネット上にあるWebページの情報を収集して分類しておき、その中からデータを探す仕組みになっている。
Webページを次々に巡回して情報を取得する機能のことを「クロール」といい、Google ではWebクローラと呼ばれるソフトウェアを使用して公開されているWebページを探す。
クローラはユーザーがWeb上でコンテンツを閲覧する時と同じように、Webページを見てページ上のリンクをたどり、リンクからリンクへ移動し、Webページに関するデータをGoogleのサーバーに蓄積する。
インデックス
クローラが特定のWebページを見つけると、ユーザーがインターネット検索を行った時と同様にWebページのコンテンツが表示される。
その中でキーワードやWebサイトの新しさといった主要なシグナルに注目し、「検索インデックス」にそのすべての情報を記録していく。
ランキングアルゴリズム
検索結果の順位を決める検索アルゴリズムには200を超える要素があると言われているが、特に「RankBrain(ユーザーが入力したキーワードとWebページの関連性を判断するAIベースの検索アルゴリズム)」はGoogleの検索アルゴリズムでも特に重要視されている。
RankBrainはユーザーが入力したキーワードからユーザーの意図を探って関連するWebページを探す役割を担っている。
つまるところ、高品質なコンテンツ=ユーザーにとって価値があるページ=ユーザーが求めている情報が掲載されているページであり、ユーザーの検索意図に対応するコンテンツの作成が求められている。
ランキングアルゴリズムはブラックボックスではあるが、どのようなページ・コンテンツが高品質あるいは低品質と評価されるかは、大まかに以下のように分類できる。
高品質なコンテンツの定義
検索意図との関連性 |
|
---|---|
専門性(独自性) |
|
権威性 |
|
信頼性 |
|
ユーザービリティ |
|
低品質なコンテンツの定義
有料リンク |
|
---|---|
クローキング |
|
ワードサラダ |
|
隠しリンク・テキスト |
|
コピーコンテンツ |
|