SEO技術を学ぶためには、検索エンジン業界大手のGoogleについて知ることが大事です。
では、なぜGoogleが覇者となっているのか?どういう仕組みの検索エンジンなのか?ということを学んでみましょう!
Googleの検索エンジン
インターネットの普及が拡大していき、Webサイトが増えたことでディレクトリ型検索エンジンは限界が見え始めていました。
一方で1990年代のロボット型検索エンジンは、スパムなどが横行して使いにくい状態でした。
そこで登場したGoogleは独自の検索エンジンを武器に躍進しました。
他の検索エンジンに比べて、圧倒的にユーザーが求めるWebページを上位表示できていたのです。
ページランク

ユーザーが求めるWebページを上位表示できた理由は、ページランクという技術を使っていたためです。
ページランクは各Webページに評価スコアを0~10の11段階で割り当てていました。
計算方式は被リンク元の数と質でした。
2013年まではページランクが一般公開されていましたが、2025年現在公開はされておらず、AIの発展などによりページランクの重要性も下がると予測する人もいます。

SEO対策で被リンク数が大事と言っている人はこの情報を信じている人ですね!
このページランク機能により、キーワードを羅列して盛り込んだだけのページは評価が低くなり、Googleの検索結果では上位表示されませんでした。
そこでGoogleはユーザーからの支持を集め、現在も検索エンジンの覇者として君臨しているのです。
クローラー
Googleはロボット型検索エンジンを採用しているため、クローラーでWebページの情報を収集しています。
クローラーは、Webページのリンクを辿ることでWebページを検出・スキャンしていると言われています。
クローラーが収集したデータは「リポジトリ」という場所に一時保管されます。
そこからインデックスデータベースでWebページ内容が検索しやすいよう分類され、検索サーバーに格納されます。
検索結果に表示されるのは、検索サーバーに格納されたWebページです。



ブロガーがたまに言う「インデックスに登録されない!」とは、クローラーが認識してリポジトリまでは行けたのに、その次に行けてないということなんですね。
インデックスデータベースの情報は、Googleが設計した200以上のアルゴリズム(検索エンジンロジック)によって解析されています。
検索キーワード毎にWebページがランク付けされていて、検索順に反映されます。
- コンテンツと検索キーワードの関連性
- コンテンツの独自性
- ドメインの評価
- Webサイトのトラフィック数
アップデート
Googleのアルゴリズムは正式公開されているわけではありません。
Googleのアルゴリズム情報は、SEO実践者の試行錯誤や、ページランクの特許情報などを元に推測された情報です。
しかし見破られたことがこれまで何度かあり、その度にGoogleはアルゴリズムをアップデートしています。
パンダアップデート


Webページの内容が悪くても、複数の良質な被リンク元を集めればページランクが上がることがバレました。
その結果、多数の被リンク元を集める = SEOという認識が広がり、事実として検索結果でもそうしたサイトが上位表示されていました。
そこで2011年にパンダアップデートと呼ばれるアルゴリズム変更が起こりました。
- 他サイトからコピペした文章(独自性の低いコンテンツ)のWebページや、そういったページが多いWebサイト自体の検索順位を下げる。
- 同じドメインのサイト内であっても、独自性の低いコンテンツの検索順位を下げる。



他人だけでなく、自社サイト内でも安易に文章を使いまわせなくなりました。
ペンギンアップデート


さらに翌2012年には、ペンギンアップデートと呼ばれるアルゴリズム変更が起こりました。
- Webページに過剰にキーワードを詰め込むとペナルティ
- 外部ドメインからのリンクを大量に増やすとペナルティ
検索エンジンで上位表示されることだけを考えてキーワードを詰め込むだけのWebページが増えました。
そのため、同じキーワードがむやみやたらと書かれただけでユーザーには意味がないページが上位表示される現象が発生。
その防止策として、過剰にキーワードを含めるとペナルティを喰らうようになりました。



例えば「野球」というキーワードを狙う場合、全ての文章を「野球経験者は~」「野球初心者は~」などから書き始める風潮が一時期流行りましたが、これがペナルティ対象になりました。
また、被リンク元の数が多ければページランクが上がっていましたが、リンクを集めただけのWebページは上位表示されなくなりました。



ユーザーが訪問した「アクセスを伴うリンク」を評価するようになりました。
コアアップデート
正式名称は「コアアルゴリズムアップデート」で、2018年8月に初めて実施されて以降、年3~4回ペースでアップデートが続いています。
このアップデートにより、2つの変化が起こっています。
- クエリとの関連性
-
クエリ(検索キーワード)との関連性が高いページが上位表示されるようになりました。
アップデート前までは、クエリの関連性が低くても他の要因で評価が高ければ検索順位が高くなる傾向がありました。逆にクエリとの関連性が高いページでも、他の要因が低ければ上位表示されませんでした。
クルエイチページランクの重要性が下がると予測している人たちの根拠の一つです。今後はページランクが低くても、クエリと関連性が高ければ上位表示されるかも?
- クエリと関連性のある情報が少なければ増やす
- クエリと直接関係しない情報を削除する
- ページの信頼性
-
コアアップデート以降、信頼性の低いページは掲載順位が下がるようになりました。
誤った情報が掲載されていても、他の要因が評価されていれば上位表示されていた事象を解消しています。Googleは信頼性を様々な点からチェックしています(Google公式発表「2019 年 8 月の Google コア アップデートについてサイト所有者が知っておくべきこと」より)。
簡潔に主だった内容をまとめましたが、記事はもちろん著者の信頼性も大事になっています。
- 著者がそのコンテンツを書くに値する知識や経験を有するか
- コンテンツ内容が事実か
- ページが属するサイト運営者が信頼できるか
クルエイチページランクだけでなく著者の信頼性も必要になっている!
不正リンクの取り締まり
ペンギンアップデート以降、特に不正リンクへの取り締まりが強化されています。
形だけのリンクを集めたサイトは、著しく検索順位が落ちました。
さらに不正リンクを外さない限り、検索順位は元の順位に戻らないという厳しい処置が取られています。
自動ペナルティ
Googleは「いくつかの基準に当てはまるリンク」を大量に集めたサイト・ページをソフトウェアで自動的に判定してペナルティを適用しています。
自動的なので、見分けがつかないギリギリのランクは存在せず、ペナルティ対象・非対象がハッキリしています。
手動ペナルティ
自動ペナルティの基準では判別できない不正リンクも存在します。
そこでGoogleは「サーチクオリティチーム」を作り、マンパワーで肉眼チェックする不正判定も行っています。
サーチクオリティチームは「Google General Guidelines」という品質ガイドライン1を基にして、自動アルゴリズムでは判定できない不正リンクにも対応しています。
また、スパムレポートフォームという、検索ユーザーが不審に思ったサイトを通報するツールも活用しています。



2020年公開のページだからか、「Twitterにてお知らせください」と書いてあります。Googleは最新情報を重視しているのに、自サイトは更新しないという…
まとめ
- Googleはページランクという技術で検索結果の上位表示ページを決めている
- Googleのクローラーはドメインパワーやコンテンツの独自性などいろいろな要素を見ている
- クローラーが集めた情報は、リポジトリ ⇒ インデックス ⇒ 検索サーバー、と渡っていく
- Googleはパンダアップデート、ペンギンアップデート、コアアップデートを実施した
- クエリ(検索キーワード)との関連性が高い記事が重要視されている
- 記事だけでなく著者やサイト自体の信頼性も評価に影響する
注釈・脚注など
- 不定期で更新されているので最新版を確認してください。 ↩︎
コメント・ご指摘などあればこちらへ!