検索エンジン最適化(けんさくエンジンさいてきか、英: Search Engine Optimization, SEO、サーチ・エンジン・オプティマイゼーション)とは、検索エンジンのオーガニックな検索結果において特定のウェブサイトが上位に表示されるようウェブサイトの構成などを調整すること。また、その手法の総称。

SEO対策 全国,seo対策 全国対応,SEO 全国,seo 全国対応,SEO会社 全国対応,seo会社 全国,SEO,seo,SEO対策,seo対策,SEO会社,seo会社,SEO 東京,seo 東京,SEO対策 東京,seo対策 東京,SEO会社 東京,seo会社 東京,ism株式会社,格安SEO,格安seo,格安SEO対策,格安seo対策,格安SEO会社,格安seo会社,ism株式会社 SEO,ism株式会社 seo,ism株式会社 SEO,ism株式会社 seo,格安,最安値,東京,全国,全国対応

サーチエンジン最適化ないし検索エンジン対策とも呼ばれ、ウェブポジショニングと同義である。サーチエンジンマーケティングとあわせて用いられることも多い。英語表記のSEOから「セオ」とも呼ばれる。

順位決定には独自の計算式(アルゴリズム)が用いられるが、アルゴリズムは公開されていない場合も多く、特定の検索エンジンの特徴や基準を調査する専門家も存在する。

Googleは、例えば米国で1日あたり平均およそ2億4000万の検索結果を返しており、検索エンジン最適化を行うことは重要なマーケティングの一つである。また、ウェブ利用者の多くは「検索結果の上位に表示される企業はメジャーブランドである」と考える傾向にあることが明らかとなっている。

ウェブサイトを完全にインデックスさせるもっとも簡単で効果的な方法はサイトマップを提供することとされるが、これは検索結果には直接影響しない。

検索エンジン最適化は、1990年代半ば、最初期の検索エンジンが初期のウェブを登録した時に始まった。検索エンジンの登場によって自分のサイトへのアクセスが増加したため、多くのウェブページ所有者はすぐに検索エンジンの価値を評価するようになった。

サイト所有者の多くは、検索エンジン所定の方式にのっとり、自身のサイトのURLを検索エンジンのデータベースへ送信し、ウェブを探索するソフトウェア(クローラ)に親和性の高いウェブページを目指すため、自身のサイトを変更し始めた。そしてまもなく検索エンジン最適化を行う会社も立ち上げられ、検索エンジンの内部論理アルゴリズムの分析・探究が促進された。

この産業が発展すると、YahooやGoogleなどの検索エンジン運営会社は良心的でないSEO企業がどんな手を使ってでも顧客のためにアクセス数を増やそうとするのを用心するようになった。

YahooやGoogleなどの検索エンジン運営会社は次々と対策をとって、不適切な検索エンジン最適化に分類されるテクニックによる操作を除去するように企図した。それに対し、いくつかのSEO会社は、さらに巧妙なテクニックを使って順位に影響を与えようとした。

Googleは特にスパム行為に厳しく、ドイツのBMWとリコーのウェブサイトがJavaScriptによるリダイレクトを行なった時にそれをスパム行為と判断し、検索対象から削除した事がある。日本でもサイバーエージェント系列のウェブサイトが、スタイルシートによって大量の隠し相互リンクをページ内に埋め込んだ行為をスパム行為と判断されて、検索対象から削除された。現在は、いずれのウェブサイトも対処を行い、再び検索対象となっている。

このように、検索結果から排除されることを、村八分になぞらえて検索エンジン八分、特に代表的な検索エンジンであるGoogleを代名詞としてグーグル八分と呼ぶ。

検索エンジン最適化には、適切なキーワードをタイトルやページ先頭に持ってくる手法や、検索エンジンスパムを使う手法まで、多様な手法が用いられる。検索エンジンスパムを利用したことが発覚すると、検索エンジンのインデックスから削除されるなどのペナルティが課せられることがある。特定のドメイン・IPアドレスを検索対象から除外するペナルティもあり、ドメイン・IPアドレスの再取得といったコストがかかってしまうことがある。

Googleのアルゴリズムには新しい情報を優遇するというルールがあり、このアルゴリズムのことをQDF(Query Deserves Freshness)という。ただし、これは”新着情報”を優遇するものであり、時事的でない情報を優遇するものではない。

2013年のインドのウェブマスター向け公式ブログや2014年のSMX Advancedにおいて、Googleは検索順位を決定するために200以上のアルゴリズムを利用していることを明言している。Googleはアルゴリズムを非公開としているが、世界中の専門家が議論を重ねたうえで独自に作成したアルゴリズムのリストが存在し各国で翻訳されている。これらのリストはGoogleが取得した特許や内部リーク情報などから作成されており、100%信頼できるものではないが、検索エンジン最適化を行う目安となっている。なお、アメリカ民間企業が実施した2014年度版の検索順位決定要因に関する調査では、特定のキーワードの影響力が減少する一方で、コンテンツの関連性や専門性などを重視する傾向が見られた。

検索エンジン最適化は、大きくホワイトハットSEOとブラックハットSEOに分類される。ホワイトハットSEOはユーザーに重点を置いた最適化で、ブラックハットSEOは検索エンジンを騙して不正に順位を上げようとする最適化である。検索エンジンのシステムの裏をかくような最適化を行っているウェブサイトは不適切とみなされ、検索結果から除外されることがある。なお、Googleは、自社が公開しているウェブマスター向けガイドライン(後述)に準拠している最適化の手法をホワイトハットSEO、そうでない手法をブラックハットSEOと定義している。

ホワイトハットSEO

検索エンジン最適化の手法のうち、ユーザーに重点を置いてサイトを改善する検索エンジン最適化のことをホワイトハットSEOと呼ぶ。この最適化の多くは、コンテンツを構造化して意味づけをする、検索エンジンが利用できるメタデータを提供する、等、SEOという手段が認知される以前から推奨されている手段を活用したものである。

目的キーワードの分析

検索エンジン最適化の出発点は、対象としたいウェブ利用者がどういったキーワードで必要とする情報を探しているかを理解することである。例えば、製品やサービスを比較しながら探す場合、検索ボックスには製品の固有名詞ではなく一般名称が、特定製品の機能名ではなく一般的な機能名が打ち込まれる傾向にある。

キーワードに沿ったページの構成

Googleは、ユーザーがサイトを検索するときに入力する可能性の高いキーワードをサイト内に含めることを推奨している。

あるページが、あるキーワードにどの程度関連しているかは、検索エンジン・スパイダーのアルゴリズムに基づいて決定される。検索エンジンは、ウェブサイトが閲覧されるときに閲覧者が読もうとするテキストを内容に基づいて整理し、そのページは何を記しているページで、あるキーワードに対する関連性がどの程度かを判断する。

リンクの作成

多くの検索エンジンは、ページの価値を判断する基準に、そのページにどれだけの被リンクがあるかという基準を採用している。したがって、ウェブ上の他の関係あるサイトに自分のコンテンツについて通知し、リンクを求めたり、自己が運営する既存のサイトから適切なリンクをはったりすることが対策として行われる。ユーザーに役立つページを作成することで、閲覧したユーザーからのリンクを得るという対策が行われることもある。

また、スパイダーはコンテンツのハイパーリンクを辿って巡回を行うので、検索エンジンに登録してもらいたい場合、そのページへのリンクを作成しておくことが必要になる。「サイトマップ」を作成することはその手法の一つで、推奨されていることでもある。サイトマップは、トップページやサイト上のすべてのページからリンクされているのが好ましい。このようなページがあると、ひとたびスパイダーがサイトを見つけた時に、そのサイト全体が索引化される確率が高まる。

HTMLによる最適化

検索エンジンは、HTMLのtitle、meta、strong、hnの各要素などを重視すると考えられているため、重要なキーワードをこのタグで囲って、重要であることを示すこともされる。例えば、見出しとして強調したい語句を font 要素などで赤く大きな文字で表示するようにマークアップすると、それは単に「赤くて大きな文字」というようにしか解釈されないが、h1 要素(とスタイルシートによる装飾)を使えば、検索エンジンにとっても、それが見出しであると解釈され、検索にヒットしやすくなるという具合である。これは、基礎的なセマンティック・ウェブと言うことも出来る。

Google

ユーザーが検索フィールドに入力する単語数の平均は3.1単語であり、Googleはこれらの入力をもとに、数千、場合によっては何百万ものページを検索結果として返す。Googleには、3つの単語をもとにして最良の検索結果を提供する高度な方法が用意されている。これらの結果のうち、10件のみが検索結果の最初のページに表示される。また、Googleはウェブページをクロールするために膨大な数のコンピュータを使用しており、これを行うプログラムはGooglebotと呼ばれる。

WebmasterWorldのフォーラムアドミニストレータによれば、被リンクは主にこれらの8つの要因によって評価される。

リンクしているサイトのトラスト
リンクしているサイトのオーソリティ
リンクが出現するページの場所
リンクの入れ替わり
リンクしているサイトの多様性
アンカーテキストの自然な多様性
キーワードが入ったリンクの自然な増加率
リンクの数

ウェブマスター向けガイドライン

Googleは、ウェブマスター向けガイドラインと呼ばれる、ウェブページの登録やランク付けをスムーズに行わせるためのウェブページの作り方を示したガイドラインを公開している。このガイドラインでは、Googleがウェブページを検出・理解しやすくするために行うべきことや、検索エンジン最適化においてGoogleに認められない手法などが記されている。品質に関するガイドラインでは、基本方針として「ユーザーの利便性を第一に考える」ことが挙げられている。

常時SSL化の推進

Googleはウェブサイトの常時SSL化を推進しており、常時SSL化されているウェブサイトを(条件付きで)検索結果で待遇するとしている。また、HTTPSが用いられているページは優先的にGoogleのインデックスへ登録される。

Googleによると、常時SSL化されているウェブサイトのインデックスを待遇する条件は次のとおりである。

セキュアでない依存関係が含まれていない。
robots.txt によってクロールがブロックされていない。
セキュアでない HTTP ページに(または HTTP ページを経由して)ユーザーをリダイレクトしていない。
HTTP ページへの rel=”canonical” リンクが含まれていない。
noindex robots メタタグが含まれていない。
同一ホスト上の HTTP ページヘのリンクが含まれていない。
サイトマップに HTTPS URL が掲載されている(または URL の HTTP バージョンが掲載されていない)。
サーバーに有効な TLS 証明書がある。

GoogleはHTTPサイトを安全でないと明示する計画を実行しており、この一環として、Google ChromeではユーザーがHTTPサイトに機密情報を入力する際にユーザーに警告を出すようになっている。

モバイルファーストインデックス

モバイルファーストインデックス(MFI)とは、モバイル向けに提供されるウェブページを主な評価の対象とするGoogleのランキングシステムのこと。これまではコンピュータ向けのページを主な評価の対象としてきたが、これからは主にモバイル向けのページに基づいてランキングが決定されるようになる。これは、モバイルから検索するユーザーが増加したためである。