SEOまとめ
SEOって結構範囲広い。。
SEOよしなにやっといて、みたいなときとか、SEOは今より下げない感じで、みたいな大まかなフリをされたときとかでも対応できるように概念含めまとめておく
基本的にはSEOハックみたいな時代は終わって、コンテンツが正当に評価される時代になっている認識。だから、SEO上げるという文脈ではコンテンツの拡充が第一であり、技術的な領域でいうと、そのコンテンツをいかにクローラにわかりやすく記述するのかという戦いだと思っている。
あとはCoreWebVitals系か
SEOのSEはsearch engine
Bingが上がってんのはBing chatかな
- SEOに直接的に影響するもの
- Core Web Vitals
- セマンティックなHTML
- 構造化マークアップ
- 直接は影響しないが、見る人が増えるという意味で検索上位にくるもの
- コンテンツ内容の充実、UXの向上
- OGP
もうちょっと調査必要
どういう記述をしたら、どういう風に検索結果にでるのか。
正規ページの指定
- リダイレクト: リダイレクト先が正規ページになるべきことを強く示すシグナルです。
- rel="canonical" link アノテーション: 指定された URL が正規ページになるべきことを強く示すシグナルです。
- サイトマップに含める: サイトマップに含まれる URL が正規ページになることを示しますが、シグナルとしては弱いものです。
カノニカル
使用ケース
- 同じ内容だがURLが違うものがある場合で、削除/非表示はしたくないケース
2. http/https、wwwありなし、など複数アクセスURLがある場合
2. pc/spでURLが異なる(alternateと併用)
3. ソート機能、フィルタ機能がある
4. 計測用クエリなどがURLに含まれる
その他
- Google Search Consoleで確認できる
- クエリも有効そう
URL設計
- シンプルでわかりやすい語句
- ローカライズした語句
- 必要に応じて UTF-8 エンコード
- 国別のドメインを使用
- gTLD とともに国別のサブディレクトリを使用
- URL にはアンダースコア(_)ではなくハイフン(-)を使用することをおすすめします。
よくある問題
- 複合条件でのフィルタリング
- ドキュメントの動的な生成。カウンター、タイムスタンプ、広告など
- セッション ID は膨大な数の重複と URL を生成
- 並べ替えパラメータ
- 参照パラメータなど、URL に含まれる不必要なパラメータ
- カレンダーの問題
- 破損した相対リンク
対処法
- シンプルな URL 構造を作成する。論理的かつ人間が理解できる方法で URL を構成できるよう、コンテンツを分類
- robots.txt ファイルを使用して、問題のある URL への Googlebot のアクセスをブロックできます。一般的には、検索結果を生成する URL などの動的 URL や、カレンダーなど無限のスペースを生成する可能性のある URL へのアクセスをブロックします。robots.txt ファイルで正規表現を使用すると、多くの URL を簡単にブロックできます。
- 可能な限り、URL でセッション ID は使用せず、代わりに Cookie を使用します。
- ウェブサーバーで URL の大文字と小文字が同じように扱われる場合、すべてをどちらかに変換すると、URL が同じページを参照していることを Google が判別しやすくなります。
- 可能な限り、不必要なパラメータを削除して URL を短くします。
- サイトに期間制限のないカレンダーがある場合、動的に作成される未来のカレンダー ページへのリンクに nofollow 属性を追加します。
- サイトに壊れた相対リンクがないかどうか確認します。
ちょっとMPA的というか古い感じもするが参考までに
これは結構参考になりそう
同じパラメータを 2 回使用しないようにします。Googlebot はどちらかの値を無視する可能性があります。
推奨: ?type=candy,sweet
非推奨: ?type=candy&type=sweet
え、あれ、そうだっけか…クエリパラメタに配列的な要素を入れる時毎回迷う気がする…なんかURLパースするライブラリとかに頼ってた気がするな…
これだとやっぱ?type=candy&type=sweet
このパターンだが、これってGoogle非推奨なのね…
いろいろ派閥が…googleさんが言うなら?type=candy,sweet
に改宗しようかな
動的URL・静的URLのSEO差は無い
the decision to use database-driven websites does not imply a significant disadvantage in terms of indexing and ranking.
昔は動的URLをクロールできないみたいなのもあったが、今はない
メタタグ
noindex,nofollow
nofollow はHTMLのrel属性値の一つで、特定のリンクが検索エンジンによってフォロー(追跡)されないようにする際に使用されます。
この属性があると、検索エンジンはそのリンク先のページに「リンクジュース(PageRankなどのランキング信用)」を渡さなくなります。
< meta name=”robots” content=”noindex, nofollow” >
・このページ自体をインデックス(検索結果)に追加しない(noindex)
・このページにあるすべてのリンクをフォローしない(nofollow)
google 内部文書流出
インデックス
検索結果とか動的URLはどうやってインデックスされるのか
ー>たぶん直接的なリンクがないとインデックスできない
- 直リンを作る
- サイトマップをSearchConsoleに登録
- インデックス登録リクエスト
動的URLはGoogleが適切に認識できないとされていた時期もありますが、今はインデックスが可能です。ただし、動的URLのインデックスは、SEOがプラスとマイナスの双方に働く可能性がある点に注意が必要です。
URLが異なるのにコンテンツがほぼ同じページは注意
- ソート系クエリ
- セッションID系
- 日付いれる系
対策
- インデックスさせない
robots.txt
- noindex/nofollow
- ボットに見えるURLを整理
- 静的URL化ー>SEO的に有利になるわけではない
- cookie:セッションとかはCookieにいれる
- canonical
GPT
- noindexタグの活用:
• 検索結果ページには<meta name="robots" content="noindex">
タグを使用し、インデックスされないようにするのが一般的です。
理由
- 重複コンテンツのリスク:
• 複数の検索条件によって、同じ内容のページが複数作成されると、重複コンテンツとみなされ、SEOに悪影響を及ぼす可能性があります。- クローラーバジェットの浪費:
• Googlebotが重要でない検索結果ページを多数クロールすることで、より重要なページのクロールが遅れる可能性があります。- 質の低いページとみなされるリスク:
• 検索結果ページは質の低いページとみなされやすく、サイト全体の評価を下げるリスクがあります。
たぶんいちばんありえるのは
- 内部リンク構造の最適化:
• 特定の重要な検索結果ページのみインデックスさせ、他の多くの検索結果ページはインデックスさせないよう、内部リンク構造を最適化する方法もあります。
ファセットナビゲーション
SPファースト
フルリニューアル等にあたっては、リダイレクト&サイトマップの更新は重要
正しくリダイレクトしたとしても、URLが変わった場合は1ヶ月くらいは評価が下がることが多い
検索結果への反映にかかる時間
変更した結果が Google 側に反映されるまでにはある程度の時間がかかります。数時間かかる変更もあれば、数か月かかる変更もあります。一般的には、数週間待ってから Google 検索の検索結果に良い影響があったかどうか確認することをおすすめします。