https://www.google.com/webmasters/tools/home?hl=ja

↓2016/6時点

searchconsole

 

 

 

 

 

 

 

 

・大規模サイトではディレクトリを別々のサイトとして追加する。
・サーチコンソールのレスポンスコード = HTTPステータスコード
・サーチコンソールはデータを定期的にDLする。例えば検索アナリティクスは90日で削除される。

 

メッセージ

▼検索での見え方

・構造化データ

構造化データやる前に、今、未知の構造化データがないか確認する。

パンくず作るときは構造化データテストツールでパンくずリストを構造化してスニペットに階層表示する。

リッチスニペットやる

 

・リッチカード

 

・データハイライター

構造化をするのと同じ効果があるとされている!?
htmlをいじらなくても、検索のデザイン>データハイライター でサイトの記事をまとめて構造化したりして、Googleにデータの意味を伝わりやすくすることもできる。構造化データと同様の効果が得られる。
複数ページをタグ付けしていて全く違う構造のページの場合は「ページを削除」してOKみたい。リニューアルして構造が変わったり、htmlに構造化データを入れたときにはデータハイライターの構造化のほうを削除してOK。

事前に各ページに以下の情報があり、選択可能(テキストor画像)な状態か確認しておく。
URL
サイト名
電話番号
住所
営業時間
カテゴリ
画像

複数ページをまとめてできるが、最新の状態のサイトデータを読み込んでいなかったりかなり不安定で嫌になって各ページづつやった。(2016/6時点)

 

・HTMLの改善

 

・サイトリンク

サイトリンクされることを狙う。気に食わないページは必ず反映されるとは限らないが却下申請を出せる。

・Accelerated Mobile Pages

 

▼検索トラフィック

 

・検索アナリティクス

Google、Yahooともに検索が暗号化され、検索データは取得できなくなったから現在事実上これしか情報源ない。2016/6

・サイトへのリンク

外部リンクの集まり方を見る。検索トラフィック>サイトへのリンク
気に入らない被リンクは最終手段だがリンクの否認というのもできる。

誰がリンクを貼ったのかがわかる。上位のアンカーテキストの情報を知ることもできる。上位のアンカーテキスト内に表示されている用語で上位にランクインしていないなら、リンクの一部を削除することを薦める。
この項目ではウェブサイトに向かうリンクを全てエクスポートできる。このレポートを見る時サイトに大量のリンクを向けている質の低いサイトを確認するようにしている。

・内部リンク

ページに向けられているリンクが多いほどページのオーソリティが高いと思われる。なので、検索にとって特に大事なページに対して頻繁にリンクを貼るように心がけよう。

・手動による対策

 

・インターナショナルターゲティング

 

・モバイルユーザビリティ

2015/4/21からモバイルフレンドリーアップデート実施。
影響は、モバイル検索の結果だけに影響する、サイト全体ではなくページ毎に評価される。
拡大表示しなくても文字を判読できること、コンテンツが画面サイズに合っていて横スクロールや拡大表示をしなくてもいい、目的のリンクが簡単にタップできるようリンク同士が十分に離れている。
検索トラフィック>モバイルユーザビリティ の指摘を直す。
基本フォントサイズ16px、行間サイズは1.2em(1.2文字分)基本。
Googleは指の腹のサイズを約1cmと前提していて、タップされることが多い要素は高さと幅を7mm(48px)以上にする、タップされることが少ない要素は小さくてもOKだが周囲の他のタップ要素と最低でも5mm(32px)確保する。

 

▼Googleインデックス

・インデックス ステータス

インデックスステータスに10%以上の減少などがないか。
ページの重複に特に注意。同じタイトルページとかあると上位表示されないし、インデックスされなかったりする。

300URL あったとしたらその数がインデックスされるべきURL数なのに、インデックスレポートは3000~20000本のURLをインデックスしていると指摘することがある。それが意味することは、サイトがcanonicalURLや重複コンテンツの問題を抱えている可能性がある。

・コンテンツキーワード

 

・ブロックされたリソース

 

 

・URLの削除

 

▼クロール

・クロールエラー

クロールエラーあったら対応して、修正済みとする。

・クロールの統計情報

クロールの統計情報で1日あたりのクロールされたページ数 は長期的な下降を続けてたら注意。
ページのダウンロード時間 が最も注目、徐々に増加してたり、ある時を境に高くなっていたりしていないか、これが長くなるとGooglebotは多くのページを巡回できずにサイトから離脱してしまうことがある。ユーザーにとっても表示が重いと思われる。

・Fetch as Google

(GoogleとしてURLを取得する)からインデックスに送信をしてGooglebotにサイトクロールのリクエストする。サイト変更後に能動的にやることも可能そうだ。
ダウンロード時間が長すぎないかも注意。ページの追加や更新をすぐインデックス反映させるためにも使えるが回数に気を付ける。
デザイン変更したときなど取得してレンダリング してテストをする。ここでレンダリングテストをする目的は崩れなどなくページが表示されているかよりも、コンテンツやリンクが適切に解釈され、クロール&インデックスがされるかを確認すること。
2014/10からCSSやJSのクロールをブロックしないように呼びかけられてる、レンダリングできるようになったから。Googeインデックス>ブロックされたリソースから見られる。

別の説明
Google のようにウェブサイトのページを取得できる機能。ページがアクセス可能かどうかを調べたい場合などに使う。大規模な仕事の場合、様々な取り組みが行われていてこのツールが便りになる事がある。直接的な答えを得られるからだ。当該のページをGoogleが取得できるかどうかがわかる。
クロール頻度を調整できる?

・robots.txtテスター

robotes.txt ミスると重大な問題になるらしいから必ずrobots.txtテスターで動作テストする。

 

・サイトマップsitemap.xml

正しく維持できるsitemap.xmlを作成し登録する。正確なのを作成できないならやらない方がましという噂も。
priorityは、数値を適切に設定する0.1〜1.0
一応サイト内のリンクをたどってクロールしてくれるし。クロール>サイトマップ1つのサイトマップxml内のURLは5万以下にする。
トップページを1.0、下層のSEO対策ページを0.8、非対策ページを0.5から段階的に下げて設定する。(村田)

lastmodは、各ページの最終更新日を設定するようにする。

changfreqは、各ページの更新頻度に合わせて、「daily,weekly,monthly」に。

・URLパラメータ

よほどわからなければ触るな。

 

・セキュリティの問題

 

・その他のリソース