Google Search Consoleでエラーが出ていたのでrobots.txtを修正した

ブログ

どうにもオーガニックサーチが減ってる?気がするので、ちょっとWebマスターツール改めGoogle Search Consoleを見たらエラーが出ていたので対応してみました。

まぁこれが効くかどうかは別ですが、どうにもGoogleは、実際にサイトレンダリングに近い構造解析をしているようです。robots.txtの/wp-contentsへのDeny設定が原因で、インデックスエラーが出ていたのを放置していたのですが、これが何か悪さをしているかもしれません。

スクリーンショット 2015-07-27 1.20.31

というわけで、robots.txtを修正。

User-agent: *
Disallow: /wp-admin/
Disallow: /wp-includes/
Allow: /wp-includes/js/

Sitemap: //blog.ayurina.net/index.php?xml_sitemap=params=

Allow行を追加して、jsを取得できるようにしています。

確認方法ですが、Google Search Consoleのクロール→Fetch as Googleから、「取得してレンダリング」を行い、jsがrobots.txtでブロックされていないかを確認できます。ただ、robots.txtはそう頻度高く確認されていないようなので、同じくクロールメニューにあるrobots.txtテスターから、編集または再送信(取得依頼)をかけることで、強制的に更新することができます。

これでGoogleがサイトを正しく認識できるようになったはずです。なかなかGoogleと仲良くするのは大変というか、気分屋さんですよね。ははは。

コメント

タイトルとURLをコピーしました