どうにもオーガニックサーチが減ってる?気がするので、ちょっとWebマスターツール改めGoogle Search Consoleを見たらエラーが出ていたので対応してみました。
まぁこれが効くかどうかは別ですが、どうにもGoogleは、実際にサイトレンダリングに近い構造解析をしているようです。robots.txtの/wp-contentsへのDeny設定が原因で、インデックスエラーが出ていたのを放置していたのですが、これが何か悪さをしているかもしれません。
というわけで、robots.txtを修正。
User-agent: * Disallow: /wp-admin/ Disallow: /wp-includes/ Allow: /wp-includes/js/ Sitemap: //blog.ayurina.net/index.php?xml_sitemap=params=
Allow行を追加して、jsを取得できるようにしています。
確認方法ですが、Google Search Consoleのクロール→Fetch as Googleから、「取得してレンダリング」を行い、jsがrobots.txtでブロックされていないかを確認できます。ただ、robots.txtはそう頻度高く確認されていないようなので、同じくクロールメニューにあるrobots.txtテスターから、編集または再送信(取得依頼)をかけることで、強制的に更新することができます。
これでGoogleがサイトを正しく認識できるようになったはずです。なかなかGoogleと仲良くするのは大変というか、気分屋さんですよね。ははは。
コメント