robots.txt により拒否されましたのエラー

前回、間違ってrobots.txtにアーカイブのインデックスを削除するために
Disallow: /2012/
とんでもないこと書いちゃって、でもURLの削除はキャンセルが間に合ったからほっとしてた。
(URLの削除ツールは/2012/11/、/212/12/と指定していたが、これはキャンセルした。)

でもやっぱりエラーになってしまった。
その後Fetch as Googleでロボットが来るかどうか試したら、
「robots.txt により拒否されました」
と出た。

エラーの詳細は、
「このページは Googlebot によりダウンロードされた最新の robots.txt ファイルでブロックされているため、この時にクロールできませんでした。最近 robots.txt ファイルを更新した場合は、ファイルが最新の状態になるまで最大2日ほどかかる場合があります。」でした。

最大2日とあるけど、疑り深く心配性なんで最悪の最悪を考えたら、2013年になればインデックスされるとこまでは覚悟しました。
パーマリンクが/yyyy/mm/ddhhmmss/なんで、/2013/01/01000000/になれば/2012/は効かないハズ。
なにやってんだろって感じですね。

コメントを残す

メールアドレスが公開されることはありません。

次のHTML タグと属性が使えます: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <strike> <strong>