前回、間違ってrobots.txtにアーカイブのインデックスを削除するために
Disallow: /2012/
とんでもないこと書いちゃって、でもURLの削除はキャンセルが間に合ったからほっとしてた。
(URLの削除ツールは/2012/11/、/212/12/と指定していたが、これはキャンセルした。)
でもやっぱりエラーになってしまった。
その後Fetch as Googleでロボットが来るかどうか試したら、
「robots.txt により拒否されました」
と出た。
エラーの詳細は、
「このページは Googlebot によりダウンロードされた最新の robots.txt ファイルでブロックされているため、この時にクロールできませんでした。最近 robots.txt ファイルを更新した場合は、ファイルが最新の状態になるまで最大2日ほどかかる場合があります。」でした。
最大2日とあるけど、疑り深く心配性なんで最悪の最悪を考えたら、2013年になればインデックスされるとこまでは覚悟しました。
パーマリンクが/yyyy/mm/ddhhmmss/なんで、/2013/01/01000000/になれば/2012/は効かないハズ。
なにやってんだろって感じですね。