カテゴリ | |
---|---|
サマリ | Google検索ロボット(ウェブマスターツール)対策について |
バージョン | 1.4.7 |
投稿者 | Ito |
状態 | 完了 |
投稿日 | 2008-09-20 (土) 22:51:00 |
Googleの「ウェブマスターツール」と云うのを使っていて、 pukiwikiでアクセスエラー等で大量のエラーが出ました。 (Googleロボットの収集情報、警告情報等を参照出来る機能等あり)
現在「robots.txt」を作成して逃げていますが 何か良い方法が有れば伝授願います。
自分なりに対策してみた「robots.txt」下記に記載します。
User-agent: * Disallow: /wiki/?FrontPage Disallow: /wiki/index.php* Disallow: /wiki/*%20* Disallow: /wiki/*cmd=backup* Disallow: /wiki/*cmd=diff* Disallow: /wiki/*cmd=edit* Disallow: /wiki/*cmd=unfreeze* Disallow: /wiki/*cmd=freeze* Disallow: /wiki/*pcmd=upload* Disallow: /wiki/*plugin=newpage* Disallow: /wiki/*plugin=rename* Disallow: /wiki/*plugin=template* Disallow: /wiki/*sess*
補足
require_once("reject_gbot.php");とするとか。 -- gpan 2008-09-22 (月) 05:08:33