カテゴリ | |
サマリ | 検索エンジンに対するrobots.txt |
バージョン | 全て |
投稿者 | Kuumba |
状態 | 完了 |
投稿日 | |
先日、サーバのログを見ていたところ、検索エンジンのロボットに編集画面のURLも拾われているようでした。
検索エンジンから直接編集画面にアクセスできてしまうのも気持ち悪いので、ロボットへ何らかの対策を行いたいのですが、robots.txtに
Disallow: (wikiディレクトリ)/?cmd
Disallow: (wikiディレクトリ)/?plugin
とすれば、通常のページ以外のURLは拾われなくなるのでしょうか?
また、pukiwikiに同じような処理をなさっている方がいらっしゃれば、その効果を教えていただければ幸いです。
- dev:BugTrack/143 --
- ご回答ありがとうございます。しかしながら、私が今回知りたいのはmetaではなくrobots.txtです。引き続き回答を待ちたいと思います。 -- Kuumba
- pukiwikiに関係ない話のような...。 --
- そうでしょうか?Pukiwiを使用する上でのSEOに関する質問と判断してこちらで質問させていただいております。 ・・・強く言われるようなら質問を取り消しますが。 -- Kuumba
- 現在の仕様ならmetaで十分だと思います。 --
- robots.txtでは上記のような記述は不可能だと思いますが…。ただ、metaであれrobots.txtであれ、それを無視して拾っていく検索エンジンも多数存在することをお忘れなく。 -- Ratbeta
- robots.txt はディレクトリまたはファイル単位でモノを扱うのはずで、クエリ文字列単位の指定がそもそも無理なはず。SEO云々の話題だからというのではなく、robots.txtについて知りたいというのがあなたの欲望ではないのですか --