カテゴリ | |
---|---|
サマリ | 検索ロボットに巡回されないように |
バージョン | 1.4.2 |
投稿者 | aran |
状態 | 完了 |
投稿日 | 2004-02-22 (SUN) 12:09:28 |
pukiwiki超初心者のです。今インストールが完了したばかりですが、仕事の連絡用に使いたいので、検索ロボットに巡回されないように設定したいと思うのです。どのファイルをどのようにいじれば良いのでしょうか。
それだと、ドキュメントルートにrobots.txtを置くべきかと。ただ、これは必ずしも有効ではないので。というか、他の人に見られてはいけないものをネット上にあげるのはよくないとおもいます。ダイジェスト認証なり、何らかの方法を使って特定ユーザー以外は閲覧不可にするほうが、もう少し有効かとおもいます。
ご回答ありがとうございます。具体的にどうするのか教えていただけるとうれしいのですが。見られていけない度はそれほど高くないのですが、ロボット検索は禁止にしておきたいのです。PHPがわからないので、どこに書けば生成されるのかわかりません。
行儀の良いロボットだけの対応でよければゆきちさんの挙げたrobots.txtかskinの修正で対応できます。skinで対応するには下記の-付けた2行を削って下さい。robots.txtに関してですが、これはPHPとは関係ありません。google等で検索はされましたか?記述方法が紹介されたサイトは色々あるので、そちらの方がおそらく正確で詳しいでしょう。一度探してみてください。
- <?php if (!$is_read) { ?> <meta name="robots" content="NOINDEX,NOFOLLOW" /> - <?php } ?>
robots.txtは次のような内容のテキストです。
User-Agent: * Disallow: /
ゆきちさん、にぶんのにさん、reimyさん、ありがとうございます。pukiwiki.skin.jp.phpをいじれば良いということですね。robots.txtの知識も得られました。解決です。