カテゴリ | |
サマリ | リンク情報の再構築について |
バージョン | 1.4.7 |
投稿者 | ペギー |
状態 | 完了 |
投稿日 | |
ブログからPukiwikiに乗り換えるべく1万件程度の記事をスクリプトでWiki文法にコンバートしてwikiフォルダに突っ込みました。
普通に検索する分には問題がないのですが、カテゴリ分けに#relatedを使おうとするとキャッシュフォルダのリンク情報が更新されてない為に#relatedがうまく働きません。
cmd=links を使ったのですがデータが多いせいか途中でapacheがタイムアウトしてしまいます。
ゆっくりでもいいので確実にリンク情報を更新する方法はないでしょうか?
家庭内LANでのサーバーなので手段は問いません。
いいアイデアがありましたらご示唆くださいませ。
よろしくお願いします。
- 「Apacheがタイムアウト」ってことは、PHP のsafe_mode やmax_execution_time の設定が原因で引っかかっているわけではないんですよね・・・。
一時的にApache 側のタイムアウト設定をゆるめるとか、(もし使っているなら)PukiWiki のAutoLink 設定を一時的にオフにしてlinks プラグインの負荷を少しでも軽くするとか。
手間隙かかりすぎてもいいなら、各ページをPukiWiki 上で更新しなおす(タイムスタンプはどちらでもOK)ことで少しずつ反映されます。が、1万もページがあるので、外部に公開していないサーバーなら、links プラグインを使えるようにサーバの各設定を変えて、実行後に戻すほうがいいかもしれません。(実行中は負荷のため、そのサーバは他の事ができなくなりそうだけど) --
- 回答ありがとうございます。PHPは別件のエラーで(PHPとMySQL廻りで)すでにmax_execution_time=0 にして解決しているので今回PHPのタイムアウトは関係ないです。PHPのエラーもありませんでした。 エラーはブラウザのプログレスバーが途中で止まってしまって、そのまま待機中の文字が表示されて20分後にブラウザのエラー画面(接続できませんでした)みたいなのが出ます。 Apacheも設定はTimeout 300000 とか試しているのですが・・・ Linuxなのでバックグランド処理とかできると嬉しいんですが、大量データになるとPukiwikiの予定している用途からは外れるのでしょうか? -- ペギー
- コマンドラインからphpを実行してやれば良いのでは。
実行方法詳細 -- ぃぉぃぉ
- 関連 WebTrack/77 -- ぃぉぃぉ
- やった!完璧です。ありがとうございました。実行方法詳細のリンク先の通りで再構築できました。 -- ペギー
- ご報告ありがとうございます。お役に立てたようで良かった^^ -- ぃぉぃぉ