カテゴリ | |
---|---|
サマリ | wikiフォルダのバックアップの取り方 |
バージョン | 1.4.2 |
投稿者 | こうすけ |
状態 | 完了 |
投稿日 | 2003-11-23 (SUN) 20:02:08 |
こんばんは、お世話になります。
wikiフォルダのバックアップを、Fetchなどのソフトを使って手動でする場合、みなさんは、どのようにされているのでしょうか。
Pukiwikiには、自動的にバックアップを取ってくれる機能があります。
ただ、Fetchなどのソフトを使って、自分のパソコンへwikiフォルダをダウンロードした場合、ファイル名が重なってしまって、すべてのファイルをダウンロードをすることが出来ないのです。
多分、パソコン側のOSの問題だと思います。
基本的な質問で、誠に申し訳ありませんが、手動でwikiフォルダのバックアップを取る良い方法がありましたら、教えていただけないでしょうか。 どうかよろしくお願い致します。
簡単な方法は、サーバーのshellが使えるのなら、wikiフォルダをtarで書庫ファイルにして、ダウンロードするのがいいのでは? もちろん書庫ファイルのファイル名はローカル側のOSで使えるファイル名にするということで。とりあえず、バックアップはそれでできるはず。但し、ローカル側で書庫ファイルを解凍してしまうとファイル名が途中で切られて重複してしまうのでご注意を。
ご返事が遅くなり、本当に申し訳ありませんでした。shellでの圧縮・解凍は、まだ挑戦をしていないので、うまくできるか解りませんが、挑戦したいと思います。また、もっと他によい方法がありましたら、教えていただきたいと思います。どうかよろしくお願い致します。本当にありがとうございました。
wikiディレクトリ内の各wikiファイルをそのままの状態でCD-Rなどに焼く場合にも、ファイル名の長さが問題となりますので、書庫ファイルにしてから焼く必要があります。
本当にありがとうございます。いまは、まだshellを使った書庫ファイル作成のところで足踏み状態です。勉強中です。
もう一つ質問をします。いまPukiwikiには、ページ単位で書庫ファイルを作成してくれる自動バックアップの機能がありますが、wikiフォルダをまるごと自動的にバックアップしてくれるようにすることは、難しいでしょうか。
また、Pukiwikiで扱えるファイル名の長さには、文字数の制限がありますか?
面倒な質問をして申し訳ありませんが、もし、何か情報がありましたら教えていただきたいと思います。どうかよろしくお願い致します。
ディレクトリまるごとのバックアップは、shellでやるべきことだと思います。cronが使える環境なら、簡単ですね。
Wikiページ名の文字数の制限はあります。正確には文字数ではなくバイト数です。そのため、euc-jpの環境とutf-8の環境で制限が異なります。アバウトで言えば、euc-jpの場合は全角文字1文字で2バイト、utf-8の場合は1文字で3バイト。半角文字は1文字で1バイト。さらにエンコードされたファイル名のバイト数がOSの制限を超えない範囲ということになります。
いま調べたところ、cronが使える環境のようです。ディレクトリのまるごと書庫ファイルにできるコマンドを調べて試してみます。見通しが出来ました。本当にありがとうございました。
Wikiページ名の文字数の制限についてですが、上限は255バイトでしょうか。Wikiの仕様なのかもしれませんが、ページ名が、データファイル名となっており、URLにも使われていると思います。日本語を使う特殊事情だと思うのですが、例えば、ページ名とデータファイル名を別々にして、データファイル名に関しては半角英数文字だけが使えるような制限を設けることは難しいでしょうか。そうすれば、URLも短くなりますし、データのフォルダまるごとのバックアップも容易に出来そうな気がします。
勝手な意見を書いてしまって、本当に申し訳ありませんでした。
お答え、ありがとうございます。ファイル名やURLにも、ページ名をエンコードされたものが使われていると思いますが、名無しさんが書かれているような「エイリアス」のような機能を実現できればいいなあと思うのですが。。。