>http://www.abc.com:8080/
何度かアクセスしてみましたが、サイトが閉鎖されてしまったのか
入れなく成ってしまいました。似たようなURLを探して見ます
>http://www.abc.com:8080/なんて言うURLの所では、URL異常で
>DL出来ません。
ご報告ありがとうございました。
調べてみましたが、簡単にはバグが見つかりそうにありません。
できればエラーメッセージ等、もう少し詳しく状況をお知らせいただけると
助かるのですが。
>micras を使って自動運転させれば、接続を切るところまでやってくれます。
>これではダメなのでしょうか?
こんなものがあるなんて知りませんでした。
PowerLoaderのページしかみてませんものでして。(^^;
これで充分ですね。
PowerLoaderを使って1週間程になりますが、こんな事出来たらいいな
と言う希望などを書かせて戴きます。
使ってて思うのは、幾つものサイトを回って居ると、どのフォルダに入ってるのが
どのサイトのものなのか解らなくなってしまうと言う事です。
例えばA,B,Cと言うサイトがあったとして、「TEMP」と言うフォルダを
基本として、その下にそれぞれA,B,Cと言う名前でフォルダを作って
おいたとして、Aと言う名前のサイトのデータはAのフォルダに、Bと言う
名のサイトから落としたデータはBと言うフォルダに入らないかなと言う事です
例えばフォルダAの中に「__URL.TXT」と言うファイルを作っておいて
そこにアクセスする「URL」や「パスワード情報」「検索条件」等を記しておいて
PowerLoaderは指定された基本フォルダの中に作られた、それぞれのフォルダの
中の「__URL.TXT」を解析しながら落としていく。
そんな感じになると非常に手間いらずでいいかなと、そんな風に感じます
もし機会があれば挑戦して戴きたいと思います。
それと、もう1つ気になったのは。例えば
http://www.abc.com:8080/なんて言うURLの所では、URL異常で
DL出来ません。多分「:8080」と言う部分だと思うのですが
出来ましたらこの辺も機能追加戴きたいと思います。
ハッキリ言ってNetRcorderよりも軽くて使いやすそうですんで
本格的に変えようかと思ってます。時折HPをのぞきに参ります
機能アップを御検討戴きたく、宜しく御願いします
micras を使って自動運転させれば、接続を切るところまでやってくれます。
これではダメなのでしょうか?
PowerLoader 自体でのダイアルアップ制御は、ポリシーに反するので(^^)
やりません。
ぜひ、巡回終了後に、ダイアルアップ接続を切るオプションを
つけていただけないでしょうか?
あるいは、巡回終了後にユーザーが指定した実行ファイルを
実行させるような機能でも結構です。
こちらの方が汎用性がありますし。
>”OSの時間帯データがエラーです”
>と出ました。カナダでは使えないのですか?
はい。日本以外の時間帯設定には対応していません。(対応する予定もありません)
> PowerLoaderですが、HTMLファイル上からリンクされているFTPファイルの
>ダウンロードに対応する予定はありますか?
今のところ対応する予定はありません。
”OSの時間帯データがエラーです”
と出ました。カナダでは使えないのですか?
PowerLoaderですが、HTMLファイル上からリンクされているFTPファイルの
ダウンロードに対応する予定はありますか?(できれば対応してほしいと
思っています。)
問題なさそうで何よりです。
バージョンアップについては、簡単な修正で済むようなら対応しますが、資料を
集めるだけでも大変な労力と出費が必要になりそうなので、期待はしないでください。
すばやい対応ありがとうございました。
こんなに早く直してくださるとは思いませんでした。
正常稼動を確認しております。
ちなみに、HTMLは今後もバージョンアップを続けていくのでしょうから
それに伴うバージョンアップを検討してはいただけないでしょうか。
一応直したつもりですがこれで大丈夫でしょうか?
ついでに、気になっていた所にもいくつか手を加えてしまいました。ほとんど変わって
いませんけど。
DLL の日付に注意してください。
そのようですね。
これはまずいので直します。
Shift JISではなくJISコードを使っているページについては
うまく読み込めないようです。なんとかならないでしょうか?
削除したファイルがまたダウンロードされてしまうのは、どうしようもないです。
しかし不要なファイルのサイズが、すべて一定以上の大きさなのでしたら、
「ダウンロードの設定」で「サイズ制限」を指定して、読み込まないようにさせる
ことができます。
また、不要なファイルの数が少ないか、ファイル名に一定のルールがある場合には、
「リンク条件」で NOT 指定をおこなえば読み込みません(ここいら辺はヘルプを
読んでください)。
PowerLoader のバージョンアップは、多分もうしないと思いますです。悪しからず。
1.3bをインターネットアスキー98のCDROMからインストールさせて
戴きました。今までは必要なファイルはネットスケープのキャッシュから
1個ずつ引っ張ってきていたので思いっきり便利でした。
きっとシェアウェア登録すると思います。(最近nif行ってないので
行ったときに・・・)
使ってみて思ったのですが、あるURLから全ファイルをダウンロードしてきて
保存したディレクトリから、不要で大きなサイズのファイルを削除した場合、
次にまた落としてきてしまうと思うのですけど、1度落としたファイルはもう
落とさないようにしたり、サーバ内のタイムスタンプで「○月○日以降」とか
指定できると便利なんですけどどうでしょう。
(もうできるんだったらヘルプ読んでない証拠ですね・・)
> たとえば、www.fureai.or.jp/~abcd/file* というように、
この通りなら今でも出来るはずですが。
AND や OR の条件の使い方には問題はないですか?
拡張子が付いていないファイルを落とすためには、ダウンロードの設定でのチェックが
必要です。
"fileなんとか"というディレクトリが存在する場合には対応できませんが。
便利に利用させていただいてます。
便利であれば、さらに便利にならないかと思うのが人情でして・・・(スミマセン)
ワイルドカードの指定をもう少し柔軟にできないでしょうか?
たとえば、www.fureai.or.jp/~abcd/file* というように、
file1file2file3・・・・file99 を拾えるようにならないでしょうか。
自分でプログラムを作れないもので、勝手なお願いで申し訳ありませんが
簡単にできるようであれば、なんとか、よろしくお願いします。
またやってしまいました(^^;
最初に登録された物とはヘルプの内容がほんのちょっと違っています。
既に使用されている方は多分気付かないと思うので、気にする事はありません。
23時以前にダウンロードしちゃった方、すいません。
ヘルプファイルをちょっとだけ修正したものと差し替えました。
(ネスケだと見た目は変りません)
ちょっと遅れましたが、とりあえずバグ修正+α版を登録しておきました。
お試しください。
>他のオートパイロットソフトみたいに現在ブラウザが開いているURLを取込むことは
>出来ないのでしょうか?
今のところできません。ブラウザに表示されている現在の URL を copy&paste して
ください。
>またダウンロードしたファイルを他のドライブにコピーしたい場合は手動でhtmlを変更
>しなければいけないのでしょうか?
コピーした先のドライブ/ディレクトリに合わせて HTML のリンク情報を変換するには、
「セーブディレクトリ」をコピー先のドライブ/ディレクトリに変更して、一度ダウン
ロードをおこなう必要があります。
以下の注意事項があります。
・サーバー名以降のパスごとコピーする必要があります。
・コピーした後、サーバー上のファイルが更新されていれば、コピー先のファイルも
更新されてしまいます。(HTML ファイルには日付が常に現在時刻になるものもあり、
その様なファイルも内容は変りませんが更新されます)
・「ダウンロードする Web ページの設定」の、「リンク対象の HTML ファイルは毎回
必ずダウンロードする」及び「HTML ファイル以外は「リンク条件」によるリンク制限
をおこなわない」チェックは外しておいてください。
・「ダウンロードの設定」の「リンク対象の拡張子」から、画像等 HTML 以外のデータ
の拡張子を削除しておけば、アクセス時間が短縮できます。
多少面倒ですが、この方法ならファイルの更新チェックだけのアクセスで、自動的に
リンク情報の変換がおこなえます。
>幾つかのHPをDLしていると(アドレスは忘れましたが)、DLエラーが発生しDL
>出来ませんでした。
URL が分かれば調べてみます。どの様なエラーだったのかでも分かればヒントになる
かもしれません。
>新バージョンに期待したいのですが、新バージョンの公開はいつごろを予定されていま
>すか?
5月中に多少改良を加えたもの(ページのグループ化/特定の URL で更新判断/ダウン
ロードのマルチスレッド化等)を公開する予定でしたが、間に合いませんでした(もう
暫くかかります)。
申し訳ないので、バグを修正したものだけでも 2〜3日中に公開します。
試用中ですが要望と質問です。
他のオートパイロットソフトみたいに現在ブラウザが開いているURLを取込むことは出来ないのでしょうか?
またダウンロードしたファイルを他のドライブにコピーしたい場合は手動でhtmlを変更しなければいけないのでしょうか?
最後に幾つかのHPをDLしていると(アドレスは忘れましたが)、DLエラーが発生しDL出来ませんでした。
(これがユーザ登録していない最大の理由です。)
新バージョンに期待したいのですが、新バージョンの公開はいつごろを予定されていますか?
画像がダウンロードできない件ですが、リクエストのヘッダに "Accept: */*" を
追加したらうまくいきました。修正しておきます。
こうやって問題点を指摘していただけると、バグの洗い出しが出来るので助かります。
現在開いているブラウザをそのまま使うというのは、検討はしてみましたが簡単に
出来そうに無いので、今のところ実現する予定はありません。
画像がたくさん使われている表形式のページで、
> #406: no response acceptable to client found
とエラーが出てダウンロードされません。
具体的には、下記のアドレスなどで起こります。
http://www.cyberoz.net/city/tamon/diablo/armor.html
(※トップは http://www.techarts.co.jp/tamon/diablo/)
それと、ページを表示させるときに、現在開いている(アクティ
ブになっている?)ブラウザがある場合、それを利用して欲しいで
す。
何でもどうぞ。