トップページunix
1001コメント292KB

連番のH画像/動画を一気にダウンロードする2

■ このスレッドは過去ログ倉庫に格納されています
0001前スレ12005/12/26(月) 02:56:22
前スレ5年間のご愛顧ありがとうございました。PGFは無事コンプしましたが、これからも皆様の日々
実践されているノウハウを教えていただきたく再度、スレを立てさせてもらいました。
前スレ 連番のH画像を一気にダウンロードする
http://pc8.2ch.net/test/read.cgi/unix/979106537/
0083名無しさん@お腹いっぱい。2006/09/23(土) 08:49:55
>>82
lha
0084名無しさん@お腹いっぱい。2006/11/15(水) 13:15:50
JavaScript で window.navigator.appName 見てるとこって
どうすればいいの?
0085名無しさん@お腹いっぱい。2006/11/15(水) 23:46:36
どうしたいの?
0086名無しさん@お腹いっぱい。2006/12/24(日) 18:16:39
今までcurlのお世話になってきたけど、今日LWP::UserAgent使って書き直した。
ステータスが200でtext/html返してきた時にリトライするようにしたかった。
0087名無しさん@お腹いっぱい。2006/12/25(月) 01:56:18
完璧だ。対artemisweb最終兵器かもしれない。
0088名無しさん@お腹いっぱい。2006/12/25(月) 02:02:00
次はHTML::Parser使ってwget相当のも作るか。夢が広がりんぐw
0089名無しさん@お腹いっぱい。2006/12/25(月) 02:21:00
ヒント:今日はクリスマス
0090名無しさん@お腹いっぱい。2006/12/25(月) 02:38:41
plagger のプラグインをきぼん。
0091!dama2007/01/02(火) 04:02:34
てすてす
0092名無しさん@お腹いっぱい。2007/01/04(木) 01:35:38
HTML::Parser使ったwget相当のも出来た。
0093名無しさん@お腹いっぱい。2007/01/04(木) 01:43:48
それ Plagger でできるお
0094名無しさん@お腹いっぱい。2007/01/04(木) 02:40:27
主目的はアルテミス対策の姑息なリトライ判定の導入ですから
それとHTML::*やHTTP::*やLWP::*のお勉強
0095名無しさん@お腹いっぱい。2007/01/20(土) 03:39:43
test
0096名無しさん@お腹いっぱい。2007/04/02(月) 19:34:19
連番ではないんですが、
imepita.jpなんかにうpされた画像を自動巡回して拾い集めたいなと思っています。
例えばこんなのとか http://imepita.jp/20070402/701450
このurlをブラウザーで開くと普通にみれるのですが。
curlやwgetでこのURLを開くと404になってしまい、
htmlが取得できず困っています。
うpされた画像のアドレスと表示用のURLに相関関係がないのでhtmlを調べないと画像が取得できません。

どなたか偉い方よろしくおねがいします


0097名無しさん@お腹いっぱい。2007/04/02(月) 20:05:08
>>96
お約束の User-Agent: とか Referer: あたりはどうよ。
0098名無しさん@お腹いっぱい。2007/04/02(月) 20:39:36
ブラウザーで直接開いてみれたので、Refererは試していませんでした。
User-Agent:は試したのですが変わらず・・・。
ちょっとRefererもやってみます。
0099名無しさん@お腹いっぱい。2007/04/02(月) 20:44:05
refererいれても変わりませんでした
0100名無しさん@お腹いっぱい。2007/04/02(月) 23:23:17
>>96
Accept-Language: ja
とかは?
0101962007/04/03(火) 08:31:48
>100
神!
ありがとうございました
0102名無しさん@お腹いっぱい。2007/04/10(火) 23:16:28
みなさんが、
連番のH画像/動画を一気にダウンロードしたものを僕に下さい(>_<)(>_<)
0103名無しさん@お腹いっぱい。2007/04/21(土) 16:02:05
>>96とはべつの人なのですが、imepitaの画像をダウンロードできません。
ブラウザでは保存可能でした。

wget --referer='http://imepita.jp/20070402/701450' -U='Mozilla/4.0 (compatible; MSIE 5.01; Windows NT 5.0)' --header='Accept-Language: ja' 'http://imepita.jp/kp_img/trial/20070402/701450.jpg?FFunc=IConf&FFcom=%22off%22'

としています。
指摘よろしくおねがいします。
0104名無しさん@お腹いっぱい。2007/05/01(火) 13:54:45
imageFAPの画像を wgetでおとすのは難しい? 落としかた教えてください
0105名無しさん@お腹いっぱい。2007/05/01(火) 19:01:17
>>104
とりあえずURLを書きなさいよ
0106名無しさん@お腹いっぱい。2007/05/05(土) 09:35:29
結構難題(というか出来なかった)

ttp://infostore.org/info/3078906?refer=2257986&rs=2
→ ttp://img44.imagevenue.com/aAfkjfp01fo1i-24835/loc286/27363_004pat060.jpg
0107名無しさん@お腹いっぱい。2007/05/05(土) 10:51:18
lynx -dump 'http://infostore.org/info/3078906?refer=2257986&rs=2' |
grep -o 'http://[^#]*' |
grep 'imagevenue.com/img.php' |
while read LINE; do
lynx -dump -image_links $LINE |
grep -o 'http://[^#]*' |
grep '/loc[0-9][0-9]*/'
done
0108名無しさん@お腹いっぱい。2007/05/05(土) 11:08:02
ああ、ここUNIX板だから grep -o はまずいか。perl -ne 'print $& if m{pattern}' とかで。
あとは sleep もいれたほうがいいかも
0109名無しさん@お腹いっぱい。2007/05/05(土) 12:23:56
俺んとこlynx入ってなかったのでsedとcurlで

$ cat hoge.sh
#!/bin/sh

curl -s "$1" |
grep imagevenue |
sed -n -e "s/href='\\([^']*\\)'/\\
HREF=\\1\\
/gp" |
sed -n -e "/HREF=/s/HREF=//p" |
while read URL
do
dir="`dirname \"$URL\"`"
file=`curl -s "$URL" | sed -n -e '/thepic/ {N; s/.*SRC="\([^"]*\)".*/\1/p;}'`
curl -s --referer "$URL" -O "$dir/$file"
done

$ ./hoge.sh 'http://infostore.org/info/3078906?refer=2257986&rs=2'
0110名無しさん@お腹いっぱい。2007/05/05(土) 15:07:32
勉強になるなぁ(何の???)
0111名無しさん@お腹いっぱい。2007/05/05(土) 19:36:37
http://www.imagefap.com/gallery.php?gid=330938
>>105
0112名無しさん@お腹いっぱい。2007/05/05(土) 23:32:55
>>111
imagefapは
(1) ギャラリーページから全てのギャラリーページのURLを抽出
(2) 各ギャラリーページから画像ページのURLを抽出
(3) 画像ページから画像ファイルのURLを抽出

という手順になると思う。(3) のURLはJavaScriptでブラウザに生成させてるのでwgetとかでは無理っぽい。
0113名無しさん@お腹いっぱい。2007/05/06(日) 09:10:45
ギャラリーページサムネイルのURLを置換してやればいいんでないの?
http://images.imagefap.com/images/thumb/11/141/1414518509.jpg
http://images.imagefap.com/images/full/11/141/1414518509.jpg
0114名無しさん@お腹いっぱい。2007/05/06(日) 21:18:14
get_links_from_url() { lynx -dump -image_links "$1" | grep -o 'http://[^#]*'; }

for URL in `seq -f 'http://www.imagefap.com/gallery.php?gid=330938&page=%g' 0 8`; do
echo get: $URL >&2
get_links_from_url $URL | sed -n '/thumb/s/thumb/full/p'
done
0115名無しさん@お腹いっぱい。2007/10/23(火) 21:46:50
最近ぐっと来るネタがないっすねぇ
0116名無しさん@お腹いっぱい。2007/10/27(土) 02:27:20
最近のエロ画像はZIPで固めてrapidshareだからなあ
0117名無しさん@お腹いっぱい。2007/12/30(日) 00:22:46
こういうアドレスが長く、不規則なのってどうやればいいでしょうか

ttp://g.e-hentai.org/g/854/ed9b4c88ddfde2ab2ea93ee162b0ebf6315cef64/5-m-y/
0118名無しさん@お腹いっぱい。2008/01/02(水) 21:10:52
こういう別サイトの画像ディレクトリを参照している場合って、うまい方法ありますか?

http://exgirlfriendmarket.com/perfect_tits_corina?
0119名無しさん@お腹いっぱい。2008/01/02(水) 22:24:46
curl -O --referer 'http://exgirlfriendmarket.com/perfect_tits_corina/perfect_tits_corina-00.html' 'http://content1.nudeparadisehotel.com/femjoy/0681/[00-11].jpg'
01201182008/01/03(木) 01:46:07
>>119

さっそくの助言、ありがとうございます。
とりあえず curl をインストールして試してみました。拝見したところ、外部リンクになっているのを直接指定していますね。

これを Unix のコマンドの組み合わせで
 ・画像一覧ページから
 ・個別の画像、もしくは画像表示ページへのリンクを辿り
 ・自動で巡回して、一定サイズ以上の JPG はダウンロードする
ということはできませんでしょうか? 趣味と実益を兼ねて、こんな感じの Blog を巡回することが多いのです。

だめだったら Win のダウンローダーでも探しますが、やはり Unix で覚えたいので。
お手数ですが、よろしかったらお知恵を拝借させてください。m(_ _)m
0121名無しさん@お腹いっぱい。2008/01/03(木) 09:38:02
wget -r -l 2 とかで。あとは wget --help の↓に気をつける:
再帰ダウンロード時のフィルタ:
-A, --accept=LIST ダウンロードする拡張子をコンマ区切りで指定する
-R, --reject=LIST ダウンロードしない拡張子をコンマ区切りで指定する
-D, --domains=LIST ダウンロードするドメインをコンマ区切りで指定する
--exclude-domains=LIST ダウンロードしないドメインをコンマ区切りで指定する
--follow-ftp HTML 文書中の FTP リンクも取得対象にする
--follow-tags=LIST 取得対象にするタグ名をコンマ区切りで指定する
--ignore-tags=LIST 取得対象にしないタグ名をコンマ区切りで指定する
-H, --span-hosts 再帰中に別のホストもダウンロード対象にする
-L, --relative 相対リンクだけ取得対象にする
-I, --include-directories=LIST 取得対象にするディレクトリを指定する
-X, --exclude-directories=LIST 取得対象にしないディレクトリを指定する
-np, --no-parent 親ディレクトリを取得対象にしない
0122名無しさん@お腹いっぱい。2008/02/27(水) 14:12:00
以前に別スレで質問を投げたことがあるのですが、うまい解決方法に行き当たらなかったのと、
今やそのスレが消えてしまったため、もう一度ここで質問させてください。

例えばここに置いてある松金洋子のデスクトップ用壁紙画像をターゲットとします。
http://www.sexydesktop.co.uk/youko.htm
ここには全部で4ページ分48種類の松金洋子の画像があります。

このサイトの画像はすべてデスクトップ用の壁紙を目的としているので、
一つの画像に関して数種類の解像度・縦横比の画像が用意されており、
アクセスしてきた人の使っているディスプレイ解像度を検出しては、
最適な解像度のものを優先的にプッシュするようになっています。

また、画像ファイルの命名ルールは非常に単純かつ形式的で、
たとえば例に挙げた松金洋子の画像の場合、
まず画像の名前を表す youko1 から youko48 までの48種類の画像が用意されています。

さらにそれぞれの解像度を表す 1280x800 や 800x600 の文字列が続き、最後に拡張子 .jpg が付いています。
注意する点は、例えば youko48 に対して youko01 だとか、1280x1024 に対して 0800x0600 といった、
命名上の「桁数合わせ」が一切行われていないという点です。
0123122-1232008/02/27(水) 14:12:23
ここから先が質問です。やりたいことは、

1). サイトがプッシュしてくるこちらのディスプレイ解像度に関係なく、
すべての画像に関して、より解像度の大きい物を、
番号の一番若いものから古いものまで全種類取って来たい。

2). その際、取って来た画像のファイル名を修正して、
youko48 に対しては youko01 、1280x1024 に対して 0800x0600 など、命名上の「桁数合わせ」をしたい。

3). さらに、ファイル名の中の画像名を表す文字列と、解像度を表す文字列とを _ で結ぶようにしたい。
具体的には、youko11600x1200.jpg と名付けられた youko1 という画像の 1600x1200 版のファイル名を、youko01_1600x1200.jpg としたい。同様に、youko481280x1024.jpg と名付けられた youko48 という画像の
1280x1024 版のファイル名を youko48_1280x1024.jpg としたい。

以上をまとめると、参考例の松金洋子の画像で言えば、
youko11600x1200.jpg から youko481280x1024.jpg までの画像を、
youko01_1600x1200.jpg から youko48_1280x1024.jpg として保存したい。

これを実現するスクリプトをどう書けばいいでしょうか?

なお、好みのタレントの画像が何種類用意されているか(松金洋子の場合は48種類)については、
ダウンロードを開始する前に手作業で調べることとします。
0124名無しさん@お腹いっぱい。2008/02/27(水) 14:31:38
>>123
コントンジョノイコ

スレタイを読んでからスクリプトスレに行け
0125名無しさん@お腹いっぱい。2008/02/27(水) 14:43:56
>>122
>これを実現するスクリプトをどう書けばいいでしょうか?
変な書きかたをせずに普通に書けばいいと思うよ
0126名無しさん@お腹いっぱい。2008/02/27(水) 18:52:00
>ダウンロードを開始する前に手作業で調べることとします。

むしろここをやりたいのかと思った… :-P
0127名無しさん@お腹いっぱい。2008/03/01(土) 03:23:35
とりあえず自分で書いたとこまでうpすればみんなが添削してくれる
まず自分で書くんだ
0128名無しさん@お腹いっぱい。2008/03/03(月) 14:00:03
wgetでダウンロードすると同名のファイルだと.1, .2とsuffixがついてしまいますが
これを-1.拡張子とすることはできないでしょうか?

通常は hoge.html, hoge.html.1, hoge.html.2 とファイルが出来て行くものを
hoge.html, hoge-1.html, hoge-2.html と名付けられて欲しいのです。
0129名無しさん@お腹いっぱい。2008/03/03(月) 14:45:41
zsh 記法なら

for i in *.1 *.2
do
j=${i:r}
mv -i ${i} ${j:r}-${i:e}.${j:e}
done
0130名無しさん@お腹いっぱい。2008/03/03(月) 19:01:42
ありがとうございます。ダウンロードした後でリネームするのがいい方法ということですね。

なるほど、-iをつけて重複したものに上書きするのを防ぐというわけですか。
自動でユニークなファイル名をつけるにはもうちょっとシェルスクリプト書けば良さそうですね。

wgetでダウンロードする時点ではでないんでしょうか。

for i in *.1 *.2
は *.整数 なもの全てに対応するには *.[0-9]* でいいのだろうか。
でもこれだと .3g2 もひっかかるか。
0131名無しさん@お腹いっぱい。2008/03/03(月) 19:04:22
ああ*.222.htmlなんかも引っかかってしまうから全くだめですね。
0132名無しさん@お腹いっぱい。2008/03/22(土) 13:38:18
#!/usr/bin/perl
@tmp=("Alina-G", "Anastasia-S", "Anna-T", "Anna-Z", "Iryna-M", "Kateryna-V", "Larisa-H", "Oksana", "Olga-S",
"Olha-D", "Sasha-D", "Sasha-L", "Svetlana-T", "Ulyana-A", "Ulyana-M", "Valeriya-L", "Victoria-D", "Victoria-S", "Yuliya-S", "Yuliya-Z");
$baseurl = "http://www.candydoll.tv/images/";
foreach $f(@tmp){
for ($i=1 ;$i < 7;$i++){
$imgname = sprintf"%s-images%02d", $f, $i
$url = sprintf "%s/%s.jpg",$baseurl,$imgname; system "wget " . $url;
$cnvcmd = sprintf "jpegtopnm %s.jpg > %s.pnm",$imgname,$imgname; system $cnvcmd;

}

$a = "pnmcat -lr ". sprintf "%s-images01.pnm ",$f; $a .= sprintf "%s-images02.pnm ", $f; $a .= sprintf "> %s-images_a.pnm", $f;
system $a;
$a = "pnmcat -lr ". sprintf "%s-images03.pnm ",$f; $a .= sprintf "%s-images04.pnm ", $f; $a .= sprintf "> %s-images_b.pnm", $f;
system $a;
$a = "pnmcat -lr " . sprintf "%s-images05.pnm ",$f; $a .= sprintf "%s-images06.pnm ", $f; $a .= sprintf "> %s-images_c.pnm", $f;
system $a;
$a = "pnmcat -tb ". sprintf "%s-images_[abc].pnm |pnmtojpeg > %s-image.jpg",$f,$f; system $a;
}
system "rm *.pnm";
0133名無しさん@お腹いっぱい。2008/03/23(日) 09:03:53
なんでpnm介してるの?
0134名無しさん@お腹いっぱい。2008/03/23(日) 20:41:11
Webには
12
34
56
といった形で分割されてあげられてるんだけど、
これをうまく結合する方法を思いつかなかったんで一旦pnmに変換したんですよ。

なにかいい方法はないもんでしょうか。
0135名無しさん@お腹いっぱい。2008/03/23(日) 21:13:20
よくわからんが、ImageMagick で
convert -append / +append かな?
01361322008/03/24(月) 02:21:15
>>132の8行目の末尾にセミコロンがないのを今更見つけたのもありますが、
>>135さんの助言のおかげで無駄な変換をしないように修正したものをあげておきます。

#!/usr/bin/perl
@tmp=("Alina-G", "Anastasia-S", "Anna-T", "Anna-Z", "Iryna-M", "Kateryna-V", "Larisa-H", "Oksana", "Olga-S",
"Olha-D", "Sasha-D", "Sasha-L", "Svetlana-T", "Ulyana-A", "Ulyana-M", "Valeriya-L", "Victoria-D", "Victoria-S", "Yuliya-S", "Yuliya-Z");
$baseurl = "http://www.candydoll.tv/images/";
foreach $f(@tmp){
for ($i=1 ;$i < 7;$i++){
$imgname = sprintf "%s-images%02d", $f, $i;
$url = sprintf "%s/%s.jpg", $baseurl, $imgname; system "wget " . $url;
}

$a = sprintf "convert +append %s-images01.jpg %s-images02.jpg %s-images_a.ppm", $f, $f, $f;
system $a;
$a = sprintf "convert +append %s-images03.jpg %s-images04.jpg %s-images_b.ppm", $f, $f, $f;
system $a;
$a = sprintf "convert +append %s-images05.jpg %s-images06.jpg %s-images_c.ppm", $f, $f, $f;
system $a;
$a = sprintf "convert -append %s-images_[abc].ppm %s-image.jpg", $f, $f;
system $a;
}
system "rm *.ppm";
0137名無しさん@お腹いっぱい。2008/03/24(月) 06:00:07
10才とか12才とかって部分には誰もつっこまないのね
0138単なるスクリプト練習道場2008/03/24(月) 09:38:42
必ずしも皆サイトの方を見ているとは限らないって

0139名無しさん@お腹いっぱい。2008/04/20(日) 01:18:07
双葉ちゃんねるの画像をまとめてDL出来るローダーってありますか?
僕の使ってるやつだとサムネイル画像しか落とせないんですが。
0140名無しさん@お腹いっぱい。2008/04/20(日) 02:24:42
双葉ちゃんねるってものすごく見にくいんだけど
2chブラウザみたいなやつでもあるの?
流れにまかせて適当に見るのが筋なのかな。
0141名無しさん@お腹いっぱい。2008/05/06(火) 23:35:44
すんませんH画像じゃないんだけど、NHKニュースの動画の落とし方分かる人いませんか
http://www3.nhk.or.jp/news/
最近リニューアルしてから、ダウンロード出来なくなりました。
ブラウザのキャッシュにも残りません。swfを間にかましてるみたいです。
宜しくお願いします。
0142名無しさん@お腹いっぱい。2008/05/07(水) 17:28:51
ちょいと面倒だけど
まず見てるページのソースコードを見ると
wmvHigh = "http://cgi2.nhk.or.jp/news/cgibin/K10099999999_9999999999_0805071653_01t_mh.cgi
てなことが書いてある。次に
view-source:http://cgi2.nhk.or.jp/news/cgibin/K10099999999_9999999999_0805071653_01t_mh.cgi
でさらに見ると
<REF HREF="mms://a669.v90561.c9056.g.vm.akamaistream.net/5/669/9056/48216095/1a1a1ad74ec5f82d5bc9319cca39abd943b3e250b52c9f/K10044234611_0805071619_0805071653_mh.wmv"/>
とか書いてある。こいつを録画すればおk
0143名無しさん@お腹いっぱい。2008/05/10(土) 21:01:38
>>142
うまくいきました。丁寧に教えてもらって感謝です。
0144名無しさん@お腹いっぱい。2008/05/31(土) 18:03:17
http://jp.youtube.com/watch?v=5SMIgGAHAoU&feature=related
http://jp.youtube.com/watch?v=looALHmz6aA&feature=related
http://jp.youtube.com/watch?v=XlJkpEsaYMY&NR=1
http://jp.youtube.com/watch?v=aJ47PkaeM_M&feature=related
http://jp.youtube.com/watch?v=vsbv9Y-oPxg&feature=related
http://jp.youtube.com/watch?v=srYyLjVihYQ&feature=related
http://jp.youtube.com/watch?v=GyY_GFtj5Tg&feature=related
http://jp.youtube.com/watch?v=9uF85UO9-lg&feature=related
http://jp.youtube.com/watch?v=svH44ZUVE4A&feature=related
http://jp.youtube.com/watch?v=k9OJL0c-CBg&feature=related
http://jp.youtube.com/watch?v=I7nMFPYuF7o&feature=related
http://jp.youtube.com/watch?v=Kci1bOlAOCY&NR=1
http://jp.youtube.com/watch?v=yXPS8v7VqVg&feature=related
http://jp.youtube.com/watch?v=jpgH4CrHXF8&NR=1

鉄道をこよなく愛する人たち
0145名無しさん@お腹いっぱい。2008/05/31(土) 20:16:44
なんだこりゃ。ひどいな。
0146名無しさん@お腹いっぱい。2008/07/05(土) 00:14:43
今の最新のダウンロードスクリプトは何ですか?
0147名無しさん@お腹いっぱい。2008/07/05(土) 05:41:53
やっぱzshのスクリプトじゃね?
0148名無しさん@お腹いっぱい。2008/07/05(土) 23:27:08
グロ画像対策ってどうしてます?
0149名無しさん@お腹いっぱい。2008/07/06(日) 00:20:47
グロ画像好きになればいいんじゃないかな?
0150名無しさん@お腹いっぱい。2008/09/21(日) 11:29:13
ウイルスにじゃから内容にね
0151名無しさん@お腹いっぱい。2008/09/27(土) 21:48:19
Hな動画ならここhttp://click-bb.com/banner.php?adid=817344人気サイトです
0152名無しさん@お腹いっぱい。2008/11/13(木) 19:08:26
梶谷秀
0153名無しさん@お腹いっぱい。2009/01/06(火) 01:43:12
双葉がjavascript有効じゃないと落とせなくなった。
なんかいいツールはない?
0154名無しさん@お腹いっぱい。2009/01/10(土) 17:41:50
Firefoxと赤福使ってる。スクリプトでの取得はあきらめた。
0155名無しさん@お腹いっぱい。2009/01/23(金) 02:38:56
http://jp.youtube.com/watch?v=v_HyS1PKPs4&fmt=18
http://www.nicovideo.jp/watch/sm5750285
0156名無しさん@お腹いっぱい。2009/03/26(木) 19:55:23
>>151
コラア!いてまうど!
0157名無しさん@お腹いっぱい。2009/04/17(金) 11:58:35
g.e-hentai.org スクリプト

(knoppix 5.1.3)
original file name : getimgs.pl.txt
約5354.4日間保存

ttp://www1.axfc.net/uploader/File/so/21579.txt&key=vip
pass : vip
0158名無しさん@お腹いっぱい。2009/06/04(木) 14:58:19
>>157
222行目と223行目逆じゃない?
0159名無しさん@お腹いっぱい。2009/06/05(金) 01:47:51
>>158
うん、逆だな。
その他にも、幾つかバグがあるようだ。
でも、転送制限があるサイトなので、あんまり使う気しない。
※だいたい160枚前後で、転送休止ってどうなのよ?
0160名無しさん@お腹いっぱい。2009/07/21(火) 01:34:07
壁紙の配布サイトがあるのだが、1枚1MB程度の壁紙が2000枚近くある。
これを一気にダウンロードすると、相当な負荷をかけると思うので数秒おきにダウンロードするようにしたいのだけど、そんなことできる?
01611602009/07/21(火) 01:35:29
追加情報で、サムネイル画像はthumbという文字列がファイル名に入ってるのでそれも除外することで、ちょっとは負荷をへらせると思う。
0162名無しさん@お腹いっぱい。2009/07/21(火) 01:59:57
>>160
よくわからんが
>数秒おきにダウンロードするようにしたい
っていうのが要件であるのならsleepでもかませればいいんでないの。
固定時間で、ダウンローダ使っているのを推測されるのが嫌なら
(そういうサイトがあるかはしらないけど)
sleepの引数を範囲絞って乱数にすりゃいいし。難しくはないだろ
01631572009/08/18(火) 23:34:32
g.e-hentai.org スクリプト

get.pl
readme.txt
をzipにて同梱。

http://www1.axfc.net/uploader/Sc/so/28498.zip&key=vip
0164名無しさん@お腹いっぱい。2009/08/20(木) 00:41:03
>>163
解凍してみたが、readme.txt ehg.txt
しか見当たらない。
get.plはいづこに?
0165名無しさん@お腹いっぱい。2009/08/20(木) 10:00:11
現在特許申請中です
01661572009/08/20(木) 15:44:14
非常に失礼しました。
g.e-hentai.org スクリプト

get.pl
readme.txt
require_url.png

をzipにて同梱。

ttp://www1.axfc.net/uploader/Sc/so/28995.zip&key=vip
0167名無しさん@お腹いっぱい。2009/08/20(木) 22:14:50
>>166
おお、サンキュー
早速、ゲット開始。
なんか色々新しくなってるね。きちんとエラー処理してあって
便利になってる。
スクリプトいぢって遊んでみるわ。ありがとう。
01681872009/08/20(木) 22:41:18
355行目の mkdir ("$dirname", 777) or die $! ;
のmaskを、0777に変更しないとうまく動作しなかった。
デレクトリィは、できるけど書込み出来ない。

perl, v5.8.6 built for darwinでの動作報告
01691672009/08/20(木) 22:42:18
未来へ、小パス
01701572009/08/21(金) 09:25:11
>>168
報告ありがとうございます

直すかreadmeに入れておきます
01711572009/08/25(火) 22:42:42
imageFap スクリプト

fap.pl
readme.txt
require_url.png
を同梱。

使い方は、>>166のスクリプトと全く同じです。

ttp://www1.axfc.net/uploader/Sc/so/30657.zip
0172名無しさん@お腹いっぱい。2009/08/29(土) 20:29:53
>>171
動いたずら。
fap.plの改行コードがCR+LFだった。
0173名無しさん@お腹いっぱい。2009/09/12(土) 12:14:31
>>166>>171
ありがてぇありがてぇ
0174名無しさん@お腹いっぱい。2009/10/04(日) 23:34:23
つーるのつかいかたがわかんないです><
0175名無しさん@お腹いっぱい。2009/10/09(金) 19:12:20
>>174
readme.txt 嫁
0176名無しさん@お腹いっぱい。2009/10/09(金) 20:50:01
>>166
ありがたいです

しかし、100枚超えると普通にはじかれますね・・・
串どうやって刺そうかな
0177名無しさん@お腹いっぱい。2009/10/09(金) 22:49:02
携帯専用ですが
無料のおかず画像サイト集めてみました
http://s12.smhp%2ejp/abc1103
01781572009/10/10(土) 17:32:40
>>176
待つ時間を長くすればするほど
単位時間のダウンロードの大きさが減るので、
730行目あたりの関数 waitp を

sub waitp {
# wait process and random sleep.
# process sleeps while ??? seconds, not "msec".
#
# if you want to use "msec" unit, use "select".
# same effect of 'sleep' while 250 msec is,
# "select(undef, undef, undef, 0.25) ;".
# but, can't use progress bar.
my $base = 10000 ; # random sleep from 1 sec to $base/1000 sec.
my $t = int ( rand ($base) / 1000 ) ;
progbar (++$t) ;
return 1 ;
}

などと書き換えてみてください。
帯域制限がかかりにくくなります。
0179名無しさん@お腹いっぱい。2009/10/12(月) 10:05:00
>>178
やるじゃん
0180名無しさん@お腹いっぱい。2009/10/13(火) 02:45:36
>>178
thx!
ここへは検索でたどり着いた他所者で申し訳ないが助かるわ
昔入社直後にならったプロンプト程度の知識でもいけるもんだな・・・使う分には
0181名無しさん@お腹いっぱい。2009/10/13(火) 05:57:36
g.e-hentai.orgのスクリプトの使い方がよくわからなくて困っています
付属のReadmeを読んでみて自分なりに試してみたのですがうまくいかず
本体を起動すると黒い窓と文字が一瞬表示されるのですが
すぐに消えてしまうためなんとかプリントスクリーンで撮影して
そこに書いてあったリストの作成などもしてみたのですけどダメでしたorz
プログラムなどの知識皆無なのでそもそも場違いとも思うのですが、
どなたか教えていただけないでしょうか?
0182名無しさん@お腹いっぱい。2009/10/13(火) 06:47:37
>>181
g.e-hentai.orgからアクセス制限がかかってる現在の状況下で
さらに自分で調べもしない人間達にでも使えるように説明しろと?

正気ですか?

お前の目の前にある箱はなんだよ?飾りか?


>自分なりに試してみたのですが
もっとやれ
もっともっとやれ
救いな事に>>157氏のファイルはインチキじゃない
自分で勉強すれば必ず結果が伴う
■ このスレッドは過去ログ倉庫に格納されています