連番のH画像/動画を一気にダウンロードする2
■ このスレッドは過去ログ倉庫に格納されています
0001前スレ1
2005/12/26(月) 02:56:22実践されているノウハウを教えていただきたく再度、スレを立てさせてもらいました。
前スレ 連番のH画像を一気にダウンロードする
http://pc8.2ch.net/test/read.cgi/unix/979106537/
0102名無しさん@お腹いっぱい。
2007/04/10(火) 23:16:28連番のH画像/動画を一気にダウンロードしたものを僕に下さい(>_<)(>_<)
0103名無しさん@お腹いっぱい。
2007/04/21(土) 16:02:05ブラウザでは保存可能でした。
wget --referer='http://imepita.jp/20070402/701450' -U='Mozilla/4.0 (compatible; MSIE 5.01; Windows NT 5.0)' --header='Accept-Language: ja' 'http://imepita.jp/kp_img/trial/20070402/701450.jpg?FFunc=IConf&FFcom=%22off%22'
としています。
指摘よろしくおねがいします。
0104名無しさん@お腹いっぱい。
2007/05/01(火) 13:54:450105名無しさん@お腹いっぱい。
2007/05/01(火) 19:01:17とりあえずURLを書きなさいよ
0106名無しさん@お腹いっぱい。
2007/05/05(土) 09:35:29ttp://infostore.org/info/3078906?refer=2257986&rs=2
→ ttp://img44.imagevenue.com/aAfkjfp01fo1i-24835/loc286/27363_004pat060.jpg
0107名無しさん@お腹いっぱい。
2007/05/05(土) 10:51:18grep -o 'http://[^#]*' |
grep 'imagevenue.com/img.php' |
while read LINE; do
lynx -dump -image_links $LINE |
grep -o 'http://[^#]*' |
grep '/loc[0-9][0-9]*/'
done
0108名無しさん@お腹いっぱい。
2007/05/05(土) 11:08:02あとは sleep もいれたほうがいいかも
0109名無しさん@お腹いっぱい。
2007/05/05(土) 12:23:56$ cat hoge.sh
#!/bin/sh
curl -s "$1" |
grep imagevenue |
sed -n -e "s/href='\\([^']*\\)'/\\
HREF=\\1\\
/gp" |
sed -n -e "/HREF=/s/HREF=//p" |
while read URL
do
dir="`dirname \"$URL\"`"
file=`curl -s "$URL" | sed -n -e '/thepic/ {N; s/.*SRC="\([^"]*\)".*/\1/p;}'`
curl -s --referer "$URL" -O "$dir/$file"
done
$ ./hoge.sh 'http://infostore.org/info/3078906?refer=2257986&rs=2'
0110名無しさん@お腹いっぱい。
2007/05/05(土) 15:07:320111名無しさん@お腹いっぱい。
2007/05/05(土) 19:36:37>>105
0112名無しさん@お腹いっぱい。
2007/05/05(土) 23:32:55imagefapは
(1) ギャラリーページから全てのギャラリーページのURLを抽出
(2) 各ギャラリーページから画像ページのURLを抽出
(3) 画像ページから画像ファイルのURLを抽出
という手順になると思う。(3) のURLはJavaScriptでブラウザに生成させてるのでwgetとかでは無理っぽい。
0113名無しさん@お腹いっぱい。
2007/05/06(日) 09:10:45http://images.imagefap.com/images/thumb/11/141/1414518509.jpg
http://images.imagefap.com/images/full/11/141/1414518509.jpg
0114名無しさん@お腹いっぱい。
2007/05/06(日) 21:18:14for URL in `seq -f 'http://www.imagefap.com/gallery.php?gid=330938&page=%g' 0 8`; do
echo get: $URL >&2
get_links_from_url $URL | sed -n '/thumb/s/thumb/full/p'
done
0115名無しさん@お腹いっぱい。
2007/10/23(火) 21:46:500116名無しさん@お腹いっぱい。
2007/10/27(土) 02:27:200117名無しさん@お腹いっぱい。
2007/12/30(日) 00:22:46ttp://g.e-hentai.org/g/854/ed9b4c88ddfde2ab2ea93ee162b0ebf6315cef64/5-m-y/
0118名無しさん@お腹いっぱい。
2008/01/02(水) 21:10:52http://exgirlfriendmarket.com/perfect_tits_corina?
0119名無しさん@お腹いっぱい。
2008/01/02(水) 22:24:460120118
2008/01/03(木) 01:46:07さっそくの助言、ありがとうございます。
とりあえず curl をインストールして試してみました。拝見したところ、外部リンクになっているのを直接指定していますね。
これを Unix のコマンドの組み合わせで
・画像一覧ページから
・個別の画像、もしくは画像表示ページへのリンクを辿り
・自動で巡回して、一定サイズ以上の JPG はダウンロードする
ということはできませんでしょうか? 趣味と実益を兼ねて、こんな感じの Blog を巡回することが多いのです。
だめだったら Win のダウンローダーでも探しますが、やはり Unix で覚えたいので。
お手数ですが、よろしかったらお知恵を拝借させてください。m(_ _)m
0121名無しさん@お腹いっぱい。
2008/01/03(木) 09:38:02再帰ダウンロード時のフィルタ:
-A, --accept=LIST ダウンロードする拡張子をコンマ区切りで指定する
-R, --reject=LIST ダウンロードしない拡張子をコンマ区切りで指定する
-D, --domains=LIST ダウンロードするドメインをコンマ区切りで指定する
--exclude-domains=LIST ダウンロードしないドメインをコンマ区切りで指定する
--follow-ftp HTML 文書中の FTP リンクも取得対象にする
--follow-tags=LIST 取得対象にするタグ名をコンマ区切りで指定する
--ignore-tags=LIST 取得対象にしないタグ名をコンマ区切りで指定する
-H, --span-hosts 再帰中に別のホストもダウンロード対象にする
-L, --relative 相対リンクだけ取得対象にする
-I, --include-directories=LIST 取得対象にするディレクトリを指定する
-X, --exclude-directories=LIST 取得対象にしないディレクトリを指定する
-np, --no-parent 親ディレクトリを取得対象にしない
0122名無しさん@お腹いっぱい。
2008/02/27(水) 14:12:00今やそのスレが消えてしまったため、もう一度ここで質問させてください。
例えばここに置いてある松金洋子のデスクトップ用壁紙画像をターゲットとします。
http://www.sexydesktop.co.uk/youko.htm
ここには全部で4ページ分48種類の松金洋子の画像があります。
このサイトの画像はすべてデスクトップ用の壁紙を目的としているので、
一つの画像に関して数種類の解像度・縦横比の画像が用意されており、
アクセスしてきた人の使っているディスプレイ解像度を検出しては、
最適な解像度のものを優先的にプッシュするようになっています。
また、画像ファイルの命名ルールは非常に単純かつ形式的で、
たとえば例に挙げた松金洋子の画像の場合、
まず画像の名前を表す youko1 から youko48 までの48種類の画像が用意されています。
さらにそれぞれの解像度を表す 1280x800 や 800x600 の文字列が続き、最後に拡張子 .jpg が付いています。
注意する点は、例えば youko48 に対して youko01 だとか、1280x1024 に対して 0800x0600 といった、
命名上の「桁数合わせ」が一切行われていないという点です。
0123122-123
2008/02/27(水) 14:12:231). サイトがプッシュしてくるこちらのディスプレイ解像度に関係なく、
すべての画像に関して、より解像度の大きい物を、
番号の一番若いものから古いものまで全種類取って来たい。
2). その際、取って来た画像のファイル名を修正して、
youko48 に対しては youko01 、1280x1024 に対して 0800x0600 など、命名上の「桁数合わせ」をしたい。
3). さらに、ファイル名の中の画像名を表す文字列と、解像度を表す文字列とを _ で結ぶようにしたい。
具体的には、youko11600x1200.jpg と名付けられた youko1 という画像の 1600x1200 版のファイル名を、youko01_1600x1200.jpg としたい。同様に、youko481280x1024.jpg と名付けられた youko48 という画像の
1280x1024 版のファイル名を youko48_1280x1024.jpg としたい。
以上をまとめると、参考例の松金洋子の画像で言えば、
youko11600x1200.jpg から youko481280x1024.jpg までの画像を、
youko01_1600x1200.jpg から youko48_1280x1024.jpg として保存したい。
これを実現するスクリプトをどう書けばいいでしょうか?
なお、好みのタレントの画像が何種類用意されているか(松金洋子の場合は48種類)については、
ダウンロードを開始する前に手作業で調べることとします。
0124名無しさん@お腹いっぱい。
2008/02/27(水) 14:31:38コントンジョノイコ
スレタイを読んでからスクリプトスレに行け
0125名無しさん@お腹いっぱい。
2008/02/27(水) 14:43:56>これを実現するスクリプトをどう書けばいいでしょうか?
変な書きかたをせずに普通に書けばいいと思うよ
0126名無しさん@お腹いっぱい。
2008/02/27(水) 18:52:00むしろここをやりたいのかと思った… :-P
0127名無しさん@お腹いっぱい。
2008/03/01(土) 03:23:35まず自分で書くんだ
0128名無しさん@お腹いっぱい。
2008/03/03(月) 14:00:03これを-1.拡張子とすることはできないでしょうか?
通常は hoge.html, hoge.html.1, hoge.html.2 とファイルが出来て行くものを
hoge.html, hoge-1.html, hoge-2.html と名付けられて欲しいのです。
0129名無しさん@お腹いっぱい。
2008/03/03(月) 14:45:41for i in *.1 *.2
do
j=${i:r}
mv -i ${i} ${j:r}-${i:e}.${j:e}
done
0130名無しさん@お腹いっぱい。
2008/03/03(月) 19:01:42なるほど、-iをつけて重複したものに上書きするのを防ぐというわけですか。
自動でユニークなファイル名をつけるにはもうちょっとシェルスクリプト書けば良さそうですね。
wgetでダウンロードする時点ではでないんでしょうか。
for i in *.1 *.2
は *.整数 なもの全てに対応するには *.[0-9]* でいいのだろうか。
でもこれだと .3g2 もひっかかるか。
0131名無しさん@お腹いっぱい。
2008/03/03(月) 19:04:220132名無しさん@お腹いっぱい。
2008/03/22(土) 13:38:18@tmp=("Alina-G", "Anastasia-S", "Anna-T", "Anna-Z", "Iryna-M", "Kateryna-V", "Larisa-H", "Oksana", "Olga-S",
"Olha-D", "Sasha-D", "Sasha-L", "Svetlana-T", "Ulyana-A", "Ulyana-M", "Valeriya-L", "Victoria-D", "Victoria-S", "Yuliya-S", "Yuliya-Z");
$baseurl = "http://www.candydoll.tv/images/";
foreach $f(@tmp){
for ($i=1 ;$i < 7;$i++){
$imgname = sprintf"%s-images%02d", $f, $i
$url = sprintf "%s/%s.jpg",$baseurl,$imgname; system "wget " . $url;
$cnvcmd = sprintf "jpegtopnm %s.jpg > %s.pnm",$imgname,$imgname; system $cnvcmd;
}
$a = "pnmcat -lr ". sprintf "%s-images01.pnm ",$f; $a .= sprintf "%s-images02.pnm ", $f; $a .= sprintf "> %s-images_a.pnm", $f;
system $a;
$a = "pnmcat -lr ". sprintf "%s-images03.pnm ",$f; $a .= sprintf "%s-images04.pnm ", $f; $a .= sprintf "> %s-images_b.pnm", $f;
system $a;
$a = "pnmcat -lr " . sprintf "%s-images05.pnm ",$f; $a .= sprintf "%s-images06.pnm ", $f; $a .= sprintf "> %s-images_c.pnm", $f;
system $a;
$a = "pnmcat -tb ". sprintf "%s-images_[abc].pnm |pnmtojpeg > %s-image.jpg",$f,$f; system $a;
}
system "rm *.pnm";
0133名無しさん@お腹いっぱい。
2008/03/23(日) 09:03:530134名無しさん@お腹いっぱい。
2008/03/23(日) 20:41:1112
34
56
といった形で分割されてあげられてるんだけど、
これをうまく結合する方法を思いつかなかったんで一旦pnmに変換したんですよ。
なにかいい方法はないもんでしょうか。
0135名無しさん@お腹いっぱい。
2008/03/23(日) 21:13:20convert -append / +append かな?
0136132
2008/03/24(月) 02:21:15>>135さんの助言のおかげで無駄な変換をしないように修正したものをあげておきます。
#!/usr/bin/perl
@tmp=("Alina-G", "Anastasia-S", "Anna-T", "Anna-Z", "Iryna-M", "Kateryna-V", "Larisa-H", "Oksana", "Olga-S",
"Olha-D", "Sasha-D", "Sasha-L", "Svetlana-T", "Ulyana-A", "Ulyana-M", "Valeriya-L", "Victoria-D", "Victoria-S", "Yuliya-S", "Yuliya-Z");
$baseurl = "http://www.candydoll.tv/images/";
foreach $f(@tmp){
for ($i=1 ;$i < 7;$i++){
$imgname = sprintf "%s-images%02d", $f, $i;
$url = sprintf "%s/%s.jpg", $baseurl, $imgname; system "wget " . $url;
}
$a = sprintf "convert +append %s-images01.jpg %s-images02.jpg %s-images_a.ppm", $f, $f, $f;
system $a;
$a = sprintf "convert +append %s-images03.jpg %s-images04.jpg %s-images_b.ppm", $f, $f, $f;
system $a;
$a = sprintf "convert +append %s-images05.jpg %s-images06.jpg %s-images_c.ppm", $f, $f, $f;
system $a;
$a = sprintf "convert -append %s-images_[abc].ppm %s-image.jpg", $f, $f;
system $a;
}
system "rm *.ppm";
0137名無しさん@お腹いっぱい。
2008/03/24(月) 06:00:070138単なるスクリプト練習道場
2008/03/24(月) 09:38:420139名無しさん@お腹いっぱい。
2008/04/20(日) 01:18:07僕の使ってるやつだとサムネイル画像しか落とせないんですが。
0140名無しさん@お腹いっぱい。
2008/04/20(日) 02:24:422chブラウザみたいなやつでもあるの?
流れにまかせて適当に見るのが筋なのかな。
0141名無しさん@お腹いっぱい。
2008/05/06(火) 23:35:44http://www3.nhk.or.jp/news/
最近リニューアルしてから、ダウンロード出来なくなりました。
ブラウザのキャッシュにも残りません。swfを間にかましてるみたいです。
宜しくお願いします。
0142名無しさん@お腹いっぱい。
2008/05/07(水) 17:28:51まず見てるページのソースコードを見ると
wmvHigh = "http://cgi2.nhk.or.jp/news/cgibin/K10099999999_9999999999_0805071653_01t_mh.cgi
てなことが書いてある。次に
view-source:http://cgi2.nhk.or.jp/news/cgibin/K10099999999_9999999999_0805071653_01t_mh.cgi
でさらに見ると
<REF HREF="mms://a669.v90561.c9056.g.vm.akamaistream.net/5/669/9056/48216095/1a1a1ad74ec5f82d5bc9319cca39abd943b3e250b52c9f/K10044234611_0805071619_0805071653_mh.wmv"/>
とか書いてある。こいつを録画すればおk
0143名無しさん@お腹いっぱい。
2008/05/10(土) 21:01:38うまくいきました。丁寧に教えてもらって感謝です。
0144名無しさん@お腹いっぱい。
2008/05/31(土) 18:03:17http://jp.youtube.com/watch?v=looALHmz6aA&feature=related
http://jp.youtube.com/watch?v=XlJkpEsaYMY&NR=1
http://jp.youtube.com/watch?v=aJ47PkaeM_M&feature=related
http://jp.youtube.com/watch?v=vsbv9Y-oPxg&feature=related
http://jp.youtube.com/watch?v=srYyLjVihYQ&feature=related
http://jp.youtube.com/watch?v=GyY_GFtj5Tg&feature=related
http://jp.youtube.com/watch?v=9uF85UO9-lg&feature=related
http://jp.youtube.com/watch?v=svH44ZUVE4A&feature=related
http://jp.youtube.com/watch?v=k9OJL0c-CBg&feature=related
http://jp.youtube.com/watch?v=I7nMFPYuF7o&feature=related
http://jp.youtube.com/watch?v=Kci1bOlAOCY&NR=1
http://jp.youtube.com/watch?v=yXPS8v7VqVg&feature=related
http://jp.youtube.com/watch?v=jpgH4CrHXF8&NR=1
鉄道をこよなく愛する人たち
0145名無しさん@お腹いっぱい。
2008/05/31(土) 20:16:440146名無しさん@お腹いっぱい。
2008/07/05(土) 00:14:430147名無しさん@お腹いっぱい。
2008/07/05(土) 05:41:530148名無しさん@お腹いっぱい。
2008/07/05(土) 23:27:080149名無しさん@お腹いっぱい。
2008/07/06(日) 00:20:470150名無しさん@お腹いっぱい。
2008/09/21(日) 11:29:130151名無しさん@お腹いっぱい。
2008/09/27(土) 21:48:190152名無しさん@お腹いっぱい。
2008/11/13(木) 19:08:260153名無しさん@お腹いっぱい。
2009/01/06(火) 01:43:12なんかいいツールはない?
0154名無しさん@お腹いっぱい。
2009/01/10(土) 17:41:500155名無しさん@お腹いっぱい。
2009/01/23(金) 02:38:56http://www.nicovideo.jp/watch/sm5750285
0156名無しさん@お腹いっぱい。
2009/03/26(木) 19:55:23コラア!いてまうど!
0157名無しさん@お腹いっぱい。
2009/04/17(金) 11:58:35(knoppix 5.1.3)
original file name : getimgs.pl.txt
約5354.4日間保存
ttp://www1.axfc.net/uploader/File/so/21579.txt&key=vip
pass : vip
0158名無しさん@お腹いっぱい。
2009/06/04(木) 14:58:19222行目と223行目逆じゃない?
0159名無しさん@お腹いっぱい。
2009/06/05(金) 01:47:51うん、逆だな。
その他にも、幾つかバグがあるようだ。
でも、転送制限があるサイトなので、あんまり使う気しない。
※だいたい160枚前後で、転送休止ってどうなのよ?
0160名無しさん@お腹いっぱい。
2009/07/21(火) 01:34:07これを一気にダウンロードすると、相当な負荷をかけると思うので数秒おきにダウンロードするようにしたいのだけど、そんなことできる?
0161160
2009/07/21(火) 01:35:290162名無しさん@お腹いっぱい。
2009/07/21(火) 01:59:57よくわからんが
>数秒おきにダウンロードするようにしたい
っていうのが要件であるのならsleepでもかませればいいんでないの。
固定時間で、ダウンローダ使っているのを推測されるのが嫌なら
(そういうサイトがあるかはしらないけど)
sleepの引数を範囲絞って乱数にすりゃいいし。難しくはないだろ
0163157
2009/08/18(火) 23:34:32get.pl
readme.txt
をzipにて同梱。
http://www1.axfc.net/uploader/Sc/so/28498.zip&key=vip
0164名無しさん@お腹いっぱい。
2009/08/20(木) 00:41:03解凍してみたが、readme.txt ehg.txt
しか見当たらない。
get.plはいづこに?
0165名無しさん@お腹いっぱい。
2009/08/20(木) 10:00:110166157
2009/08/20(木) 15:44:14g.e-hentai.org スクリプト
get.pl
readme.txt
require_url.png
をzipにて同梱。
ttp://www1.axfc.net/uploader/Sc/so/28995.zip&key=vip
0167名無しさん@お腹いっぱい。
2009/08/20(木) 22:14:50おお、サンキュー
早速、ゲット開始。
なんか色々新しくなってるね。きちんとエラー処理してあって
便利になってる。
スクリプトいぢって遊んでみるわ。ありがとう。
0168187
2009/08/20(木) 22:41:18のmaskを、0777に変更しないとうまく動作しなかった。
デレクトリィは、できるけど書込み出来ない。
perl, v5.8.6 built for darwinでの動作報告
0169167
2009/08/20(木) 22:42:180171157
2009/08/25(火) 22:42:42fap.pl
readme.txt
require_url.png
を同梱。
使い方は、>>166のスクリプトと全く同じです。
ttp://www1.axfc.net/uploader/Sc/so/30657.zip
0172名無しさん@お腹いっぱい。
2009/08/29(土) 20:29:53動いたずら。
fap.plの改行コードがCR+LFだった。
0173名無しさん@お腹いっぱい。
2009/09/12(土) 12:14:31ありがてぇありがてぇ
0174名無しさん@お腹いっぱい。
2009/10/04(日) 23:34:230175名無しさん@お腹いっぱい。
2009/10/09(金) 19:12:20readme.txt 嫁
0176名無しさん@お腹いっぱい。
2009/10/09(金) 20:50:01ありがたいです
しかし、100枚超えると普通にはじかれますね・・・
串どうやって刺そうかな
0177名無しさん@お腹いっぱい。
2009/10/09(金) 22:49:02無料のおかず画像サイト集めてみました
http://s12.smhp%2ejp/abc1103
0178157
2009/10/10(土) 17:32:40待つ時間を長くすればするほど
単位時間のダウンロードの大きさが減るので、
730行目あたりの関数 waitp を
sub waitp {
# wait process and random sleep.
# process sleeps while ??? seconds, not "msec".
#
# if you want to use "msec" unit, use "select".
# same effect of 'sleep' while 250 msec is,
# "select(undef, undef, undef, 0.25) ;".
# but, can't use progress bar.
my $base = 10000 ; # random sleep from 1 sec to $base/1000 sec.
my $t = int ( rand ($base) / 1000 ) ;
progbar (++$t) ;
return 1 ;
}
などと書き換えてみてください。
帯域制限がかかりにくくなります。
0179名無しさん@お腹いっぱい。
2009/10/12(月) 10:05:00やるじゃん
0180名無しさん@お腹いっぱい。
2009/10/13(火) 02:45:36thx!
ここへは検索でたどり着いた他所者で申し訳ないが助かるわ
昔入社直後にならったプロンプト程度の知識でもいけるもんだな・・・使う分には
0181名無しさん@お腹いっぱい。
2009/10/13(火) 05:57:36付属のReadmeを読んでみて自分なりに試してみたのですがうまくいかず
本体を起動すると黒い窓と文字が一瞬表示されるのですが
すぐに消えてしまうためなんとかプリントスクリーンで撮影して
そこに書いてあったリストの作成などもしてみたのですけどダメでしたorz
プログラムなどの知識皆無なのでそもそも場違いとも思うのですが、
どなたか教えていただけないでしょうか?
0182名無しさん@お腹いっぱい。
2009/10/13(火) 06:47:37g.e-hentai.orgからアクセス制限がかかってる現在の状況下で
さらに自分で調べもしない人間達にでも使えるように説明しろと?
正気ですか?
お前の目の前にある箱はなんだよ?飾りか?
>自分なりに試してみたのですが
もっとやれ
もっともっとやれ
救いな事に>>157氏のファイルはインチキじゃない
自分で勉強すれば必ず結果が伴う
0183名無しさん@お腹いっぱい。
2009/10/14(水) 12:55:49>>181 Linux勉強してLinuxで実行するといいよ
0184名無しさん@お腹いっぱい。
2009/10/20(火) 09:36:45皆さんはどれくらいの期間、制限かかってます?
初めのころは1・2時間程度だったのになあ。
0185名無しさん@お腹いっぱい。
2009/10/21(水) 21:16:440186名無しさん@お腹いっぱい。
2009/10/23(金) 04:59:37串の設定項目が無いのでDL専用の仮想マシンを作ってシステム全体に串を噛まそうと思う
yumとかで実践されてるこの方法が一番かな
http://blog.livedoor.jp/glantank/archives/50952655.html
0187名無しさん@お腹いっぱい。
2009/10/23(金) 05:29:17これだけ神経質だとISPごとアク禁とか何のためらいもなくやりそうで怖いなw
0188名無しさん@お腹いっぱい。
2009/11/16(月) 09:44:270189名無しさん@お腹いっぱい。
2009/11/17(火) 02:10:06ぱす chinko
E-Hentaiからダウンするなら最近これ使ってるけどな。
転送制限もなぜかかかりにくい。600枚位連続で落としたが、まだいけそうだ。
どやって回避してんのかな。
Win用だからスレチかもしれんが。
0190名無しさん@お腹いっぱい。
2009/11/17(火) 21:28:52いつ解除されんのかな
0191名無しさん@お腹いっぱい。
2009/11/17(火) 22:46:25ちょっと、試してみた。
結局おれんトコでは、150枚くらいで転送制限になった。
転送制限中ですよ画像も、ダウンロードしちゃうよ。w
>>190
もう、そろそろじゃない?
五日くらい制限喰らった時も有ったような。
0192名無しさん@お腹いっぱい。
2009/11/18(水) 01:16:26you have temporarily reached the limit for how many images you can browse
-if you haven't already, you can double
your daily quota simply by signing up for
an absolutely free forums account at,
http://forums.e-hetai.org/
- you can run the hentai@home distributed image server to help us serve more images.
this will give you points which can be used to increase your page view limit,
and cache files locally so they are ready when you wish to view them.
(check the news dorum for moredetails and signup information)
please understand that e-hentai galleries is a free service, and to keep it free we
must limit the amount of images anyone person can view.
if you come back in a few hours, you will be able to download more.
暇だから写した
157氏のスクリプト試したら4枚で…
閲覧や手作業での保存も出来ず悶悶
解除されたらチンコの試そう
>>191
そんなにかかるのか
確認に行って509返されて期間延長とかないよな
0193名無しさん@お腹いっぱい。
2009/11/18(水) 01:56:14再うpキボンヌ
0194名無しさん@お腹いっぱい。
2009/11/19(木) 02:05:560195名無しさん@お腹いっぱい。
2009/11/30(月) 23:57:45はどんなツールだったの?
0196名無しさん@お腹いっぱい。
2009/12/01(火) 21:27:46画像ダウンロードアプリですよ。
ダウンする時に、サムネイルプレビューが見えるのが親切設計。
転送制限回避は、どうも環境によるとしか胃炎。つーか、分からん
0197名無しさん@お腹いっぱい。
2009/12/02(水) 01:30:520198名無しさん@お腹いっぱい。
2009/12/03(木) 14:41:23誰か作ってませんか?
0199名無しさん@お腹いっぱい。
2009/12/03(木) 16:08:22今日また使おうとしたら、
Invalid argument at get.pl line 438.
って吐き出して止まってしまう・・
0200名無しさん@お腹いっぱい。
2009/12/04(金) 03:35:56作成したときはwwwがなかったのかな
それと、それでも
the list file name is http://www.imagefap.com/gallery/*******.list.
the directory name will be http://www.imagefap.com/gallery/*******.
http://www.imagefap.com/gallery/******** does not exist.
Invalid argument at C:\Documents and Settings\-----\fap.pl line 239.
make a directory:
ってエラー出て止まるんだけどどうすればいいべさ
0201名無しさん@お腹いっぱい。
2009/12/06(日) 07:39:36■ このスレッドは過去ログ倉庫に格納されています