トップページunix
1001コメント292KB

連番のH画像/動画を一気にダウンロードする2

■ このスレッドは過去ログ倉庫に格納されています
0001前スレ12005/12/26(月) 02:56:22
前スレ5年間のご愛顧ありがとうございました。PGFは無事コンプしましたが、これからも皆様の日々
実践されているノウハウを教えていただきたく再度、スレを立てさせてもらいました。
前スレ 連番のH画像を一気にダウンロードする
http://pc8.2ch.net/test/read.cgi/unix/979106537/
0107名無しさん@お腹いっぱい。2007/05/05(土) 10:51:18
lynx -dump 'http://infostore.org/info/3078906?refer=2257986&rs=2' |
grep -o 'http://[^#]*' |
grep 'imagevenue.com/img.php' |
while read LINE; do
lynx -dump -image_links $LINE |
grep -o 'http://[^#]*' |
grep '/loc[0-9][0-9]*/'
done
0108名無しさん@お腹いっぱい。2007/05/05(土) 11:08:02
ああ、ここUNIX板だから grep -o はまずいか。perl -ne 'print $& if m{pattern}' とかで。
あとは sleep もいれたほうがいいかも
0109名無しさん@お腹いっぱい。2007/05/05(土) 12:23:56
俺んとこlynx入ってなかったのでsedとcurlで

$ cat hoge.sh
#!/bin/sh

curl -s "$1" |
grep imagevenue |
sed -n -e "s/href='\\([^']*\\)'/\\
HREF=\\1\\
/gp" |
sed -n -e "/HREF=/s/HREF=//p" |
while read URL
do
dir="`dirname \"$URL\"`"
file=`curl -s "$URL" | sed -n -e '/thepic/ {N; s/.*SRC="\([^"]*\)".*/\1/p;}'`
curl -s --referer "$URL" -O "$dir/$file"
done

$ ./hoge.sh 'http://infostore.org/info/3078906?refer=2257986&rs=2'
0110名無しさん@お腹いっぱい。2007/05/05(土) 15:07:32
勉強になるなぁ(何の???)
0111名無しさん@お腹いっぱい。2007/05/05(土) 19:36:37
http://www.imagefap.com/gallery.php?gid=330938
>>105
0112名無しさん@お腹いっぱい。2007/05/05(土) 23:32:55
>>111
imagefapは
(1) ギャラリーページから全てのギャラリーページのURLを抽出
(2) 各ギャラリーページから画像ページのURLを抽出
(3) 画像ページから画像ファイルのURLを抽出

という手順になると思う。(3) のURLはJavaScriptでブラウザに生成させてるのでwgetとかでは無理っぽい。
0113名無しさん@お腹いっぱい。2007/05/06(日) 09:10:45
ギャラリーページサムネイルのURLを置換してやればいいんでないの?
http://images.imagefap.com/images/thumb/11/141/1414518509.jpg
http://images.imagefap.com/images/full/11/141/1414518509.jpg
0114名無しさん@お腹いっぱい。2007/05/06(日) 21:18:14
get_links_from_url() { lynx -dump -image_links "$1" | grep -o 'http://[^#]*'; }

for URL in `seq -f 'http://www.imagefap.com/gallery.php?gid=330938&page=%g' 0 8`; do
echo get: $URL >&2
get_links_from_url $URL | sed -n '/thumb/s/thumb/full/p'
done
0115名無しさん@お腹いっぱい。2007/10/23(火) 21:46:50
最近ぐっと来るネタがないっすねぇ
0116名無しさん@お腹いっぱい。2007/10/27(土) 02:27:20
最近のエロ画像はZIPで固めてrapidshareだからなあ
0117名無しさん@お腹いっぱい。2007/12/30(日) 00:22:46
こういうアドレスが長く、不規則なのってどうやればいいでしょうか

ttp://g.e-hentai.org/g/854/ed9b4c88ddfde2ab2ea93ee162b0ebf6315cef64/5-m-y/
0118名無しさん@お腹いっぱい。2008/01/02(水) 21:10:52
こういう別サイトの画像ディレクトリを参照している場合って、うまい方法ありますか?

http://exgirlfriendmarket.com/perfect_tits_corina?
0119名無しさん@お腹いっぱい。2008/01/02(水) 22:24:46
curl -O --referer 'http://exgirlfriendmarket.com/perfect_tits_corina/perfect_tits_corina-00.html' 'http://content1.nudeparadisehotel.com/femjoy/0681/[00-11].jpg'
01201182008/01/03(木) 01:46:07
>>119

さっそくの助言、ありがとうございます。
とりあえず curl をインストールして試してみました。拝見したところ、外部リンクになっているのを直接指定していますね。

これを Unix のコマンドの組み合わせで
 ・画像一覧ページから
 ・個別の画像、もしくは画像表示ページへのリンクを辿り
 ・自動で巡回して、一定サイズ以上の JPG はダウンロードする
ということはできませんでしょうか? 趣味と実益を兼ねて、こんな感じの Blog を巡回することが多いのです。

だめだったら Win のダウンローダーでも探しますが、やはり Unix で覚えたいので。
お手数ですが、よろしかったらお知恵を拝借させてください。m(_ _)m
0121名無しさん@お腹いっぱい。2008/01/03(木) 09:38:02
wget -r -l 2 とかで。あとは wget --help の↓に気をつける:
再帰ダウンロード時のフィルタ:
-A, --accept=LIST ダウンロードする拡張子をコンマ区切りで指定する
-R, --reject=LIST ダウンロードしない拡張子をコンマ区切りで指定する
-D, --domains=LIST ダウンロードするドメインをコンマ区切りで指定する
--exclude-domains=LIST ダウンロードしないドメインをコンマ区切りで指定する
--follow-ftp HTML 文書中の FTP リンクも取得対象にする
--follow-tags=LIST 取得対象にするタグ名をコンマ区切りで指定する
--ignore-tags=LIST 取得対象にしないタグ名をコンマ区切りで指定する
-H, --span-hosts 再帰中に別のホストもダウンロード対象にする
-L, --relative 相対リンクだけ取得対象にする
-I, --include-directories=LIST 取得対象にするディレクトリを指定する
-X, --exclude-directories=LIST 取得対象にしないディレクトリを指定する
-np, --no-parent 親ディレクトリを取得対象にしない
0122名無しさん@お腹いっぱい。2008/02/27(水) 14:12:00
以前に別スレで質問を投げたことがあるのですが、うまい解決方法に行き当たらなかったのと、
今やそのスレが消えてしまったため、もう一度ここで質問させてください。

例えばここに置いてある松金洋子のデスクトップ用壁紙画像をターゲットとします。
http://www.sexydesktop.co.uk/youko.htm
ここには全部で4ページ分48種類の松金洋子の画像があります。

このサイトの画像はすべてデスクトップ用の壁紙を目的としているので、
一つの画像に関して数種類の解像度・縦横比の画像が用意されており、
アクセスしてきた人の使っているディスプレイ解像度を検出しては、
最適な解像度のものを優先的にプッシュするようになっています。

また、画像ファイルの命名ルールは非常に単純かつ形式的で、
たとえば例に挙げた松金洋子の画像の場合、
まず画像の名前を表す youko1 から youko48 までの48種類の画像が用意されています。

さらにそれぞれの解像度を表す 1280x800 や 800x600 の文字列が続き、最後に拡張子 .jpg が付いています。
注意する点は、例えば youko48 に対して youko01 だとか、1280x1024 に対して 0800x0600 といった、
命名上の「桁数合わせ」が一切行われていないという点です。
0123122-1232008/02/27(水) 14:12:23
ここから先が質問です。やりたいことは、

1). サイトがプッシュしてくるこちらのディスプレイ解像度に関係なく、
すべての画像に関して、より解像度の大きい物を、
番号の一番若いものから古いものまで全種類取って来たい。

2). その際、取って来た画像のファイル名を修正して、
youko48 に対しては youko01 、1280x1024 に対して 0800x0600 など、命名上の「桁数合わせ」をしたい。

3). さらに、ファイル名の中の画像名を表す文字列と、解像度を表す文字列とを _ で結ぶようにしたい。
具体的には、youko11600x1200.jpg と名付けられた youko1 という画像の 1600x1200 版のファイル名を、youko01_1600x1200.jpg としたい。同様に、youko481280x1024.jpg と名付けられた youko48 という画像の
1280x1024 版のファイル名を youko48_1280x1024.jpg としたい。

以上をまとめると、参考例の松金洋子の画像で言えば、
youko11600x1200.jpg から youko481280x1024.jpg までの画像を、
youko01_1600x1200.jpg から youko48_1280x1024.jpg として保存したい。

これを実現するスクリプトをどう書けばいいでしょうか?

なお、好みのタレントの画像が何種類用意されているか(松金洋子の場合は48種類)については、
ダウンロードを開始する前に手作業で調べることとします。
0124名無しさん@お腹いっぱい。2008/02/27(水) 14:31:38
>>123
コントンジョノイコ

スレタイを読んでからスクリプトスレに行け
0125名無しさん@お腹いっぱい。2008/02/27(水) 14:43:56
>>122
>これを実現するスクリプトをどう書けばいいでしょうか?
変な書きかたをせずに普通に書けばいいと思うよ
0126名無しさん@お腹いっぱい。2008/02/27(水) 18:52:00
>ダウンロードを開始する前に手作業で調べることとします。

むしろここをやりたいのかと思った… :-P
0127名無しさん@お腹いっぱい。2008/03/01(土) 03:23:35
とりあえず自分で書いたとこまでうpすればみんなが添削してくれる
まず自分で書くんだ
0128名無しさん@お腹いっぱい。2008/03/03(月) 14:00:03
wgetでダウンロードすると同名のファイルだと.1, .2とsuffixがついてしまいますが
これを-1.拡張子とすることはできないでしょうか?

通常は hoge.html, hoge.html.1, hoge.html.2 とファイルが出来て行くものを
hoge.html, hoge-1.html, hoge-2.html と名付けられて欲しいのです。
0129名無しさん@お腹いっぱい。2008/03/03(月) 14:45:41
zsh 記法なら

for i in *.1 *.2
do
j=${i:r}
mv -i ${i} ${j:r}-${i:e}.${j:e}
done
0130名無しさん@お腹いっぱい。2008/03/03(月) 19:01:42
ありがとうございます。ダウンロードした後でリネームするのがいい方法ということですね。

なるほど、-iをつけて重複したものに上書きするのを防ぐというわけですか。
自動でユニークなファイル名をつけるにはもうちょっとシェルスクリプト書けば良さそうですね。

wgetでダウンロードする時点ではでないんでしょうか。

for i in *.1 *.2
は *.整数 なもの全てに対応するには *.[0-9]* でいいのだろうか。
でもこれだと .3g2 もひっかかるか。
0131名無しさん@お腹いっぱい。2008/03/03(月) 19:04:22
ああ*.222.htmlなんかも引っかかってしまうから全くだめですね。
0132名無しさん@お腹いっぱい。2008/03/22(土) 13:38:18
#!/usr/bin/perl
@tmp=("Alina-G", "Anastasia-S", "Anna-T", "Anna-Z", "Iryna-M", "Kateryna-V", "Larisa-H", "Oksana", "Olga-S",
"Olha-D", "Sasha-D", "Sasha-L", "Svetlana-T", "Ulyana-A", "Ulyana-M", "Valeriya-L", "Victoria-D", "Victoria-S", "Yuliya-S", "Yuliya-Z");
$baseurl = "http://www.candydoll.tv/images/";
foreach $f(@tmp){
for ($i=1 ;$i < 7;$i++){
$imgname = sprintf"%s-images%02d", $f, $i
$url = sprintf "%s/%s.jpg",$baseurl,$imgname; system "wget " . $url;
$cnvcmd = sprintf "jpegtopnm %s.jpg > %s.pnm",$imgname,$imgname; system $cnvcmd;

}

$a = "pnmcat -lr ". sprintf "%s-images01.pnm ",$f; $a .= sprintf "%s-images02.pnm ", $f; $a .= sprintf "> %s-images_a.pnm", $f;
system $a;
$a = "pnmcat -lr ". sprintf "%s-images03.pnm ",$f; $a .= sprintf "%s-images04.pnm ", $f; $a .= sprintf "> %s-images_b.pnm", $f;
system $a;
$a = "pnmcat -lr " . sprintf "%s-images05.pnm ",$f; $a .= sprintf "%s-images06.pnm ", $f; $a .= sprintf "> %s-images_c.pnm", $f;
system $a;
$a = "pnmcat -tb ". sprintf "%s-images_[abc].pnm |pnmtojpeg > %s-image.jpg",$f,$f; system $a;
}
system "rm *.pnm";
0133名無しさん@お腹いっぱい。2008/03/23(日) 09:03:53
なんでpnm介してるの?
0134名無しさん@お腹いっぱい。2008/03/23(日) 20:41:11
Webには
12
34
56
といった形で分割されてあげられてるんだけど、
これをうまく結合する方法を思いつかなかったんで一旦pnmに変換したんですよ。

なにかいい方法はないもんでしょうか。
0135名無しさん@お腹いっぱい。2008/03/23(日) 21:13:20
よくわからんが、ImageMagick で
convert -append / +append かな?
01361322008/03/24(月) 02:21:15
>>132の8行目の末尾にセミコロンがないのを今更見つけたのもありますが、
>>135さんの助言のおかげで無駄な変換をしないように修正したものをあげておきます。

#!/usr/bin/perl
@tmp=("Alina-G", "Anastasia-S", "Anna-T", "Anna-Z", "Iryna-M", "Kateryna-V", "Larisa-H", "Oksana", "Olga-S",
"Olha-D", "Sasha-D", "Sasha-L", "Svetlana-T", "Ulyana-A", "Ulyana-M", "Valeriya-L", "Victoria-D", "Victoria-S", "Yuliya-S", "Yuliya-Z");
$baseurl = "http://www.candydoll.tv/images/";
foreach $f(@tmp){
for ($i=1 ;$i < 7;$i++){
$imgname = sprintf "%s-images%02d", $f, $i;
$url = sprintf "%s/%s.jpg", $baseurl, $imgname; system "wget " . $url;
}

$a = sprintf "convert +append %s-images01.jpg %s-images02.jpg %s-images_a.ppm", $f, $f, $f;
system $a;
$a = sprintf "convert +append %s-images03.jpg %s-images04.jpg %s-images_b.ppm", $f, $f, $f;
system $a;
$a = sprintf "convert +append %s-images05.jpg %s-images06.jpg %s-images_c.ppm", $f, $f, $f;
system $a;
$a = sprintf "convert -append %s-images_[abc].ppm %s-image.jpg", $f, $f;
system $a;
}
system "rm *.ppm";
0137名無しさん@お腹いっぱい。2008/03/24(月) 06:00:07
10才とか12才とかって部分には誰もつっこまないのね
0138単なるスクリプト練習道場2008/03/24(月) 09:38:42
必ずしも皆サイトの方を見ているとは限らないって

0139名無しさん@お腹いっぱい。2008/04/20(日) 01:18:07
双葉ちゃんねるの画像をまとめてDL出来るローダーってありますか?
僕の使ってるやつだとサムネイル画像しか落とせないんですが。
0140名無しさん@お腹いっぱい。2008/04/20(日) 02:24:42
双葉ちゃんねるってものすごく見にくいんだけど
2chブラウザみたいなやつでもあるの?
流れにまかせて適当に見るのが筋なのかな。
0141名無しさん@お腹いっぱい。2008/05/06(火) 23:35:44
すんませんH画像じゃないんだけど、NHKニュースの動画の落とし方分かる人いませんか
http://www3.nhk.or.jp/news/
最近リニューアルしてから、ダウンロード出来なくなりました。
ブラウザのキャッシュにも残りません。swfを間にかましてるみたいです。
宜しくお願いします。
0142名無しさん@お腹いっぱい。2008/05/07(水) 17:28:51
ちょいと面倒だけど
まず見てるページのソースコードを見ると
wmvHigh = "http://cgi2.nhk.or.jp/news/cgibin/K10099999999_9999999999_0805071653_01t_mh.cgi
てなことが書いてある。次に
view-source:http://cgi2.nhk.or.jp/news/cgibin/K10099999999_9999999999_0805071653_01t_mh.cgi
でさらに見ると
<REF HREF="mms://a669.v90561.c9056.g.vm.akamaistream.net/5/669/9056/48216095/1a1a1ad74ec5f82d5bc9319cca39abd943b3e250b52c9f/K10044234611_0805071619_0805071653_mh.wmv"/>
とか書いてある。こいつを録画すればおk
0143名無しさん@お腹いっぱい。2008/05/10(土) 21:01:38
>>142
うまくいきました。丁寧に教えてもらって感謝です。
0144名無しさん@お腹いっぱい。2008/05/31(土) 18:03:17
http://jp.youtube.com/watch?v=5SMIgGAHAoU&feature=related
http://jp.youtube.com/watch?v=looALHmz6aA&feature=related
http://jp.youtube.com/watch?v=XlJkpEsaYMY&NR=1
http://jp.youtube.com/watch?v=aJ47PkaeM_M&feature=related
http://jp.youtube.com/watch?v=vsbv9Y-oPxg&feature=related
http://jp.youtube.com/watch?v=srYyLjVihYQ&feature=related
http://jp.youtube.com/watch?v=GyY_GFtj5Tg&feature=related
http://jp.youtube.com/watch?v=9uF85UO9-lg&feature=related
http://jp.youtube.com/watch?v=svH44ZUVE4A&feature=related
http://jp.youtube.com/watch?v=k9OJL0c-CBg&feature=related
http://jp.youtube.com/watch?v=I7nMFPYuF7o&feature=related
http://jp.youtube.com/watch?v=Kci1bOlAOCY&NR=1
http://jp.youtube.com/watch?v=yXPS8v7VqVg&feature=related
http://jp.youtube.com/watch?v=jpgH4CrHXF8&NR=1

鉄道をこよなく愛する人たち
0145名無しさん@お腹いっぱい。2008/05/31(土) 20:16:44
なんだこりゃ。ひどいな。
0146名無しさん@お腹いっぱい。2008/07/05(土) 00:14:43
今の最新のダウンロードスクリプトは何ですか?
0147名無しさん@お腹いっぱい。2008/07/05(土) 05:41:53
やっぱzshのスクリプトじゃね?
0148名無しさん@お腹いっぱい。2008/07/05(土) 23:27:08
グロ画像対策ってどうしてます?
0149名無しさん@お腹いっぱい。2008/07/06(日) 00:20:47
グロ画像好きになればいいんじゃないかな?
0150名無しさん@お腹いっぱい。2008/09/21(日) 11:29:13
ウイルスにじゃから内容にね
0151名無しさん@お腹いっぱい。2008/09/27(土) 21:48:19
Hな動画ならここhttp://click-bb.com/banner.php?adid=817344人気サイトです
0152名無しさん@お腹いっぱい。2008/11/13(木) 19:08:26
梶谷秀
0153名無しさん@お腹いっぱい。2009/01/06(火) 01:43:12
双葉がjavascript有効じゃないと落とせなくなった。
なんかいいツールはない?
0154名無しさん@お腹いっぱい。2009/01/10(土) 17:41:50
Firefoxと赤福使ってる。スクリプトでの取得はあきらめた。
0155名無しさん@お腹いっぱい。2009/01/23(金) 02:38:56
http://jp.youtube.com/watch?v=v_HyS1PKPs4&fmt=18
http://www.nicovideo.jp/watch/sm5750285
0156名無しさん@お腹いっぱい。2009/03/26(木) 19:55:23
>>151
コラア!いてまうど!
0157名無しさん@お腹いっぱい。2009/04/17(金) 11:58:35
g.e-hentai.org スクリプト

(knoppix 5.1.3)
original file name : getimgs.pl.txt
約5354.4日間保存

ttp://www1.axfc.net/uploader/File/so/21579.txt&key=vip
pass : vip
0158名無しさん@お腹いっぱい。2009/06/04(木) 14:58:19
>>157
222行目と223行目逆じゃない?
0159名無しさん@お腹いっぱい。2009/06/05(金) 01:47:51
>>158
うん、逆だな。
その他にも、幾つかバグがあるようだ。
でも、転送制限があるサイトなので、あんまり使う気しない。
※だいたい160枚前後で、転送休止ってどうなのよ?
0160名無しさん@お腹いっぱい。2009/07/21(火) 01:34:07
壁紙の配布サイトがあるのだが、1枚1MB程度の壁紙が2000枚近くある。
これを一気にダウンロードすると、相当な負荷をかけると思うので数秒おきにダウンロードするようにしたいのだけど、そんなことできる?
01611602009/07/21(火) 01:35:29
追加情報で、サムネイル画像はthumbという文字列がファイル名に入ってるのでそれも除外することで、ちょっとは負荷をへらせると思う。
0162名無しさん@お腹いっぱい。2009/07/21(火) 01:59:57
>>160
よくわからんが
>数秒おきにダウンロードするようにしたい
っていうのが要件であるのならsleepでもかませればいいんでないの。
固定時間で、ダウンローダ使っているのを推測されるのが嫌なら
(そういうサイトがあるかはしらないけど)
sleepの引数を範囲絞って乱数にすりゃいいし。難しくはないだろ
01631572009/08/18(火) 23:34:32
g.e-hentai.org スクリプト

get.pl
readme.txt
をzipにて同梱。

http://www1.axfc.net/uploader/Sc/so/28498.zip&key=vip
0164名無しさん@お腹いっぱい。2009/08/20(木) 00:41:03
>>163
解凍してみたが、readme.txt ehg.txt
しか見当たらない。
get.plはいづこに?
0165名無しさん@お腹いっぱい。2009/08/20(木) 10:00:11
現在特許申請中です
01661572009/08/20(木) 15:44:14
非常に失礼しました。
g.e-hentai.org スクリプト

get.pl
readme.txt
require_url.png

をzipにて同梱。

ttp://www1.axfc.net/uploader/Sc/so/28995.zip&key=vip
0167名無しさん@お腹いっぱい。2009/08/20(木) 22:14:50
>>166
おお、サンキュー
早速、ゲット開始。
なんか色々新しくなってるね。きちんとエラー処理してあって
便利になってる。
スクリプトいぢって遊んでみるわ。ありがとう。
01681872009/08/20(木) 22:41:18
355行目の mkdir ("$dirname", 777) or die $! ;
のmaskを、0777に変更しないとうまく動作しなかった。
デレクトリィは、できるけど書込み出来ない。

perl, v5.8.6 built for darwinでの動作報告
01691672009/08/20(木) 22:42:18
未来へ、小パス
01701572009/08/21(金) 09:25:11
>>168
報告ありがとうございます

直すかreadmeに入れておきます
01711572009/08/25(火) 22:42:42
imageFap スクリプト

fap.pl
readme.txt
require_url.png
を同梱。

使い方は、>>166のスクリプトと全く同じです。

ttp://www1.axfc.net/uploader/Sc/so/30657.zip
0172名無しさん@お腹いっぱい。2009/08/29(土) 20:29:53
>>171
動いたずら。
fap.plの改行コードがCR+LFだった。
0173名無しさん@お腹いっぱい。2009/09/12(土) 12:14:31
>>166>>171
ありがてぇありがてぇ
0174名無しさん@お腹いっぱい。2009/10/04(日) 23:34:23
つーるのつかいかたがわかんないです><
0175名無しさん@お腹いっぱい。2009/10/09(金) 19:12:20
>>174
readme.txt 嫁
0176名無しさん@お腹いっぱい。2009/10/09(金) 20:50:01
>>166
ありがたいです

しかし、100枚超えると普通にはじかれますね・・・
串どうやって刺そうかな
0177名無しさん@お腹いっぱい。2009/10/09(金) 22:49:02
携帯専用ですが
無料のおかず画像サイト集めてみました
http://s12.smhp%2ejp/abc1103
01781572009/10/10(土) 17:32:40
>>176
待つ時間を長くすればするほど
単位時間のダウンロードの大きさが減るので、
730行目あたりの関数 waitp を

sub waitp {
# wait process and random sleep.
# process sleeps while ??? seconds, not "msec".
#
# if you want to use "msec" unit, use "select".
# same effect of 'sleep' while 250 msec is,
# "select(undef, undef, undef, 0.25) ;".
# but, can't use progress bar.
my $base = 10000 ; # random sleep from 1 sec to $base/1000 sec.
my $t = int ( rand ($base) / 1000 ) ;
progbar (++$t) ;
return 1 ;
}

などと書き換えてみてください。
帯域制限がかかりにくくなります。
0179名無しさん@お腹いっぱい。2009/10/12(月) 10:05:00
>>178
やるじゃん
0180名無しさん@お腹いっぱい。2009/10/13(火) 02:45:36
>>178
thx!
ここへは検索でたどり着いた他所者で申し訳ないが助かるわ
昔入社直後にならったプロンプト程度の知識でもいけるもんだな・・・使う分には
0181名無しさん@お腹いっぱい。2009/10/13(火) 05:57:36
g.e-hentai.orgのスクリプトの使い方がよくわからなくて困っています
付属のReadmeを読んでみて自分なりに試してみたのですがうまくいかず
本体を起動すると黒い窓と文字が一瞬表示されるのですが
すぐに消えてしまうためなんとかプリントスクリーンで撮影して
そこに書いてあったリストの作成などもしてみたのですけどダメでしたorz
プログラムなどの知識皆無なのでそもそも場違いとも思うのですが、
どなたか教えていただけないでしょうか?
0182名無しさん@お腹いっぱい。2009/10/13(火) 06:47:37
>>181
g.e-hentai.orgからアクセス制限がかかってる現在の状況下で
さらに自分で調べもしない人間達にでも使えるように説明しろと?

正気ですか?

お前の目の前にある箱はなんだよ?飾りか?


>自分なりに試してみたのですが
もっとやれ
もっともっとやれ
救いな事に>>157氏のファイルはインチキじゃない
自分で勉強すれば必ず結果が伴う
0183名無しさん@お腹いっぱい。2009/10/14(水) 12:55:49
黒い窓とか釣りだろ。
>>181 Linux勉強してLinuxで実行するといいよ
0184名無しさん@お腹いっぱい。2009/10/20(火) 09:36:45
e-hentaiの制限が2日ほど続いているのですが、
皆さんはどれくらいの期間、制限かかってます?

初めのころは1・2時間程度だったのになあ。
0185名無しさん@お腹いっぱい。2009/10/21(水) 21:16:44
http://blogwatcher.pi.titech.ac.jp/nandemorss/index.cgi?url=http%3A%2F%2Fpc12.2ch.net%2Ftest%2Fread.cgi%2Funix%2F1135533382%2F
0186名無しさん@お腹いっぱい。2009/10/23(金) 04:59:37
>>157氏のe-hentaiのダウンロードスクリプトに串を噛ませようと思ってるんだけど
串の設定項目が無いのでDL専用の仮想マシンを作ってシステム全体に串を噛まそうと思う

yumとかで実践されてるこの方法が一番かな
http://blog.livedoor.jp/glantank/archives/50952655.html
0187名無しさん@お腹いっぱい。2009/10/23(金) 05:29:17
と思ったらTor串焼かれまくってて笑った
これだけ神経質だとISPごとアク禁とか何のためらいもなくやりそうで怖いなw
0188名無しさん@お腹いっぱい。2009/11/16(月) 09:44:27
ちくしょーーーー!実行してもスクリプト弾かれちまう…なんとかならないかなぁ
0189名無しさん@お腹いっぱい。2009/11/17(火) 02:10:06
He_252405.zip
ぱす chinko

E-Hentaiからダウンするなら最近これ使ってるけどな。
転送制限もなぜかかかりにくい。600枚位連続で落としたが、まだいけそうだ。
どやって回避してんのかな。
Win用だからスレチかもしれんが。
0190名無しさん@お腹いっぱい。2009/11/17(火) 21:28:52
帯域制限かかってからはや3日が過ぎた
いつ解除されんのかな
0191名無しさん@お腹いっぱい。2009/11/17(火) 22:46:25
>>189
ちょっと、試してみた。
結局おれんトコでは、150枚くらいで転送制限になった。
転送制限中ですよ画像も、ダウンロードしちゃうよ。w

>>190
もう、そろそろじゃない?
五日くらい制限喰らった時も有ったような。
0192名無しさん@お腹いっぱい。2009/11/18(水) 01:16:26
509 bandwidth exceeded

you have temporarily reached the limit for how many images you can browse

-if you haven't already, you can double
your daily quota simply by signing up for
an absolutely free forums account at,
http://forums.e-hetai.org/

- you can run the hentai@home distributed image server to help us serve more images.
this will give you points which can be used to increase your page view limit,
and cache files locally so they are ready when you wish to view them.

(check the news dorum for moredetails and signup information)

please understand that e-hentai galleries is a free service, and to keep it free we
must limit the amount of images anyone person can view.
if you come back in a few hours, you will be able to download more.

暇だから写した
157氏のスクリプト試したら4枚で…
閲覧や手作業での保存も出来ず悶悶
解除されたらチンコの試そう

>>191
そんなにかかるのか
確認に行って509返されて期間延長とかないよな
0193名無しさん@お腹いっぱい。2009/11/18(水) 01:56:14
>>189
再うpキボンヌ
0194名無しさん@お腹いっぱい。2009/11/19(木) 02:05:56
>>192だけどいつの間にか制限解除きてた
0195名無しさん@お腹いっぱい。2009/11/30(月) 23:57:45
>>189
はどんなツールだったの?
0196名無しさん@お腹いっぱい。2009/12/01(火) 21:27:46
>>195
画像ダウンロードアプリですよ。
ダウンする時に、サムネイルプレビューが見えるのが親切設計。
転送制限回避は、どうも環境によるとしか胃炎。つーか、分からん
0197名無しさん@お腹いっぱい。2009/12/02(水) 01:30:52
うpしてちょ…
0198名無しさん@お腹いっぱい。2009/12/03(木) 14:41:23
tumblrのRSSフィードから画像をダウンロードするスクリプトとか
誰か作ってませんか?

0199名無しさん@お腹いっぱい。2009/12/03(木) 16:08:22
157氏のスクリプト、この前までは順調に使えてたが、
今日また使おうとしたら、

Invalid argument at get.pl line 438.

って吐き出して止まってしまう・・
0200名無しさん@お腹いっぱい。2009/12/04(金) 03:35:56
>>171はURLチェックの部分にwwwを加えないと初っ端で失敗
作成したときはwwwがなかったのかな

それと、それでも

the list file name is http://www.imagefap.com/gallery/*******.list.
the directory name will be http://www.imagefap.com/gallery/*******.
http://www.imagefap.com/gallery/******** does not exist.
Invalid argument at C:\Documents and Settings\-----\fap.pl line 239.
make a directory:

ってエラー出て止まるんだけどどうすればいいべさ
0201名無しさん@お腹いっぱい。2009/12/06(日) 07:39:36
e-hentaiのちょっと古めのCGが見れないぜー
02021572009/12/06(日) 20:01:16
>>200
239行目でもwww無しでURLチェックしてるので
そこにもwwwを加えてください

作成した時は多分wwwが無かったのだと思います

>>201
原因不明です
URLお願いします
0203名無しさん@お腹いっぱい。2009/12/06(日) 21:34:25
201じゃないけどなぜか見れないのがあるぜ
数日前は大丈夫だったはずなのに・・・

http://g.e-hentai.org/g/181326/7405b90607/
02042002009/12/06(日) 22:50:08
エディタによって行数が変わってしまって239行目がどこか分からず
秀丸使ってるんだけど239行目はmakedir中のprint〜でURLチェックとは無関係だす

とりあえず数箇所URLでimagefap.comがあるところの前(cache.imagefap/com除く)
にwww.をつけたらエラーなしで動いたけど今度は指定URLとは関係ないギャラリーの画像を取得した
保存されたフォルダは指定URLと同じ番号なのに中身が別物、別のギャラリーとか思って調べてみたけど
同じファイル数のギャラリーが存在してなかった、なんぞこれ
0205名無しさん@お腹いっぱい。2009/12/06(日) 23:36:02
e-hentaiの件
見れるのと見れない画像の差を理解した。
ヒントはおまいらの好きなタグだw
そのタグに入ってたのは一切見れなくなってて
やっぱりなーと思った。
0206名無しさん@お腹いっぱい。2009/12/07(月) 02:17:49
P2Pが仕様できないわが身としてはe-hentaiが頼りの綱だったのだが
困ってしまうなぁ
0207名無しさん@お腹いっぱい。2009/12/07(月) 19:24:25
何個か上げりゃポイントでDL出来るんだからそれで妥協すりゃいいじゃん
■ このスレッドは過去ログ倉庫に格納されています