トップページunix
1001コメント292KB

連番のH画像/動画を一気にダウンロードする2

■ このスレッドは過去ログ倉庫に格納されています
0001前スレ12005/12/26(月) 02:56:22
前スレ5年間のご愛顧ありがとうございました。PGFは無事コンプしましたが、これからも皆様の日々
実践されているノウハウを教えていただきたく再度、スレを立てさせてもらいました。
前スレ 連番のH画像を一気にダウンロードする
http://pc8.2ch.net/test/read.cgi/unix/979106537/
0002名無しさん@お腹いっぱい。2005/12/26(月) 03:35:40
最古スレ
http://pc8.2ch.net/test/read.cgi/unix/964944018/
0003名無しさん@お腹いっぱい。2005/12/26(月) 04:52:56
mplayer の問題なのか、
% mplayer *
とやっても全部の動画が再生される前に落ちてしまうので
わざわざ for i in *.wmv とかやってる。5年間のノウハウで何とかならんかね。
0004名無しさん@お腹いっぱい。2005/12/26(月) 08:15:49
新スレおめ

カレント以下のjpgファイルとかをシーケンシャルな名前で
カレントディレクトリに持ってくる(リネームする) スクリプトを
書いたので採点お願いします.

使用例) $Rname wmv idol
でカレントディレクトリ以下にあった*.wmvファイルが
カレントディレクトリにidol001.wmvからidol00x.wmvという
名前でリネームされます.

# 続く
000542005/12/26(月) 08:18:29
$cat ./script/Rname
#!/bin/bash

# parameter analyze
SUF=$1
if [ -z $1 ] ; then
echo 'no suffix specified. default: *.jpg will be used';
SUF='jpg';
fi

PRE=$2
if [ -z $2 ] ; then
echo 'no prefix specified. default X will be used';
PRE='X'
fi

# fatal situation?
if [ $(find . -name "$PRE*.$SUF"| head -1) ] ; then
echo ' Fatal situation. Please think again the prefix. Exit.'
exit;
fi

# 続く
000642005/12/26(月) 08:20:18
# create operation list
num=1
find . -name "*.$SUF" |
while read fpath
do
echo mv $fpath $PRE$(printf %03d $num).$SUF
let num=$num+1
done

# Is this OK?
echo -n 'Right?[y/n]'
read ans

# exec operation
if [ $ans = 'y' ] ; then
num=1
find . -name "*.$SUF" |
while read fpath
do
eval mv $fpath $PRE$(printf %03d $num).$SUF
let num=$num+1
done
fi

# 終わり
0007名無しさん@お腹いっぱい。2005/12/26(月) 14:45:11
yahooで一杯になってた。ウワァァ-----。゚(゚´Д`゚)゚。-----ン!!!!
0008名無しさん@お腹いっぱい。2006/01/07(土) 23:56:59
http://blogfiles.naver.net/data6/2005/4/7/57/704_166291_101-hanic71.jpg
の画像がブラウザで見れて、wgetでは落とすことができません。

wget --referer=http://blogfiles.naver.net/ http://blogfiles.naver.net/data6/2005/4/7/57/704_166291_101-hanic71.jpg

referer とかも設定しているつもりなんですけど、どうやればコマンドラインで落とすことができますか?
よろしくおねがいします。

0009名無しさん@お腹いっぱい。2006/01/08(日) 00:06:40
>>8
wget --referer=〜の行をコピペして実行したらウチではいけたよ
0010名無しさん@お腹いっぱい。2006/01/08(日) 02:01:51
>>9
そうなんですか。うちでは
HTTP request sent, awaiting response... 404 Object Not Found
02:00:06 ERROR 404: Object Not Found.
とか言われてしまいます。なんでだろ
0011名無しさん@お腹いっぱい。2006/01/08(日) 06:58:51
464.jpの115番台位(comic115.464.jp)以降のサーバーから連番DLできたかたいますか?
古めの108番にあるものはリファーとUAだけですんなり行くんですが
新しめのだと403エラーになります。(IEにコピペ直飛びだとOK

URL同リファ→一段づつ削る、無し
UA各種
-r -npでディレクトリDL
001.jpgで単品DL

と思いつく限り試したのですがダメでした。
できたかたいましたらヒントだけでも結構ですので参考に教えて頂けませんか。

〆参考urlです p://comic118.464.jp/data/yosidaakimi/bananafissyu1/020.jpg
0012名無しさん@お腹いっぱい。2006/01/08(日) 14:41:27
>11
Forbidden
You don't have permission to access /data/yosidaakimi/bananafissyu1/020.jpg on this server.
Apache/2.0.54 (Fedora) Server at comic2.464.jp Port 80
0013名無しさん@お腹いっぱい。2006/01/08(日) 19:09:12
貼る前にチェックしたのですが今見たらエラーになりますね。
確認したところ464に一旦ログインしないとアドレス直貼りでも見れないようでした。
なのでWGETのhttpuser,passを設定したもののエラーになり
ブラウザでも464にログインしただけでは駄目で一度該当巻のページに行くことで
やっとIEコピペ飛びいけました。
難しい設定されてるようで連番は無理っぽい気がしてきました。。

もし同様にトライされてるかたいましたら気長に情報お待ちしております、ありがとうございました。
0014名無しさん@お腹いっぱい。2006/01/08(日) 21:02:56
>>13
勘だけど、そのページのクッキーを解析してみな。
偽装はそれからだ。
0015名無しさん@お腹いっぱい。2006/01/08(日) 22:08:43
キャシュ消して再確認したのですがクッキーは作成されておらず
javascriptがあるだけでした。
スクリプトもxxx.jpgを表示、虫メガネ機能だけを書いたものでクッキー記述はなかったです。
またちょこちょこ調べてみます。ありがとうございました。
0016名無しさん@お腹いっぱい。2006/01/19(木) 01:25:21
ttp://www.descargas.sectahentai.org/uploads3/matthewkidman/hmangas_archivos/Incest%20and%20Straight%20Shota/Namadashi%20Cho%20Inbo/namadashi_001.jpg〜180.jpg

の画像がWebMGetで落とせません。
また、DLHelperで上記のURLを表示させようとすると ttp://descargas.sectahentai.org/ へ飛ばされます。
解決方法はありますか?
よろしくお願いします。
0017名無しさん@お腹いっぱい。2006/01/19(木) 02:24:29
refferer?
0018名無しさん@お腹いっぱい。2006/01/19(木) 04:39:48
リファラだけっぽいね。おいしくいただきました
0019名無しさん@お腹いっぱい。2006/01/28(土) 08:56:57
>>16
$zsh
%wget --referer=http://www.descargas.sectahentai.org/ http://www.descargas.sectahentai.org/uploads3/matthewkidman/hmangas_archivos/Incest%20and%20Straight%20Shota/Namadashi%20Cho%20Inbo/namadashi_{001..180}.jpg
0020名無しさん@お腹いっぱい。2006/02/15(水) 01:25:59
wgetを使ってhttp://wallstny.exblog.jp/のblogを丸ごと保存しようと思っています。
ブラウザで表示される文はきちんと取得できるのですが、
ページの一番下にある"次のページ"から先やカテゴリーといったリンクが取得できません。

エロ画像ではないと思いつつもダウンロードに関する適切なスレが分からないので
ここで質問してみました。教えて頂けると助かります
0021名無しさん@お腹いっぱい。2006/02/15(水) 07:17:57
464タイーホage
0022名無しさん@お腹いっぱい。2006/02/15(水) 07:37:36
http://f30.aaa.livedoor.jp/~kokodake/unix.html
0023名無しさん@お腹いっぱい。2006/03/19(日) 18:10:30
>>20
$wget -r -np -l 20 http://hogehoge.jp/
0024名無しさん@お腹いっぱい。2006/04/06(木) 23:48:33
チャイニーズなHPの画像ってなんか色々ほどこしてて一気に落とせない希ガス。
例えば ttp://zxz.jugem.jp/ のリンク先とか。
誰か支援お願いします。
0025名無しさん@お腹いっぱい。2006/05/04(木) 19:03:09
ttp://2.dtiblog.com/g/gazo/file/27083.jpg
数字は可変
根こそぎ落とすにはどうすればいいでしょうか。
今は仕方ないので、シェルスクリプトでアドレスを片っ端から書いた
リストを作ってそれをwgetで読み込ませていますが、もっとスマートな方法が
無いものか。
0026名無しさん@お腹いっぱい。2006/05/04(木) 20:37:08
>25
そうやって悩んでいろいろやっているうちに、
立派なUnix使いに成長していきますよ。
0027名無しさん@お腹いっぱい。2006/05/04(木) 23:24:50
>>25
神様はseqを与えられた。
0028名無しさん@お腹いっぱい。2006/05/05(金) 16:37:43
>>25俺にもurabonのアドレスを片っ端から書いていた時代がありました。
0029名無しさん@お腹いっぱい。2006/05/05(金) 17:21:54
>>25
Firefox+FlashGotが(・∀・)イイ!!
0030名無しさん@お腹いっぱい。2006/05/06(土) 17:41:31
GW中にエログ巡回して画像保存してその日に新しくダウンロードした画像のスライドショーのHTMLを吐き出すスクリプト書こうと思ってたのに
もうGW終わっちゃうよう。いつでも書けるけどまとまった時間で書きたかったのに
0031名無しさん@お腹いっぱい。2006/05/06(土) 21:10:56
もはや画像自体はどうでもよくなってきてるが…

意外と手強いパターン
ttp://x.warnet.ws/img/119/image/DDF2.htm

なかを見ると
ttp://img17.imagevenue.com/img.php?loc=loc24&image=28455_7519060.jpg
みたいな連番対策付きのファイル名になってて
実際のデータはさらにハッシュつきdirの中。
ttp://img17.imagevenue.com/aAfkjfp01fo1i-5116/loc24/28455_7519060.jpg

2段階再帰かければ届きそうだけど
0032名無しさん@お腹いっぱい。2006/05/06(土) 23:23:27
>>31
そんなの俺ならあきらめて俺も再帰だな
wgetに-lオプションつけて
0033名無しさん@お腹いっぱい。2006/05/07(日) 01:15:17
まじな話、grepのようなコマンドをほかのサーバにログインしないで
かける方法ってないもんか
0034名無しさん@お腹いっぱい。2006/05/08(月) 19:00:10
まじな話
http://enum.ninpou.jp/
これ使えばいいじゃん(jpgのダウンで使用)
0035名無しさん@お腹いっぱい。2006/05/08(月) 19:51:42
>>34
宣伝乙
0036名無しさん@お腹いっぱい。2006/05/09(火) 02:38:02
>>34イラネ
0037名無しさん@お腹いっぱい。2006/05/13(土) 03:44:48
ブラウザ(w3m含む)では見れる
http://theblind.liveadulthost.com/087/001.jpg

wget 出来ない(--referer は試した)

ナジェ?
0038名無しさん@お腹いっぱい。2006/05/13(土) 09:35:49
>>37
User-Agent
0039名無しさん@お腹いっぱい。2006/05/18(木) 13:02:55
>>38
そうみたいだね。

>>37
%wget -U='Mozilla/4.0 (compatible; MSIE 5.5; Windows NT 5.0; .NET CLR 1.0.3705)' http://theblind.liveadulthost.com/087/{001..100}.jpg
0040392006/05/18(木) 13:24:58
画像120まであった。
100を120に訂正してね。
0041名無しさん@お腹いっぱい。2006/05/19(金) 01:33:55
>>39
001.jpgじゃなくて1.jpgにされてしまってだめだったぞ。
俺はこれ
seq -f http://theblind.liveadulthost.com/087/%03g.jpg 1 120|wget -U ' ' -i -
0042名無しさん@お腹いっぱい。2006/05/19(金) 20:38:43
毎回UAのオプション付けるの面倒だから、
俺は~/.wgetrcに以下を追加してる
user_agent=Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1; SV1; .NET CLR 1.1.4322)
0043名無しさん@お腹いっぱい。2006/05/27(土) 09:17:13
http://hp34.0zero.jp/667/deaitwo/
0044名無しさん@お腹いっぱい。2006/05/27(土) 21:32:36
ダウンロードじゃないけど linux 版(wine版)の picasa が出たってさ
0045名無しさん@お腹いっぱい。2006/06/12(月) 13:04:46
トラジ復活age
0046名無しさん@お腹いっぱい。2006/06/15(木) 12:23:05
ようつべオワタ\(^o^)/
0047名無しさん@お腹いっぱい。2006/06/30(金) 10:03:32
この辺は結構強敵
ttp://www.imagefap.com/gallery.php?gid=188736

htmlパースして thumb => full 置換すればいいんだけど
順序が失われるんでカウンタ用意してリネーム...

そろそろ 手軽に の領域じゃねーな
0048名無しさん@お腹いっぱい。2006/06/30(金) 20:05:05
自作のしょぼいダウンローダうp
ttp://file300kb.run.buttobi.net/fl/src/Oil0393.txt

例えば>>47なら
$ ./exwgetr -a -o -d "/thumb/.*.jpg$" "http://www.imagefap.com/gallery.php?gid=188736 " | sed "s/thumb/full/" | wget -i -
■ このスレッドは過去ログ倉庫に格納されています