連番のH画像/動画を一気にダウンロードする2
■ このスレッドは過去ログ倉庫に格納されています
0001前スレ1
2005/12/26(月) 02:56:22実践されているノウハウを教えていただきたく再度、スレを立てさせてもらいました。
前スレ 連番のH画像を一気にダウンロードする
http://pc8.2ch.net/test/read.cgi/unix/979106537/
0083名無しさん@お腹いっぱい。
2006/09/23(土) 08:49:55lha
0084名無しさん@お腹いっぱい。
2006/11/15(水) 13:15:50どうすればいいの?
0085名無しさん@お腹いっぱい。
2006/11/15(水) 23:46:360086名無しさん@お腹いっぱい。
2006/12/24(日) 18:16:39ステータスが200でtext/html返してきた時にリトライするようにしたかった。
0087名無しさん@お腹いっぱい。
2006/12/25(月) 01:56:180088名無しさん@お腹いっぱい。
2006/12/25(月) 02:02:000089名無しさん@お腹いっぱい。
2006/12/25(月) 02:21:000090名無しさん@お腹いっぱい。
2006/12/25(月) 02:38:410091!dama
2007/01/02(火) 04:02:340092名無しさん@お腹いっぱい。
2007/01/04(木) 01:35:380093名無しさん@お腹いっぱい。
2007/01/04(木) 01:43:480094名無しさん@お腹いっぱい。
2007/01/04(木) 02:40:27それとHTML::*やHTTP::*やLWP::*のお勉強
0095名無しさん@お腹いっぱい。
2007/01/20(土) 03:39:430096名無しさん@お腹いっぱい。
2007/04/02(月) 19:34:19imepita.jpなんかにうpされた画像を自動巡回して拾い集めたいなと思っています。
例えばこんなのとか http://imepita.jp/20070402/701450
このurlをブラウザーで開くと普通にみれるのですが。
curlやwgetでこのURLを開くと404になってしまい、
htmlが取得できず困っています。
うpされた画像のアドレスと表示用のURLに相関関係がないのでhtmlを調べないと画像が取得できません。
どなたか偉い方よろしくおねがいします
0097名無しさん@お腹いっぱい。
2007/04/02(月) 20:05:08お約束の User-Agent: とか Referer: あたりはどうよ。
0098名無しさん@お腹いっぱい。
2007/04/02(月) 20:39:36User-Agent:は試したのですが変わらず・・・。
ちょっとRefererもやってみます。
0099名無しさん@お腹いっぱい。
2007/04/02(月) 20:44:050100名無しさん@お腹いっぱい。
2007/04/02(月) 23:23:17Accept-Language: ja
とかは?
010196
2007/04/03(火) 08:31:48神!
ありがとうございました
0102名無しさん@お腹いっぱい。
2007/04/10(火) 23:16:28連番のH画像/動画を一気にダウンロードしたものを僕に下さい(>_<)(>_<)
0103名無しさん@お腹いっぱい。
2007/04/21(土) 16:02:05ブラウザでは保存可能でした。
wget --referer='http://imepita.jp/20070402/701450' -U='Mozilla/4.0 (compatible; MSIE 5.01; Windows NT 5.0)' --header='Accept-Language: ja' 'http://imepita.jp/kp_img/trial/20070402/701450.jpg?FFunc=IConf&FFcom=%22off%22'
としています。
指摘よろしくおねがいします。
0104名無しさん@お腹いっぱい。
2007/05/01(火) 13:54:450105名無しさん@お腹いっぱい。
2007/05/01(火) 19:01:17とりあえずURLを書きなさいよ
0106名無しさん@お腹いっぱい。
2007/05/05(土) 09:35:29ttp://infostore.org/info/3078906?refer=2257986&rs=2
→ ttp://img44.imagevenue.com/aAfkjfp01fo1i-24835/loc286/27363_004pat060.jpg
0107名無しさん@お腹いっぱい。
2007/05/05(土) 10:51:18grep -o 'http://[^#]*' |
grep 'imagevenue.com/img.php' |
while read LINE; do
lynx -dump -image_links $LINE |
grep -o 'http://[^#]*' |
grep '/loc[0-9][0-9]*/'
done
0108名無しさん@お腹いっぱい。
2007/05/05(土) 11:08:02あとは sleep もいれたほうがいいかも
0109名無しさん@お腹いっぱい。
2007/05/05(土) 12:23:56$ cat hoge.sh
#!/bin/sh
curl -s "$1" |
grep imagevenue |
sed -n -e "s/href='\\([^']*\\)'/\\
HREF=\\1\\
/gp" |
sed -n -e "/HREF=/s/HREF=//p" |
while read URL
do
dir="`dirname \"$URL\"`"
file=`curl -s "$URL" | sed -n -e '/thepic/ {N; s/.*SRC="\([^"]*\)".*/\1/p;}'`
curl -s --referer "$URL" -O "$dir/$file"
done
$ ./hoge.sh 'http://infostore.org/info/3078906?refer=2257986&rs=2'
0110名無しさん@お腹いっぱい。
2007/05/05(土) 15:07:320111名無しさん@お腹いっぱい。
2007/05/05(土) 19:36:37>>105
0112名無しさん@お腹いっぱい。
2007/05/05(土) 23:32:55imagefapは
(1) ギャラリーページから全てのギャラリーページのURLを抽出
(2) 各ギャラリーページから画像ページのURLを抽出
(3) 画像ページから画像ファイルのURLを抽出
という手順になると思う。(3) のURLはJavaScriptでブラウザに生成させてるのでwgetとかでは無理っぽい。
0113名無しさん@お腹いっぱい。
2007/05/06(日) 09:10:45http://images.imagefap.com/images/thumb/11/141/1414518509.jpg
http://images.imagefap.com/images/full/11/141/1414518509.jpg
0114名無しさん@お腹いっぱい。
2007/05/06(日) 21:18:14for URL in `seq -f 'http://www.imagefap.com/gallery.php?gid=330938&page=%g' 0 8`; do
echo get: $URL >&2
get_links_from_url $URL | sed -n '/thumb/s/thumb/full/p'
done
0115名無しさん@お腹いっぱい。
2007/10/23(火) 21:46:500116名無しさん@お腹いっぱい。
2007/10/27(土) 02:27:200117名無しさん@お腹いっぱい。
2007/12/30(日) 00:22:46ttp://g.e-hentai.org/g/854/ed9b4c88ddfde2ab2ea93ee162b0ebf6315cef64/5-m-y/
0118名無しさん@お腹いっぱい。
2008/01/02(水) 21:10:52http://exgirlfriendmarket.com/perfect_tits_corina?
0119名無しさん@お腹いっぱい。
2008/01/02(水) 22:24:460120118
2008/01/03(木) 01:46:07さっそくの助言、ありがとうございます。
とりあえず curl をインストールして試してみました。拝見したところ、外部リンクになっているのを直接指定していますね。
これを Unix のコマンドの組み合わせで
・画像一覧ページから
・個別の画像、もしくは画像表示ページへのリンクを辿り
・自動で巡回して、一定サイズ以上の JPG はダウンロードする
ということはできませんでしょうか? 趣味と実益を兼ねて、こんな感じの Blog を巡回することが多いのです。
だめだったら Win のダウンローダーでも探しますが、やはり Unix で覚えたいので。
お手数ですが、よろしかったらお知恵を拝借させてください。m(_ _)m
0121名無しさん@お腹いっぱい。
2008/01/03(木) 09:38:02再帰ダウンロード時のフィルタ:
-A, --accept=LIST ダウンロードする拡張子をコンマ区切りで指定する
-R, --reject=LIST ダウンロードしない拡張子をコンマ区切りで指定する
-D, --domains=LIST ダウンロードするドメインをコンマ区切りで指定する
--exclude-domains=LIST ダウンロードしないドメインをコンマ区切りで指定する
--follow-ftp HTML 文書中の FTP リンクも取得対象にする
--follow-tags=LIST 取得対象にするタグ名をコンマ区切りで指定する
--ignore-tags=LIST 取得対象にしないタグ名をコンマ区切りで指定する
-H, --span-hosts 再帰中に別のホストもダウンロード対象にする
-L, --relative 相対リンクだけ取得対象にする
-I, --include-directories=LIST 取得対象にするディレクトリを指定する
-X, --exclude-directories=LIST 取得対象にしないディレクトリを指定する
-np, --no-parent 親ディレクトリを取得対象にしない
0122名無しさん@お腹いっぱい。
2008/02/27(水) 14:12:00今やそのスレが消えてしまったため、もう一度ここで質問させてください。
例えばここに置いてある松金洋子のデスクトップ用壁紙画像をターゲットとします。
http://www.sexydesktop.co.uk/youko.htm
ここには全部で4ページ分48種類の松金洋子の画像があります。
このサイトの画像はすべてデスクトップ用の壁紙を目的としているので、
一つの画像に関して数種類の解像度・縦横比の画像が用意されており、
アクセスしてきた人の使っているディスプレイ解像度を検出しては、
最適な解像度のものを優先的にプッシュするようになっています。
また、画像ファイルの命名ルールは非常に単純かつ形式的で、
たとえば例に挙げた松金洋子の画像の場合、
まず画像の名前を表す youko1 から youko48 までの48種類の画像が用意されています。
さらにそれぞれの解像度を表す 1280x800 や 800x600 の文字列が続き、最後に拡張子 .jpg が付いています。
注意する点は、例えば youko48 に対して youko01 だとか、1280x1024 に対して 0800x0600 といった、
命名上の「桁数合わせ」が一切行われていないという点です。
0123122-123
2008/02/27(水) 14:12:231). サイトがプッシュしてくるこちらのディスプレイ解像度に関係なく、
すべての画像に関して、より解像度の大きい物を、
番号の一番若いものから古いものまで全種類取って来たい。
2). その際、取って来た画像のファイル名を修正して、
youko48 に対しては youko01 、1280x1024 に対して 0800x0600 など、命名上の「桁数合わせ」をしたい。
3). さらに、ファイル名の中の画像名を表す文字列と、解像度を表す文字列とを _ で結ぶようにしたい。
具体的には、youko11600x1200.jpg と名付けられた youko1 という画像の 1600x1200 版のファイル名を、youko01_1600x1200.jpg としたい。同様に、youko481280x1024.jpg と名付けられた youko48 という画像の
1280x1024 版のファイル名を youko48_1280x1024.jpg としたい。
以上をまとめると、参考例の松金洋子の画像で言えば、
youko11600x1200.jpg から youko481280x1024.jpg までの画像を、
youko01_1600x1200.jpg から youko48_1280x1024.jpg として保存したい。
これを実現するスクリプトをどう書けばいいでしょうか?
なお、好みのタレントの画像が何種類用意されているか(松金洋子の場合は48種類)については、
ダウンロードを開始する前に手作業で調べることとします。
0124名無しさん@お腹いっぱい。
2008/02/27(水) 14:31:38コントンジョノイコ
スレタイを読んでからスクリプトスレに行け
0125名無しさん@お腹いっぱい。
2008/02/27(水) 14:43:56>これを実現するスクリプトをどう書けばいいでしょうか?
変な書きかたをせずに普通に書けばいいと思うよ
0126名無しさん@お腹いっぱい。
2008/02/27(水) 18:52:00むしろここをやりたいのかと思った… :-P
0127名無しさん@お腹いっぱい。
2008/03/01(土) 03:23:35まず自分で書くんだ
0128名無しさん@お腹いっぱい。
2008/03/03(月) 14:00:03これを-1.拡張子とすることはできないでしょうか?
通常は hoge.html, hoge.html.1, hoge.html.2 とファイルが出来て行くものを
hoge.html, hoge-1.html, hoge-2.html と名付けられて欲しいのです。
0129名無しさん@お腹いっぱい。
2008/03/03(月) 14:45:41for i in *.1 *.2
do
j=${i:r}
mv -i ${i} ${j:r}-${i:e}.${j:e}
done
0130名無しさん@お腹いっぱい。
2008/03/03(月) 19:01:42なるほど、-iをつけて重複したものに上書きするのを防ぐというわけですか。
自動でユニークなファイル名をつけるにはもうちょっとシェルスクリプト書けば良さそうですね。
wgetでダウンロードする時点ではでないんでしょうか。
for i in *.1 *.2
は *.整数 なもの全てに対応するには *.[0-9]* でいいのだろうか。
でもこれだと .3g2 もひっかかるか。
0131名無しさん@お腹いっぱい。
2008/03/03(月) 19:04:220132名無しさん@お腹いっぱい。
2008/03/22(土) 13:38:18@tmp=("Alina-G", "Anastasia-S", "Anna-T", "Anna-Z", "Iryna-M", "Kateryna-V", "Larisa-H", "Oksana", "Olga-S",
"Olha-D", "Sasha-D", "Sasha-L", "Svetlana-T", "Ulyana-A", "Ulyana-M", "Valeriya-L", "Victoria-D", "Victoria-S", "Yuliya-S", "Yuliya-Z");
$baseurl = "http://www.candydoll.tv/images/";
foreach $f(@tmp){
for ($i=1 ;$i < 7;$i++){
$imgname = sprintf"%s-images%02d", $f, $i
$url = sprintf "%s/%s.jpg",$baseurl,$imgname; system "wget " . $url;
$cnvcmd = sprintf "jpegtopnm %s.jpg > %s.pnm",$imgname,$imgname; system $cnvcmd;
}
$a = "pnmcat -lr ". sprintf "%s-images01.pnm ",$f; $a .= sprintf "%s-images02.pnm ", $f; $a .= sprintf "> %s-images_a.pnm", $f;
system $a;
$a = "pnmcat -lr ". sprintf "%s-images03.pnm ",$f; $a .= sprintf "%s-images04.pnm ", $f; $a .= sprintf "> %s-images_b.pnm", $f;
system $a;
$a = "pnmcat -lr " . sprintf "%s-images05.pnm ",$f; $a .= sprintf "%s-images06.pnm ", $f; $a .= sprintf "> %s-images_c.pnm", $f;
system $a;
$a = "pnmcat -tb ". sprintf "%s-images_[abc].pnm |pnmtojpeg > %s-image.jpg",$f,$f; system $a;
}
system "rm *.pnm";
0133名無しさん@お腹いっぱい。
2008/03/23(日) 09:03:530134名無しさん@お腹いっぱい。
2008/03/23(日) 20:41:1112
34
56
といった形で分割されてあげられてるんだけど、
これをうまく結合する方法を思いつかなかったんで一旦pnmに変換したんですよ。
なにかいい方法はないもんでしょうか。
0135名無しさん@お腹いっぱい。
2008/03/23(日) 21:13:20convert -append / +append かな?
0136132
2008/03/24(月) 02:21:15>>135さんの助言のおかげで無駄な変換をしないように修正したものをあげておきます。
#!/usr/bin/perl
@tmp=("Alina-G", "Anastasia-S", "Anna-T", "Anna-Z", "Iryna-M", "Kateryna-V", "Larisa-H", "Oksana", "Olga-S",
"Olha-D", "Sasha-D", "Sasha-L", "Svetlana-T", "Ulyana-A", "Ulyana-M", "Valeriya-L", "Victoria-D", "Victoria-S", "Yuliya-S", "Yuliya-Z");
$baseurl = "http://www.candydoll.tv/images/";
foreach $f(@tmp){
for ($i=1 ;$i < 7;$i++){
$imgname = sprintf "%s-images%02d", $f, $i;
$url = sprintf "%s/%s.jpg", $baseurl, $imgname; system "wget " . $url;
}
$a = sprintf "convert +append %s-images01.jpg %s-images02.jpg %s-images_a.ppm", $f, $f, $f;
system $a;
$a = sprintf "convert +append %s-images03.jpg %s-images04.jpg %s-images_b.ppm", $f, $f, $f;
system $a;
$a = sprintf "convert +append %s-images05.jpg %s-images06.jpg %s-images_c.ppm", $f, $f, $f;
system $a;
$a = sprintf "convert -append %s-images_[abc].ppm %s-image.jpg", $f, $f;
system $a;
}
system "rm *.ppm";
0137名無しさん@お腹いっぱい。
2008/03/24(月) 06:00:070138単なるスクリプト練習道場
2008/03/24(月) 09:38:420139名無しさん@お腹いっぱい。
2008/04/20(日) 01:18:07僕の使ってるやつだとサムネイル画像しか落とせないんですが。
0140名無しさん@お腹いっぱい。
2008/04/20(日) 02:24:422chブラウザみたいなやつでもあるの?
流れにまかせて適当に見るのが筋なのかな。
0141名無しさん@お腹いっぱい。
2008/05/06(火) 23:35:44http://www3.nhk.or.jp/news/
最近リニューアルしてから、ダウンロード出来なくなりました。
ブラウザのキャッシュにも残りません。swfを間にかましてるみたいです。
宜しくお願いします。
0142名無しさん@お腹いっぱい。
2008/05/07(水) 17:28:51まず見てるページのソースコードを見ると
wmvHigh = "http://cgi2.nhk.or.jp/news/cgibin/K10099999999_9999999999_0805071653_01t_mh.cgi
てなことが書いてある。次に
view-source:http://cgi2.nhk.or.jp/news/cgibin/K10099999999_9999999999_0805071653_01t_mh.cgi
でさらに見ると
<REF HREF="mms://a669.v90561.c9056.g.vm.akamaistream.net/5/669/9056/48216095/1a1a1ad74ec5f82d5bc9319cca39abd943b3e250b52c9f/K10044234611_0805071619_0805071653_mh.wmv"/>
とか書いてある。こいつを録画すればおk
0143名無しさん@お腹いっぱい。
2008/05/10(土) 21:01:38うまくいきました。丁寧に教えてもらって感謝です。
0144名無しさん@お腹いっぱい。
2008/05/31(土) 18:03:17http://jp.youtube.com/watch?v=looALHmz6aA&feature=related
http://jp.youtube.com/watch?v=XlJkpEsaYMY&NR=1
http://jp.youtube.com/watch?v=aJ47PkaeM_M&feature=related
http://jp.youtube.com/watch?v=vsbv9Y-oPxg&feature=related
http://jp.youtube.com/watch?v=srYyLjVihYQ&feature=related
http://jp.youtube.com/watch?v=GyY_GFtj5Tg&feature=related
http://jp.youtube.com/watch?v=9uF85UO9-lg&feature=related
http://jp.youtube.com/watch?v=svH44ZUVE4A&feature=related
http://jp.youtube.com/watch?v=k9OJL0c-CBg&feature=related
http://jp.youtube.com/watch?v=I7nMFPYuF7o&feature=related
http://jp.youtube.com/watch?v=Kci1bOlAOCY&NR=1
http://jp.youtube.com/watch?v=yXPS8v7VqVg&feature=related
http://jp.youtube.com/watch?v=jpgH4CrHXF8&NR=1
鉄道をこよなく愛する人たち
0145名無しさん@お腹いっぱい。
2008/05/31(土) 20:16:440146名無しさん@お腹いっぱい。
2008/07/05(土) 00:14:430147名無しさん@お腹いっぱい。
2008/07/05(土) 05:41:530148名無しさん@お腹いっぱい。
2008/07/05(土) 23:27:080149名無しさん@お腹いっぱい。
2008/07/06(日) 00:20:470150名無しさん@お腹いっぱい。
2008/09/21(日) 11:29:130151名無しさん@お腹いっぱい。
2008/09/27(土) 21:48:190152名無しさん@お腹いっぱい。
2008/11/13(木) 19:08:260153名無しさん@お腹いっぱい。
2009/01/06(火) 01:43:12なんかいいツールはない?
0154名無しさん@お腹いっぱい。
2009/01/10(土) 17:41:500155名無しさん@お腹いっぱい。
2009/01/23(金) 02:38:56http://www.nicovideo.jp/watch/sm5750285
0156名無しさん@お腹いっぱい。
2009/03/26(木) 19:55:23コラア!いてまうど!
0157名無しさん@お腹いっぱい。
2009/04/17(金) 11:58:35(knoppix 5.1.3)
original file name : getimgs.pl.txt
約5354.4日間保存
ttp://www1.axfc.net/uploader/File/so/21579.txt&key=vip
pass : vip
0158名無しさん@お腹いっぱい。
2009/06/04(木) 14:58:19222行目と223行目逆じゃない?
0159名無しさん@お腹いっぱい。
2009/06/05(金) 01:47:51うん、逆だな。
その他にも、幾つかバグがあるようだ。
でも、転送制限があるサイトなので、あんまり使う気しない。
※だいたい160枚前後で、転送休止ってどうなのよ?
0160名無しさん@お腹いっぱい。
2009/07/21(火) 01:34:07これを一気にダウンロードすると、相当な負荷をかけると思うので数秒おきにダウンロードするようにしたいのだけど、そんなことできる?
0161160
2009/07/21(火) 01:35:290162名無しさん@お腹いっぱい。
2009/07/21(火) 01:59:57よくわからんが
>数秒おきにダウンロードするようにしたい
っていうのが要件であるのならsleepでもかませればいいんでないの。
固定時間で、ダウンローダ使っているのを推測されるのが嫌なら
(そういうサイトがあるかはしらないけど)
sleepの引数を範囲絞って乱数にすりゃいいし。難しくはないだろ
0163157
2009/08/18(火) 23:34:32get.pl
readme.txt
をzipにて同梱。
http://www1.axfc.net/uploader/Sc/so/28498.zip&key=vip
0164名無しさん@お腹いっぱい。
2009/08/20(木) 00:41:03解凍してみたが、readme.txt ehg.txt
しか見当たらない。
get.plはいづこに?
0165名無しさん@お腹いっぱい。
2009/08/20(木) 10:00:110166157
2009/08/20(木) 15:44:14g.e-hentai.org スクリプト
get.pl
readme.txt
require_url.png
をzipにて同梱。
ttp://www1.axfc.net/uploader/Sc/so/28995.zip&key=vip
0167名無しさん@お腹いっぱい。
2009/08/20(木) 22:14:50おお、サンキュー
早速、ゲット開始。
なんか色々新しくなってるね。きちんとエラー処理してあって
便利になってる。
スクリプトいぢって遊んでみるわ。ありがとう。
0168187
2009/08/20(木) 22:41:18のmaskを、0777に変更しないとうまく動作しなかった。
デレクトリィは、できるけど書込み出来ない。
perl, v5.8.6 built for darwinでの動作報告
0169167
2009/08/20(木) 22:42:180171157
2009/08/25(火) 22:42:42fap.pl
readme.txt
require_url.png
を同梱。
使い方は、>>166のスクリプトと全く同じです。
ttp://www1.axfc.net/uploader/Sc/so/30657.zip
0172名無しさん@お腹いっぱい。
2009/08/29(土) 20:29:53動いたずら。
fap.plの改行コードがCR+LFだった。
0173名無しさん@お腹いっぱい。
2009/09/12(土) 12:14:31ありがてぇありがてぇ
0174名無しさん@お腹いっぱい。
2009/10/04(日) 23:34:230175名無しさん@お腹いっぱい。
2009/10/09(金) 19:12:20readme.txt 嫁
0176名無しさん@お腹いっぱい。
2009/10/09(金) 20:50:01ありがたいです
しかし、100枚超えると普通にはじかれますね・・・
串どうやって刺そうかな
0177名無しさん@お腹いっぱい。
2009/10/09(金) 22:49:02無料のおかず画像サイト集めてみました
http://s12.smhp%2ejp/abc1103
0178157
2009/10/10(土) 17:32:40待つ時間を長くすればするほど
単位時間のダウンロードの大きさが減るので、
730行目あたりの関数 waitp を
sub waitp {
# wait process and random sleep.
# process sleeps while ??? seconds, not "msec".
#
# if you want to use "msec" unit, use "select".
# same effect of 'sleep' while 250 msec is,
# "select(undef, undef, undef, 0.25) ;".
# but, can't use progress bar.
my $base = 10000 ; # random sleep from 1 sec to $base/1000 sec.
my $t = int ( rand ($base) / 1000 ) ;
progbar (++$t) ;
return 1 ;
}
などと書き換えてみてください。
帯域制限がかかりにくくなります。
0179名無しさん@お腹いっぱい。
2009/10/12(月) 10:05:00やるじゃん
0180名無しさん@お腹いっぱい。
2009/10/13(火) 02:45:36thx!
ここへは検索でたどり着いた他所者で申し訳ないが助かるわ
昔入社直後にならったプロンプト程度の知識でもいけるもんだな・・・使う分には
0181名無しさん@お腹いっぱい。
2009/10/13(火) 05:57:36付属のReadmeを読んでみて自分なりに試してみたのですがうまくいかず
本体を起動すると黒い窓と文字が一瞬表示されるのですが
すぐに消えてしまうためなんとかプリントスクリーンで撮影して
そこに書いてあったリストの作成などもしてみたのですけどダメでしたorz
プログラムなどの知識皆無なのでそもそも場違いとも思うのですが、
どなたか教えていただけないでしょうか?
0182名無しさん@お腹いっぱい。
2009/10/13(火) 06:47:37g.e-hentai.orgからアクセス制限がかかってる現在の状況下で
さらに自分で調べもしない人間達にでも使えるように説明しろと?
正気ですか?
お前の目の前にある箱はなんだよ?飾りか?
>自分なりに試してみたのですが
もっとやれ
もっともっとやれ
救いな事に>>157氏のファイルはインチキじゃない
自分で勉強すれば必ず結果が伴う
■ このスレッドは過去ログ倉庫に格納されています