トップページphp
1001コメント333KB

△▲ WebProg 初心者の質問 Part22 ▼▽

■ このスレッドは過去ログ倉庫に格納されています
0001nobodyさん2010/05/03(月) 16:42:08ID:???
2ちゃんねるは初めて。 WebProg 板は初めて。
質問したいけど、どうしたら良いか分からない。

そんなときは、ここに書き込んでください。
板の住人や、その他が、けなしながら、厳しく教えてくれるかも。

質問する前に、まずはここを読んでね。
【注意事項】
・質問する前にGoogleで検索してみましょう
http://www.google.co.jp/
・環境(ソフトウェアのバージョンなど)は、必ず書いてください。できるだけ詳しく。
 後から情報を書き足す、いわゆる情報の小出しは極力避けてください。
・何がしたくて、何ができて何ができないのかを書きましょう
・マルチポスト(複数のスレッドで質問する行為)は絶対に禁止です。
・過去ログは必ず読みましょう。あなたと同じ質問をしてる人がいるかも知れません。

2ch 総合ガイド
http://www.2ch.net/guide/

お願い。
適切な、板、スレ、を発見した場合、誘導してあげましょう。
スレの性質上 age 進行でお願いします。

関連情報は
>>2-4辺り

☆前スレ☆
△▲ WebProg 初心者の質問 Part21 ▼▽
http://pc11.2ch.net/test/read.cgi/php/1257701535/
0002nobodyさん2010/05/03(月) 16:42:54ID:???
過去スレ1
1: http://pc.2ch.net/php/kako/1030/10301/1030151932.html
2: http://pc2.2ch.net/php/kako/1037/10372/1037222063.html
3: http://pc2.2ch.net/php/kako/1045/10450/1045091733.html
4: http://pc5.2ch.net/php/kako/1056/10560/1056078605.html
5: http://pc2.2ch.net/php/kako/1060/10602/1060263267.html (Lost)
6: http://pc2.2ch.net/test/read.cgi/php/1066318233/ (Lost)
7: http://pc2.2ch.net/test/read.cgi/php/1073460282/ (Lost)
8: http://pc5.2ch.net/test/read.cgi/php/1078568723/
9: http://pc5.2ch.net/test/read.cgi/php/1086715675/
10: http://pc5.2ch.net/test/read.cgi/php/1095633323/
11: http://pc8.2ch.net/test/read.cgi/php/1101635909/
12: http://pc8.2ch.net/test/read.cgi/php/1125215604/
13: http://pc8.2ch.net/test/read.cgi/php/1139468729/
14: http://pc10.2ch.net/test/read.cgi/php/1151501830/
15: http://pc11.2ch.net/test/read.cgi/php/1169725490/
16: http://pc11.2ch.net/test/read.cgi/php/1187729623/
17: http://pc11.2ch.net/test/read.cgi/php/1204462146/
18: http://pc11.2ch.net/test/read.cgi/php/1219842559/
19: http://pc11.2ch.net/test/read.cgi/php/1236265877/
20: http://pc11.2ch.net/test/read.cgi/php/1244038749/
0003nobodyさん2010/05/03(月) 16:43:11ID:???
過去スレ2
21: http://pc11.2ch.net/test/read.cgi/php/1257701535/
0004nobodyさん2010/05/03(月) 16:43:26ID:???
☆関連スレ☆

■ 欲しいCGIが見つからない場合には
こんなCGI探してます 23
http://pc11.2ch.net/test/read.cgi/php/1219654359/

■ 設置の方法がわからない場合には
CGI設置について質問【Part3】
http://pc11.2ch.net/test/read.cgi/php/1176143582/

■ 自分で改造できない場合には
【 スクリプト改造依頼スレ】(丸投げ) part7再々
http://pc11.2ch.net/test/read.cgi/php/1222645553/

■ 自分で改造する時にアドバイスが欲しい場合には
★三 【 スクリプト改造工房 PART 9 】 ★三
http://pc11.2ch.net/test/read.cgi/php/1143834740/
0005nobodyさん2010/05/03(月) 20:25:58ID:ZmmTID5f
1乙age
0006nobodyさん2010/05/05(水) 00:56:47ID:6FYFRkPq
他所のサイト(掲示板)のログを自動で収集して
カテゴリごとに分類・表示するサイトってどうやって作るんですか?

(例)
2番街
http://2bangai.net/
インモラル
http://www.immoral.jp/
0007nobodyさん2010/05/05(水) 06:09:56ID:???
かなり大雑把な質問だな
まずはスクレイピングでググるよろし
0008nobodyさん2010/05/07(金) 14:53:07ID:???
WEB拍手の文字化けについて質問です。

現在、WEB拍手公式で配布している、WEB拍手のダウンロード版を設置しています。
ttp://www.webclap.com/etc/download.html

実行画面が文字化けするので、
ヘッダ部分の

print "Content-type: text/html\n\n";
print '<!DOCTYPE HTML PUBLIC "-//W3C//DTD HTML 4.01 Transitional//EN">',"\n";
print '<html lang="ja"><head>',"\n";
print "<title>$title</title>\n";
print "</head>\n";



print "Content-type: text/html; charset=EUC-JP\n\n";
print '<!DOCTYPE HTML PUBLIC "-//W3C//DTD HTML 4.01 Transitional//EN">',"\n";
print '<html lang="ja"><head>',"\n";
print '<meta http-equiv="Content-Type" content="text/html; charset=EUC-JP">',"\n";
print "<title>$title</title>\n";
print "</head>\n";


に書き換えました。(サイトで使用しているのがEUC-JPです)

これでも相変わらず文字化けするのですが、他にどんな要因が考えられるでしょうか。
WEB拍手の専用スレ・ぐぐってもめぼしい情報が手に入らなかったのでこちらで質問しました。
お分かりになる方、よろしければお力をお貸しください。
0009nobodyさん2010/05/07(金) 15:57:38ID:???
関連するファイル全部の文字コードもEUC−JPに合わせればいいんじゃない?
0010nobodyさん2010/05/07(金) 16:19:07ID:???
sjis を euc-jp にすりゃいいじゃない
0011nobodyさん2010/05/07(金) 16:38:11ID:???
>>9-10
ありがとうございます。
あれからダウンロードし直してみて、変更を加えない状態で何故か文字化けしないようになりました。
自分でも理由が良く分かりません。
でも文字化けはしないけど、文字コードは指定していない状態なのですが、大丈夫なんでしょうか。。

0012nobodyさん2010/05/07(金) 16:41:17ID:???
結果的にうまくいってれば大丈夫だけど
どうしてそうなるのか調べて把握しておくと後で苦労しなくて済むよ
0013nobodyさん2010/05/08(土) 00:56:33ID:???
2chにoyster-loginした状態のproxyってできないものなのでしょうか
squidはクッキーを覚えてくれないみたいです
0014nobodyさん2010/05/08(土) 07:50:31ID:???
>>13
>2chにoyster-loginした状態のproxy

まずここが意味不明。
0015nobodyさん2010/05/08(土) 15:08:51ID:???
プログラム板より誘導されてきました。質問をさせてください
http://pc12.2ch.net/test/read.cgi/tech/1261057499/627-629

知りたいことは、インターネットのURLそのものを検索するためのプログラムを組むことは出来るか、です
そのためのプログラム言語は、何がいいのかもあわせて知りたいです

例ですが、こういうのです

↓これはグーグルのトップページですが
1.http://www.google.co.jp/
 グーグルについてを押すと以下のページになります
2.http://www.google.co.jp/intl/ja/about.html
 これは公開されている部分なのですが、隠しページなどを検索したい(グーグルのではありません)ので、
 1.の後に続いている2.の「intl/ja/about.html」この部分が不明だとして、その不明部分を検索するプログラムを作りたいと思っています

その場合に、まず、上記のような検索プログラムは可能かということ
可能であれば、どの言語でプログラムを組むのが適しているかということ
上記2点を知りたいです

また、参考になるページなどもありましたら、紹介いただけるとありがたいです
よろしくお願い致します
0016nobodyさん2010/05/08(土) 15:19:18ID:???
Internet へのアクセスがものすごくコスト高いので、プログラム側の環境による速度差はさほど出ないのかな? なんて思う。

perl でも ひまわり でも なでしこ でも、インターネットへのアクセスが
出来れば何でも良いかと。

zip のパスワード解析を総アタックで行うソースが役に立つかと。


ただ、気をつけてね。
やろうとしてるのは 「攻撃」 に近いことなので、ばれた場合の非は100%あなたにあるので。
0017nobodyさん2010/05/08(土) 15:29:40ID:???
>>16
回答ありがとうございます

本当に申し訳ないのですが、まったくの初心者なのでperlやひまわり、なでしこというものもよくわかっていません
ZIPのパスワード解析のソースというものも、わからないです
初心者にとってとっつきやすいというか、組みやすいのはどちらでしょうか


ちなみに、可能ではあるということですよね
ただし攻撃に近いことなのですね、それもわかりました。
そうならないようにしたいと思います
0018nobodyさん2010/05/08(土) 15:32:01ID:???
こんなにもヒント、答えだらけなのに調べようとしないの?
バカなの?ゆとりなの?禿げなの?
0019nobodyさん2010/05/08(土) 15:32:30ID:???
>>15
ちょっと意味を取り違えてるかもしれないのだが、用はHTTPで200が返るまで
urlを総当りするってこと?
それを検索と呼ぶのかどうかは色々疑問だが、他人の鯖にやるのはアタック以外の
何物でもないからマトモな回答を得るのは難しいと思うよ。
0020nobodyさん2010/05/08(土) 15:35:45ID:???
>>17
初心者がやることではないです。
つか何故またそんな事をやる羽目になったんだ?
0021nobodyさん2010/05/08(土) 15:39:05ID:???
>>20
自分で作った昔(2000年ぐらい)のHTMLで書いたホームページの情報を見たいと思ったのですが、
すっかりアドレスを忘れてしまって辿りつけないのです
先頭の文字ぐらいは覚えているので、なんとか検索してたどり着けないかと
そこに欲しいものがあるので
ついでにプログラムの勉強もしたいなと思ったので、検索しつつ勉強できればいいなと
0022nobodyさん2010/05/08(土) 15:46:56ID:???
まずあなたの言う『検索』って何?
0023nobodyさん2010/05/08(土) 15:56:28ID:???
>>22
イメージとしては先頭か末尾か中盤かに一致する文字があること
自分で作ったサイトなので、ある程度一定の文字を入れているので、それに一致するもの
http://xxxxxxxxx.xxxx.xx/********.拡張子/]
こんな感じで********.拡張子の部分に探したいファイルにつけた名前と一致するものがあったら、それを拾いたいのです
前半の部分はわかっているので
0024nobodyさん2010/05/08(土) 16:02:39ID:???
とりあえず web.archive.org に行って、分かっているホスト名を
入れてみるんだ。
http://www.archive.org/web/web.php
http://web.archive.org/collections/web/advanced.html
0025nobodyさん2010/05/08(土) 16:05:25ID:???
無料ホームページで作ったんだとしたら10年も経ったら消されてるんじゃね?
0026nobodyさん2010/05/08(土) 16:10:39ID:???
>>24
少し見てきます、ありがとうございます

ホスト名=借りたサーバ/登録したID/ファイルの分類場所/今回探したいファイル名.拡張子

これの借りたサーバ+登録したIDでいいですかね?というか調べてきます

>>25
正直いって、その可能性もあります。トップページは生きているのは確認したのですが
FTPで転送して、あれこれトップページにリンクを貼る途中で、作りきれない部分があって放置した部分なんかは見られないのでわからないです
いくつかリンクを貼ってある部分でもNOTFOUNDになっている部分もありましたので
が、どうしても欲しいファイルがあるので諦めきれず……
0027nobodyさん2010/05/08(土) 16:24:25ID:???
>>24
たびたび済みません、これでやってみたら、発見できませんでした
ホスト名=借りたサーバ/登録したID/ファイルの分類場所/今回探したいファイル名.拡張子

これの/今回探したいファイル名.拡張子の前までは解っているのですが、検索したいファイル名自体が、
ワイルドカードを併用した感じでの検索みたいな感じの使い方できますか?
(あいうえお*に一致するファイル.拡張子みたいな感じ)

プログラムと関係ない質問ですみませんが、使い方であっていれば、そちらのサイトで検索を続けようと思います
0028nobodyさん2010/05/08(土) 17:09:39ID:???
質問です。

自分の記事に属性を持たせ、
その検索をするのに手っ取り早い方法はどういったものでしょうか?

記事に複数のカテゴリを割り当て、それをAND検索できるだけでも良いのですが、
無料でそれを可能にするサーバー、方法があればご教示下さい。
■ このスレッドは過去ログ倉庫に格納されています