スクレイピングは、派手にやるとアクセス禁止にされて、情報提供サービスが成り立たなくなる心配はありませんか?
APIが提供されていれば、APIで取得可能な範囲の情報を扱うのが無難かと。
やるだけやって、アク禁になったら諦める?

スクレイピングが急増すれば、もはや情報泥棒はWEBの常識!ということで押し切れるかなー?
「ケチケチすんなよ!かたいこと言ってんじゃねー!データ抜かれるのが嫌ならサイト公開するな!」と。
情報源の宣伝をしてあげるとかで、Give and Take〜相手にもメリットがあれば情報抜いてもケチつけられない?

http://www.atmarkit.co.jp/news/200702/20/scrubyt.html
Webスクレイピング関連のツールは個別に開発されてきたが、2月9日に一般向けリリースが初公開された「scRUBYt! 0.2.0」は、Webスクレイピング技術の集大成のようなフレームワークだ。
名前が示すとおり、scRUBYt!はRuby向けのツールを組み合わせもので、HpricotとWWW::Mechanizeを統合し、さらにXPathよりも人間に分かりやすい構文が使えるようにしたもの。