投稿者 葉月  (社会人) 投稿日時 2009/11/19 07:43:08
個人的に利用するなら自己責任で大丈夫だと思いますが――
配布を考えているならアマゾンで利用されている情報を二次的に利用していいか、
アマゾンで調べてください。
載っていないようでしたらアマゾンに問い合わせることをお勧めします。

用途はさておき。
趣味で使う分には、いろいろと汎用的に使えるので、
2点やり方をざっくり紹介します。

①WebClientクラスを利用
②HttpWebRequestクラスとHttpWebResponseクラスを利用する。

①は手ごろで簡単ですが、Cookieを動的に取得できる手段がないため読めないサイトがあります。
  Cookieが必要なサイトでWebClientを使うとエラーページ(403など)に飛ばされます。
②は①に比べて複雑ですが、Cookieなどを動的に取得できる手段があるので読めるサイトの幅が広がります。
 まずは、RequestやResponseのやり取りを勉強することからお勧めします。

ソースを取得したら、情報を取捨します。
3点のやり方を紹介します。
①同じサイトの似たようなページを取得するなら、Stringクラスを使って必要な部分を取得します。
 とくに、Substring、IndexOf、LastIndexOfメソッドは重要なので使えるになってください。
 それから、SplitとToUpperメソッドも必要です。
 これらを用いて、指定個所だけを切り取ったりできる汎用クラスを作ると楽です。
 高速+簡単なので、私はこの方法を一番用いています。

②複数のサイトを巡回し、処理に時間がかかってもいいなら正規表現。
 前に私が書いたサンプルがあったので紹介します。
 これじゃ処理は全然だめですが、雰囲気は伝わると思いました。
>参考URL
http://rucio.groupsite.jp/commu/ThreadDetail.aspx?ThreadId=141

③DOMを利用する方法もあります。汎用的に使えてコードも短くできますが、
 タグに依存するのでいざって時に使えない場面もあります。
 処理は①に比べてかなり遅いです。

私的には①主体で、必要に応じて②と③を使うのがお勧めです。