Socket
Book a DemoInstallSign in
Socket

scrapist

Package Overview
Dependencies
Maintainers
1
Versions
1
Alerts
File Explorer

Advanced tools

Socket logo

Install Socket

Detect and block malicious and high-risk dependencies

Install

scrapist

Node.js web scraping library based on cheerio-httpcli

latest
Source
npmnpm
Version
0.1.0
Version published
Maintainers
1
Created
Source

Scrapist

cheerio-httpcli をベースとした、Node.js の Web スクレイピングモジュール

単体ページだけでなく、その子ページや兄弟ページなど、複数ページに渡るスクレイピングを、簡潔な記述で行うことができます。

  • 簡潔な記述で、木構造の複数ページをまとめてスクレイピング
  • サーバーの負担を考慮して、同時リクエスト数やリクエスト間の時間を設定可能
  • スクレイピングに失敗した場合の、再試行回数や再試行までの時間を設定可能
  • 好きなスクレイピングモジュールでも利用可能

※ Node.js v4 以上のみ対応
試験的に作成しているため、API仕様がまだ安定していません。ご利用の際はご注意下さい。

使い方

インストール

npm install scrapist --save

使い方

スクレイピングしたいWebサイトに合わせて、スクレイピング方法を以下のように記述します。

const Scrapist = require("scrapist").Scrapist;

const scrapist = new Scrapist({

  // 最初に取得するページのURL(例)
  rootUrl: "https://github.com",

  pages: [
    // 最初に取得するページに適用する関数
    {
      resToData(result) {
        // 取得内容から必要なデータを返します。
        // cheerio-httpcli と同じようにスクレイピングできます。
        return { link: result.$("a").text() };
      },
      resToChildren(result) {
        // 子ページのURLの配列を返します。
        // 子ページには、pagesの2番目の関数が適用されます。
        return [ /* 子ページのURL */ ];
      },
      resToSiblings(result) {
        // 新たに取得する必要がある兄弟ページのURLの配列を返します。
        return [ /* 兄弟ページのURL */ ];
      }
    },

    // 子ページに適用する関数
    {
      resToData() { return { /* ... */ }; },
      resToChildren() { return [ /* ... */ ]; }
    }

    // 孫ページに適用する関数

    // ...
  ]

});

スクレイピングを開始するには、 scrape メソッドをコールします。 全ページのスクレイピングが完了すると、全ページのスクレイピング結果がまとめて Promise に渡されます。

scrapist.scrape().then(result => {
  // ...
});

CLI

npm で -g をつけてインストールすると、ターミナルで scrapist コマンドからスクレイピングが利用可能になります。

  • --scheme: [必須] scheme のファイルパス。
  • --config: config のファイルパス。
  • --param: scrape メソッドの param に相当する値を指定できます。
  • --output : JSON形式の結果の出力先ファイルパス。省略すると結果を標準出力へ流します。

--scheme--config では、 module.exports = { ... }; のように記述されたjsファイルを指定できます。

例:

scrapist --scheme google.js --output result.json

API

以下のようにインポートできます。

var Scrapist = require("scrapist").Scrapist;
import Scrapist from "scrapist";

new Scrapist(scheme[, config])

ページ構造の記述や設定を保持するクラス。schemeconfig の詳細は下記を参照して下さい。

scrape([param], [config]) => Promise<object, error>

スクレイピングを実行します。scheme によっては param の指定が必要です。 config を指定すると、Scrapist のコンストラクタで指定した config を上書きすることができます (scrapistconfig にマージされます)。

スクレイピングが完了すると、Promise の resolve に以下の様なデータが渡されます(schemeafter で加工される場合を除く)。

[
  {
    data: { /* resToDataの結果 */ }
    url: "https://github.com",
    children: [
      {
        data: { /* resToDataの結果 */ },
        url: "https://github.com/rot1024"
        children:
          // ...
        ]
      },
      // ...
    ]
  },
  // ...
]

scheme

スクレイピングしたいWebサイトの構造に関する記述です。以下のキーを持つオブジェクトです。

rootUrl : string|function(any) => string [必須]

一番最初に取得するページのURLを string で指定します。 function を設定することもでき、scrape メソッドに渡された引数から、最初に取得するURLを返す関数として、スクレイピング前にコールされます。

pages : array<object> [必須]

以下のオブジェクトからなる、ページのスクレイピング方法を記述する配列。

配列のインデックスは、ページの深さと対応します。 すなわち、一番最初に取得するページまたはその兄弟ページに対しては、1番目のオブジェクト内の関数等が適用されます。 その子ページに対しては2番目が、孫ページには3番目が…、という具合に適用されます。

以下はいずれも省略可能です。

  • toData : (context) => any
    スクレイピングの必要なしにページのデータを設定したい場合は、この関数でデータを返すことでサーバーへのリクエストを省略できます。この関数が定義されている場合、resToData以下は無視されます。
  • toChildren : (data, context) => array<string>
    スクレイピングの必要なしに子ページのURLがわかる場合は、この関数で子ページのURLの配列を返すことでサーバーへのリクエストを省略できます。この関数が定義されている場合、resToData以下は無視されます。datatoData で返された値です。
  • resToData : (result, context) => any
    取得結果から取得したいデータを返す関数。
  • resToChildren : (result, data, context) => array<string>
    そのページから取得すべき子ページのURLの配列を返す関数。dataresToData で返された値です。
  • resToSiblings : (result, data, context) => array<string>
    そのページから更に取得すべき兄弟ページのURLの配列を返す関数。dataresToData で返された値です。
  • siblingsIndex : number
    どの兄弟ページまで resToSiblings を呼び出すか、兄弟ページのインデックスで指定します。適切に指定されていないと、兄弟ページを取得する際に同時リクエストが効きません。-1 が指定されているか resToSiblings が省略されている場合は無視されます。

after : function(object) => any

全スクレイピング完了後に呼ばれるコールバック。 scrpae メソッドの Promise に渡される、スクレイピング結果のオブジェクトを加工して return することができます。

defaultParam : any

デフォルトのパラメータ。defaultParamparam もobject型の場合は、defaultParamparam がマージされた結果がスクレイピングのパラメータとなります。それ以外は、param が未指定のときのみ、defaultParam が使われます。

config

以下のキーを持つオブジェクトです。

concurrency : number

サーバーへのリクエストを同時にいくつまで並列して実行可能か指定します。デフォルト: 1

値を上げるとスクレイピングを高速化できますが、サーバーに負荷をかけ過ぎないようにご注意下さい。

interval : number

1ページ取得する前に、何ミリ秒待つかを指定します。デフォルト: 1000

値を下げるとスクレイピングを高速化できますが、サーバーに負荷をかけ過ぎないようにご注意下さい。

trial : number

取得エラーが発生した場合の、再試行回数。デフォルト: 1

trialInterval : number|function(number) => number

取得エラーが発生した場合の、次の再試行まで待つミリ秒数。デフォルト: 1000

関数を指定することもでき、その場合は、再試行回数を引数に、再試行までのミリ秒数を返す関数となります。

beforeFetch : function(context)

1つのページを取得する直前に呼ばれるコールバック。

onData : function(data, context, children, siblings)

1つのページを取得し、 resToData 等に通されたあとに呼ばれるコールバック。 結果をまとめてではなく随時保存したり、進捗を表示するなどの用途にお使いいただけます。

  • data: resToData の結果
  • children: resToChildren の結果
  • siblings: resToSiblings の結果

onError : function(err, context) => bool

取得中にエラーが発生した場合に呼ばれます。 true を返すと、設定内容に従ってスクレイピングの再試行を試みます。 それ以外の場合はそのまま err を throw します。

cheerio-httpcli を使う場合、デフォルトで設定されていますので、通常設定の必要はありません。

fetch : function(context) => Promise

デフォルトではサーバーへのリクエストおよびその結果を返すモジュールとして cheerio-httpcli を使用しますが、 他のモジュールや自作の関数を使いたい場合など、通常の動作を上書きしたい場合に指定して下さい。 この場合、再試行機能が有効になるよう onError も同時に指定して下さい。

Promise の resolve に渡されたものがそのまま resToData resToChildren resToSiblings に渡される引数となります。 また、Promise の reject に渡されたものがそのまま configonError に渡される引数となります。

context

以下のキーを持つオブジェクトです。

url : string

取得しようとしている、または取得したページのURL

index : number

兄弟ページの中で何番目のページであるかを示すインデックス

siblings : array<string>

現在の階層の全兄弟ページのURL

page : object

schemepages で定義された、現在の階層のページのオブジェクト

depth : number

ページ階層の深さ。一番最初に取得するページの深さは 0 です。

parentData : object

親ページの resToData が返したスクレイピング結果

param : any

scrape メソッドに渡された param

fetch : bool

サーバーへリクエストを送信しようとしている、またはしたか。 toDatatoChildren で処理された場合は false になります。

trial : number

ページ取得に失敗した場合の再試行が何回目であるか。初めて取得する時は 0 です。

Keywords

cheerio

FAQs

Package last updated on 19 Jun 2016

Did you know?

Socket

Socket for GitHub automatically highlights issues in each pull request and monitors the health of all your open source dependencies. Discover the contents of your packages and block harmful activity before you install or update your dependencies.

Install

Related posts