Rei API CLI Tools
tools to get product from rei.com
Get Started
From Source
make sure use virtual environment with this command
python -m venv venv
venv\Scripts\activate
source venv/bin/activate
pip install -r requirements.txt --no-cache-dir
cd src/
then run the script and type
python main.py --help
Usage: main [OPTIONS] COMMAND [ARGS]...
╭─ Options ─────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────╮
│ --install-completion Install completion for the current shell. │
│ --show-completion Show completion for the current shell, to copy it or customize the installation. │
│ --help Show this message and exit. │
╰───────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────╯
╭─ Commands ────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────╮
│ scrape Menjalankan Scraping semua halaman pada satu situs berdasarkan kata kunci tertentu │
│ spesific_scrape scraping situs berdasarkan kata kunci dan halaman tertentu │
╰───────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────╯
to get spesific scrape and scrape help usage type
python main.py scrape --help
Usage: main scrape [OPTIONS] SEARCH_QUERY
Menjalankan Scraping semua halaman pada satu situs berdasarkan kata kunci tertentu
╭─ Arguments ───────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────╮
│ * search_query TEXT [default: None] [required] │
╰───────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────╯
╭─ Options ─────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────╮
│ --filepath --no-filepath Digunakan untuk Menentukan lokasi generate laporan hasil scraping, (Jika Diisi) contoh ./data.csv [default: no-filepath] │
│ --is-csv --no-is-csv generate hasil scraping menjadi CSV, jika Filepath diisi [default: no-is-csv] │
│ --is-excel --no-is-excel generate hasil scraping menjadi file excel, (Jika Filepath diisi) [default: no-is-excel] │
│ --is-json --no-is-json generate hasil scraping menjadi sebuah File JSON jika filepath diisi [default: no-is-json] │
│ --help Show this message and exit. │
╰───────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────╯
and for spesific scrape
type
python main.py spesific_scrape --help
Usage: main spesific_scrape [OPTIONS] SEARCH_QUERY PAGE
scraping situs berdasarkan kata kunci dan halaman tertentu
╭─ Arguments ───────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────╮
│ * search_query TEXT [default: None] [required] │
│ * page INTEGER [default: None] [required] │
╰───────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────╯
╭─ Options ─────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────╮
│ --filepath TEXT Digunakan untuk Menentukan lokasi generate laporan hasil scraping, (Jika Diisi) contoh ./data.csv [default: None] │
│ --is-csv --no-is-csv generate hasil scraping menjadi CSV, jika Filepath diisi [default: no-is-csv] │
│ --is-excel --no-is-excel generate hasil scraping menjadi file excel, (Jika Filepath diisi) [default: no-is-excel] │
│ --is-json --no-is-json generate hasil scraping menjadi sebuah File JSON jika filepath diisi [default: no-is-json] │
│ --help Show this message and exit. │
╰───────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────╯
Example
to run scraper and scrape all product by keywords u can type
python main.py scrape Shoes
then for spesific scrape and then generate report
python main.py spesific_scrape shoes 2 --filepath="./data.xlsx" --is-excel
Thanks!, feel happy to report a bugs and issues if u found it