
Security News
vlt Launches "reproduce": A New Tool Challenging the Limits of Package Provenance
vlt's new "reproduce" tool verifies npm packages against their source code, outperforming traditional provenance adoption in the JavaScript ecosystem.
tools to get product from rei.com
make sure use virtual environment with this command
python -m venv venv
venv\Scripts\activate # on windows
source venv/bin/activate # on mac or linux
pip install -r requirements.txt --no-cache-dir
cd src/
then run the script and type
python main.py --help
Usage: main [OPTIONS] COMMAND [ARGS]...
╭─ Options ─────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────╮
│ --install-completion Install completion for the current shell. │
│ --show-completion Show completion for the current shell, to copy it or customize the installation. │
│ --help Show this message and exit. │
╰───────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────╯
╭─ Commands ────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────╮
│ scrape Menjalankan Scraping semua halaman pada satu situs berdasarkan kata kunci tertentu │
│ spesific_scrape scraping situs berdasarkan kata kunci dan halaman tertentu │
╰───────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────╯
to get spesific scrape and scrape help usage type
python main.py scrape --help
Usage: main scrape [OPTIONS] SEARCH_QUERY
Menjalankan Scraping semua halaman pada satu situs berdasarkan kata kunci tertentu
╭─ Arguments ───────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────╮
│ * search_query TEXT [default: None] [required] │
╰───────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────╯
╭─ Options ─────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────╮
│ --filepath --no-filepath Digunakan untuk Menentukan lokasi generate laporan hasil scraping, (Jika Diisi) contoh ./data.csv [default: no-filepath] │
│ --is-csv --no-is-csv generate hasil scraping menjadi CSV, jika Filepath diisi [default: no-is-csv] │
│ --is-excel --no-is-excel generate hasil scraping menjadi file excel, (Jika Filepath diisi) [default: no-is-excel] │
│ --is-json --no-is-json generate hasil scraping menjadi sebuah File JSON jika filepath diisi [default: no-is-json] │
│ --help Show this message and exit. │
╰───────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────╯
and for spesific scrape
type
python main.py spesific_scrape --help
Usage: main spesific_scrape [OPTIONS] SEARCH_QUERY PAGE
scraping situs berdasarkan kata kunci dan halaman tertentu
╭─ Arguments ───────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────╮
│ * search_query TEXT [default: None] [required] │
│ * page INTEGER [default: None] [required] │
╰───────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────╯
╭─ Options ─────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────╮
│ --filepath TEXT Digunakan untuk Menentukan lokasi generate laporan hasil scraping, (Jika Diisi) contoh ./data.csv [default: None] │
│ --is-csv --no-is-csv generate hasil scraping menjadi CSV, jika Filepath diisi [default: no-is-csv] │
│ --is-excel --no-is-excel generate hasil scraping menjadi file excel, (Jika Filepath diisi) [default: no-is-excel] │
│ --is-json --no-is-json generate hasil scraping menjadi sebuah File JSON jika filepath diisi [default: no-is-json] │
│ --help Show this message and exit. │
╰───────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────╯
to run scraper and scrape all product by keywords u can type
python main.py scrape Shoes
then for spesific scrape and then generate report
python main.py spesific_scrape shoes 2 --filepath="./data.xlsx" --is-excel
Thanks!, feel happy to report a bugs and issues if u found it
FAQs
REI Shop API unofficial with Python
We found that rei-api demonstrated a healthy version release cadence and project activity because the last version was released less than a year ago. It has 1 open source maintainer collaborating on the project.
Did you know?
Socket for GitHub automatically highlights issues in each pull request and monitors the health of all your open source dependencies. Discover the contents of your packages and block harmful activity before you install or update your dependencies.
Security News
vlt's new "reproduce" tool verifies npm packages against their source code, outperforming traditional provenance adoption in the JavaScript ecosystem.
Research
Security News
Socket researchers uncovered a malicious PyPI package exploiting Deezer’s API to enable coordinated music piracy through API abuse and C2 server control.
Research
The Socket Research Team discovered a malicious npm package, '@ton-wallet/create', stealing cryptocurrency wallet keys from developers and users in the TON ecosystem.