快速部署 Scrapy项目scrapyd的详细流程
作者:离开你,我才发现
快速部署 Scrapy项目 scrapyd
给服务端 install scrapyd
pip install scrapyd -i https://pypi.tuna.tsinghua.edu.cn/simple
运行
scrapyd
修改配置项 , 以便远程访问
使用Ctrl +c 停止 上一步的运行的scrapyd
在要运行scrapyd 命令的路径下,新建文件scrapyd.cnf 文件
输入以下内容
[scrapyd]
# 网页和Json服务监听的IP地址,默认为127.0.0.1(只有改成0.0.0.0 才能在别的电脑上能够访问scrapyd运行之后的服务器)
bind_address = 0.0.0.0
# 监听的端口,默认为6800
http_port = 6800
# 是否打开debug模式,默认为off
debug = off
在客户端 install scrapyd-client
1. 安装 scrapy-client 命令如下
pip install scrapyd-client -i https://pypi.tuna.tsinghua.edu.cn/simple
配置Scrapy 项目
修改 scrapy.cfg 文件
1 检查配置
scrapyd-deploay -l
发布scrapy项目到scrapyd所在的服务器(此时爬虫未运行)
# scrapyd-deploy <target> -p <project> --version <version> # taget : 就是前面配置文件里的deploy后面的的target名字,例如 ubuntu1 # project: 可以随意定义, 建议与 scrapy 爬虫项目名相同 # version: 自定义版本号 不写的话默认为当前时间戳, 一般不写 scrapyd-deploy ubuntu-1 -p douban
注意
爬虫目录下不要放无关的py文件,放无关的py文件会导致发布失败,但是当爬虫发布成功后,会在当前目录生成一个setup.py文件,可以删除掉。
4.发送运行爬虫命令
curl http://10.211.55.5:6800/schedule.json -d project=douban -d spider=top250
5.停止爬虫
curl http://ip:6800/cancel.json -d project=项目名 -d job=任务的id值
curl http://10.211.55.5:6800/cancel.json -d project=douban -d job=121cc034388a11ebb1a7001c42d0a249
注意
- 如果scrapy项目代码,修改了,只需要重新发布到scrapyd所在服务器即可
- 如果scrapy项目暂停了,可以再次通过
curl
的方式发送命令让其“断点续爬”
Scrapy项目部署-图形化操作Gerapy
一,说明
Gerapy 是一款国人开发的爬虫管理软件(有中文界面)是一个管理爬虫项目的可视化工具,把项目部署到管理的操作全部变为交互式,实现批量部署,更方便控制、管理、实时查看结果。
gerapy和scrapyd的关系就是,我们可以通过gerapy中配置scrapyd后,不使用命令,直接通过图形化界面开启爬虫。
二,安装
命令 (安装在 爬虫代码 上传端)
pip install gerapy -i https://pypi.tuna.tsinghua.edu.cn/simple
测试
三,使用
创建一个gerapy工作目录
gerapy init
生成文件夹,如下
创建splite 数据库, 存放部署scrapy 项目版本
gerapy migrate
创建成功之后,用tree命令,查看当前的文件列表
创建用户密码
启动服务
gerapy runserver
到此这篇关于快速部署 Scrapy项目 scrapyd的文章就介绍到这了,更多相关Scrapy项目 scrapyd内容请搜索脚本之家以前的文章或继续浏览下面的相关文章希望大家以后多多支持脚本之家!