Python3网络爬虫实战---1三、部署相关库ScrapydClient、ScrapydAPI

上一篇文章: Python3网络爬虫实战---十二、部署相关库的安装:Docker、Scrapyd
下一篇文章: Python3网络爬虫实战---1四、部署相关库的安装:Scrapyrt、Gerapy

ScrapydClient的安装

在将 Scrapy 代码部署到远程 Scrapyd 的时候,其第一步就是要将代码打包为 Egg 文件,其次须要将 Egg 文件上传到远程主机,这个过程若是咱们用程序来实现是彻底能够的,可是咱们并不须要作这些工做,由于 ScrapydClient 已经为咱们实现了这些功能。
下面咱们就来过一下 ScrapydClient 的安装过程。html

1. 相关连接

2. Pip安装

推荐使用 Pip 安装,命令以下:python

pip3 install scrapyd-client

3. 验证安装

安装成功后会有一个可用命令,叫作 scrapyd-deploy,即部署命令。
咱们能够输入以下测试命令测试 ScrapydClient 是否安装成功:git

scrapyd-deploy -h

若是出现如图 1-87 相似输出则证实 ScrapydClient 已经成功安装:
clipboard.pnggithub

图 1-87 运行结果
在后文咱们会详细了解它的用法。json

ScrapydAPI的安装

安装好了 Scrapyd 以后,咱们能够直接请求它提供的 API 便可获取当前主机的 Scrapy 任务运行情况。segmentfault

如某台主机的 IP 为 192.168.1.1,则能够直接运行以下命令获取当前主机的全部 Scrapy 项目:api

curl http://localhost:6800/listprojects.json

运行结果:网络

{"status": "ok", "projects": ["myproject", "otherproject"]}

返回结果是 Json 字符串,经过解析这个字符串咱们即可以获得当前主机全部项目。curl

可是用这种方式来获取任务状态仍是有点繁琐,因此 ScrapydAPI 就为它作了一层封装,下面咱们来看下它的安装方式。scrapy

1. 相关连接

2. Pip安装

推荐使用 Pip 安装,命令以下:

pip install python-scrapyd-api

3. 验证安装

安装完成以后即可以使用 Python 来获取主机状态了,因此如上的操做即可以用 Python 代码实现:

from scrapyd_api import ScrapydAPI
scrapyd = ScrapydAPI('http://localhost:6800')
print(scrapyd.list_projects())

运行结果:

["myproject", "otherproject"]

这样咱们即可以用 Python 直接来获取各个主机上 Scrapy 任务的运行状态了。

相关文章
相关标签/搜索