Python爬虫教程-31-建立 Scrapy 爬虫框架项目

本篇是介绍在 Anaconda 环境下,建立 Scrapy 爬虫框架项目的步骤,且介绍比较详细python

Python爬虫教程-31-建立 Scrapy 爬虫框架项目

  • 首先说一下,本篇是在 Anaconda 环境下,因此若是没有安装 Anaconda 请先到官网下载安装
  • Anaconda 下载地址:https://www.anaconda.com/download/

Scrapy 爬虫框架项目的建立

  • 0.打开【cmd】
  • 1.进入你要使用的 Anaconda 环境web

    • 1.环境名能够在【Pycharm】的【Settings】下【Project:】下找到
      这里写图片描述
    • 2.使用命令:activate 环境名,例如:python爬虫

      activate learn框架

    • 3.进入想要存放 scrapy 项目的目录下 【注意】dom

    • 4.新建项目:scrapy startproject xxx项目名,例如:scrapy

      scrapy startproject new_projectide

    • 5.操做截图:
      这里写图片描述svg

    • 6.在文件资源管理器打开该目录,就会发现生成了好几个文件
      这里写图片描述
    • 7.使用 Pycharm 打开项目所在目录就能够了

    这里咱们就把项目建立好了,分析一下自动生成的文件的做用函数

Scrapy 爬虫框架项目的开发

  • 0.使用 Pycharm 打开项目,截图:
    这里写图片描述
  • 项目的开发的大体流程:
    • 1.明确须要爬取的目标/产品:编写 item.py
    • 2.在 spider 目录下载建立 python 文件制做爬虫:
      • 地址 spider/xxspider.py 负责分解,提取下载的数据
    • 3.存储内容:pipelines.py
  • Pipeline.py 文件
    • 对应 pipelines 文件
    • 爬虫提取出数据存入 item 后,item 中保存的数据须要进一步处理,好比清洗,去虫,存储等
    • Pipeline 须要处理 process_item 函数
    • process_item
      • spider 提取出来的 item 做为参数传入,同时传入的还有 spider
      • 此方法必须实现
      • 必须返回一个 Item 对象,被丢弃的 item 不会被以后的 pipeline
    • _ init _:构造函数
      • 进行一些必要的参数初始化
    • open_spider(spider):
      • spider 对象对开启的时候调用
    • close_spider(spider):
      • 当 spider 对象被关闭的时候调用
  • Spider 目录编码

    • 对应的是文件夹 spider 下的文件
    • _ init _:初始化爬虫名称,start _urls 列表
    • start_requests:生成 Requests 对象交给 Scrapy 下载并返回 response
    • parse:根据返回的 response 解析出相应的 item,item 自动进入 pipeline:若是须要,解析 url,url自动交给 requests 模块,一直循环下去
    • start_requests:此方法尽能被调用一次,读取 start _urls 内容并启动循环过程
    • name:设置爬虫名称
    • start_urls:设置开始第一批爬取的 url
    • allow_domains:spider 容许去爬的域名列表
    • start_request(self):只被调用一次
    • parse:检测编码
    • log:日志记录
  • 下一篇文章连接:Python爬虫教程-32-Scrapy 爬虫框架项目 Settings.py 介绍

更多文章连接:Python 爬虫随笔
- 本笔记不容许任何我的和组织转载