def __init__(self, url, callback=None, method='GET', headers=None, body=None, cookies=None, meta=None, encoding='utf-8', priority=0, dont_filter=False, errback=None, flags=None):
填写的参数
:请求的地址python
数据类型
:strjson
填写的参数
:响应返回的回调函数(必须是类当中或者父类当中的方法),默认为parse
方法cookie
数据类型
:strscrapy
填写的参数
:请求的方式函数
数据类型
:strpost
填写的参数
:请求头编码
数据类型
:dicturl
填写的参数
:我是这样理解的理解成传输时候一个相似容器的东西指针
数据类型
:dictcode
取
response.meta['key']能够得到设置的value
填写的参数
:代表该请求不禁调度器过滤。这是当你想使用屡次执行相同的请求,忽略重复的过滤器。默认为False.
数据类型
:bool
填写的参数
:编码格式
数据类型
:str
填写的参数
:响应返回的错误的回调函数(必须是类当中或者父类当中的方法)默认返回'dealerr'方法
数据类型
:dict
方法一.
scrapy.FormRequest(url=url,formdata=formdata) #这里的formdata是dict格式的,里面不能存在数字,若是有数字用引号括起来;
方法二.
scrapy.Request(url=url,method="POST",body=formdata) #这里的formdata必须得是字符串,若是是表单格式,那么须要用json.dumps()转为字符串格式;
priority是优先级,(默认为0,越大优先级越大),实际应用中我没用过.
flags网上说指针,我没怎么用,也没深究,若是有知道的人欢迎补充