scrapy学习之路3(爬取的数据保存本地文件或MYSQL)

保存item中的信息到本地文件

1.自定义以json格式保存到本地文件

piplines.py
clipboard.png
再到settings.py中添加使用sql

2.scrapy自带方式以json格式保存到本地文件

piplines.py
clipboard.png
再到settings.py中添加使用json

保存item中的信息到MySQL(同步)

设计表结构
clipboard.png异步

注意:日期是str类型,要转化成date类型
clipboard.pngscrapy

piplines.py
clipboard.pngide

补充:settings.py

clipboard.png


保存item中的信息到MySQL(异步twisted)

settings.pyurl

MYSQL_HOST = '127.0.0.1'
MYSQL_DBNAME = 'spider'
MYSQL_USER = 'root'
MYSQL_PASSWORD = '123456'

piplines.pyspa

clipboard.png

去重写法设计

def do_insert(self, cursor, item):
        my_sql = """
            insert into youwu(url, url_object_id, title, big_image_url) VALUES (%s, %s, %s, %s) on duplicate key update title=values(title), big_image_url=value(big_image_url)
        """
        cursor.execute(my_sql, (item['url'], item['url_object_id'], item['title'], item['big_image_url']))
相关文章
相关标签/搜索