爬虫之获取猫眼电影10W评论

第一步

打开一个电影的评论界面:mongodb

哪吒之魔童降世:https://maoyan.com/films/1211270数据库

咱们发现这里只显示10条评论,而咱们须要爬取10w条数据,因此不能今后页面进行抓包,因此放弃!!!!json

因而又上网查,终于看到一篇文章说到开发者模式能够直接切换到手机模式;api

第二步

切换开发者模式为手机模式dom

切换模式后能够看到全部评论都显示出来了,咱们能够直接抓包进行分析ide

第三步

点击查看所有讨论工具

 开发者工具切换切换XHR,而后一直下滑查看评论ui

每条请求所对应的数据url

http://m.maoyan.com/review/v2/comments.json?movieId=1211270&userId=-1&offset=15&limit=15&ts=1564996441232&type=3

# movieId       表示电影ID
# offset        表示偏移量
# limit         一页显示多少数据
# ts            当前时间戳

经过屡次下滑观察能够看到每次都是offset在变化,并且每次加15,也就是增长15条评论,知道了这个规律其实你们都应该会作了,可是还有个问题,这个方法只能爬取1000条数据,除非改变时间戳,也就是ts,spa

第四步

咱们在上面的方法基础上改变时间戳后发现也只能爬取1000条数据,咱们只能另寻他法;

因而咱们经过百度知道了有另一个api能够得到猫眼电影的评论数据

http://m.maoyan.com/mmdb/comments/movie/1211270.json?_v_=yes&offset=0&startTime=2019-08-04%2018:18:53
# 只须要改变startTime,根据时间段来获取评论数据
# 每次获取的评论数据仍是15条

查看每页中最后一条数据的startTime

根据上面的原理咱们制定爬取方案:
由于咱们请求网页所获得的响应数据只用15条,且能够获取到最后一条数据的startTime;

第一次请求url中的startTime咱们用当前时间,并获取响应数据中最后一条数据的startTime;
第二次请求时咱们将时间替换为第一次请求时响应数据中最后一条数据的startTime,依次类推
直到时间为电影的上映时间便可获取该部电影的全部评论数据;
from pymongo import MongoClient

my_client = MongoClient("127.0.0.1",27017)

MDB = my_client["Movie_rating"]   # 指定链接电影评分的库名

print(MDB.Movie_comment.find({}).count())  # 查看表中一共有多少条数据
指定存储数据库
import time
import random
import datetime
import requests
from mongo_db import MDB

# 获取当前时间转换为2019/8/5 17:31:15形式空格用%20替换
now_time=datetime.datetime.now().strftime('%Y-%m-%d %H:%M:%S').replace(' ','%20')

headers = {
            'Host': 'm.maoyan.com',
            'Referer': 'http://m.maoyan.com/movie/1211270/comments?_v_=yes',
            'User-Agent': 'Mozilla/5.0 (Linux; Android 6.0; Nexus 5 Build/MRA58N) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.132 Mobile Safari/537.36',
            'X-Requested-With': 'superagent',
        }

time.sleep(random.random())

# 从当前时间往前爬取2000个url的数据,每一个url有15条数据
for num in range(1,2000):
    url = "http://m.maoyan.com/mmdb/comments/movie/1211270.json?_v_=yes&offset=0&startTime={}".format(now_time)
    print("正在下载第{}条评论".format(num))
    response = requests.get(url).json()
    # 每页的最后一条评论的时间,每次请求后给全局的now_time从新赋值,下次请求时用的时间就是上次响应数据中的最后一条数据的时间
    now_time = response["cmts"][-1]["startTime"]
    for movie_info in response["cmts"]:
        cityName = movie_info["cityName"]
        content = movie_info["content"]
        user_id = movie_info["id"]
        nickName = movie_info["nickName"]
        movieId = movie_info["movieId"]
        gender = movie_info.get("gender")
        if not gender:
            gender = "暂无"

        comment_info = {"cityName":cityName,"nickName":nickName,"user_id":user_id,"movieId":movieId,"gender":gender,"content":content}
        # 由于咱们建立了惟一索引,因此咱们在插入数据时若是有重复的会报错,这里作了异常处理
        try:
            MDB.Movie_comment.insert_one(comment_info)
        except Exception as e:
            print(e)
print("全部评论下载完成")

数据下载地址:https://files.cnblogs.com/files/songzhixue/%E7%8C%AB%E7%9C%BC%E7%94%B5%E5%BD%B13w%E6%9D%A1%E8%AF%84%E8%AE%BA%E6%95%B0%E6%8D%AE.rar

共计3w评论下载完成后导入mongodb数据库

时间转换地址:http://tool.chinaz.com/Tools/unixtime.aspx

相关文章
相关标签/搜索
本站公众号
   欢迎关注本站公众号,获取更多信息