Python爬取世纪佳缘的数据,是否能证实它的不靠谱?

本文的文字及图片来源于网络,仅供学习、交流使用,不具备任何商业用途,若有问题请及时联系咱们以做处理。php

如下文章一级Python技术 ,做者派森酱html

刚接触Python的新手、小白,能够复制下面的连接去免费观看Python的基础入门教学视频python

https://v.douyu.com/author/y6AZ4jn9jwKW
Python爬取世纪佳缘的数据,是否能证实它的不靠谱?

 

前言

今天在知乎上看到一个关于【世纪佳缘找对象靠谱吗?】的讨论,其中关注的人有1903,被浏览了1940753次,355个回答中大多数都是不靠谱。用Python爬取世纪佳缘的数据是否能证实它的不靠谱?json

Python爬取世纪佳缘的数据,是否能证实它的不靠谱?

 

一,数据抓取

在PC端打开世纪佳缘网站,搜索20到30岁,不限地区的女友网络

Python爬取世纪佳缘的数据,是否能证实它的不靠谱?

 

翻了几页找到一个search_v2.php的连接,它的返回值是一个不规则的json串,其中包含了昵称,性别,是否婚配,匹配条件等等app

Python爬取世纪佳缘的数据,是否能证实它的不靠谱?

 

点开Hearders拉到最下面,在它的参数中sex是性别,stc是年龄,p是分页,listStyle是有照片less

Python爬取世纪佳缘的数据,是否能证实它的不靠谱?

 

经过url +参数的get方式,抓取了10000页的数据总计240116ide

Python爬取世纪佳缘的数据,是否能证实它的不靠谱?

 

须要安装的模块有openpyxl,用于过滤特殊的字符学习

# coding:utf-8 import csv import json import requests from openpyxl.cell.cell import ILLEGAL_CHARACTERS_RE import re line_index = 0 def fetchURL(url):         headers = {         'accept': '*/*',         'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/86.0.4240.75 Safari/537.36',         'Cookie': 'guider_quick_search=on; accessID=20201021004216238222; PHPSESSID=11117cc60f4dcafd131b69d542987a46; is_searchv2=1; SESSION_HASH=8f93eeb87a87af01198f418aa59bccad9dbe5c13; user_access=1; Qs_lvt_336351=1603457224; Qs_pv_336351=4391272815204901400%2C3043552944961503700'     }     r = requests.get(url, headers=headers)     r.raise_for_status()     return r.text.encode("gbk", 'ignore').decode("gbk", "ignore") def parseHtml(html):     html = html.replace('\\', '')     html = ILLEGAL_CHARACTERS_RE.sub(r'', html)     s = json.loads(html,strict=False)     global line_index     userInfo = []     for key in s['userInfo']:         line_index = line_index + 1         a = (key['uid'],key['nickname'],key['age'],key['work_location'],key['height'],key['education'],key['matchCondition'],key['marriage'],key['shortnote'].replace('\n',' '))         userInfo.append(a)     with open('sjjy.csv', 'a', newline='') as f:         writer = csv.writer(f)         writer.writerows(userInfo) if __name__ == '__main__':          for i in range(1, 10000):         url = 'http://search.jiayuan.com/v2/search_v2.php?key=&sex=f&stc=23:1,2:20.30&sn=default&sv=1&p=' + str(i) + '&f=select&listStyle=bigPhoto'         html = fetchURL(url)         print(str(i) + '页' + str(len(html)) + '*********' * 20)         parseHtml(html)

二,去重

在处理数据去掉重复的时候发现有好多重复的,还觉得是代码写的有问题呢,查了很久的bug最后才发现网站在100页上只有数据有好多重复的,下面两个图分别是110页数据和111页数据,是否是有不少熟面孔。fetch

110页数据

Python爬取世纪佳缘的数据,是否能证实它的不靠谱?

 

111页数据

Python爬取世纪佳缘的数据,是否能证实它的不靠谱?

 

过滤重复后的数据只剩下 1872 了,这个水分还真大

def filterData():     filter = []     csv_reader = csv.reader(open("sjjy.csv", encoding='gbk'))     i = 0     for row in csv_reader:         i = i + 1         print('正在处理:' + str(i) + '行')         if row[0] not in filter:             filter.append(row[0])     print(len(filter))
相关文章
相关标签/搜索