Response响应css
import requests response = requests.get('https://baidu.com') # response响应 print(response.status_code) # 获取响应状态码 print(response.url) # 获取url地址 print(response.encoding) # 字符编码 response.encoding = 'utf-8' print(response.text) # 获取文本 print(response.content) # 获取二进制流 print(response.headers) # 获取页面请求头信息 print(response.history) # 上一次跳转的地址 # 一、返回cookie字典 二、返回cookies对象 print(response.cookies) # 获取cookies信息, print(response.cookies.get_dict()) # 获取cookies信息转换成字典 print(response.cookies.items()) # 获取cookies信息转换成字典 print(response.encoding) print(response.elapsed) # 访问时间
import requests # 往音频地址发送get请求 url = 'https://vd3.bdstatic.com/mda-ic4pfhh3ex32svqi/hd/mda-ic4pfhh3ex32svqi.mp4?auth_key=1557973824-0-0-bfb2e69bb5198ff65e18065d91b2b8c8&bcevod_channel=searchbox_feed&pd=wisenatural&abtest=all.mp4' response = requests.get(url, stream=True) # stream=True 把content设置为一个迭代器对象 print(response.content) with open('love_for_GD.mp4', 'wb') as f: for content in response.iter_content(): f.write(content)
证书验证(大部分网站都是https)python
import urllib3 import requests # 若是是ssl请求,首先检查证书是否合法,不合法则报错,程序终端 response = requests.get('https://www.xiaohuar.com') print(response.status_code) # 改进1:去掉报错,可是会报警告 response = requests.get('https://www.xiaohuar.com', verify=False) # 不验证证书,报警告,返回200 print(response.status_code) # 改进2:去掉报错,而且去掉警报信息 urllib3.disable_warnings() # 关闭警告 response = requests.get('https://www.xiaohuar.com', verify=False) print(response.status_code) # 改进3:加上证书 # 不少网站都是https,可是不用证书也能够访问,大多数状况都是能够携带也能够不携带证书 # 知乎\百度等都是可带可不带 # 有硬性要求的,则必须带,好比对于定向的用户,拿到证书后才有权限访问某个特定网站 urllib3.disable_warnings() # 关闭警告 # 伪代码 response = requests.get( 'https://www.xiaohuar.com', # verify=False, # /path/server.crt证书的存放目录, /path/key cert=('/path/server.crt', '/path/key')) print(response.status_code)
超时设置git
#两种超时:float or tuple timeout=0.1 # 表明接收数据的超时时间 timeout=(0.1,0.2) # 0.1表明连接超时 0.2表明接收数据的超时时间 import requests response = requests.get('https://www.baidu.com', timeout=0.0001) print(response.elapsed) print(response.status_code)
代理设置:先发送请求给代理,而后由代理帮忙发送(封ip是常见的事情)github
import requests proxies={ # 带用户名密码的代理,@符号前是用户名与密码 'http':'http://tank:123@localhost:9527', 'http':'http://localhost:9527', 'https':'https://localhost:9527', } response=requests.get('https://www.12306.cn', proxies=proxies) print(response.status_code)
认证设置web
import requests # 经过访问github的api来测试 url = 'https://api.github.com/user' HEADERS = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/70.0.3538.77 Safari/537.36', } # 测试1,失败返回401 response = requests.get(url, headers=HEADERS) print(response.status_code) # 401 print(response.text)
打印结果:
{
"message": "Requires authentication",
"documentation_url": "https://developer.github.com/v3/users/#get-the-authenticated-user"
}chrome
#测试2,经过requests.auth内的HTTPBasicAuth进行认证,认证成功返回用户信息 from requests.auth import HTTPBasicAuth response = requests.get(url, headers=HEADERS, auth=HTTPBasicAuth('tankjam', 'kermit46709394')) print(response.text) # # 测试3,经过requests.get请求内的auth参数默认就是HTTPBasicAuth,认证成功返回用户信息 response = requests.get(url, headers=HEADERS, auth=('tankjam', 'kermit46709394')) print(response.text)
上传文件api
#上传文本文件 files1 = {'file': open('user.txt', 'rb')} # # files参数是POST请求固定参数 response = requests.post('http://httpbin.org/post', files=files1) print(response.status_code) # 200 print(response.text) # 200 # 上传图片文件 files2 = {'jpg': open('一拳.jpg', 'rb')} response = requests.post('http://httpbin.org/post', files=files2) print(response.status_code) # 200 print(response.text) # 200 # # 上传视频文件 files3 = {'movie': open('love_for_GD.mp4', 'rb')} response = requests.post('http://httpbin.org/post', files=files3) print(response.status_code) # 200 print(response.text) # 200
selenium模块讲解
一 什么是selenium?
最初是一个自动化测试工具。可使用它帮咱们驱动浏览器,自动去执行某些自定义好的操做。例如在页面中执行JS代码、跳过登陆验证。可使用selenium帮咱们实现爬虫。
二 为何要使用selenium?
一、优势:
使用requests模块登陆须要分析大量的复杂通讯流程,使用selenium能够轻松跳过登陆验证。
二、缺点:
浏览器会加载css、js、图片、视频...数据,爬虫效率相比requests模块要低。浏览器
# selenium之第一次 from selenium import webdriver # 用来驱动浏览器的 # 调用获得一个动做链对象,破解滑动验证码的时候用的,能够拖动图片 from selenium.webdriver import ActionChains # 按照什么方式查找属性,By.ID, By.CSS_SELECTOR, By.Class from selenium.webdriver.common.by import By from selenium.webdriver.common.keys import Keys # 键盘按键操做 # 和下面WebDriverWait一块儿用的,EC是expected_conditions的别名 from selenium.webdriver.support import expected_conditions as EC # 等待页面加载某些元素 from selenium.webdriver.support.wait import WebDriverWait import time # 经过谷歌浏览器驱动打开谷歌浏览器 # webdriver.Chrome(r'chromedriver.exe的绝对路径') # chrome = webdriver.Chrome(r'D:\BaiduNetdiskDownload\chromedriver_win32\chromedriver.exe') # 括号内输入chromedriver.exe的绝对路径 # chromedriver.exe存放于python解释器的Scripts文件夹中 # chrome是一个驱动对象 chrome = webdriver.Chrome()
实例1cookie
# 若try出现异常 try: # 往tank博客主页发送get请求 # chrome.get('https://www.cnblogs.com/kermitjam/') # 参数1: 驱动对象 参数2: 等待时间 wait = WebDriverWait(chrome, 10) # 一、访问百度 chrome.get('https://www.baidu.com/') # 二、查找input输入框 input_tag = wait.until( # 调用EC的presence_of_element_located() EC.presence_of_element_located( # 此处能够写一个元组 # 参数1: 查找属性的方式 # 参数2: 属性的名字 (By.ID, "kw") ) ) input_tag = wait.until(EC.presence_of_element_located((By.ID, "kw"))) # 三、搜索一拳超人 input_tag.send_keys('一拳超人') # 四、按键盘回车键 input_tag.send_keys(Keys.ENTER) time.sleep(3) # 不管发生什么都会关闭浏览器 finally: # 关闭浏览器 chrome.close()
示例二工具
try: wait = WebDriverWait(chrome, 10) chrome.get('https://www.jd.com/') input_tag = wait.until(EC.presence_of_element_located((By.ID, "key"))) input_tag.send_keys('唐诗三百首') # 根据class属性名称查找标签 search_button = wait.until( EC.presence_of_element_located((By.CLASS_NAME, 'button'))) # 五、点击搜索按钮 search_button.click() time.sleep(3) finally: chrome.close()
隐式等待
driver = webdriver.Chrome() try: # 显式等待: 等待某个元素加载 # 参数1: 驱动对象 参数2: 等待时间 # wait = WebDriverWait(chrome, 10) driver.get('https://china.nba.com/') # 隐式等待: 等待页面全部元素加载 driver.implicitly_wait(10) news_tag = driver.find_element_by_class_name('nav-news') # 获取标签对象 print(news_tag) # 获取标签的名字 print(news_tag.tag_name) time.sleep(10) finally: driver.close()
基本选择器
from selenium import webdriver # 用来驱动浏览器的 import time ''' ===============全部方法=================== element是查找一个标签 elements是查找全部标签 一、find_element_by_link_text 经过连接文本去找 二、find_element_by_id 经过id去找 三、find_element_by_class_name 四、find_element_by_partial_link_text 五、find_element_by_name 六、find_element_by_css_selector 七、find_element_by_tag_name ''' # 获取驱动对象、 driver = webdriver.Chrome() try: # 往百度发送请求 driver.get('https://www.baidu.com/') driver.implicitly_wait(10) # 一、find_element_by_link_text 经过连接文本去找 # 根据登陆 # send_tag = driver.find_element_by_link_text('登陆') # send_tag.click() # 二、find_element_by_partial_link_text 经过局部文本查找a标签 login_button = driver.find_element_by_partial_link_text('登') login_button.click() time.sleep(1) # 三、find_element_by_class_name 根据class属性名查找 login_tag = driver.find_element_by_class_name('tang-pass-footerBarULogin') login_tag.click() time.sleep(1) # 四、find_element_by_name 根据name属性查找 username = driver.find_element_by_name('userName') username.send_keys('15622792660') time.sleep(1) # 五、find_element_by_id 经过id属性名查找 password = driver.find_element_by_id('TANGRAM__PSP_10__password') password.send_keys('*******') time.sleep(1) # 六、find_element_by_css_selector 根据属性选择器查找 # 根据id查找登陆按钮 login_submit = driver.find_element_by_css_selector('#TANGRAM__PSP_10__submit') # driver.find_element_by_css_selector('.pass-button-submit') login_submit.click() # 七、find_element_by_tag_name 根据标签名称查找标签 div = driver.find_element_by_tag_name('div') print(div.tag_name) time.sleep(10) finally: driver.close()