python+senium+chrome的简单爬虫脚本

简述:html

开始接触python写web自动化的脚本主要源于在公司订阅会议室,主要是使用python+selenium+chromedriver驱动chrome浏览器来完成的,其中部分python代码能够经过低版本的Firefox来录制,生成脚本。安装好环境以后,基本就是用火狐生成一些代码,而代码生成就是根据web中元素的id或者一些其余特征去定位html中的组件,而后模拟鼠标和键盘操做,实现自动化控制,调试完成能够用pyinstaller生成exe文件。python

 

环境搭建:git

一、下载chrome浏览器和对应版本的chromedrivergithub

版本对应关系能够参照这个帖子:https://blog.csdn.net/a6864657/article/details/80616418web

                                                     http://chromedriver.storage.googleapis.com/index.htmlchrome

下载好将解压后的  放入chrome.exe 同级目录api

二、安装python,配置python的和pip的环境变量浏览器

三、安装selinium   pip install selinium便可ide

 

Firefox录制python脚本ui

可参考:https://blog.csdn.net/weixin_37979468/article/details/83621394

 

公司代码没法看到,因此只写了个驱动浏览器的代码示例,其余地方能够把火狐生成的python直接替换便可:

from selenium import webdriver

#executable_path = 'C:\Program Files (x86)\Google\Chrome\Application\chromedriver_X64.exe'
driverChrome = webdriver.Chrome("C:\Program Files (x86)\Google\Chrome\Application\chromedriver.exe")
driverChrome.maximize_window()
driverChrome.get("http://www.dianping.com/")
driverChrome.quit()

参考教程:

官方文档 : Selenium with Python

webdriver实用指南python版本

相关文章
相关标签/搜索