selenuim使用总结,selenium实现登录账户后自动点击的示例

这里简单记录一下使用Python+selenium的小例子,使用的版本为Python3.3以及selenium2,也支持无界面浏览器PhantomJS,webdriver 提供了一系列的元素定位方法

公司在codereview的时候限制了看代码的时间,实际上不少代码属于框架自动生成,并不需要花费太多时间看,为了达标,需要刷点时间(鼠标点击网页固定区域)。我想到可以利用自动化测试的手段完成这种无效的体力劳动。

Selenium支持非常多的浏览器,如Chrome、Firefox、Edge等,还有Android、BlackBerry等手机端的浏览器。另外,也支持无界面浏览器PhantomJS

首先,明确一下需求:   

1 元素定位
webdriver 提供了一系列的元素定位方法,常用的有以下几种:
id
name
class name
tag name
link text
partial link text
xpath
css selector
分别对应python webdriver 中的方法为:
find_element_by_id()

  1. 自动打开网页   
  2. 登陆账号 
  3. 每隔一定时间点击一下固定区域

find_element_by_name()

我想到的方案有两个,sikuli或者python+selenium。sikuli的优点是逻辑操作简单直接,使用图片作为标示,缺点是需要窗口固定,并且无法后台运行。selenium稍复杂一定,但是运行速度快,窗口可以遮挡。

find_element_by_class_name()

这里简单记录一下使用Python+selenium的小例子。

find_element_by_tag_name()

使用的版本为Python3.3以及selenium2,Windows环境(现在已经支持3.0以上的了,多处论坛博客没有更新)。

find_element_by_link_text()

首先是软件的安装,Python不赘述了,记得设置环境变量。

find_element_by_partial_link_text()

下面安装selenium,如果已经安装过pip。直接运行一下命令。

find_element_by_xpath()
find_element_by_css_selector()

pip install -U selenium

注意
1、find_element_by_xxx找的是第一个符合条件的标签,find_elements_by_xxx找的是所有符合条件的标签。
2、根据ID、CSS选择器和XPath获取,它们返回的结果完全一致。
3、另外,Selenium还提供了通用方法find_element(),它需要传入两个参数:查找方式By和值。实际上,它就是find_element_by_id()这种方法的通用函数版本,比如find_element_by_id就等价于find_element(By.ID,
id),二者得到的结果完全一致。

另一种方式,下载并解压。这里简述一下windows版本,其实Unix下也差不多,使用Wget下载一下安装。

2 节点交互
Selenium可以驱动浏览器来执行一些操作,也就是说可以让浏览器模拟执行一些动作。比较常见的用法有:输入文字时用send_keys()方法,清空文字时用clear()方法,点击按钮时用click()方法。示例如下:
eg:
from selenium import webdriver
import time

使用命令(setup一般用于第三方模块的安装):

browser = webdriver.Chrome()
browser.get(”)
# 找到搜索框
input = browser.find_element_by_id

cd c:\Python3\xxxx
python setup.py install

# 在搜索框输入MAC
input.send_keys
time.sleep

安装过程中可能会出现ImportError: No module named
setuptools,这是因为缺少setuptools模块,Python默认不安装。

# 清空搜索框
input.clear()
# 在搜索框输入Iphone
input.send_keys
# 用类名定位搜索按钮
button = browser.find_element_by_class_name(‘btn-search’)

在上面提供了各系统的安装包和安装指南,对于Windows系统,下载自动化安装脚本。

# 点击搜索按钮
button.click()
3 动作链
在上面的实例中,一些交互动作都是针对某个节点执行的。比如,对于输入框,我们就调用它的输入文字和清空文字方法;对于按钮,就调用它的点击方法。其实,还有另外一些操作,它们没有特定的执行对象,比如鼠标拖曳、键盘按键等,这些动作用另一种方式来执行,那就是动作链。
比如,现在实现一个节点的拖曳操作,将某个节点从一处拖曳到另外一处,可以这样实现:

运行:

from selenium import webdriver
from selenium.webdriver
import ActionChains

python ez_setup.py

import time

完成后再安装selenium即可。

browser = webdriver.Chrome()

这里用我自己的实例简单的讲解一下流程。

url =

browser.get
browser.switch_to.frame(‘iframeResult’) # 这一步???
# 根据css样式定位

第一步先完成打开浏览器。

source = browser.find_element_by_css_selector(‘#draggable’)
target = browser.find_element_by_css_selector(‘#droppable’)actions
= ActionChains
# actions.drag_and_drop(source, target)
# 按住不动

selenium2结合了selenium和webdriver,直接引入各个浏览器相应的驱动,打开即可,注意chrome驱动可能需要另行安装。

actions.click_and_hold.perform()
time.sleep
actions.move_to_element.perform()
time.sleep
# 延x轴移动50 y轴不动

from selenium import webdriver
browser = webdriver.Firefox()
browser.get('https://www.xxx.com')

actions.move_by_offset(xoffset=50,yoffset=0).perform()

打开网页后需要登录,F12打开浏览器调试器,小箭头选取元素,查看登录框账号和密码的属性,一般都有ID。selenium可以通过以下各个方法获取元素并进行各种操作,具体解释请看上方链接文档:

actions.release()

  1. find_element_by_id
  2. find_element_by_name
  3. find_element_by_xpath
  4. find_element_by_link_text
  5. find_element_by_partial_link_text
  6. find_element_by_tag_name
  7. find_element_by_class_name
  8. find_element_by_css_selector

更多操作请点击:

其中id最为有效方便,优先考虑。选取完元素之后可以通过WebDriver
API调用模拟键盘的输入和鼠标的点击操作。代码如下:

4 执行JavaScript
对于某些操作,Selenium
API并没有提供。比如,下拉进度条,它可以直接模拟运行JavaScript,此时使用execute_script()方法即可实现,代码如下:

username="qun" 
passwd="passwd"
browser = webdriver.Firefox()
browser.get('https://www.xxx.com')
browser.implicitly_wait(10)
elem=browser.find_element_by_id("loginFormUserName")
elem.send_keys(username)
elem=browser.find_element_by_id("loginFormPassword")
elem.send_keys(passwd)
elem=browser.find_element_by_id("loginFormSubmit")
elem.click()

from selenium import webdriver

一般登录之后页面都会跳转到新的网页上,如何获取新的网页呢?这里有个窗口句柄的概念,通过切换窗口句柄来完成。注意!有时候元素在一个frame里面的时候,也需要通过swtich切换。这里出现一个wait函数(上面也有),是因为页面加载需要时间,很可能在点击之后元素才加载出来,下一节详细解释一下wait。

browser = webdriver.Chrome()

browser.implicitly_wait(10)
browser.switch_to_window(browser.window_handles[-1])

browser.get(”)
# 执行javaScript,自动拉下拉条
browser.execute_script(‘window.scrollTo(0,
document.body.scrollHeight)’)
# 拉到底部弹出alert窗口
browser.execute_script(‘alert

之后选取需要点击的区域,这里使用 xpath定位,因为在自动化测试的过程中,很有可能元素无法通过id,name等方法定位(不少人就是不写,爱table套table,我也么办法),xpath就有了用武之地。常用的偷懒方法是Firefox安装xpath插件,右键直接获取。这里不介绍,因为不提倡,使用插件会造成代码里充斥这样的东西:
  

5 获取节点信息
通过page_source属性可以获取网页的源代码,接着就可以使用解析库(如正则表达式、Beautiful
Soup、pyquery等)来提取信息了。
不过,既然Selenium已经提供了选择节点的方法,返回的是WebElement类型,那么它也有相关的方法和属性来直接提取节点信息,如属性、文本等。这样的话,我们就可以不用通过解析源代码来提取信息了,非常方便。
from selenium import webdriver

XPath(/html/body/div/div[3]/div[2]/div[4]/p[2])

from selenium.webdriver.common.by import By
#按照什么方式查找By.ID,By.CSS_SELECTOR

不到万不得已,尽可能使用元素的特征来定位,比如按钮的name。

from selenium.webdriver.support import expected_conditions as EC

或者通过父元素定位子元素。

from selenium.webdriver.support.wait import WebDriverWait
#等待页面加载某些元素

username =browser.find_element_by_xpath("//input[@name='username']")
clear_button = browser.find_element_by_xpath("//form[@id='loginForm']/input[4]")

browser=webdriver.Chrome()

代码如下,网上经常出现的By的用法需要引入包。

browser.get(”)

from selenium.webdriver.common.by import By

# 等待浏览器10s加载

这里使用另外一个函数,我不知道有什么区别- -。

wait=WebDriverWait(browser,10)
# 通过id找

for i in range(100):
  elem=WebDriverWait(browser, 30).until(
    lambda x:x.find_element_by_xpath("//table[@class='aaa']"/td[1]))
  elem.click()
  time.sleep(20)
  print ("click",i)

wait.until(EC.presence_of_element_located((By.ID,’cc-lm-tcgShowImgContainer’)))

然后这里还要提一下wait函数,在selenium2中延迟等待分为两种,显示等待和隐式等待。

# 通过css选择器找到标签

显示等待

tag=browser.find_element(By.CSS_SELECTOR,’#cc-lm-tcgShowImgContainer
img’)#获取标签属性,

显式等待,就是明确的要等到某个元素的出现或者是某个元素的可点击等条件,等不到,就一直等,除非在规定的时间之内都没找到,那么就跳出Exception。

print(tag.get_attribute

element = WebDriverWait(driver, 10).until(
    EC.presence_of_element_located((By.ID, "myDynamicElement"))
  )

#获取标签ID,位置,名称,大小

隐式等待

print

注意,隐式等待是告诉设置所有dom元素在寻找某个元素的时候,如果没立即找到,再尝试这么长时间。

print(tag.location)

browser.implicitly_wait(10) # seconds

print(tag.tag_name)

两者的区别在于一个是自己直接管理超时对象,一个是交给webdriver去做。

print

当然也可以用休眠的方法干等。记得引入time包。

browser.close()

time.sleep(20)

6 延时等待
在Selenium中,get()方法会在网页框架加载结束后结束执行,此时如果获取page_source,可能并不是浏览器完全加载完成的页面,如果某些页面有额外的Ajax请求,我们在网页源代码中也不一定能成功获取到。所以,这里需要延时等待一定时间,确保节点已经加载出来。这里等待的方式有两种:一种是隐式等待,一种是显式等待。

这里只是简单的演示一下用法,有许多可以改进的地方,没有封装函数,么有使用多线程并发执行多个例程。以后有需求再改进。

隐式等待:
当使用隐式等待执行测试的时候,如果Selenium没有在DOM中找到节点,将继续等待,超出设定时间后,则抛出找不到节点的异常。换句话说,当查找节点而节点并没有立即出现的时候,隐式等待将等待一段时间再查找DOM,默认的时间是0。示例如下:
from selenium import webdriver

from selenium.webdriver import ActionChains

from selenium.webdriver.common.by import By
#按照什么方式查找,By.ID,By.CSS_SELECTOR
from selenium.webdriver.common.keys import Keys
#键盘按键操作

from selenium.webdriver.support import expected_conditions as EC

from selenium.webdriver.support.wait import WebDriverWait
#等待页面加载某些元素

browser=webdriver.Chrome()
#隐式等待:在查找所有元素时,如果尚未被加载,则等10秒

browser.implicitly_wait

browser.get(”)

input_tag=browser.find_element_by_id

input_tag.send_keys

# 点击enter键
input_tag.send_keys(Keys.ENTER)

contents=browser.find_element_by_id(‘content_left’)
#没有等待环节而直接查找,找不到则会报错

print

browser.close()

显示等待:
隐式等待的效果其实并没有那么好,因为我们只规定了一个固定时间,而页面的加载时间会受到网络条件的影响。这里还有一种更合适的显式等待方法,它指定要查找的节点,然后指定一个最长等待时间。如果在规定时间内加载出来了这个节点,就返回查找的节点;如果到了规定时间依然没有加载出该节点,则抛出超时异常。
from selenium import webdriver

from selenium.webdriver import ActionChains

from selenium.webdriver.common.by import By
#按照什么方式查找,By.ID,By.CSS_SELECTOR

from selenium.webdriver.common.keys import Keys #键盘按键操作

from selenium.webdriver.support import expected_conditions as EC

from selenium.webdriver.support.wait import WebDriverWait
#等待页面加载某些元素

browser=webdriver.Chrome()

browser.get(”)

input_tag=browser.find_element_by_id

input_tag.send_keys

input_tag.send_keys(Keys.ENTER)

#显式等待:显式地等待某个元素被加载

wait=WebDriverWait(browser,10)

wait.until(EC.presence_of_element_located((By.ID,’content_left’)))

contents=browser.find_element(By.CSS_SELECTOR,’#content_left’)

print

browser.close()

7 Cookies
使用Selenium,还可以方便地对Cookies进行操作,例如获取、添加、删除Cookies等。示例如下:
from selenium import webdriver

browser = webdriver.Chrome()

browser.get(”)

print(browser.get_cookies

browser.add_cookie({‘name’: ‘name’, ‘domain’: ‘www.zhihu.com’, ‘value’:
‘germey’})

print(browser.get_cookies

browser.delete_all_cookies()

print(browser.get_cookies

8 异常处理
from selenium import webdriver

from selenium.common.exceptions
import TimeoutException,NoSuchElementException,NoSuchFrameException

try:
browser=webdriver.Chrome()

browser.get(”)

browser.switch_to.frame(‘iframssseResult’)

except TimeoutException as e:

print

except NoSuchFrameException as e:

print
finally:

browser.close()

二 phantomJs
PhantomJS是一款无界面的浏览器,其自动化操作流程和上述操作谷歌浏览器是一致的。由于是无界面的,为了能够展示自动化操作流程,PhantomJS为用户提供了一个截屏的功能,使用save_screenshot函数实现。
from selenium import webdriver

import time

# phantomjs路径
path = r’PhantomJS驱动路径’

browser = webdriver.PhantomJS

# 打开百度

url = ”

browser.get

time.sleep

browser.save_screenshot(r’phantomjs\baidu.png’)

# 查找input输入框

my_input = browser.find_element_by_id

# 往框里面写文字

my_input.send_keys
time.sleep

#截屏

browser.save_screenshot(r’phantomjs\meinv.png’)

# 查找搜索按钮

button = browser.find_elements_by_class_name[0]

button.click()

time.sleep

browser.save_screenshot(r’phantomjs\show.png’)

time.sleep

browser.quit()

重点:selenium+phantomjs
就是爬虫终极解决方案:有些网站上的内容信息是通过动态加载js形成的,所以使用普通爬虫程序无法回去动态加载的js内容。例如豆瓣电影中的电影信息是通过下拉操作动态加载更多的电影信息。
综合操作:需求是尽可能多的爬取豆瓣网中的电影信息
from selenium import webdriver
from time
import sleep
import time

if __name__ == ‘__main__’:

url =

# 发起请求前,可以让url表示的页面动态加载出更多的数据

path =
r’C:\Users\Administrator\Desktop\爬虫授课\day05\ziliao\phantomjs-2.1.1-windows\bin\phantomjs.exe’

# 创建无界面的浏览器对象

bro = webdriver.PhantomJS

# 发起url请求

bro.get

time.sleep

# 截图

bro.save_screenshot

#
执行js代码(让滚动条向下偏移n个像素(作用:动态加载了更多的电影信息))

js = ‘window.scrollTo(0,document.body.scrollHeight)’

bro.execute_script
# 该函数可以执行一组字符串形式的js代码

time.sleep

bro.execute_script
# 该函数可以执行一组字符串形式的js代码

time.sleep

bro.save_screenshot

time.sleep

# 使用爬虫程序爬去当前url中的内容

html_source = bro.page_source
# 该属性可以获取当前浏览器的当前页的源码

with open(‘./source.html’, ‘w’, encoding=’utf-8′) as fp:

fp.write(html_source)

bro.quit()