zoukankan      html  css  js  c++  java
  • selenuim使用总结

    Selenium支持非常多的浏览器,如Chrome、Firefox、Edge等,还有Android、BlackBerry等手机端的浏览器。另外,也支持无界面浏览器PhantomJS

    1 元素定位
    webdriver 提供了一系列的元素定位方法,常用的有以下几种:
    id
    name
    class name
    tag name
    link text
    partial link text
    xpath
    css selector
    分别对应python webdriver 中的方法为:
    find_element_by_id()

    find_element_by_name()

    find_element_by_class_name()

    find_element_by_tag_name()

    find_element_by_link_text()

    find_element_by_partial_link_text()

    find_element_by_xpath()
    find_element_by_css_selector()

    注意
    1、find_element_by_xxx找的是第一个符合条件的标签,find_elements_by_xxx找的是所有符合条件的标签。(返回一个列表)
    2、根据ID、CSS选择器和XPath获取,它们返回的结果完全一致。
    3、另外,Selenium还提供了通用方法find_element(),它需要传入两个参数:查找方式By和值。实际上,它就是find_element_by_id()这种方法的通用函数版本,比如find_element_by_id(id)就等价于find_element(By.ID, id),二者得到的结果完全一致。

    2 节点交互
    Selenium可以驱动浏览器来执行一些操作,也就是说可以让浏览器模拟执行一些动作。比较常见的用法有:输入文字时用send_keys()方法,清空文字时用clear()方法,点击按钮时用click()方法。示例如下:
    eg:
    from selenium import webdriver
    import time

    browser = webdriver.Chrome()
    browser.get('https://www.taobao.com')
    # 找到搜索框
    input = browser.find_element_by_id('q')

    # 在搜索框输入MAC
    input.send_keys('MAC')
    time.sleep(1)

    # 清空搜索框
    input.clear()
    # 在搜索框输入Iphone
    input.send_keys('IPhone')
    # 用类名定位搜索按钮
    button = browser.find_element_by_class_name('btn-search')

    # 点击搜索按钮
    button.click()
    3 动作链
    在上面的实例中,一些交互动作都是针对某个节点执行的。比如,对于输入框,我们就调用它的输入文字和清空文字方法;对于按钮,就调用它的点击方法。其实,还有另外一些操作,它们没有特定的执行对象,比如鼠标拖曳、键盘按键等,这些动作用另一种方式来执行,那就是动作链。
    比如,现在实现一个节点的拖曳操作,将某个节点从一处拖曳到另外一处,可以这样实现:

    from selenium import webdriver
    from selenium.webdriver
    import ActionChains

    import time

    browser = webdriver.Chrome()

    url = 'http://www.runoob.com/try/try.php?filename=jqueryui-api-droppable'
    browser.get(url)
    browser.switch_to.frame('iframeResult') # 这一步???
    # 根据css样式定位

    source = browser.find_element_by_css_selector('#draggable')
    target = browser.find_element_by_css_selector('#droppable')actions = ActionChains(browser)
    # actions.drag_and_drop(source, target)
    # 按住不动

    actions.click_and_hold(source).perform()
    time.sleep(1)
    actions.move_to_element(target).perform()
    time.sleep(1)
    # 延x轴移动50 y轴不动

    actions.move_by_offset(xoffset=50,yoffset=0).perform()

    actions.release()

    更多操作请点击:
    https://selenium-python.readthedocs.io/api.html#module-selenium.webdriver.remote.webelement%E3%80%80%E3%80%80

    4 执行JavaScript
    对于某些操作,Selenium API并没有提供。比如,下拉进度条,它可以直接模拟运行JavaScript,此时使用execute_script()方法即可实现,代码如下:

    from selenium import webdriver

    browser = webdriver.Chrome()

    browser.get('https://www.jd.com/')
    # 执行javaScript,自动拉下拉条
    browser.execute_script('window.scrollTo(0, document.body.scrollHeight)')
    # 拉到底部弹出alert窗口
    browser.execute_script('alert("123")')

    5 获取节点信息
    通过page_source属性可以获取网页的源代码,接着就可以使用解析库(如正则表达式、Beautiful Soup、pyquery等)来提取信息了。
    不过,既然Selenium已经提供了选择节点的方法,返回的是WebElement类型,那么它也有相关的方法和属性来直接提取节点信息,如属性、文本等。这样的话,我们就可以不用通过解析源代码来提取信息了,非常方便。
    from selenium import webdriver

    from selenium.webdriver.common.by import By #按照什么方式查找By.ID,By.CSS_SELECTOR

    from selenium.webdriver.support import expected_conditions as EC

    from selenium.webdriver.support.wait import WebDriverWait
    #等待页面加载某些元素


    browser=webdriver.Chrome()


    browser.get('https://www.amazon.cn/')

    # 等待浏览器10s加载

    wait=WebDriverWait(browser,10)
    # 通过id找

    wait.until(EC.presence_of_element_located((By.ID,'cc-lm-tcgShowImgContainer')))

    # 通过css选择器找到标签

    tag=browser.find_element(By.CSS_SELECTOR,'#cc-lm-tcgShowImgContainer img')#获取标签属性,

    print(tag.get_attribute('src'))

    #获取标签ID,位置,名称,大小(了解)

    print(tag.id)

    print(tag.location)

    print(tag.tag_name)

    print(tag.size)

    browser.close()

    6 延时等待
    在Selenium中,get()方法会在网页框架加载结束后结束执行,此时如果获取page_source,可能并不是浏览器完全加载完成的页面,如果某些页面有额外的Ajax请求,我们在网页源代码中也不一定能成功获取到。所以,这里需要延时等待一定时间,确保节点已经加载出来。这里等待的方式有两种:一种是隐式等待,一种是显式等待。

    隐式等待:
    当使用隐式等待执行测试的时候,如果Selenium没有在DOM中找到节点,将继续等待,超出设定时间后,则抛出找不到节点的异常。换句话说,当查找节点而节点并没有立即出现的时候,隐式等待将等待一段时间再查找DOM,默认的时间是0。示例如下:
    from selenium import webdriver

    from selenium.webdriver import ActionChains

    from selenium.webdriver.common.by import By #按照什么方式查找,By.ID,By.CSS_SELECTOR
    from selenium.webdriver.common.keys import Keys
    #键盘按键操作

    from selenium.webdriver.support import expected_conditions as EC

    from selenium.webdriver.support.wait import WebDriverWait #等待页面加载某些元素


    browser=webdriver.Chrome()
    #隐式等待:在查找所有元素时,如果尚未被加载,则等10秒

    browser.implicitly_wait(10)


    browser.get('https://www.baidu.com')

    input_tag=browser.find_element_by_id('kw')

    input_tag.send_keys('美女')

    # 点击enter键
    input_tag.send_keys(Keys.ENTER)


    contents=browser.find_element_by_id('content_left')
    #没有等待环节而直接查找,找不到则会报错

    print(contents)

    browser.close()

    显示等待:
    隐式等待的效果其实并没有那么好,因为我们只规定了一个固定时间,而页面的加载时间会受到网络条件的影响。这里还有一种更合适的显式等待方法,它指定要查找的节点,然后指定一个最长等待时间。如果在规定时间内加载出来了这个节点,就返回查找的节点;如果到了规定时间依然没有加载出该节点,则抛出超时异常。
    from selenium import webdriver

    from selenium.webdriver import ActionChains

    from selenium.webdriver.common.by import By #按照什么方式查找,By.ID,By.CSS_SELECTOR

    from selenium.webdriver.common.keys import Keys #键盘按键操作

    from selenium.webdriver.support import expected_conditions as EC

    from selenium.webdriver.support.wait import WebDriverWait #等待页面加载某些元素


    browser=webdriver.Chrome()

    browser.get('https://www.baidu.com')

    input_tag=browser.find_element_by_id('kw')

    input_tag.send_keys('美女')

    input_tag.send_keys(Keys.ENTER)


    #显式等待:显式地等待某个元素被加载

    wait=WebDriverWait(browser,10)

    wait.until(EC.presence_of_element_located((By.ID,'content_left')))


    contents=browser.find_element(By.CSS_SELECTOR,'#content_left')

    print(contents)

    browser.close()

    7 Cookies
    使用Selenium,还可以方便地对Cookies进行操作,例如获取、添加、删除Cookies等。示例如下:
    from selenium import webdriver

    browser = webdriver.Chrome()

    browser.get('https://www.zhihu.com/explore')

    print(browser.get_cookies())

    browser.add_cookie({'name': 'name', 'domain': 'www.zhihu.com', 'value': 'germey'})

    print(browser.get_cookies())

    browser.delete_all_cookies()

    print(browser.get_cookies())

    8 异常处理
    from selenium import webdriver

    from selenium.common.exceptions
    import TimeoutException,NoSuchElementException,NoSuchFrameException

    try:
    browser=webdriver.Chrome()

    browser.get('http://www.runoob.com/try/try.php?filename=jqueryui-api-droppable')

    browser.switch_to.frame('iframssseResult')


    except TimeoutException as e:

    print(e)

    except NoSuchFrameException as e:

    print(e)
    finally:

    browser.close()

    二 phantomJs
    PhantomJS是一款无界面的浏览器,其自动化操作流程和上述操作谷歌浏览器是一致的。由于是无界面的,为了能够展示自动化操作流程,PhantomJS为用户提供了一个截屏的功能,使用save_screenshot函数实现。
    from selenium import webdriver

    import time


    # phantomjs路径
    path = r'PhantomJS驱动路径'

    browser = webdriver.PhantomJS(path)


    # 打开百度

    url = 'http://www.baidu.com/'

    browser.get(url)

    time.sleep(3)


    browser.save_screenshot(r'phantomjsaidu.png')


    # 查找input输入框

    my_input = browser.find_element_by_id('kw')

    # 往框里面写文字

    my_input.send_keys('美女')
    time.sleep(3)

    #截屏

    browser.save_screenshot(r'phantomjsmeinv.png')


    # 查找搜索按钮

    button = browser.find_elements_by_class_name('s_btn')[0]

    button.click()


    time.sleep(3)


    browser.save_screenshot(r'phantomjsshow.png')


    time.sleep(3)


    browser.quit()

    重点:selenium+phantomjs 就是爬虫终极解决方案:有些网站上的内容信息是通过动态加载js形成的,所以使用普通爬虫程序无法回去动态加载的js内容。例如豆瓣电影中的电影信息是通过下拉操作动态加载更多的电影信息。
    综合操作:需求是尽可能多的爬取豆瓣网中的电影信息
    from selenium import webdriver
    from time
    import sleep
    import time


    if __name__ == '__main__':

    url = 'https://movie.douban.com/typerank?type_name=%E6%81%90%E6%80%96&type=20&interval_id=100:90&action='

    # 发起请求前,可以让url表示的页面动态加载出更多的数据

    path = r'C:UsersAdministratorDesktop爬虫授课day05ziliaophantomjs-2.1.1-windowsinphantomjs.exe'

    # 创建无界面的浏览器对象

    bro = webdriver.PhantomJS(path)

    # 发起url请求

    bro.get(url)

    time.sleep(3)

    # 截图

    bro.save_screenshot('1.png')


    # 执行js代码(让滚动条向下偏移n个像素(作用:动态加载了更多的电影信息))

    js = 'window.scrollTo(0,document.body.scrollHeight)'

    bro.execute_script(js)
    # 该函数可以执行一组字符串形式的js代码

    time.sleep(2)


    bro.execute_script(js)
    # 该函数可以执行一组字符串形式的js代码

    time.sleep(2)

    bro.save_screenshot('2.png')

    time.sleep(2)

    # 使用爬虫程序爬去当前url中的内容

    html_source = bro.page_source
    # 该属性可以获取当前浏览器的当前页的源码(html)

    with open('./source.html', 'w', encoding='utf-8') as fp:

    fp.write(html_source)

    bro.quit()

  • 相关阅读:
    rpm包安装及卸载
    linux常用命令100
    Haproxy负载均衡与高可用
    nginx+keepalived实现高可用案例
    LVS+keepalived
    NFS 共享存储与LVS
    Tomcat Session简介及绑定
    LVS DR 模式
    LVS搭建
    LVS简介与集群及类型介绍
  • 原文地址:https://www.cnblogs.com/z520h123/p/10474799.html
Copyright © 2011-2022 走看看