zoukankan      html  css  js  c++  java
  • selenium库的使用

    一、什么是Selenium

    selenium 是一套完整的web应用程序测试系统,包含了测试的录制(selenium IDE),编写及运行(Selenium Remote Control)和测试的并行处理(Selenium Grid)。

    Selenium的核心Selenium Core基于JsUnit,完全由JavaScript编写,因此可以用于任何支持JavaScript的浏览器上。

    selenium可以模拟真实浏览器,自动化测试工具,支持多种浏览器,爬虫中主要用来解决JavaScript渲染问题。

    二、selenium基本使用

    用python写爬虫的时候,主要用的是selenium的Webdriver

    这里要说一下比较重要的PhantomJS,PhantomJS是一个而基于WebKit的服务端JavaScript API,支持Web而不需要浏览器支持,其快速、原生支持各种Web标准:Dom处理,CSS选择器,JSON等等。PhantomJS可以用用于页面自动化、网络监测、网页截屏,以及无界面测试

    声明浏览器对象

    上面我们知道了selenium支持很多的浏览器,但是如果想要声明并调用浏览器则需要:

    from selenium import webdriver
    
    browser = webdriver.Chrome()
    browser = webdriver.Firefox()

    这里只写了两个例子,当然了其他的支持的浏览器都可以通过这种方式调用

    访问页面

    from selenium import webdriver
    
    browser = webdriver.Chrome()
    
    browser.get("http://www.baidu.com")
    print(browser.page_source)
    browser.close() 

    上述代码运行后,会自动打开Chrome浏览器,并登陆百度打印百度首页的源代码,然后关闭浏览器

    查找元素

    单个元素查找

    from selenium import webdriver
    
    browser = webdriver.Chrome()
    
    browser.get("http://www.taobao.com")
    input_first = browser.find_element_by_id("q")
    input_second = browser.find_element_by_css_selector("#q")
    input_third = browser.find_element_by_xpath('//*[@id="q"]')
    print(input_first)
    print(input_second)
    print(input_third)
    browser.close()

    这里我们通过三种不同的方式去获取响应的元素,第一种是通过id的方式,第二个中是CSS选择器,第三种是xpath选择器,结果都是相同的。
    结果如下:

    这里列举一下常用的查找元素方法:

    find_element_by_name
    find_element_by_id
    find_element_by_xpath
    find_element_by_link_text
    find_element_by_partial_link_text
    find_element_by_tag_name
    find_element_by_class_name
    find_element_by_css_selector

    下面这种方式是比较通用的一种方式:这里需要记住By模块所以需要导入
    from selenium.webdriver.common.by import By

    from selenium import webdriver
    
    from selenium.webdriver.common.by import By
    
    browser = webdriver.Chrome()
    
    browser.get("http://www.taobao.com")
    input_first = browser.find_element(By.ID,"q")
    print(input_first)
    browser.close()

    当然这种方法和上述的方式是通用的,browser.find_element(By.ID,"q")这里By.ID中的ID可以替换为其他几个

    多个元素查找

    其实多个元素和单个元素的区别,举个例子:find_elements,单个元素是find_element,其他使用上没什么区别,通过其中的一个例子演示:

    from selenium import webdriver
    
    
    browser = webdriver.Chrome()
    browser.get("http://www.taobao.com")
    lis = browser.find_elements_by_css_selector('.service-bd li')
    print(lis)
    browser.close()

    这样获得就是一个列表

    当然上面的方式也是可以通过导入from selenium.webdriver.common.by import By 这种方式实现

    lis = browser.find_elements(By.CSS_SELECTOR,'.service-bd li')

    同样的在单个元素中查找的方法在多个元素查找中同样存在:
    find_elements_by_name
    find_elements_by_id
    find_elements_by_xpath
    find_elements_by_link_text
    find_elements_by_partial_link_text
    find_elements_by_tag_name
    find_elements_by_class_name
    find_elements_by_css_selector

    元素交互操作

    对于获取的元素调用交互方法

    from selenium import webdriver
    
    import time
    
    browser = webdriver.Chrome()
    browser.get("http://www.taobao.com")
    input_str = browser.find_element_by_id('q')
    input_str.send_keys("ipad")
    time.sleep(1)
    input_str.clear()
    input_str.send_keys("MakBook pro")
    button = browser.find_element_by_class_name('btn-search')
    button.click()

    运行的结果可以看出程序会自动打开Chrome浏览器并打开淘宝输入ipad,然后删除,重新输入MakBook pro,并点击搜索

    Selenium所有的api文档:http://selenium-python.readthedocs.io/api.html#module-selenium.webdriver.common.action_chains

    交互动作

    将动作附加到动作链中串行执行

      from selenium import webdriver
    from selenium.webdriver import ActionChains
    
    browser = webdriver.Chrome()
    
    url = "http://www.runoob.com/try/try.php?filename=jqueryui-api-droppable"
    browser.get(url)
    browser.switch_to.frame('iframeResult')
    source = browser.find_element_by_css_selector('#draggable')
    target = browser.find_element_by_css_selector('#droppable')
    actions = ActionChains(browser)
    actions.drag_and_drop(source, target)
    actions.perform()

    更多操作参考:http://selenium-python.readthedocs.io/api.html#module-selenium.webdriver.common.action_chains

    执行JavaScript

    这是一个非常有用的方法,这里就可以直接调用js方法来实现一些操作,
    下面的例子是通过登录知乎然后通过js翻到页面底部,并弹框提示

    from selenium import webdriver
    browser = webdriver.Chrome()
    browser.get("http://www.zhihu.com/explore")
    browser.execute_script('window.scrollTo(0, document.body.scrollHeight)')
    browser.execute_script('alert("To Bottom")')

    获取元素属性
    get_attribute('class')

    from selenium import webdriver
    
    browser = webdriver.Chrome()
    url = 'https://www.zhihu.com/explore'
    browser.get(url)
    logo = browser.find_element_by_id('zh-top-link-logo')
    print(logo)
    print(logo.get_attribute('class'))

    获取文本值
    text

    from selenium import webdriver
    
    browser = webdriver.Chrome()
    url = 'https://www.zhihu.com/explore'
    browser.get(url)
    input = browser.find_element_by_class_name('zu-top-add-question')
    print(input.text)

    获取ID,位置,标签名
    id
    location
    tag_name
    size

    from selenium import webdriver
    
    browser = webdriver.Chrome()
    url = 'https://www.zhihu.com/explore'
    browser.get(url)
    input = browser.find_element_by_class_name('zu-top-add-question')
    print(input.id)
    print(input.location)
    print(input.tag_name)
    print(input.size)

    Frame

    在很多网页中都是有Frame标签,所以我们爬取数据的时候就涉及到切入到frame中以及切出来的问题,通过下面的例子演示
    这里常用的是switch_to.from()和switch_to.parent_frame()

    import time
    from selenium import webdriver
    from selenium.common.exceptions import NoSuchElementException
    
    browser = webdriver.Chrome()
    url = 'http://www.runoob.com/try/try.php?filename=jqueryui-api-droppable'
    browser.get(url)
    browser.switch_to.frame('iframeResult')
    source = browser.find_element_by_css_selector('#draggable')
    print(source)
    try:
        logo = browser.find_element_by_class_name('logo')
    except NoSuchElementException:
        print('NO LOGO')
    browser.switch_to.parent_frame()
    logo = browser.find_element_by_class_name('logo')
    print(logo)
    print(logo.text)
    复制代码

    等待

    当使用了隐式等待执行测试的时候,如果 WebDriver没有在 DOM中找到元素,将继续等待,超出设定时间后则抛出找不到元素的异常, 换句话说,当查找元素或元素并没有立即出现的时候,隐式等待将等待一段时间再查找 DOM,默认的时间是0

    隐式等待
    到了一定的时间发现元素还没有加载,则继续等待我们指定的时间,如果超过了我们指定的时间还没有加载就会抛出异常,如果没有需要等待的时候就已经加载完毕就会立即执行

    from selenium import webdriver
    
    browser = webdriver.Chrome()
    browser.implicitly_wait(10)
    browser.get('https://www.zhihu.com/explore')
    input = browser.find_element_by_class_name('zu-top-add-question')
    print(input)

    显示等待

    指定一个等待条件,并且指定一个最长等待时间,会在这个时间内进行判断是否满足等待条件,如果成立就会立即返回,如果不成立,就会一直等待,直到等待你指定的最长等待时间,如果还是不满足,就会抛出异常,如果满足了就会正常返回

    from selenium import webdriver
    from selenium.webdriver.common.by import By
    from selenium.webdriver.support.ui import WebDriverWait
    from selenium.webdriver.support import expected_conditions as EC
    
    browser = webdriver.Chrome()
    browser.get('https://www.taobao.com/')
    wait = WebDriverWait(browser, 10)
    input = wait.until(EC.presence_of_element_located((By.ID, 'q')))
    button = wait.until(EC.element_to_be_clickable((By.CSS_SELECTOR, '.btn-search')))
    print(input, button)

    上述的例子中的条件:EC.presence_of_element_located()是确认元素是否已经出现了
    EC.element_to_be_clickable()是确认元素是否是可点击的

    常用的判断条件:
    title_is 标题是某内容
    title_contains 标题包含某内容
    presence_of_element_located 元素加载出,传入定位元组,如(By.ID, 'p')
    visibility_of_element_located 元素可见,传入定位元组
    visibility_of 可见,传入元素对象
    presence_of_all_elements_located 所有元素加载出
    text_to_be_present_in_element 某个元素文本包含某文字
    text_to_be_present_in_element_value 某个元素值包含某文字
    frame_to_be_available_and_switch_to_it frame加载并切换
    invisibility_of_element_located 元素不可见
    element_to_be_clickable 元素可点击
    staleness_of 判断一个元素是否仍在DOM,可判断页面是否已经刷新
    element_to_be_selected 元素可选择,传元素对象
    element_located_to_be_selected 元素可选择,传入定位元组
    element_selection_state_to_be 传入元素对象以及状态,相等返回True,否则返回False
    element_located_selection_state_to_be 传入定位元组以及状态,相等返回True,否则返回False
    alert_is_present 是否出现Alert

    更多操作参考:http://selenium-python.readthedocs.io/api.html#module-selenium.webdriver.support.expected_conditions

    浏览器的前进和后退

    back()
    forward()

    import time
    from selenium import webdriver
    
    browser = webdriver.Chrome()
    browser.get('https://www.baidu.com/')
    browser.get('https://www.taobao.com/')
    browser.get('https://www.python.org/')
    browser.back()
    time.sleep(1)
    browser.forward()
    browser.close()

    cookie操作

    get_cookies()
    delete_all_cookes()
    add_cookie()

    from selenium import webdriver
    
    browser = webdriver.Chrome()
    browser.get('https://www.zhihu.com/explore')
    print(browser.get_cookies())
    browser.add_cookie({'name': 'name', 'domain': 'www.zhihu.com', 'value': 'zhaofan'})
    print(browser.get_cookies())
    browser.delete_all_cookies()
    print(browser.get_cookies())

    选项卡管理

    通过执行js命令实现新开选项卡window.open()
    不同的选项卡是存在列表里browser.window_handles
    通过browser.window_handles[0]就可以操作第一个选项卡

    import time
    from selenium import webdriver
    
    browser = webdriver.Chrome()
    browser.get('https://www.baidu.com')
    browser.execute_script('window.open()')
    print(browser.window_handles)
    browser.switch_to_window(browser.window_handles[1])
    browser.get('https://www.taobao.com')
    time.sleep(1)
    browser.switch_to_window(browser.window_handles[0])
    browser.get('https://python.org')

    异常处理

    这里的异常比较复杂,官网的参考地址:
    http://selenium-python.readthedocs.io/api.html#module-selenium.common.exceptions
    这里只进行简单的演示,查找一个不存在的元素

    from selenium import webdriver
    from selenium.common.exceptions import TimeoutException, NoSuchElementException
    
    browser = webdriver.Chrome()
    try:
        browser.get('https://www.baidu.com')
    except TimeoutException:
        print('Time Out')
    try:
        browser.find_element_by_id('hello')
    except NoSuchElementException:
        print('No Element')
    finally:
        browser.close()

    三、使用无头模式调用浏览器

    方式一:

    from selenium import webdriver  # 获取某一款浏览器的驱动程序
    
    
    # 要到的包 
    from selenium.webdriver.chrome.options import Options
    # 需要的配置
    chrome_options = Options()
    chrome_options.add_argument('--headless')
    chrome_options.add_argument('--disable-gpu')
    
    
    # 实例化一个谷歌浏览器
    driver = webdriver.Chrome(executable_path = r'/Users/busensei/Downloads/chromedriver', chrome_options=chrome_options)
    
    # 让浏览器发请求
    driver.get(url='https://www.baidu.com')
    
    # find系列接口
    # 定位指定标签
    my_input = driver.find_element_by_id('kw')
    
    # 向标签中录入指定的数据
    my_input.send_keys('girls')
    
    # 定位提交按钮
    my_button = driver.find_element_by_id('su')
    # 点击
    my_button.click()
    
    
    # 获取当前浏览器显示的页面的页面源码
    page_text = driver.page_source  # 这行代码是非阻塞的 
    # print(page_text)
    
    # 关闭浏览器
    driver.quit()

    方式二:

    
    
    from selenium import webdriver  # 获取某一款浏览器的驱动程序

    # 实例化一个谷歌浏览器 driver
    = webdriver.PhantomJS(executable_path = r'/Users/busensei/Downloads/phantomjs-2.1.1-macosx/bin/phantomjs') # 让浏览器发请求 driver.get(url='https://www.baidu.com') # find系列接口 # 定位指定标签 my_input = driver.find_element_by_id('kw') # 向标签中录入指定的数据 my_input.send_keys('girls') # 定位提交按钮 my_button = driver.find_element_by_id('su') time.sleep(1) # 点击 my_button.click() # 获取当前浏览器显示的页面的页面源码 page_text = driver.page_source # 这行代码是非阻塞的 # print(page_text) # 关闭浏览器 driver.quit()

    总结

    • 重点:selenium+phantomjs 就是爬虫终极解决方案:有些网站上的内容信息是通过动态加载js形成的,所以使用普通爬虫程序无法回去动态加载的js内容。例如豆瓣电影中的电影信息是通过下拉操作动态加载更多的电影信息。

      • 综合操作:需求是尽可能多的爬取豆瓣网中的电影信息

        from selenium import webdriver
        from time import sleep
        import time
        
        if __name__ == '__main__':
            url = 'https://movie.douban.com/typerank?type_name=%E6%81%90%E6%80%96&type=20&interval_id=100:90&action='
            # 发起请求前,可以让url表示的页面动态加载出更多的数据
            path = r'..inphantomjs.exe'
            # 创建无界面的浏览器对象
            bro = webdriver.PhantomJS(path)
            # 发起url请求
            bro.get(url)
            time.sleep(3)
            # 截图
            bro.save_screenshot('1.png')
        
            # 执行js代码(让滚动条向下偏移n个像素(作用:动态加载了更多的电影信息))
            js = 'window.scrollTo(0,document.body.scrollHeight)'
            bro.execute_script(js)  # 该函数可以执行一组字符串形式的js代码
            time.sleep(2)
        
            bro.execute_script(js)  # 该函数可以执行一组字符串形式的js代码
            time.sleep(2)
            bro.save_screenshot('2.png') 
            time.sleep(2) 
            # 使用爬虫程序爬去当前url中的内容 
            html_source = bro.page_source # 该属性可以获取当前浏览器的当前页的源码(html) 
            with open('./source.html', 'w', encoding='utf-8') as fp: 
                fp.write(html_source) 
            bro.quit()

    谷歌无头浏览器

    • 由于PhantomJs最近已经停止了更新和维护,所以推荐大家可以使用谷歌的无头浏览器,是一款无界面的谷歌浏览器。
    • 代码展示:
      from selenium import webdriver
      from selenium.webdriver.chrome.options import Options
      import time
       
      # 创建一个参数对象,用来控制chrome以无界面模式打开
      chrome_options = Options()
      chrome_options.add_argument('--headless')
      chrome_options.add_argument('--disable-gpu')
      # 驱动路径
      path = r'C:UsersBLiDesktop1801day05ziliaochromedriver.exe'
       
      # 创建浏览器对象
      browser = webdriver.Chrome(executable_path=path, chrome_options=chrome_options)
       
      # 上网
      url = 'http://www.baidu.com/'
      browser.get(url)
      time.sleep(3)
       
      browser.save_screenshot('baidu.png')
       
      browser.quit()
  • 相关阅读:
    Win7发布,微软首页Silverlight引领绿色浪潮
    [Toolkit]最新Silverlight Toolkit中的Drag&Drop支持
    [Toolkit]Silverlight Toolkit 2009年10月 Release
    推荐一个激动人心的Silverlight网站应用
    Silverlight4Beta之RichTextArea
    [WPF]WPF4.0中的字体呈现改进
    用eclipse开发silverlight的好选择:eclipse4sl v1.0 release
    【转】Origin 8(V8.0724) 绿色破解版
    一个不错的C# Telnet类库(改进了汉字显示乱码的问题)
    【转】Windows系统环境变量列表
  • 原文地址:https://www.cnblogs.com/xiao-xue-di/p/10250307.html
Copyright © 2011-2022 走看看