zoukankan      html  css  js  c++  java
  • [转]爬虫 selenium + phantomjs / chrome



    selenium 模块

    Web自动化测试工具, 可运行在浏览器,根据指定命令操作浏览器, 必须与第三方浏览器结合使用

    安装 

    sudo pip3 install selenium

    phantomjs 浏览器

    无界面浏览器(无头浏览器), 在内存中进行页面加载,高效

    安装

    windows

    下载对应安装包,将文件放到python安装目录的Scripts目录下

    Linux

    下载, 解压到任意路径

    chromedriver 接口

    性质完全同 phantomjs 

    下载地址 : 这里

    安装

    1. 查看本机Chrome浏览器版本(设置-帮助-关于Google Chrome)
    2. 下载对应版本的chromedriver
    3. 拷贝到python安装目录的Scripts目录下

    对比两个接口

    chromedriver 比 phantomjs 性能好, 在 windows下更适合用 chromedriver 

    phantomjs  更适合用在 无界面环境下. 比如 linux 中, 且 phantomjs  多进程下性能下降严重

    而且 phantomjs  很不稳定

    整合使用

    基本实例

    简单实例 - 访问百度

    # 导入接口
    from selenium import webdriver
    
    # 创建 PhantomJS 浏览器对象
    driver = webdriver.PhantomJS()
    # 发送请求
    driver.get('http://www.baidu.com/')
    # 查看截图
    driver.save_screenshot('百度.png')
    # 关闭当前页
    driver.close()
    # 关闭浏览器
    driver.quit()

    稍微复杂的实例 - 百度输入跳转

    # _*_ coding:utf-8 _*_
    
    import time
    # 导入接口
    from selenium import webdriver
    
    # 创建 PhantomJS 浏览器对象
    driver = webdriver.PhantomJS()
    
    # 发送请求
    driver.get('http://www.baidu.com/')
    
    # 向搜索框 ( id=kw ) 输入"初音未来"
    driver.find_element_by_id('kw').send_keys('初音未来')
    
    # 点击 百度一下 按钮 ( id=su )
    driver.find_element_by_id('su').click()
    # driver.find_element_by_class_name('btn self-btn bg s_btn btn_h btnhover')
    
    time.sleep(2)  # 加载需要点时间
    
    # 查看截图
    driver.save_screenshot('miku.png')
    
    # 查看响应内容
    html = driver.page_source
    print(html)  # 类似于 res = request.get().text()
    
    # 关闭当前页
    driver.close()
    
    # 关闭浏览器
    driver.quit()

    特殊实例 - qq 邮箱登录

    qq 邮箱页面是使用的 ifram子框架 (两个页面的嵌套页面) . 普通的方式是不行的

    from selenium import webdriver
    import time
    
    
    browser = webdriver.PhantomJS()
    browser.get('https://mail.qq.com/')
    
    # 切换到ifram子框架(网页中又嵌套了一个网页)
    login_frame = browser.find_element_by_id('login_frame')
    browser.switch_to_frame(login_frame)
    
    # 输入qq号 密码 点击登录按钮
    uname = browser.find_element_by_xpath('//*[@id="u"]')
    uname.send_keys('')
    
    pwd = browser.find_element_by_xpath('//*[@id="p"]')
    pwd.send_keys('')
    
    login = browser.find_element_by_xpath('//*[@id="login_button"]')
    login.click()
    
    time.sleep(2)
    browser.save_screenshot('login.png')

    常用属性方法

    导入

    from selenium import webdriver

    创建 phantomjs 浏览器对象

    driver = webdriver.PhantomJS()

    可选参数 executable_path 

    driver = webdriver.PhantomJS(executable_path="/xxxx")

    可以指定 phantomjs 的路径, 如果已经放在 python 的 script 中就不用这样设置了.

    因此推荐解压后放置在 python 的 script 中 ( 因为环境变量设置了 ) 

    创建 chrome 浏览器对象

    driver = webdriver.Chrome()

    可选参数 executable_path  同上

    可选参数 option 

      设置谷歌浏览器隐藏页面

    options = webdriver.ChromeOptions()
       * 方法1 :options.add_argument('--headless')
       * 方法2 :options.set_headless()
    browser = webdriver.Chrome(options=options)
    browser.get('http://www.baidu.com/')

    发请求

    driver.get('http://www.baidu.com/')

    查看源码

    html = driver.page_source
    print(html)  # 类似于 res = request.get().text()

    源码中搜索字符串

    可以是文本值也可以是属性值

    html = driver.page_source
    res = html.find('字符串')

    返回值

    -1      未找到
    其他    找到

    关闭当前页面

    driver.close()

    关闭浏览器

    driver.quit() 

    定位节点

    单节点查找

    推荐使用 xpath  

    xpath 可以直接检查中定位标签后复制即可. 是最为精准的方式

    # 利用标签的属性
    driver.find_element_by_id('') driver.find_element_by_name('') driver.find_element_by_class_name('')

    # 上面都没有的话可以用 xpath
    driver.find_element_by_xpath('')

    多节点查找

    driver.find_elements_by_xxxxxxx('')
        for ele in [节点对象列表]:
            print(ele.text)    

    节点查找实例

    from selenium import webdriver
    
    # 创建浏览器对象
    browser = webdriver.PhantomJS()
    browser.get('https://www.qiushibaike.com/text/')
    
    # 单元素查找
    div = browser.find_element_by_class_name('content')
    
    # 多元素查找
    divs = browser.find_elements_by_class_name('content')
    for div in divs:
        # text是获取当前节点对象中所有文本内容(所有节点)
        print(div.text)
        print('*' * 50)

    节点操作

    ele.text

    拿到节点的内容 (包括后代节点的所有内容)

    driver.find_element_by_id('').text

    ele.send_keys("")

    搜索框赋值

    driver.find_element_by_id('kw').send_keys("初音未来")

    ele.click()

    点击标签

    driver.find_element_by_id('su').click()

    ele.get_attribute("")

    获取属性值

    #  获取元素标签的内容
    att01 = a_href.get_attribute('textContent')
    text_01 = a_href.text
    
    # # 获取元素内的全部HTML
    att02 = a_href.get_attribute('innerHTML')
    
    # # 获取包含选中元素的HTML
    att03 = a_href.get_attribute('outerHTML')
    
    # 获取该元素的标签类型
    tag01 = a_href.tag_name

    其他操作

    不请求图片模式

    只需要如下设置则不会请求图片, 会加快效率

    代码 - 设置  chromedriver  不加载图片 

    chrome_opt = webdriver.ChromeOptions()
    prefs = {"profile.managed_default_content_settings.images": 2}
    chrome_opt.add_experimental_option("prefs", prefs)

    查看截图

    因为是在内存中的处理, 且无头浏览器也没办法看到具体的页面

    使用此方法可以查看回传的截图

    driver.save_screenshot('百度.png')

    切换子框架

    此操作主要作用与 ifram子框架 的互相切换使用

    iframe = driver.find_element_by_xxx('')
    driver.switch_to_frame(节点对象)

    执行 JS 代码

    execute_script 方法来执行 js 代码

    browser.execute_script(
                'window.scrollTo(0,document.body.scrollHeight)'
            )

    实例解析 - 京东商品爬取

    页面分析

    爬取京东商品

    模拟操作搜索框输入查询商品后点击搜索

    将返回页面的商品列表进行爬取

    京东的页面展示机制中有配合 ajax 的请求

    初始页面的提供了 30 个页面数据, 然后通过滑轮往下在发起 ajax 的请求剩下的30个

    准备工作

    URL 地址  https://www.jd.com/
    搜索框节点   //*[@id="key"]
    搜索按钮    
    //*[@id="search"]/div/div[2]/button
    商品信息节点对象列表  
    //*[@id="J_goodsList"]/ul/li

    爬虫代码

    from selenium import webdriver
    import time
    
    
    class JdSpirder(object):
        def __init__(self, key):
            self.browser = webdriver.PhantomJS()
            self.url = 'https://www.jd.com/'
            self.key = key
    
        # 获取商品页面
        def get_page(self):
            self.browser.get(self.url)
            # 找节点
            self.browser.find_element_by_xpath('//*[@id="key"]').send_keys(self.key)
            self.browser.find_element_by_xpath('//*[@id="search"]/div/div[2]/button').click()
            time.sleep(2)
            self.parse_page()
    
        # 解析页面
        def parse_page(self):
            # 把下拉菜单拉到底部,执行JS脚本
            self.browser.execute_script(
                'window.scrollTo(0,document.body.scrollHeight)'
            )
            time.sleep(1)
            # 匹配所有商品节点对象列表
            li_list = self.browser.find_elements_by_xpath('//*[@id="J_goodsList"]/ul/li')
            for li in li_list:
                li_info = li.text.split('
    ')
                if li_info[0][0:2] == '每满':
                    price = li_info[1]
                    name = li_info[2]
                    commit = li_info[3]
                    market = li_info[4]
                else:
                    price = li_info[0]
                    name = li_info[1]
                    commit = li_info[2]
                    market = li_info[3]
                print([price, commit, market, name])
    
        def main(self):
            self.get_page()
            while True:
                self.parse_page()
                # 判断是否该点击下一页,没有找到说明不是最后一页
                if self.browser.page_source.find('pn-next disabled') == -1:
                    self.browser. 
                        find_element_by_class_name('pn-next').click()
                    time.sleep(2)
                else:
                    break
    
    
    if __name__ == '__main__':
        spider = JdSpirder("爬虫书籍")
        spider.main()

    实例解析 - 小米应用下载页面爬虫

    页面分析

    爬取小米应用商店指定分类下的app 名字和连接

    预被爬取的数据是 ajax 请求, F12 抓包选择 XHR 即可看到

    配合 并发编程 ( 多线 / 进程 )

    * 队列(from multiprocessing import Queue)
        q = Queue()
        q.put(url)
        q.get() :参数block=False,空时抛异常
        q.get(block=True,timeout=2)
    
     * 线程模块(threading)
        from threading import Thread
        t = Thread(target=函数名)
        t.start()
        t.join()

    准备工作

    URL 地址  'http://app.mi.com/categotyAllListApi?page=%s&categoryId=2&pageSize=30'  %str(数字)

    爬虫代码

    多线程版本

    import requests
    from threading import Thread
    from multiprocessing import Queue
    import json
    import time
    
    
    class XiaomiSpider(object):
        def __init__(self):
            self.url_queue = Queue()
            self.headers = {'User-Agent': 'Mozilla/5.0'}
    
        # URL入队列
        def url_in(self):
            # 拼接多个URL地址,然后put()到队列中
            for i in range(67):
                url = 'http://app.mi.com/' 
                      'categotyAllListApi?' 
                      'page=%s' 
                      '&categoryId=2' 
                      '&pageSize=30' % str(i)
                self.url_queue.put(url)
    
        # 线程事件函数(请求,解析提取数据)
        def get_page(self):
            # 先get()URL地址,发请求
            # json模块做解析
            while True:
                # 当队列不为空时,获取url地址
                if not self.url_queue.empty():
                    url = self.url_queue.get()
                    res = requests.get(url, headers=self.headers)
                    res.encoding = 'utf-8'
                    html = res.text
                    self.parse_page(html)
                else:
                    break
    
        # 解析函数
        def parse_page(self, html):
            html = json.loads(html)
            for h in html['data']:
                # 应用名称
                name = h['displayName']
                # 应用链接
                link = 'http://app.mi.com/details?id={}' 
                    .format(h['packageName'])
                d = {
                    '名称': name,
                    '链接': link
                }
                with open('小米.json', 'a') as f:
                    f.write(str(d) + '
    ')
    
        # 主函数
        def main(self):
            self.url_in()
            # 存放所有线程的列表
            t_list = []
    
            for i in range(10):
                t = Thread(target=self.get_page)
                t.start()
                t_list.append(t)
    
            # 统一回收线程
            for p in t_list:
                p.join()
    
    
    if __name__ == '__main__':
        start = time.time()
        spider = XiaomiSpider()
        spider.main()
        end = time.time()
        print('执行时间:%.2f' % (end - start))

    多进程版本

    进程需要考虑到多个进程在写一个文件的问题

    稍微不太稳定, 所以最好上锁

    import requests
    from multiprocessing import Process, Lock
    from multiprocessing import Queue
    import json
    import time
    
    
    class XiaomiSpider(object):
        def __init__(self):
            self.url_queue = Queue()
            self.headers = {'User-Agent': 'Mozilla/5.0'}
            # 创建锁,操作文件时加锁
            self.lock = Lock()
    
        # URL入队列
        def url_in(self):
            # 拼接多个URL地址,然后put()到队列中
            for i in range(67):
                url = 'http://app.mi.com/' 
                      'categotyAllListApi?' 
                      'page=%s' 
                      '&categoryId=2' 
                      '&pageSize=30' % str(i)
                self.url_queue.put(url)
    
        # 线程事件函数(请求,解析提取数据)
        def get_page(self):
            # 先get()URL地址,发请求
            # json模块做解析
            while True:
                # 当队列不为空时,获取url地址
                if not self.url_queue.empty():
                    url = self.url_queue.get()
                    res = requests.get(url, headers=self.headers)
                    res.encoding = 'utf-8'
                    html = res.text
                    self.parse_page(html)
                else:
                    break
    
        # 解析函数
        def parse_page(self, html):
            html = json.loads(html)
            for h in html['data']:
                # 应用名称
                name = h['displayName']
                # 应用链接
                link = 'http://app.mi.com/details?id={}' 
                    .format(h['packageName'])
                d = {
                    '名称': name,
                    '链接': link
                }
                # 加锁
                self.lock.acquire()
                with open('小米.json', 'a') as f:
                    f.write(str(d) + '
    ')
                # 释放锁
                self.lock.release()
    
        # 主函数
        def main(self):
            self.url_in()
            # 存放所有进程的列表
            t_list = []
    
            for i in range(4):
                t = Process(target=self.get_page)
                t.start()
                t_list.append(t)
    
            # 统一回收进程
            for p in t_list:
                p.join()
    
    
    if __name__ == '__main__':
        start = time.time()
        spider = XiaomiSpider()
        spider.main()
        end = time.time()
        print('执行时间:%.2f' % (end - start))

    特殊操作 - 集成 selenium 到Scrapy中 

    中间件 - selenium 操作

    在中间件中执行创建以及爬取相关的操作

    但是默认的中间件结束后会交给下载器进行再次爬取

    所以这里直接返回 HtmlResponse 返回  response 来绕过

    class JSPageMiddleware(object):
    
        # 通过chrome请求动态网页
        def process_request(self, request, spider):
            if spider.name == "jobbole":
                # browser = webdriver.Chrome(executable_path="D:/Temp/chromedriver.exe")
                spider.browser.get(request.url)
                import time
                time.sleep(3)
                print("访问:{0}".format(request.url))
    
                return HtmlResponse(url=spider.browser.current_url, body=spider.browser.page_source, encoding="utf-8",
                                    request=request)

    爬虫类 - 写 初始化 / 释放 函数

    因为涉及到  selenium  的创建, 以及释放

    如果在中间件中执行就会导致每次的访问都进行操作频繁的释放资源

    因此在 爬虫文件中使用更加理想

    配合信号量在爬虫爬取结束后自动释放关闭

    from selenium import webdriver
    from scrapy.xlib.pydispatch import dispatcher
    from scrapy import signals
    class JobboleSpider(scrapy.Spider):
        name = "jobbole"
        allowed_domains = ["blog.jobbole.com"]
        start_urls = ['http://blog.jobbole.com/all-posts/']
    
        def __init__(self):
            self.browser = webdriver.Chrome(executable_path="D:/Temp/chromedriver.exe")
            super(JobboleSpider, self).__init__()
            dispatcher.connect(self.spider_closed, signals.spider_closed)
    
        def spider_closed(self, spider):
            #当爬虫退出的时候关闭chrome
            print ("spider closed")
            self.browser.quit()


    ---------------------
    作者:羊驼之歌
    来源:CNBLOGS
    原文:https://www.cnblogs.com/shijieli/p/10826743.html
    版权声明:本文为作者原创文章,转载请附上博文链接!
    内容解析By:CSDN,CNBLOG博客文章一键转载插件

  • 相关阅读:
    [SSRS] Use Enum values in filter expressions Dynamics 365 Finance and Operation
    Power shell deploy all SSRS report d365 FO
    display method in Dynamics 365 FO
    How To Debug Dynamics 365 Finance and Operation
    Computed columns and virtual fields in data entities Dynamics 365
    Azure DevOps for Power Platform Build Pipeline
    Create readonly entities that expose financial dimensions Dynamics 365
    Dataentity call stack dynamics 365
    Dynamics 365 FO extension
    Use singletenant servertoserver authentication PowerApps
  • 原文地址:https://www.cnblogs.com/admans/p/11869169.html
Copyright © 2011-2022 走看看