zoukankan      html  css  js  c++  java
  • Python开发【第*篇】【Xpath与lxml类库】

    什么是XML

    • XML 指可扩展标记语言(EXtensible Markup Language)

    • XML 是一种标记语言,很类似 HTML

    • XML 的设计宗旨是传输数据,而非显示数据

    • XML 的标签需要我们自行定义。

    • XML 被设计为具有自我描述性。

    W3School官方文档:http://www.w3school.com.cn/xml/index.asp

     

    XML 和 HTML 的区别

    数据格式   描述 目标
    XML 可扩展标记语言 被设计为传输和存储数据,其焦点是数据的内容
    HTML 超文本标记语言 显示数据以及如何更好显示数据
    HTML DOM 文档对象模型 通过 HTML DOM,可以访问所有的 HTML 元素,连同它们所包含的文本和属性。可以对其中的内容进行修改和删除,同时也可以创建新的元素

    XML的节点关系

    1.父(Parent)

    每个元素以及属性都有一个父。

    下面是一个简单的XML例子中,book 元素是 title、author、year 以及 price 元素的父:

    <?xml version="1.0" encoding="utf-8"?>
    
    <book>
      <title>Harry Potter</title>
      <author>J K. Rowling</author>
      <year>2005</year>
      <price>29.99</price>
    </book>
    

      

    2. 子(Children)

    元素节点可有零个、一个或多个子。

    在下面的例子中,title、author、year 以及 price 元素都是 book 元素的子:

    <?xml version="1.0" encoding="utf-8"?>
    
    <book>
      <title>Harry Potter</title>
      <author>J K. Rowling</author>
      <year>2005</year>
      <price>29.99</price>
    </book>
    

      

    3. 同胞(Sibling)

    拥有相同的父的节点

    在下面的例子中,title、author、year 以及 price 元素都是同胞:

    <?xml version="1.0" encoding="utf-8"?>
    
    <book>
      <title>Harry Potter</title>
      <author>J K. Rowling</author>
      <year>2005</year>
      <price>29.99</price>
    </book>
    

      

    4. 先辈(Ancestor)

    某节点的父、父的父,等等。

    在下面的例子中,title 元素的先辈是 book 元素和 bookstore 元素:

    <?xml version="1.0" encoding="utf-8"?>
    
    <bookstore>
    
    <book>
      <title>Harry Potter</title>
      <author>J K. Rowling</author>
      <year>2005</year>
      <price>29.99</price>
    </book>
    
    </bookstore>
    

      

    5. 后代(Descendant)

    某个节点的子,子的子,等等。

    在下面的例子中,bookstore 的后代是 book、title、author、year 以及 price 元素:

    <?xml version="1.0" encoding="utf-8"?>
    
    <bookstore>
    
    <book>
      <title>Harry Potter</title>
      <author>J K. Rowling</author>
      <year>2005</year>
      <price>29.99</price>
    </book>
    
    </bookstore>
    

      

    什么是XPath

      XPath (XML Path Language) 是一门在 XML 文档中查找信息的语言,可用来在 XML 文档中对元素和属性进行遍历。

    XPath 开发工具

    1. 开源的XPath表达式编辑工具:XMLQuire(XML格式文件可用)
    2. Chrome插件 XPath Helper
    3. Firefox插件 XPath Checker

    选取节点

    XPath 使用路径表达式来选取 XML 文档中的节点或者节点集。

    常用路径表达式:

    表达式描述
    nodename 选取此节点的所有子节点。
    / 从根节点选取。
    // 从匹配选择的当前节点选择文档中的节点,而不考虑它们的位置。
    . 选取当前节点。
    .. 选取当前节点的父节点。
    @ 选取属性。

    一些路径表达式以及表达式的结果:

    路径表达式 结果
    bookstore 选取 bookstore 元素的所有子节点。
    /bookstore 选取根元素 bookstore。注释:假如路径起始于正斜杠( / ),则此路径始终代表到某元素的绝对路径!
    bookstore/book 选取属于 bookstore 的子元素的所有 book 元素。
    //book 选取所有 book 子元素,而不管它们在文档中的位置。
    bookstore//book 选择属于 bookstore 元素的后代的所有 book 元素,而不管它们位于 bookstore 之下的什么位置。
    //@lang 选取名为 lang 的所有属性。

    谓语(Predicates)

      谓语用来查找某个特定的节点或者包含某个指定的值的节点,被嵌在方括号中

      列出了带有谓语的一些路径表达式,以及表达式的结果:

    路径表达式 结果
    /bookstore/book[1] 选取属于 bookstore 子元素的第一个 book 元素
    /bookstore/book[last()] 选取属于 bookstore 子元素的最后一个 book 元素
    /bookstore/book[last()-1] 选取属于 bookstore 子元素的倒数第二个 book 元素
    /bookstore/book[position()<3] 选取最前面的两个属于 bookstore 元素的子元素的 book 元素
    //title[@lang] 选取所有拥有名为 lang 的属性的 title 元素
    //title[@lang=’eng’] 选取所有 title 元素,且这些元素拥有值为 eng 的 lang 属性
    /bookstore/book[price>35.00] 选取 bookstore 元素的所有 book 元素,且其中的 price 元素的值须大于 35.00
    /bookstore/book[price>35.00]/title 选取 bookstore 元素中的 book 元素的所有 title 元素,且其中的 price 元素的值须大于 35.00

    选取未知节点

    XPath 通配符可用来选取未知的 XML 元素。

    通配符描述
    * 匹配任何元素节点。
    @* 匹配任何属性节点。
    node() 匹配任何类型的节点。

    列出了一些路径表达式,以及这些表达式的结果:

    路径表达式结果
    /bookstore/* 选取 bookstore 元素的所有子元素。
    //* 选取文档中的所有元素。
    //title[@*] 选取所有带有属性的 title 元素。

    选取若干路径

    通过在路径表达式中使用“|”运算符,您可以选取若干个路径。

    实例

    路径表达式结果
    //book/title | //book/price 选取 book 元素的所有 title 和 price 元素。
    //title | //price 选取文档中的所有 title 和 price 元素。
    /bookstore/book/title | //price 选取属于 bookstore 元素的 book 元素的所有 title 元素,以及文档中所有的 price 元素。

    XPath的运算符

    运用到Python抓取时要先转换为xml

    lxml库

    lxml 是 一个HTML/XML的解析器,主要的功能是如何解析和提取 HTML/XML 数据。

    lxml和正则一样,也是用 C 实现的,是一款高性能的 Python HTML/XML 解析器,我们可以利用之前学习的XPath语法,来快速的定位特定元素以及节点信息。

    lxml python 官方文档:http://lxml.de/index.html

    需要安装C语言库,可使用 pip 安装:pip install lxml (或通过wheel方式安装)

    初步使用

    我们利用它来解析 HTML 代码,简单示例:

    # lxml_test.py
    
    # 使用 lxml 的 etree 库
    from lxml import etree 
    
    text = '''
    <div>
        <ul>
             <li class="item-0"><a href="link1.html">first item</a></li>
             <li class="item-1"><a href="link2.html">second item</a></li>
             <li class="item-inactive"><a href="link3.html">third item</a></li>
             <li class="item-1"><a href="link4.html">fourth item</a></li>
             <li class="item-0"><a href="link5.html">fifth item</a> # 注意,此处缺少一个 </li> 闭合标签
         </ul>
     </div>
    '''
    
    #利用etree.HTML,将字符串解析为HTML文档
    html = etree.HTML(text) 
    
    # 按字符串序列化HTML文档
    result = etree.tostring(html) 
    
    print(result)
    输出结果:
    
    <html><body>
    <div>
        <ul>
             <li class="item-0"><a href="link1.html">first item</a></li>
             <li class="item-1"><a href="link2.html">second item</a></li>
             <li class="item-inactive"><a href="link3.html">third item</a></li>
             <li class="item-1"><a href="link4.html">fourth item</a></li>
             <li class="item-0"><a href="link5.html">fifth item</a></li>
    </ul>
     </div>
    </body></html>
    

      

    lxml 可以自动修正 html 代码,例子里不仅补全了 li 标签,还添加了 body,html 标签。

    文件读取:

    除了直接读取字符串,lxml还支持从文件里读取内容。我们新建一个hello.html文件:

    <!-- hello.html -->
    
    <div>
        <ul>
             <li class="item-0"><a href="link1.html">first item</a></li>
             <li class="item-1"><a href="link2.html">second item</a></li>
             <li class="item-inactive"><a href="link3.html"><span class="bold">third item</span></a></li>
             <li class="item-1"><a href="link4.html">fourth item</a></li>
             <li class="item-0"><a href="link5.html">fifth item</a></li>
         </ul>
     </div>
    再利用 etree.parse() 方法来读取文件。
    
    # lxml_parse.py
    
    from lxml import etree
    
    # 读取外部文件 hello.html
    html = etree.parse('./hello.html')
    result = etree.tostring(html, pretty_print=True)
    
    print(result)
    输出结果与之前相同:
    
    <html><body>
    <div>
        <ul>
             <li class="item-0"><a href="link1.html">first item</a></li>
             <li class="item-1"><a href="link2.html">second item</a></li>
             <li class="item-inactive"><a href="link3.html">third item</a></li>
             <li class="item-1"><a href="link4.html">fourth item</a></li>
             <li class="item-0"><a href="link5.html">fifth item</a></li>
    </ul>
     </div>
    </body></html>
    

      

    XPath实例测试

    1. 获取所有的 <li> 标签

    # xpath_li.py
    
    from lxml import etree
    
    html = etree.parse('hello.html')
    print type(html)  # 显示etree.parse() 返回类型
    
    result = html.xpath('//li')
    
    print result  # 打印<li>标签的元素集合
    print len(result)
    print type(result)
    print type(result[0])
    输出结果:
    
    <type 'lxml.etree._ElementTree'>
    [<Element li at 0x1014e0e18>, <Element li at 0x1014e0ef0>, <Element li at 0x1014e0f38>, <Element li at 0x1014e0f80>, <Element li at 0x1014e0fc8>]
    5
    <type 'list'>
    <type 'lxml.etree._Element'>
    

      

    2. 继续获取<li> 标签的所有 class属性

    # xpath_li.py
    
    from lxml import etree
    
    html = etree.parse('hello.html')
    result = html.xpath('//li/@class')
    
    print result
    运行结果
    
    ['item-0', 'item-1', 'item-inactive', 'item-1', 'item-0']
    

      

    3. 继续获取<li>标签下hre 为 link1.html 的 <a> 标签

    # xpath_li.py
    
    from lxml import etree
    
    html = etree.parse('hello.html')
    result = html.xpath('//li/a[@href="link1.html"]')
    
    print result
    运行结果
    
    [<Element a at 0x10ffaae18>]
    

      

    4. 获取<li> 标签下的所有 <span> 标签

    # xpath_li.py
    
    from lxml import etree
    
    html = etree.parse('hello.html')
    
    #result = html.xpath('//li/span')
    #注意这么写是不对的:
    #因为 / 是用来获取子元素的,而 <span> 并不是 <li> 的子元素,所以,要用双斜杠
    
    result = html.xpath('//li//span')
    
    print result
    运行结果
    
    [<Element span at 0x10d698e18>]
    

      

    5. 获取 <li> 标签下的<a>标签里的所有 class

    # xpath_li.py
    
    from lxml import etree
    
    html = etree.parse('hello.html')
    result = html.xpath('//li/a//@class')
    
    print result
    运行结果
    
    ['blod']
    

      

    6. 获取最后一个 <li> 的 <a> 的 href

    # xpath_li.py
    
    from lxml import etree
    
    html = etree.parse('hello.html')
    
    result = html.xpath('//li[last()]/a/@href')
    # 谓语 [last()] 可以找到最后一个元素
    
    print result
    运行结果
    
    ['link5.html']
    

      

    7. 获取倒数第二个元素的内容

    # xpath_li.py
    
    from lxml import etree
    
    html = etree.parse('hello.html')
    result = html.xpath('//li[last()-1]/a')
    
    # text 方法可以获取元素内容
    print result[0].text
    运行结果
    
    fourth item
    

      

    8. 获取 class 值为 bold 的标签名

    # xpath_li.py
    
    from lxml import etree
    
    html = etree.parse('hello.html')
    
    result = html.xpath('//*[@class="bold"]')
    
    # tag方法可以获取标签名
    print result[0].tag
    运行结果
    
    span
    

      

     使用XPath的爬取贴吧

     1 # tieba_xpath.py
     2 
     3 
     4 #!/usr/bin/env python
     5 # -*- coding:utf-8 -*-
     6 
     7 import os
     8 import urllib
     9 import urllib2
    10 from lxml import etree
    11 
    12 class Spider:
    13     def __init__(self):
    14         self.tiebaName = raw_input("请需要访问的贴吧:")
    15         self.beginPage = int(raw_input("请输入起始页:"))
    16         self.endPage = int(raw_input("请输入终止页:"))
    17 
    18         self.url = 'http://tieba.baidu.com/f'
    19         self.ua_header = {"User-Agent" : "Mozilla/5.0 (compatible; MSIE 9.0; Windows NT 6.1 Trident/5.0;"}
    20 
    21         # 图片编号
    22         self.userName = 1
    23 
    24     def tiebaSpider(self):
    25         for page in range(self.beginPage, self.endPage + 1):
    26             pn = (page - 1) * 50 # page number
    27             word = {'pn' : pn, 'kw': self.tiebaName}
    28 
    29             word = urllib.urlencode(word) #转换成url编码格式(字符串)
    30             myUrl = self.url + "?" + word
    31 
    32             # 示例:http://tieba.baidu.com/f? kw=%E7%BE%8E%E5%A5%B3 & pn=50
    33             # 调用 页面处理函数 load_Page
    34             # 并且获取页面所有帖子链接,
    35             links = self.loadPage(myUrl)  # urllib2_test3.py
    36 
    37     # 读取页面内容
    38     def loadPage(self, url):
    39         req = urllib2.Request(url, headers = self.ua_header)
    40         html = urllib2.urlopen(req).read()
    41 
    42         # 解析html 为 HTML 文档
    43         selector=etree.HTML(html)
    44 
    45         #抓取当前页面的所有帖子的url的后半部分,也就是帖子编号
    46         # http://tieba.baidu.com/p/4884069807里的 “p/4884069807”
    47         links = selector.xpath('//div[@class="threadlist_lz clearfix"]/div/a/@href')
    48 
    49         # links 类型为 etreeElementString 列表
    50         # 遍历列表,并且合并成一个帖子地址,调用 图片处理函数 loadImage
    51         for link in links:
    52             link = "http://tieba.baidu.com" + link
    53             self.loadImages(link)
    54 
    55     # 获取图片
    56     def loadImages(self, link):
    57         req = urllib2.Request(link, headers = self.ua_header)
    58         html = urllib2.urlopen(req).read()
    59 
    60         selector = etree.HTML(html)
    61 
    62         # 获取这个帖子里所有图片的src路径
    63         imagesLinks = selector.xpath('//img[@class="BDE_Image"]/@src')
    64 
    65         # 依次取出图片路径,下载保存
    66         for imagesLink in imagesLinks:
    67             self.writeImages(imagesLink)
    68 
    69     # 保存页面内容
    70     def writeImages(self, imagesLink):
    71         '''
    72             将 images 里的二进制内容存入到 userNname 文件中
    73         '''
    74 
    75         print imagesLink
    76         print "正在存储文件 %d ..." % self.userName
    77         # 1. 打开文件,返回一个文件对象
    78         file = open('./images/' + str(self.userName)  + '.png', 'wb')
    79 
    80         # 2. 获取图片里的内容
    81         images = urllib2.urlopen(imagesLink).read()
    82 
    83         # 3. 调用文件对象write() 方法,将page_html的内容写入到文件里
    84         file.write(images)
    85 
    86         # 4. 最后关闭文件
    87         file.close()
    88 
    89         # 计数器自增1
    90         self.userName += 1
    91 
    92 # 模拟 main 函数
    93 if __name__ == "__main__":
    94 
    95     # 首先创建爬虫对象
    96     mySpider = Spider()
    97     # 调用爬虫对象的方法,开始工作
    98     mySpider.tiebaSpider()
  • 相关阅读:
    WSDL
    对协程的理解
    调用webServer
    待看
    BZOJ4668 冷战(并查集)
    BZOJ4651 NOI2016网格(割点)
    Lyft Level 5 Challenge 2018
    BZOJ3073 PA2011Journeys(线段树+bfs)
    BZOJ4602 SDOI2016齿轮(搜索)
    BZOJ4597 SHOI2016随机序列(线段树)
  • 原文地址:https://www.cnblogs.com/loser1949/p/9446622.html
Copyright © 2011-2022 走看看