zoukankan      html  css  js  c++  java
  • 4,xpath获取数据

    xpath

    XPath 使用路径表达式在 XML 文档中进行导航.

    XPath 使用路径表达式来选取 XML 文档中的节点或者节点集。这些路径表达式和我们在常规的电脑文件系统中看到的表达式非常相似。

    1) 可在XML中查找信息
    2) 支持HTML的查找
    3) 通过元素和属性进行导航

    安装

    Windows
    #pip安装
    pip3 install lxml
    #wheel安装
    #下载对应系统版本的wheel文件:http://www.lfd.uci.edu/~gohlke/pythonlibs/#lxml
    pip3 install lxml-4.2.1-cp36-cp36m-win_amd64.whl
    
    
    
    Linux
    yum install -y epel-release libxslt-devel libxml2-devel openssl-devel
    pip3 install lxml
    

    术语

    节点(Node)

    在 XPath 中,有七种类型的节点:元素、属性、文本、命名空间、处理指令、注释以及文档(根)节点。XML 文档是被作为节点树来对待的。树的根被称为文档节点或者根节点。

    XPath的使用方法

    nodename	     选取此节点的所有子节点
    /	             从当前节点选取直接子节点
    //	             从当前节点选取子孙节点
    .  		         用来选取当前节点 
    ..               选取当前节点的父节点
    @      选取属性
    *    通配符,选择所有元素节点与元素名
    @*	  选取所有属性
    [@attrib]	选取具有给定属性的所有元素
    [@attrib='value']	选取给定属性具有给定值的所有元素
    [tag]	选取所有具有指定元素的直接子节点
    [tag='text']	选取所有具有指定元素并且文本内容是text节点
    
     /text()    获取当前路径下的文本内容 
     /@xxxx     提取当前路径下标签的属性值 
     | 可选符    使用|可选取若干个路径 如//p | //div 即在当前路径下选取所有符合条件的p标签和div标签。 
    
    
    
    另外还有starts-with(@属性名称,属性字符相同部分),string(.)两种重要的特殊方法
    

    使用

    读取文本解析节点

    from lxml import etree
    
    text='''
    <div>
        <ul>
             <li class="item-0"><a href="link1.html">第一个</a></li>
             <li class="item-1"><a href="link2.html">second item</a></li>
             <li class="item-0"><a href="link5.html">a属性</a>
         </ul>
     </div>
    '''
    html=etree.HTML(text) #初始化生成一个XPath解析对象
    result=etree.tostring(html,encoding='utf-8')   #解析对象输出代码
    print(type(html))
    print(type(result))
    print(result.decode('utf-8'))
    
    #etree会修复HTML文本节点
    <class 'lxml.etree._Element'>
    <class 'bytes'>
    <html><body><div>
        <ul>
             <li class="item-0"><a href="link1.html">第一个</a></li>
             <li class="item-1"><a href="link2.html">second item</a></li>
             <li class="item-0"><a href="link5.html">a属性</a>
         </li></ul>
     </div>
    </body></html>
    

    读取HTML文件进行解析

    from lxml import etree
    
    html=etree.parse('test.html',etree.HTMLParser()) #指定解析器HTMLParser会根据文件修复HTML文件中缺失的如声明信息
    result=etree.tostring(html)   #解析成字节
    #result=etree.tostringlist(html) #解析成列表
    print(type(html))
    print(type(result))
    print(result)
    
    #
    <class 'lxml.etree._ElementTree'>
    <class 'bytes'>
    b'<!DOCTYPE html PUBLIC "-//W3C//DTD HTML 4.0 Transitional//EN" "http://www.w3.org/TR/REC-html40/loose.dtd">
    <html><body><div>&#13;
        <ul>&#13;
             <li class="item-0"><a href="link1.html">first item</a></li>&#13;
             <li class="item-1"><a href="link2.html">second item</a></li>&#13;
             <li class="item-inactive"><a href="link3.html">third item</a></li>&#13;
             <li class="item-1"><a href="link4.html">fourth item</a></li>&#13;
             <li class="item-0"><a href="link5.html">fifth item</a>&#13;
         </li></ul>&#13;
     </div>&#13;
    </body></html>'
    

    获取节点

    html=etree.parse('test',etree.HTMLParser())
    result=html.xpath('//*')  #//代表获取子孙节点,*代表获取所有
    html.xpath('//li')   #获取所有子孙节点的li节点
    result=html.xpath('//li/a')  #通过追加/a选择所有li节点的所有直接a节点,因为//li用于选中所有li节点,/a用于选中li节点的所有直接子节点a
    
    ##获取父节点
    查找父节点可以使用..来实现也可以使用parent::来获取父节点
     text='''
    <div>
        <ul>
             <li class="item-0"><a href="link1.html">第一个</a></li>
             <li class="item-1"><a href="link2.html">second item</a></li>
         </ul>
     </div>
    '''
    
    html=etree.HTML(text,etree.HTMLParser())
    result=html.xpath('//a[@href="link2.html"]/../@class')
    result1=html.xpath('//a[@href="link2.html"]/parent::*/@class')
    
    
            
    

    属性匹配

    #用@符号进行属性过滤
    
    from lxml import etree
    from lxml.etree import HTMLParser
    text='''
    <div>
        <ul>
             <li class="item-0"><a href="link1.html">第一个</a></li>
             <li class="item-1"><a href="link2.html">second item</a></li>
         </ul>
     </div>
    '''
    
    html=etree.HTML(text,etree.HTMLParser())
    result=html.xpath('//li[@class="item-1"]')
    print(result)
    
    获取节点后的结果为列表
    print(etree.tostring(result[0]))
    b'<li class="item-1"><a href="link2.html">second item</a></li>
         '
    
    print(etree.tostring(result[0]).decode('utf-8'))
    <li class="item-1"><a href="link2.html">second item</a></li>
    

    获取文本

    from lxml import etree
    
    text='''
    <div>
        <ul>
             <li class="item-0"><a href="link1.html">第一个</a></li>
             <li class="item-1"><a href="link2.html">second item</a></li>
         </ul>
     </div>
    '''
    
    html=etree.HTML(text,etree.HTMLParser())
    result=html.xpath('//li[@class="item-1"]/a/text()') #获取a节点下的内容
    result1=html.xpath('//li[@class="item-1"]//text()') #获取li下所有子孙节点的内容
    
    print(result)
    print(result1)
    

    获取属性

    使用@符号即可获取节点的属性,如下:获取所有li节点下所有a节点的href属性
    result=html.xpath('//li/a/@href')  #获取a的href属性
    result=html.xpath('//li//@href')   #获取所有li子孙节点的href属性
    
    
    

    多属性值匹配

    如果某个属性的值有多个时,我们可以使用contains()函数来获取
    from lxml import etree
    
    text1='''
    <div>
        <ul>
             <li class="aaa item-0"><a href="link1.html">第一个</a></li>
             <li class="bbb item-1"><a href="link2.html">second item</a></li>
         </ul>
     </div>
    '''
    
    html=etree.HTML(text1,etree.HTMLParser())
    result=html.xpath('//li[@class="aaa"]/a/text()')
    result1=html.xpath('//li[contains(@class,"aaa")]/a/text()')
    
    print(result)
    print(result1)
    
    #通过第一种方法没有取到值,通过contains()就能精确匹配到节点了
    []
    ['第一个']
    

    多属性匹配

    根据多个属性确定一个节点,这时就需要同时匹配多个属性,此时可用运用and运算符来连接使用
    
    from lxml import etree
    
    text1='''
    <div>
        <ul>
             <li class="aaa" name="item"><a href="link1.html">第一个</a></li>
             <li class="aaa" name="fore"><a href="link2.html">second item</a></li>
         </ul>
     </div>
    '''
    
    html=etree.HTML(text1,etree.HTMLParser())
    result=html.xpath('//li[@class="aaa" and @name="fore"]/a/text()')
    result1=html.xpath('//li[contains(@class,"aaa") and @name="fore"]/a/text()')
    
    
    print(result)
    print(result1)
    
    
    #
    ['second item']
    ['second item']
    

    XPath中的运算符

    运算符 描述 实例 返回值
    or age=19 or age=20 如果age等于19或者等于20则返回true反正返回false
    and age>19 and age<21 如果age等于20则返回true,否则返回false
    mod 取余 5 mod 2 1
    | 取两个节点的集合 //book | //cd 返回所有拥有book和cd元素的节点集合
    + 6+4 10
    - 6-4 2
    * 6*4 24
    div 除法 8 div 4 2
    = 等于 age=19 true
    != 不等于 age!=19 true
    < 小于 age<19 true
    <= 小于或等于 age<=19 true
    > 大于 age>19 true
    >= 大于或等于 age>=19 true

    按序选择

    我们在选择的时候某些属性可能同时匹配多个节点,但我们只想要其中的某个节点,如第二个节点或者最后一个节点,这时可以利用中括号引入索引的方法获取特定次序的节点

    from lxml import etree
    
    text1='''
    <div>
        <ul>
             <li class="aaa" name="item"><a href="link1.html">第一个</a></li>
             <li class="aaa" name="item"><a href="link1.html">第二个</a></li>
             <li class="aaa" name="item"><a href="link1.html">第三个</a></li>
             <li class="aaa" name="item"><a href="link1.html">第四个</a></li> 
         </ul>
     </div>
    '''
    
    html=etree.HTML(text1,etree.HTMLParser())
    
    result=html.xpath('//li[contains(@class,"aaa")]/a/text()') #获取所有li节点下a节点的内容
    result1=html.xpath('//li[1][contains(@class,"aaa")]/a/text()') #获取第一个
    result2=html.xpath('//li[last()][contains(@class,"aaa")]/a/text()') #获取最后一个
    result3=html.xpath('//li[position()>2 and position()<4][contains(@class,"aaa")]/a/text()') #获取第一个
    result4=html.xpath('//li[last()-2][contains(@class,"aaa")]/a/text()') #获取倒数第三个
    
    
    print(result)
    print(result1)
    print(result2)
    print(result3)
    print(result4)
    
    
    #
    ['第一个', '第二个', '第三个', '第四个']
    ['第一个']
    ['第四个']
    ['第三个']
    ['第二个']
    
    last()、position()函数,在XPath中,提供了100多个函数,包括存取、数值、字符串、逻辑、节点、序列等处理功
    

    节点轴选择

    获取子元素、兄弟元素、父元素、祖先元素等

    from lxml import etree
    
    text1='''
    <div>
        <ul>
             <li class="aaa" name="item"><a href="link1.html">第一个</a></li>
             <li class="aaa" name="item"><a href="link1.html">第二个</a></li>
             <li class="aaa" name="item"><a href="link1.html">第三个</a></li>
             <li class="aaa" name="item"><a href="link1.html">第四个</a></li> 
         </ul>
     </div>
    '''
    
    html=etree.HTML(text1,etree.HTMLParser())
    result=html.xpath('//li[1]/ancestor::*')  #获取所有祖先节点
    result1=html.xpath('//li[1]/ancestor::div')  #获取div祖先节点
    result2=html.xpath('//li[1]/attribute::*')  #获取所有属性值
    result3=html.xpath('//li[1]/child::*')  #获取所有直接子节点
    result4=html.xpath('//li[1]/descendant::a')  #获取所有子孙节点的a节点
    result5=html.xpath('//li[1]/following::*')  #获取当前子节之后的所有节点
    result6=html.xpath('//li[1]/following-sibling::*')  #获取当前节点的所有同级节点
    
    
    #
    [<Element html at 0x3ca6b960c8>, <Element body at 0x3ca6b96088>, <Element div at 0x3ca6b96188>, <Element ul at 0x3ca6b961c8>]
    [<Element div at 0x3ca6b96188>]
    ['aaa', 'item']
    [<Element a at 0x3ca6b96248>]
    [<Element a at 0x3ca6b96248>]
    [<Element li at 0x3ca6b96308>, <Element a at 0x3ca6b96348>, <Element li at 0x3ca6b96388>, <Element a at 0x3ca6b963c8>, <Element li at 0x3ca6b96408>, <Element a at 0x3ca6b96488>]
    [<Element li at 0x3ca6b96308>, <Element li at 0x3ca6b96388>, <Element li at 0x3ca6b96408>]
    

    XPath的特殊用法

    starts-with 解决标签属性值以相同字符串开头的情况

    from lxml import etree
    html="""
        <body>
            <div id="aa">aa</div>
            <div id="ab">ab</div>
            <div id="ac">ac</div>
        </body>
        """
    selector=etree.HTML(html)
    content=selector.xpath('//div[starts-with(@id,"a")]/text()') #这里使用starts-with方法提取div的id标签属性值开头为a的div标签
    for each in content:
        print each
    #输出结果为:
    aa
    ab
    ac
    

    string(.) 标签套标签

    获取一个标签,然后获取标签内的所有文本

    html="""
        <div id="a">
        left
            <span id="b">
            right
                <ul>
                up
                    <li>down</li>
                </ul>
            east
            </span>
            west
        </div>
    """
    #下面是没有用string方法的输出
    sel=etree.HTML(html)
    con=sel.xpath('//div[@id="a"]/text()')
    for i in con:
        print(i)  #输出内容为left west
    #输出,会有换行
    
        left
            
    
            west
        
    
    
    data=sel.xpath('//div[@id="a"]')[0]
    info=data.xpath('string(.)') ##会将当前获取的element内的所有字符串提取出来,并保留空格和换行
    content=info.replace('
    ','').replace(' ','')##将换行和空格删除
    print(info)
    print(content)
    for i in content:
         print(i) #输出为 全部内容
    
    
    

    XPath中需要取的标签如果没有属性,可以使用text(),posision()来识别标签

    from lxml import etree
    html="""
        <div>hello
            <p>H</p>
    </div>
    <div>hehe</div>
    """
    sel=etree.HTML(html)
    con=sel.xpath('//div[text()="hello"]/p/text()') #使用text()的方法来判别是哪个div标签
    print con[0]
    #H
    
    from lxml import etree
    html="""
        <div>hello
            <p>H</p>
            <p>J</p>
            <p>I</p>
    </div>
    <div>hehe</div>
    """
    sel=etree.HTML(html)
    con=sel.xpath('//div[text()="hello"]/p[posision()=2]/text()')
    print con[0]
    #J
    
    
    

    在XPath中可以使用多重过滤方法寻找标签,例如ul[3][@id=”a”] 这里使用【3】来寻找第三个ul标签 并且它的id属性值为a

    对结果继续使用xpath

    如果XPath语句用于查找节点, 那么返回的就是一个HtmlElement对象的列表,既然是HtmlElemtn对象,我们就还可以对其调用xpath()方法

    注意:

    在对xpath返回的对象再次执行xpath时,子xpath开头不需要添加斜线,直接以标签名开始即可

    useful = selector.xpath('//div[@class="useful"]')
    info_list = useful.xpath('ul/li/text()')
    

    _Element对象和HtmlElement对象$

    from lxml import etree
    
    text = '''
    <div>
        <ul>
             <li class="item-0"><a href="link1.html">first item</a></li>
             <li class="item-1"><a href="link2.html">second item</a></li>
             <li class="item-inactive"><a href="link3.html">third item</a></li>
             <li class="item-1"><a href="link4.html">fourth item</a></li>
             <li class="item-0"><a href="link5.html">fifth item</a>
         </ul>
     </div>
     '''
    #(1)
    html = etree.HTML(text)  
    #调用HTML类进行初始化,构造一个节点对象,一个XPath解析对象,(顺便也修正了HTML字符串)
    #type(html):    <class 'lxml.etree._Element'>
    #lxml 使用etree._Element和 etree._ElementTree来分别代表树中的节点和树
    
    
    #(2)
    html2 = etree.parse(r"C:UsersyqpzDesktophtml.html",etree.HTMLParser()) 
    #读取html文件进行解析
    #构造一个节点树对象,一个XPath解析对象
    #type(html2):   <class 'lxml.etree._ElementTree'>
    
    '''
    result = etree.tostring(html)  #调用tostring()方法可以输出修正后的HTML代码,但结果是bytes类型                               
                                   #type(result):<class 'bytes'>
    
    print(result.decode('utf-8'))  #这里用decode()方法将其转成str类型
                                   #type(result.decode('utf-8')):<class 'str'>
    
    
    #或 str()方法
    print(str(result,encoding='utf-8'))
    
    print(type(result))  #两种方法都不会改变result
    

    获取XPath的方式有两种(这个好):

    1) 使用以上等等的方法通过观察找规律的方式来获取XPath
    2) 使用Chrome浏览器来获取 在网页中右击->选择审查元素(或者使用F12打开) 就可以在elements中查看网页的html标签了,找到你想要获取XPath的标签,右击->Copy XPath 就已经将XPath路径复制到了剪切板。

    案例

    #!/usr/bin/env python
    #coding:utf-8
    import requests
    from requests.exceptions import RequestException
    from lxml import etree
    from lxml.etree import ParseError
    import json
    
    def one_to_page(html):
        headers={
            'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.3396.62 Safari/537.36'
        }
        try:
            response=requests.get(html,headers=headers)
            body=response.text  #获取网页内容
        except RequestException as e:
            print('request is error!',e)
        try:
            html=etree.HTML(body,etree.HTMLParser())  #解析HTML文本内容
            result=html.xpath('//table[contains(@class,"table-top20")]/tbody/tr//text()') #获取列表数据,获取的text()会生成列表,每5个为一行
            pos = 0
            
            #####
            ###生成器:执行到yield时就会停下来,直到循环获取该生成器才会逐个产生值
            ####
            for i in range(20):
                if i == 0:
                    yield result[i:5]
                else:
                    yield result[pos:pos+5]  #返回排名生成器数据
                pos+=5
        except ParseError as e:
             print(e.position)
    
    
    def write_file(data):   #将数据重新组合成字典写入文件并输出
        for i in data:
            sul={
                '2018年6月排行':i[0],
                '2017年6排行':i[1],
                '开发语言':i[2],
                '评级':i[3],
                '变化率':i[4]
            }
            with open('test.txt','a',encoding='utf-8') as f:
                f.write(json.dumps(sul,ensure_ascii=False) + '
    ') #必须格式化数据
                f.close()
            print(sul)
        return None
    
    
    def main():
        url='https://www.tiobe.com/tiobe-index/'
        data=one_to_page(url)
        revaule=write_file(data)
        if revaule == None:
            print('ok')
            
     
     
            
    if __name__ == '__main__':
        main()
    
    
    
    #
    {'2018年6月排行': '1', '2017年6排行': '1', '开发语言': 'Java', '评级': '15.368%', '变化率': '+0.88%'}
    {'2018年6月排行': '2', '2017年6排行': '2', '开发语言': 'C', '评级': '14.936%', '变化率': '+8.09%'}
    {'2018年6月排行': '3', '2017年6排行': '3', '开发语言': 'C++', '评级': '8.337%', '变化率': '+2.61%'}
    {'2018年6月排行': '4', '2017年6排行': '4', '开发语言': 'Python', '评级': '5.761%', '变化率': '+1.43%'}
    {'2018年6月排行': '5', '2017年6排行': '5', '开发语言': 'C#', '评级': '4.314%', '变化率': '+0.78%'}
    {'2018年6月排行': '6', '2017年6排行': '6', '开发语言': 'Visual Basic .NET', '评级': '3.762%', '变化率': '+0.65%'}
    {'2018年6月排行': '7', '2017年6排行': '8', '开发语言': 'PHP', '评级': '2.881%', '变化率': '+0.11%'}
    {'2018年6月排行': '8', '2017年6排行': '7', '开发语言': 'JavaScript', '评级': '2.495%', '变化率': '-0.53%'}
    {'2018年6月排行': '9', '2017年6排行': '-', '开发语言': 'SQL', '评级': '2.339%', '变化率': '+2.34%'}
    {'2018年6月排行': '10', '2017年6排行': '14', '开发语言': 'R', '评级': '1.452%', '变化率': '-0.70%'}
    {'2018年6月排行': '11', '2017年6排行': '11', '开发语言': 'Ruby', '评级': '1.253%', '变化率': '-0.97%'}
    {'2018年6月排行': '12', '2017年6排行': '18', '开发语言': 'Objective-C', '评级': '1.181%', '变化率': '-0.78%'}
    {'2018年6月排行': '13', '2017年6排行': '16', '开发语言': 'Visual Basic', '评级': '1.154%', '变化率': '-0.86%'}
    {'2018年6月排行': '14', '2017年6排行': '9', '开发语言': 'Perl', '评级': '1.147%', '变化率': '-1.16%'}
    {'2018年6月排行': '15', '2017年6排行': '12', '开发语言': 'Swift', '评级': '1.145%', '变化率': '-1.06%'}
    {'2018年6月排行': '16', '2017年6排行': '10', '开发语言': 'Assembly language', '评级': '0.915%', '变化率': '-1.34%'}
    {'2018年6月排行': '17', '2017年6排行': '17', '开发语言': 'MATLAB', '评级': '0.894%', '变化率': '-1.10%'}
    {'2018年6月排行': '18', '2017年6排行': '15', '开发语言': 'Go', '评级': '0.879%', '变化率': '-1.17%'}
    {'2018年6月排行': '19', '2017年6排行': '13', '开发语言': 'Delphi/Object Pascal', '评级': '0.875%', '变化率': '-1.28%'}
    {'2018年6月排行': '20', '2017年6排行': '20', '开发语言': 'PL/SQL', '评级': '0.848%', '变化率': '-0.72%'}
    

    参考

    https://www.cnblogs.com/zhangxinqi/p/9210211.html

    https://lxml.de/api/lxml.etree._Element-class.html

    https://zhuanlan.zhihu.com/p/41969389

  • 相关阅读:
    真正的e时代
    在线手册
    UVA 10616 Divisible Group Sums
    UVA 10721 Bar Codes
    UVA 10205 Stack 'em Up
    UVA 10247 Complete Tree Labeling
    UVA 10081 Tight Words
    UVA 11125 Arrange Some Marbles
    UVA 10128 Queue
    UVA 10912 Simple Minded Hashing
  • 原文地址:https://www.cnblogs.com/g2thend/p/12452186.html
Copyright © 2011-2022 走看看