zoukankan      html  css  js  c++  java
  • XPath

    xpath(XML Path Language)是一门在XML和HTML文档中查找信息的语言,可以用来在XML和HTML文档中对元素和属性进行遍历。

    XPath开发工具

    1.Chrome插件XPath Helper。

    2.Firefox插件Try XPath。

    XPath 使用路径表达式来选取XMl文档中的节点或者节点集。

    表达式 描述 示例 结果
    nodename 选取此节点的所有子节点 bookstore 选取bookstore下所有的子节点
    /

    如果是在最前面,代表从根节点选取。

    否则,代表选择某节点下的某节点

    /bookstore 选取根节点下所有的bookstore节点
    // 从全局节点中选取节点,随便在哪个位置 //book 从全局节点中找到所有book节点
    @ 选取某个节点的属性 //book[@price] 选取所有含有price属性的book标签

    通过使用路径表达式中的‘|’运算符来选取多个路径:

    # 选取所有的book元素以及book元素下所有的title元素
    //bookstore/book|//book/title
    

      

    谓语:

    谓语用来查找某个特定的节点或者包含某个指定的值的节点,被嵌在 [] 中。常见的带有谓语的路径表达式及其结果如下所示:

    路径表达式 描述
    /bookstore/book[1] 选取bookstor下的第一个book元素
    /bookstore/book[last()] 选取bookstore下的最后一个book元素
    bookstore/book[position()<3] 选取bookstore下的前两个book元素
    //book[@price] 选取拥有price属性的book元素
    //book[@price=10] 选取所有price属性值为10的book元素

    [] 的下标从1开始。

    通配符:

    * 表示通配符。

    通配符 描述 示例 结果
    * 匹配任意节点 /bookstore/* 选取bookstore下的所有子元素
    @* 匹配节点中的任何属性 //book[@*] 选取所有带有属性的book元素

    XPath语法:

    使用方式:

    使用//获取整个页面的元素,然后写标签名,再然后写谓词金进行提取。比如:

    //div[@class='abc']
    

      需要注意:

    1. /  和 // 的区别:/代表只是获取直接子节点。// 获取子孙节点。一般 //用的比较多。

    2. contains: 有时某个属性包含多个值,那么可以使用‘contains’函数。

    //div[contains(@class,'job_detail')]
    

    3. 谓词中的下标是从1开始的。

      

    通过使用 lxml 库来使用XPath语法来解析网页数据。

    lxml 是一个HTML/XML的解析器,主要功能是解析和提取HTML和XML数据。lxml 和正则一样,也是用c实现的,是一款高性能的python HTML/XML 

    解析器。可以利用XPath语法来快速的定位特定元素以及节点信息。

    lxml python官方文档:http://lxml.de/index.html

    使用 pip 安装: pip install lxml

    使用 lxml 解析HTML代码:

    1. 解析 html 字符串(text 是HTML格式的字符串):使用' lxml.etree.HTML'进行解析。示例代码:

    htmlElement = etree.HTML(text)
    print(etree.tostring(htmlElement,encoding='utf-8').decode('utf-8'))
    

    2. 解析html文件:使用'lxml.etree.parse'进行解析。示例代码:

    htmlElement = etree.parse('tencent.html')
    print(etree.tostring(htmlElement,encoding='utf-8').decode('utf-8'))
    

     'etree.parse' 使用的是‘XML’解析器,所以如果碰到一些不规范的‘HTML’代码时就会解析错误,这时就要自己创建‘HTML’解析器。

    # etree.HTMLParser 创建一个‘HTML’解析器
    parser = etree.HTMLParser(encoding='utf-8')
    htmlElement = etree.parse('tencent.html',parser=parser)
    print(etree.tostring(htmlElement,encoding='utf-8').decode('utf-8'))
    

     

    from lxml import etree
    
    """
    1. 获取所有的tr标签
    2.获取第二个tr标签
    3. 获取所有的class等于even的标签
    4. 获取所有a标签的href属性值
    5,获取所有的职位信息(纯文本)
    """
    
    parser = etree.HTMLParser(encoding='utf-8')
    html = etree.parse("tencent.html",parser=parser)
    
    # 1. 获取所有tr标签
    # xpath函数返回的是一个列表
    trs = html.xpath('//tr')
    for tr in trs:
        print(etree.tostring(tr,encoding='utf-8').decode('utf-8'))
    
    # 2. 获取第二个tr标签
    secondtr = html.xpath('//tr(2)')[0]
    
    # 3. 获取所有的class等于even的标签
    trs = html.xpath("//tr[@class="even"]")
    for tr in trs:
        print(etree.tostring(tr,encoding='utf-8').deconde('utf-8'))
    
    
    # 4. 获取所有a标签的href属性值
    """
    获取所有a标签的href属性的值[‘’//a/@href’’]; 
    获取所有含有href 属性的 a标签//a[@href]。
    """
    alist = html.xpath("//a/@href")
    for a in alist:
        print('http://hr.tencent.com/'+a)
    
    
    # 5. 获取获取所有的职位信息(纯文本)
    trs = html.xpath("//tr[position()>1]")
    positions = []
    for tr in trs:
        href = tr.xpath(".//a/@href")[0]
        fullurl = 'http://hr.tencent.com/'+href
        title = tr.xpath("./td[1]//text()")[0]
        category = tr.xpath("./td[2]//text()")[0]
        nums = tr.xpath("./td[3]//text()")[0]
        address = tr.xpath("./td[4]/text()")[0]
        pubtime = tr.xpath('./td[5]/text()')[0]
        
        
        position = {
            'url':fullurl,
            'title':title,
            'category':category,
            'address':address,
            'pubtime':pubtime
        }
        positions.append(position)
    View Code

    lxml 结合 xpath注意事项:

    1. 使用‘xpath’语法应该使用'Element.xpath'方法来执行xpath的选择。示例代码:

    trs = html.xpath("//tr[positon()>1]")
    

      'xpath'函数返回的是一个列表。

    2, 获取某个标签的属性:

    href = html.xpath("//a/@href")
    

    3. 通过'xpath'中的‘text()’ 函数获取文本。

    address = tr.xpath("./td[4]/text()")[0]
    

      

     4. 在某个标签下,再执行xpath函数,获取这个标签下的子孙元素,那么应该在‘/’之前加一个点,代表是在当前元素下获取。

     

    import requests
    from lxml import etree
    
    
    
    
    
    # 1. 将目标页面的数据抓取下来
    headers = {
        'User-Agent':'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3642.0 Safari/537.36',
        'Referer':'https://movie.douban.com/'
    
    }
    
    
    url = 'https://movie.douban.com/cinema/nowplaying/xuchang/'
    response = requests.get(url,headers=headers)
    text = response.text
    
    # 2. 根据一定的规则对抓取下来的数据进行提取 
    html = etree.HTML(text)
    
    # 正在上映的电影的标签,  [1]即将上映的电影的标签
    ul = html.xpath("//ul[@class='lists']")[0]
    # # 查看获取的ul标签
    # print(etree.tostring(ul,encoding='utf-8').decode('utf-8'))
    
    # 获取li标签
    lis = ul.xpath("./li")
    movies = []
    for li in lis:
        title = li.xpath('@data-title')[0]
        score = li.xpath('@data-score')[0]
        duration = li.xpath('@data-duration')[0]
        region = li.xpath('@data-region')[0]
        direcrot = li.xpath('@data-director')[0]
        actors = li.xpath('@data-actors')[0]
        thumbnail = li.xpath(".//img/@src")[0]
        movie = {
            'title':title,
            'score':score,
            'duration':duration,
            'region': region,
            'direcrot':direcrot,
            'actors':actors,
            'thumbnail':thumbnail
    
        }
        movies.append(movie)
    
    print(movies)
    View Code
    import requests
    from lxml import etree
    headers = {
        'User-Agent':'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3642.0 Safari/537.36'
    }
    BASE_DOMAIN = 'https://www.dytt8.net'
    def get_detail_urls(url):
        response = requests.get(url, headers=headers)
        text = response.text
        html = etree.HTML(text)
        detail_urls = html.xpath("//table[@class='tbspan']//a/@href")
        # detail_urls = []
        # for get_detail_url in detail_urls:
        #     detail_url = BASE_DOMAIN + get_detail_url
        #     detail_urls.append(detail_url)
    
        detail_urls = map(lambda url:BASE_DOMAIN+url,detail_urls)
        return detail_urls
    
    def parse_detail_page(url):
        movie = {}
        response = requests.get(url,headers=headers)
        text = response.content.decode('gbk')
    
        html = etree.HTML(text)
        title = html.xpath("//div[@class='title_all']//font[@color='#07519a']/text()")[0]
        movie['title'] = title
        zooms = html.xpath("//div[@id='Zoom']")[0]
        imgs = zooms.xpath(".//img/@src")
        # 封面图
        coverimg = imgs[0]
      
    
        movie['cover'] = coverimg
      
    
        def pares_info(info,rule):
            return info.replace(rule,'').strip()
    
        infos = zooms.xpath(".//text()")
        for index,info in enumerate(infos):
            if info.startswith("◎年  代"):
                # info = info.replace("◎年  代",'').strip()
                info = pares_info(info,"◎年  代")
                movie['year'] = info
            elif info.startswith("◎产  地"):
                info = pares_info(info, "◎产  地")
                movie['country'] = info
            elif info.startswith("◎类  别"):
                info = pares_info(info, "◎类  别")
                movie['category'] = info
            elif info.startswith("◎豆瓣评分"):
                info = pares_info(info, "◎豆瓣评分")
                movie['douban_rating'] = info
            elif info.startswith("◎片  长"):
                info = pares_info(info, "◎片  长")
                movie['duration'] = info
            elif info.startswith("◎导  演"):
                info = pares_info(info, "◎导  演")
                movie['director'] = info
            elif info.startswith("◎主  演"):
                info = pares_info(info, "◎主  演")
                actors = [info]
                for x in range(index+1,len(infos)):
                    # 去除空白字符
                    actor = infos[x].strip()
                    if actor.startswith(""):
                        break
                    actors.append(actor)
                movie['actors'] = actors
            elif info.startswith("◎简  介"):
                info = pares_info(info, "◎简  介")
                for x in range(index + 1, len(infos)):
                    profile = infos[x].strip()
                    movie['profile'] = profile
        download_url = html.xpath("//td[@bgcolor='#fdfddf']/a/@href")[0]
        movie['download_url'] = download_url
        return movie
    
    
    
        pass
    
    def spider():
        base_url = 'https://www.dytt8.net/html/gndy/dyzz/list_23_{}.html'
        # 页数
        movies = []
        for x in range(1,223):
            url = base_url.format(x)
            detail_urls = get_detail_urls(url)
            # 一页中的所有详情的URL
            for detail_url in detail_urls:
                movie = parse_detail_page(detail_url)
                movies.append(movie)
                print(movie)
    
        # print(movies)
    
    
    
    
    if __name__ =='__main__':
        spider()
    View Code
  • 相关阅读:
    老毛桃PE修改方法(屏蔽更改主页,屏蔽加装的绿色浏览器)
    老毛桃winpe优盘启动系统个性修改全攻略
    SQL2000和SQL2005和SQL2008同时安装问题
    基于FFmpeg的音频编码(PCM数据编码成AAC android)
    springboot + mybatis +easyUI整合案例
    spring thymeleaf 自定义标签
    速度挑战
    兼顾pc和移动端的textarea字数监控的实现方法
    CSS3+JS 实现的便签应用
    JavaScript实现碰撞检测(分离轴定理)
  • 原文地址:https://www.cnblogs.com/-hao-/p/13842995.html
Copyright © 2011-2022 走看看