zoukankan      html  css  js  c++  java
  • 解析库之xpath,beautifulsoup,pyquery

    xpath

    一、常用xpath表达式

    • 属性定位:
      1. #找到class属性值为song的div标签
      2. //div[@class="song"]
    • 层级&索引定位:
      1. #找到class属性值为tang的div的直系子标签ul下的第二个子标签li下的直系子标签a
      2. //div[@class="tang"]/ul/li[2]/a
    • 逻辑运算:
      1. #找到href属性值为空且class属性值为du的a标签
      2. //a[@href="" and @class="du"]
    • 模糊匹配:
      1. //div[contains(@class, "ng")]
      2. //div[starts-with(@class, "ta")]
    • 取文本:
      1. # /表示获取某个标签下的文本内容
      2. # //表示获取某个标签下的文本内容和所有子标签下的文本内容
      3. //div[@class="song"]/p[1]/text()
      4. //div[@class="tang"]//text()
      5. 乱码:name = name.encode('ISO-8859-1').decode('gbk')  或 response.encoding='utf-8'
    • 取属性:
      1. //div[@class="tang"]//li[2]/a/@href
    • xpath函数返回的总是一个列表
    • 并集:a_list = tree.xpath('//div[@class="bottom"]/ul/li/a | //div[@class="bottom"]/ul/div[2]/li/a')
    • 注意:xpath表达式中不可以出现tbody标签

    二、基础使用

    • 下载:pip install lxml
    • 导包:from lxml import etree
    • 官网推荐在现在的项目中使用Beautiful Soup 4, 移植到BS4
    • 将html文档或者xml文档转换成一个etree对象,然后调用对象中的方法查找指定的节点
    • 本地文件:
      1. tree = etree.parse('本地文件路径')
      2. etree.parse('D:/python3.6/scrapy/./test.html', etree.HTMLParser())
      3. tree.xpath("xpath表达式")
    • 网络数据:
      1. tree = etree.HTML("网络请求到的页面数据")
      2. tree.xpath("xpath表达式")
    • xpath插件:就可以直接将xpath表达式作用于浏览器的网页当中
    • 安装:更多工具-》扩展程序-》开启右上角的开发者模式-》xpath插件拖动到页面即可
    • 快捷键:启动和关闭插件 ctrl + shift + x

    Beautifulsoup模块

    • Beautiful Soup 是一个可以从HTML或XML文件中提取数据的Python库.它能够通过你喜欢的转换器实现惯用的文档导航,查找,修改文档的方式.
    • Beautiful Soup会帮你节省数小时甚至数天的工作时间.你可能在寻找 Beautiful Soup3 的文档,Beautiful Soup 3 目前已经停止开发.
    • 官网推荐在现在的项目中使用Beautiful Soup 4, 移植到BS4
    • 官网推荐使用lxml作为解析器,因为效率更高.
    • 在Python2.7.3之前的版本和Python3中3.2.2之前的版本,必须安装lxml或html5lib, 因为那些Python版本的标准库中内置的HTML解析方法不够稳定.
    • 中文文档点击

    一、环境安装

    • 需要将pip源设置为国内源,阿里源、豆瓣源、网易源等
    • windows:
      1. 打开文件资源管理器(文件夹地址栏中)
      2. 地址栏上面输入 %appdata%
      3. 在这里面新建一个文件夹 pip
      4. 在pip文件夹里面新建一个文件叫做 pip.ini ,内容写如下即可
      5. [global]
      6. timeout = 6000
      7. index-url = https://mirrors.aliyun.com/pypi/simple/
      8. trusted-host = mirrors.aliyun.com
    • linux:
      1. cd ~
      2. mkdir ~/.pip
      3. vi ~/.pip/pip.conf
      4. 编辑内容,和windows一模一样
    • 需要安装:pip install bs4
      1. bs4在使用时候需要一个第三方库,把这个库也安装一下
      2. pip install lxml

    二、基础使用

    核心思想:将html文档转换成Beautiful对象,然后调用该对象中的属性和方法进行html文档指定内容的定位查找。

    1、使用流程

    • 导包:from bs4 import BeautifulSoup
    • 使用方式:可以将一个html文档,转化为BeautifulSoup对象,然后通过对象的方法或者属性去查找指定的节点内容
    • 转化本地文件:soup = BeautifulSoup(open('本地文件'), 'lxml')
    • 转化网络文件:soup = BeautifulSoup('字符串类型或者字节类型', 'lxml')
    • 打印soup对象显示内容为html文件中的内容

    2、基础巩固

    • 根据标签名查找:
      1. soup.a 只能找到第一个符合要求的标签
    • 获取属性:
      1. soup.a.attrs 获取a所有的属性和属性值,返回一个字典
      2. soup.a.attrs['href'] 获取href属性
      3. soup.a['href'] 也可简写为这种形式
      4. soup.a.get('href')
    • 获取内容:
      1. soup.a.string
      2. soup.a.text
      3. soup.a.get_text()
      4. 【注意】如果标签还有标签,那么string获取到的结果为None,而其它两个,可以获取文本内容
    • find:找到第一个符合要求的标签:
      1. soup.find('a') 找到第一个符合要求的
      2. soup.find('a', title="xxx")
      3. soup.find('a', alt="xxx")
      4. soup.find('a', class_="xxx")
      5. soup.find('a', id="xxx")
      6. soup.find('a',attr={'id':'xx'})
    • find_all:找到所有符合要求的标签:
      1. soup.find_all('a')
      2. soup.find_all(['a','b']) 找到所有的a和b标签
      3. soup.find_all('a', limit=2) 限制前两个
      4. soup.find('a',attr={'class':'xx'})[1:] 不要第一个
    • 根据选择器选择指定的内容:
      1. select:soup.select('#feng')
      2. 常见的选择器:标签选择器(a)、类选择器(.)、id选择器(#)、层级选择器
      3. 层级选择器:div .dudu #lala .meme .xixi 下面好多级
      4. 层级选择器:div > p > a > .lala 只能是下面一级
      5. 【注意】select选择器返回永远是列表,需要通过下标提取指定的对象
    解析器使用方法优势劣势
    Python标准库 BeautifulSoup(markup, "html.parser")
    • Python的内置标准库
    • 执行速度适中
    • 文档容错能力强
    • Python 2.7.3 or 3.2.2)前 的版本中文档容错能力差
    lxml HTML 解析器 BeautifulSoup(markup, "lxml")
    • 速度快
    • 文档容错能力强
    • 需要安装C语言库
    lxml XML 解析器

    BeautifulSoup(markup, ["lxml", "xml"])

    BeautifulSoup(markup, "xml")

    • 速度快
    • 唯一支持XML的解析器
    • 需要安装C语言库
    html5lib BeautifulSoup(markup, "html5lib")
    • 最好的容错性
    • 以浏览器的方式解析文档
    • 生成HTML5格式的文档
    • 速度慢
    • 不依赖外部扩展
    #安装 Beautiful Soup
    pip install beautifulsoup4
    
    #安装解析器
    Beautiful Soup支持Python标准库中的HTML解析器,还支持一些第三方的解析器,其中一个是 lxml .根据操作系统不同,可以选择下列方法来安装lxml:
    
    $ apt-get install Python-lxml
    
    $ easy_install lxml
    
    $ pip install lxml
    
    另一个可供选择的解析器是纯Python实现的 html5lib , html5lib的解析方式与浏览器相同,可以选择下列方法来安装html5lib:
    
    $ apt-get install Python-html5lib
    
    $ easy_install html5lib
    
    $ pip install html5lib
    安装lxml
    html_doc = """
    <html><head><title>The Dormouse's story</title></head>
    <body>
    <p class="title"><b>The Dormouse's story</b></p>
    
    <p class="story">Once upon a time there were three little sisters; and their names were
    <a href="http://example.com/elsie" class="sister" id="link1">Elsie</a>,
    <a href="http://example.com/lacie" class="sister" id="link2">Lacie</a> and
    <a href="http://example.com/tillie" class="sister" id="link3">Tillie</a>;
    and they lived at the bottom of a well.</p>
    
    <p class="story">...</p>
    """
    
    #基本使用:容错处理,文档的容错能力指的是在html代码不完整的情况下,使用该模块可以识别该错误。使用BeautifulSoup解析上述代码,能够得到一个 BeautifulSoup 的对象,并能按照标准的缩进格式的结构输出
    from bs4 import BeautifulSoup
    soup=BeautifulSoup(html_doc,'lxml') #具有容错功能
    res=soup.prettify() #处理好缩进,结构化显示
    print(res)
    基本使用
    """
    #遍历文档树:即直接通过标签名字选择,特点是选择速度快,但如果存在多个相同的标签则只返回第一个
    #1、用法
    #2、获取标签的名称
    #3、获取标签的属性
    #4、获取标签的内容
    #5、嵌套选择
    #6、子节点、子孙节点
    #7、父节点、祖先节点
    #8、兄弟节点
    """
    #遍历文档树:即直接通过标签名字选择,特点是选择速度快,但如果存在多个相同的标签则只返回第一个
    html_doc = """
    <html><head><title>The Dormouse's story</title></head>
    <body>
    <p id="my p" class="title"><b id="bbb" class="boldest">The Dormouse's story</b></p>
    
    <p class="story">Once upon a time there were three little sisters; and their names were
    <a href="http://example.com/elsie" class="sister" id="link1">Elsie</a>,
    <a href="http://example.com/lacie" class="sister" id="link2">Lacie</a> and
    <a href="http://example.com/tillie" class="sister" id="link3">Tillie</a>;
    and they lived at the bottom of a well.</p>
    
    <p class="story">...</p>
    """
    
    #1、用法
    from bs4 import BeautifulSoup
    soup=BeautifulSoup(html_doc,'lxml')
    # soup=BeautifulSoup(open('a.html'),'lxml')
    
    print(soup.p) #存在多个相同的标签则只返回第一个
    print(soup.a) #存在多个相同的标签则只返回第一个
    
    #2、获取标签的名称
    print(soup.p.name)
    
    #3、获取标签的属性
    print(soup.p.attrs)
    
    #4、获取标签的内容
    print(soup.p.string) # p下的文本只有一个时,取到,否则为None
    print(soup.p.strings) #拿到一个生成器对象, 取到p下所有的文本内容
    print(soup.p.text) #取到p下所有的文本内容
    for line in soup.stripped_strings: #去掉空白
        print(line)
    
    
    '''
    如果tag包含了多个子节点,tag就无法确定 .string 方法应该调用哪个子节点的内容, .string 的输出结果是 None,如果只有一个子节点那么就输出该子节点的文本,比如下面的这种结构,soup.p.string 返回为None,但soup.p.strings就可以找到所有文本
    <p id='list-1'>
        哈哈哈哈
        <a class='sss'>
            <span>
                <h1>aaaa</h1>
            </span>
        </a>
        <b>bbbbb</b>
    </p>
    '''
    
    #5、嵌套选择
    print(soup.head.title.string)
    print(soup.body.a.string)
    
    
    #6、子节点、子孙节点
    print(soup.p.contents) #p下所有子节点
    print(soup.p.children) #得到一个迭代器,包含p下所有子节点
    
    for i,child in enumerate(soup.p.children):
        print(i,child)
    
    print(soup.p.descendants) #获取子孙节点,p下所有的标签都会选择出来
    for i,child in enumerate(soup.p.descendants):
        print(i,child)
    
    #7、父节点、祖先节点
    print(soup.a.parent) #获取a标签的父节点
    print(soup.a.parents) #找到a标签所有的祖先节点,父亲的父亲,父亲的父亲的父亲...
    
    
    #8、兄弟节点
    print('=====>')
    print(soup.a.next_sibling) #下一个兄弟
    print(soup.a.previous_sibling) #上一个兄弟
    
    print(list(soup.a.next_siblings)) #下面的兄弟们=>生成器对象
    print(soup.a.previous_siblings) #上面的兄弟们=>生成器对象
    遍历文档树

    三、搜索文档树

    1、五种过滤器

    #搜索文档树:BeautifulSoup定义了很多搜索方法,这里着重介绍2个: find() 和 find_all() .其它方法的参数和用法类似
    html_doc = """
    <html><head><title>The Dormouse's story</title></head>
    <body>
    <p id="my p" class="title"><b id="bbb" class="boldest">The Dormouse's story</b>
    </p>
    
    <p class="story">Once upon a time there were three little sisters; and their names were
    <a href="http://example.com/elsie" class="sister" id="link1">Elsie</a>,
    <a href="http://example.com/lacie" class="sister" id="link2">Lacie</a> and
    <a href="http://example.com/tillie" class="sister" id="link3">Tillie</a>;
    and they lived at the bottom of a well.</p>
    
    <p class="story">...</p>
    """
    
    
    from bs4 import BeautifulSoup
    soup=BeautifulSoup(html_doc,'lxml')
    
    #1、五种过滤器: 字符串、正则表达式、列表、True、方法
    #1.1、字符串:即标签名
    print(soup.find_all('b'))
    
    #1.2、正则表达式
    import re
    print(soup.find_all(re.compile('^b'))) #找出b开头的标签,结果有body和b标签
    
    #1.3、列表:如果传入列表参数,Beautiful Soup会将与列表中任一元素匹配的内容返回.下面代码找到文档中所有<a>标签和<b>标签:
    print(soup.find_all(['a','b']))
    
    #1.4、True:可以匹配任何值,下面代码查找到所有的tag,但是不会返回字符串节点
    print(soup.find_all(True))
    for tag in soup.find_all(True):
        print(tag.name)
    
    #1.5、方法:如果没有合适过滤器,那么还可以定义一个方法,方法只接受一个元素参数 ,如果这个方法返回 True 表示当前元素匹配并且被找到,如果不是则反回 False
    def has_class_but_no_id(tag):
        return tag.has_attr('class') and not tag.has_attr('id')
    
    print(soup.find_all(has_class_but_no_id))
    View Code

    2、find_all( name , attrs , recursive , text , **kwargs )

    #2、find_all( name , attrs , recursive , text , **kwargs )
    #2.1、name: 搜索name参数的值可以使任一类型的 过滤器 ,字符窜,正则表达式,列表,方法或是 True .
    print(soup.find_all(name=re.compile('^t')))
    
    #2.2、keyword: key=value的形式,value可以是过滤器:字符串 , 正则表达式 , 列表, True .
    print(soup.find_all(id=re.compile('my')))
    print(soup.find_all(href=re.compile('lacie'),id=re.compile('\d'))) #注意类要用class_
    print(soup.find_all(id=True)) #查找有id属性的标签
    
    # 有些tag属性在搜索不能使用,比如HTML5中的 data-* 属性:
    data_soup = BeautifulSoup('<div data-foo="value">foo!</div>','lxml')
    # data_soup.find_all(data-foo="value") #报错:SyntaxError: keyword can't be an expression
    # 但是可以通过 find_all() 方法的 attrs 参数定义一个字典参数来搜索包含特殊属性的tag:
    print(data_soup.find_all(attrs={"data-foo": "value"}))
    # [<div data-foo="value">foo!</div>]
    
    #2.3、按照类名查找,注意关键字是class_,class_=value,value可以是五种选择器之一
    print(soup.find_all('a',class_='sister')) #查找类为sister的a标签
    print(soup.find_all('a',class_='sister ssss')) #查找类为sister和sss的a标签,顺序错误也匹配不成功
    print(soup.find_all(class_=re.compile('^sis'))) #查找类为sister的所有标签
    
    #2.4、attrs
    print(soup.find_all('p',attrs={'class':'story'}))
    
    #2.5、text: 值可以是:字符,列表,True,正则
    print(soup.find_all(text='Elsie'))
    print(soup.find_all('a',text='Elsie'))
    
    #2.6、limit参数:如果文档树很大那么搜索会很慢.如果我们不需要全部结果,可以使用 limit 参数限制返回结果的数量.效果与SQL中的limit关键字类似,当搜索到的结果数量达到 limit 的限制时,就停止搜索返回结果
    print(soup.find_all('a',limit=2))
    
    #2.7、recursive:调用tag的 find_all() 方法时,Beautiful Soup会检索当前tag的所有子孙节点,如果只想搜索tag的直接子节点,可以使用参数 recursive=False .
    print(soup.html.find_all('a'))
    print(soup.html.find_all('a',recursive=False))
    
    '''
    像调用 find_all() 一样调用tag
    find_all() 几乎是Beautiful Soup中最常用的搜索方法,所以我们定义了它的简写方法. BeautifulSoup 对象和 tag 对象可以被当作一个方法来使用,这个方法的执行结果与调用这个对象的 find_all() 方法相同,下面两行代码是等价的:
    soup.find_all("a")
    soup("a")
    这两行代码也是等价的:
    soup.title.find_all(text=True)
    soup.title(text=True)
    '''
    View Code

    3、find( name , attrs , recursive , text , **kwargs )

    View Code

    4、其他方法

    #见官网:https://www.crummy.com/software/BeautifulSoup/bs4/doc/index.zh.html#find-parents-find-parent
    View Code

    5、CSS选择器

    View Code
    from bs4 import BeautifulSoup
    
    s="<h1>hello</h1><span>123</span><script>alert(123)</script>"
    
    soup=BeautifulSoup(s,"html.parser")
    
    # print(soup.text[0:150])
    
    print(soup.find_all())   #[<h1>hello</h1>, <span>123</span>, <script>alert(123)</script>]
    
    # for tag in soup.find_all():
    #     print(tag.name)
    #     if tag.name=="script":
    #         tag.decompose()
    #
    # print(str(soup))  # <h1>hello</h1><span>123</span>
    
    
    
    for tag in soup.find_all():
        print(tag.name)
        if tag.name=="script":
            tag.decompose()
    
    print(str(soup))  # <h1>hello</h1><span>123</span>
    XSS攻击

    四、修改文档树

    五、总结

    • 推荐使用lxml解析库
    • 讲了三种选择器:标签选择器,find与find_all,css选择器
      1. 标签选择器筛选功能弱,但是速度快
      2. 建议使用find,find_all查询匹配单个结果或者多个结果
      3. 如果对css选择器非常熟悉建议使用select
    • 记住常用的获取属性attrs和文本值get_text()的方法
    """
    数据解析:
    - 1.指定url
    - 2.发起请求
    - 3.获取页面数据
    - 4.数据解析
    - 5.进行持久化存储
    三种数据解析方式:
    - 正则
    - bs4
    - xpath
    
    使用正则对糗事百科中的图片数据进行解析和下载
    <div class="thumb">
    
    <a href="/article/121159481" target="_blank">
    <img src="//pic.qiushibaike.com/system/pictures/12115/121159481/medium/CIYK4P1D4DKSBY4L.jpg" alt="不是臭咸鱼吗">
    </a>
    
    </div>
    """
    
    import requests
    import re
    import os
    #指定url
    url = 'https://www.qiushibaike.com/pic/'
    headers={
        'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_12_0) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/69.0.3497.100 Safari/537.36',
        }
    #发起请求
    response = requests.get(url=url,headers=headers)
    
    #获取页面数据
    page_text = response.text
    
    #数据解析(该列表中存储的就是当前页面源码中所有的图片链接)
    img_list = re.findall('<div class="thumb">.*?<img src="(.*?)".*?>.*?</div>',page_text,re.S)
    
    #创建一个存储图片数据的文件夹
    if not os.path.exists('./imgs'):
        os.mkdir('imgs')
    for url in img_list:
        #将图片的url进行拼接,拼接成一个完成的url
        img_url = 'https:' + url
        #持久化存储:存储的是图片的数据,并不是url。
        #获取图片二进制的数据值
        img_data = requests.get(url=img_url,headers=headers).content
        imgName = url.split('/')[-1]
        imgPath = 'imgs/'+imgName
        with open(imgPath,'wb') as fp:
            fp.write(img_data)
            print(imgName+'写入成功')
    
    
    """
    使用xpath对段子网中的段子内容和标题进行解析,持久化存储
    """
    import requests
    from lxml import etree
    
    #1.指定url
    url = 'https://ishuo.cn/joke'
    #2.发起请求
    headers={
        'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_12_0) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/69.0.3497.100 Safari/537.36',
        }
    response = requests.get(url=url,headers=headers)
    #3.获取页面内容
    page_text = response.text
    #4.数据解析
    tree = etree.HTML(page_text)
    #获取所有的li标签(段子内容和标题都被包含在li标签中)
    li_list = tree.xpath('//div[@id="list"]/ul/li')
    #注意:Element类型的对象可以继续调用xpath函数,对该对象表示的局部内容进行指定内容的解析
    fp = open('./duanzi.txt','w',encoding='utf-8')
    for li in li_list:
        content = li.xpath('./div[@class="content"]/text()')[0]
        title = li.xpath('./div[@class="info"]/a/text()')[0]
        #5.持久化
        fp.write(title+":"+content+"\n\n")
        print('一条数据写入成功')
    
    
    """
    需求:爬取古诗文网中三国小说里的标题和内容
    """
    import requests
    from bs4 import BeautifulSoup
    
    url = 'http://www.shicimingju.com/book/sanguoyanyi.html'
    headers={
        'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_12_0) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/69.0.3497.100 Safari/537.36',
        }
    
    
    #根据url获取页面内容中指定的标题所对应的文章内容
    def get_content(url):
        content_page = requests.get(url=url,headers=headers).text
        soup = BeautifulSoup(content_page,'lxml')
        div = soup.find('div',class_='chapter_content')
        return div.text
    
    page_text = requests.get(url=url,headers=headers).text
    
    #数据解析
    soup = BeautifulSoup(page_text,'lxml')
    #a_list列表中存储的是一系列的a标签对象
    a_list = soup.select('.book-mulu > ul > li > a')
    #type(a_list[0])
    #注意:Tag类型的对象可以继续调用响应的解析属性和方法进行局部数据的解析
    
    fp = open('./sanguo.txt','w',encoding='utf-8')
    for a in a_list:
        #获取了章节的标题
        title = a.string
        content_url = 'http://www.shicimingju.com'+a['href']
        print(content_url)
        #获取章节的内容
        content = get_content(content_url)
        fp.write(title+':'+content+"\n\n\n")
        print('写入一个章节内容')
    三种数据解析方式

    pyquery模块

    '''
    强大而又灵活的网页解析库,如果你觉得正则写起来太麻烦,如果你觉得beutifulsoup
    语法太难记,如果你熟悉jquery的语法,那么pyquery是最佳选择
    
    
    安装pyquery
    pip3 install pyquery
    '''
    
    html='''
    </div><div class="account-signin">
        <ul class="navigation menu" aria-label="Social Media Navigation">
            哈哈哈
            <li class="tier-1 last" aria-haspopup="true">
    
                <a href="/accounts/login/" title="Sign Up or Sign In to Python.org">Sign In</a>
                <ul class="subnav menu">
                    <li class="tier-2 element-1" role="treeitem"><a href="/accounts/signup/">Sign Up / Register</a></li>
                    <li class="tier-2 element-2" role="treeitem"><a href="/accounts/login/">Sign In</a></li>
                </ul>
    
            </li>
        </ul>
    </div>
    '''
    
    
    #用法:
    
    #1===========>初始化
    #===>字符串初始化
    # from pyquery import PyQuery as pq
    # doc=pq(html)
    # print(doc('.tier-2')) #默认就是css选择器
    
    #===>url初始化
    # from pyquery import PyQuery as pq
    # doc=pq(url='http://www.baidu.com')
    # print(doc('head'))
    
    #===>文件初始化
    # from pyquery import PyQuery as pq
    # doc=pq(filename='demo.html')
    # print(doc('li'))
    
    
    #2===========>基本css选择器
    from pyquery import PyQuery as pq
    doc=pq(html)
    # print(doc('.tier-2')) #默认就是css选择器
    
    #查找元素
    
    #子元素
    # print(doc('li').find('li')) #这里的find是查找所有,但是不一定是直接子元素
    # print('==>',doc('li').children('li')) #查找直接子元素
    
    
    #父元素
    # print(doc('.tier-2').parent())
    
    #祖先元素:爹,爹的爹
    # print(doc('.tier-2').parents())
    # print(doc('.tier-2').parents('.account-signin')) #从祖先里筛选
    
    #先补充:并列选择
    # print(doc('.tier-1 .tier-2'))
    # print(doc('.tier-1 .tier-2.element-1'))
    
    #兄弟元素
    # print(doc('.tier-2.element-1').siblings())
    # print(doc('.tier-2.element-1').siblings('li a'))
    
    
    
    
    
    
    
    #3===========>遍历
    
    # lis=doc('li').items()
    # print(lis)
    #
    # for i,j in enumerate(lis):
    #     print(i,j)
    
    #4===========>获取属性
    # print(doc('li').attr('class'))
    # print(doc('a').attr.href)
    
    
    # 5===========>获取文本
    # print(doc('a').text())
    
    #6===========>获取html
    # print(doc('.subnav.menu'))
    # print(doc('.subnav.menu').html())
    
    
    #7===========>DOM
    #addclass,removeclass
    # tag=doc('.subnav.menu')
    # print(tag)
    #
    # tag.addClass('active')
    # print(tag)
    #
    # tag.removeClass('active')
    # print(tag)
    
    
    # tag=doc('.tier-2.element-1 a')
    # tag.attr('name','link')
    # tag.css('font-size','14px')
    # print(tag)
    
    
    tag=doc('.navigation.menu')
    # print(tag.text()) #获取的是tag下所有的文本,
    
    tag.find('li').remove()
    print(tag.text()) #如果指向获取url下的那个"哈哈哈",则需要先删除li
    
    #8===========>pyquery官网
    
    
    # http://pyquery.readthedocs.io/en.latest/api.html
    
    
    #9===========>伪类选择器
    
    print(doc('li:first-child')) #选择li标签的第一个
    print(doc('li:last-child')) #选择li标签的最后一个
    print(doc('li:nth-child(2)')) #选择li标签的第2个
    print(doc('li:gt(2)')) #选择li标签第2个以后的
    print(doc('li:nth-child(2n)')) #选择li标签的偶数标签
    print(doc('li:nth-child(2n+1)')) #选择li标签的奇数标签
    print(doc('li:contains(second)')) #选择li标签中包含second文本的标签
    
    #更多css选择器可以查看
    # http://www.w3school.com.cn/css/index.asp
    
    #官网:http://pyquery.readthedocs.io/
    View Code
  • 相关阅读:
    [转]asp.net页面缓存技术
    UL和LI在div中的高度的IE6下兼容性
    jquery制作的横向图片滚动带横向滚动条TackerScroll
    电脑可以上网,但是qq登陆不上去?
    Introduction to discrete event system学习笔记4.6
    Introduction to Discrete event system学习笔记4.9
    Introduction to discrete event systemsstudy 4.5
    Symbolic synthesis of obserability requirements for diagnosability B.Bittner,M.Bozzano,A.Cimatti,and X.Olive笔记4.16
    Introduction to discrete event system学习笔记4.8pm
    Introduction to discrete event system学习笔记 4.8
  • 原文地址:https://www.cnblogs.com/bubu99/p/10591494.html
Copyright © 2011-2022 走看看