zoukankan      html  css  js  c++  java
  • Beautifulsoup模块

    一、介绍

    Beautiful Soup是一个可以从HTML或XML文件中提取数据的python库。它能够通过你喜欢的转换器实现惯用的文档导航,查找,修改文档的方式。Beautiful Soup会帮你节省数小时甚至数天的工作时间。官网推荐在现在的项目中使用Beautiful Soup4,移植到BS4

    # 安装 Beautiful Soup
    pip install beautifulsoup4
    
    # 安装解析器
    Beautiful Soup支持python标准库中的HTML解析器,还支持一些第三方的解析器,其中一个是lxml。根据操作系统不同,可以选择下列方法来安装lxml:
    
    $ apt-get install Python-lxml
    
    $ easy_install lxml
    
    $ pip install lxml、
    
    另一个可供选择的解析器是纯Python实现的 html5lib , html5lib的解析方式与浏览器相同,可以选择下列方法来安装html5lib:
    
    $ apt-get install Python-html5lib
    
    $ easy_install html5lib
    
    $ pip install html5lib
    

      下表列出了主要的解析器,以及它们的优缺点,官网推荐使用lxml作为解析器,因为效率更高。

    解析器使用方法优势劣势
    Python标准库 BeautifulSoup(markup, "html.parser")
    • Python的内置标准库
    • 执行速度适中
    • 文档容错能力强
    • Python 2.7.3 or 3.2.2)前 的版本中文档容错能力差
    lxml HTML 解析器 BeautifulSoup(markup, "lxml")
    • 速度快
    • 文档容错能力强
    • 需要安装C语言库
    lxml XML 解析器

    BeautifulSoup(markup, ["lxml", "xml"])

    BeautifulSoup(markup, "xml")

    • 速度快
    • 唯一支持XML的解析器
    • 需要安装C语言库
    html5lib BeautifulSoup(markup, "html5lib")
    • 最好的容错性
    • 以浏览器的方式解析文档
    • 生成HTML5格式的文档
    • 速度慢
    • 不依赖外部扩展

    二、基本使用

    html_doc = """
    <html><head><title>The Dormouse's story</title></head>
    <body>
    <p class="title"><b>The Dormouse's story</b></p>
    
    <p class="story">Once upon a time there were three little sisters; and their names were
    <a href="http://example.com/elsie" class="sister" id="link1">Elsie</a>,
    <a href="http://example.com/lacie" class="sister" id="link2">Lacie</a> and
    <a href="http://example.com/tillie" class="sister" id="link3">Tillie</a>;
    and they lived at the bottom of a well.</p>
    
    <p class="story">...</p>
    """
    
    #基本使用:容错处理,文档的容错能力指的是在html代码不完整的情况下,使用该模块可以识别该错误。使用BeautifulSoup解析上述代码,能够得到一个 BeautifulSoup 的对象,并能按照标准的缩进格式的结构输出
    from bs4 import BeautifulSoup
    soup=BeautifulSoup(html_doc,'lxml') #具有容错功能
    res=soup.prettify() #处理好缩进,结构化显示
    print(res)

    三、标签选择器

    # 1 标签选择器:即直接通过标签名字选择,选择速度快,如果存在多个相同的标签则只返回第一个
    # 2 获取标签的名称
    # 3 获取标签的属性
    # 4 获取标签的内容
    # 5 嵌套选择
    # 6 子节点、子孙节点
    # 7 父节点、祖先节点
    # 8 兄弟标签
    html_doc = """
    <html><head><title>The Dormouse's story</title></head>
    <body>
    <p class="title"><b>The Dormouse's story</b></p>
    
    <p class="story">Once upon a time there were three little sisters; and their names were
        <a href="http://example.com/elsie " class="sister" id="link1">Elsie</a>,
        <a href="http://example.com/lacie " class="sister" id="link2">Lacie</a> and
        <a href="http://example.com/tillie " class="sister" id="link3">Tillie</a>;
    and they lived at the bottom of a well.</p>
    
    <p class="story">...</p>
    """
    from bs4 import BeautifulSoup
    
    soup = BeautifulSoup(html_doc,'lxml')
    print(soup)
    print(soup.prettify())    # 容错处理,自动补全代码来展示
    
    # 标签选择器:速度快,查找有局限性
    print(soup.p)   # 只找第一个
    
    # 支持嵌套查找
    print(soup.p.b)
    
    # 查找标签的属性
    print(soup.a.attrs)
    
    # 查找标签的内容
    print(soup.a.text)
    print(soup.a.get_text())
    print(soup.a.string)
    
    # 查找标签的标签名
    print(soup.a.name)
    
    # 查找子节点
    print(list(soup.p.children))
    print(soup.p.contents)
    
    # 查找子孙节点
    print(list(soup.b.descendants))
    
    # 查找父节点
    print(soup.a.parent)
    
    # 查找祖先节点
    print(list(soup.a.parents))
    
    # 兄弟节点
    print(soup.a.next_siblings)   # 得到生成器对象
    print(soup.a.previous_siblings)   # 得到生成器对象
    标签选择器

    四、标准选择器

    # find与findall:用法完全一样,可根据标签名,属性,内容查找文档,但是find只找第一个元素
    html_doc = """ <html><head><title>The Dormouse's story</title></head> <body> <p class="title"><b>The Dormouse's story</b></p> <p class="story">Once upon a time there were three little sisters; and their names were <a href="http://example.com/elsie " class="sister" id="link1"><span>Elsie</span></a>, <a href="http://example.com/lacie " class="sister" id="link2">Lacie</a> and <a href="http://example.com/tillie " class="sister" id="link3">Tillie</a>; and they lived at the bottom of a well.</p> <p class="story">...</p> """ from bs4 import BeautifulSoup soup = BeautifulSoup(html_doc,'lxml') # 按照标签名查找 print(soup.find_all('a')) print(soup.find_all('a',id='link3')) print(soup.find_all('a',id='link3',attrs={'class':"sister"})) print(soup.find_all('a')[0].find('span')) # 嵌套查找 # 按照属性查找 print(soup.p.find_all(attrs={'id':'link1'})) # 等同于print(soup.find_all(id='link1')) print(soup.p.find_all(attrs={'class':'sister'})) print(soup.find_all(class_='sister')) # 按照文本内容查找 print(soup.p.find_all(text="The Dormouse's story")) # 按照完整内容匹配(是==而不是in),得到的结果也是内容

    五、CSS选择器

    # 该模块提供了select方法来支持css
    
    html_doc = """
    <html><head><title>The Dormouse's story</title></head>
    <body>
    <p class="title">
        <b>The Dormouse's story</b>
        Once upon a time there were three little sisters; and their names were
        <a href="http://example.com/elsie" class="sister" id="link1">
            <span>Elsie</span>
        </a>
        <a href="http://example.com/lacie" class="sister" id="link2">Lacie</a> and
        <a href="http://example.com/tillie" class="sister" id="link3">Tillie</a>;
        <div class='panel-1'>
            <ul class='list' id='list-1'>
                <li class='element'>Foo</li>
                <li class='element'>Bar</li>
                <li class='element'>Jay</li>
            </ul>
            <ul class='list list-small' id='list-2'>
                <li class='element'><h1 class='yyyy'>Foo</h1></li>
                <li class='element xxx'>Bar</li>
                <li class='element'>Jay</li>
            </ul>
        </div>
        and they lived at the bottom of a well.
    </p>
    <p class="story">...</p>
    """
    from bs4 import BeautifulSoup
    soup=BeautifulSoup(html_doc,'lxml')
    
    # CSS选择器
    print(soup.p.select('.sister'))
    print(soup.select('.sister span'))
    
    print(soup.select('#link1'))
    print(soup.select('#link1 span'))
    
    print(soup.select('#list-2 .element.xxx'))
    
    print(soup.select('#list-2')[0].select('.element'))
    
    # 获取属性
    print(soup.select('#list-2 h1')[0].attrs)
    
    # 获取内容
    print(soup.select('#list-2 h1')[0].get_text())

    六、总结

    # 总结:
    # 1、推荐使用lxml解析库
    # 2、讲了三种选择器:标签选择器,find与findall,css选择器
            --标签选择器筛选功能弱,但是速度快
            --建议使用find,findall查询匹配单个结果或者多个结果
            --如果对css选择器非常熟悉建议使用select
    # 3、记住常用的获取属性attrs和文本值get_text()的方法

     可参考中文文档:https://www.crummy.com/software/BeautifulSoup/bs4/doc/index.zh.html

  • 相关阅读:
    [C#]App.Config
    [转][JS]修改链接中的参数
    [转][Oracle]常见报错及处理
    [转]截图软件分享
    [转][C#]手写 Socket 服务端
    3.6的pprint写法改变了:pprint.pprint()
    版本优化-test
    python爬取豆瓣小组700+话题加回复啦啦啦python open file with a variable name
    爬豆瓣被封的解决方案
    去除列表中字符串中的空格换行等
  • 原文地址:https://www.cnblogs.com/shenbuer/p/7816657.html
Copyright © 2011-2022 走看看