zoukankan      html  css  js  c++  java
  • python-spider_BeautifulSoup入门实践(一)安装以及简单的抓取数据

    BeautifulSoup安装以及简单抓取

    beautifulsoup4.4.0官方文档:

    使用实例网站:bilibli.com

    https://beautifulsoup.readthedocs.io/zh_CN/latest/#id7

    操作系统:Ubuntu20.04LTS

    一、beautifulsoup安装

    $ apt-get install Python-bs4

    $ pip install beautifulsoup

    在此之前需要安装python,requests库以及pip                           

    $sudo apt install requests 
    $ sudo apt install python3
    $ sudo apt install pip

    二、beautifulsoup基本命令

    1、首先import一下需要的模块

    $import requests
    $from bs4 import BeautifulSoup

    2、创建soup对象

    soup = BeautifulSoup(url)

    3、输出soup对象

    soup.title
    # <title>The Dormouse's story</title>
    
    soup.title.name
    # u'title'
    
    soup.title.string
    # u'The Dormouse's story'
    
    soup.title.parent.name
    # u'head'
    
    soup.p
    # <p class="title"><b>The Dormouse's story</b></p>
    
    soup.p['class']
    # u'title'
    
    soup.a
    # <a class="sister" href="url" id="link1">Elsie</a>
    
    soup.find_all('a')
    # [<a class="sister" href="url" id="link1">Elsie</a>,
    #  <a class="sister" href="url" id="link2">Lacie</a>,
    #  <a class="sister" href="url" id="link3">Tillie</a>]
    
    soup.find(id="link3")
    # <a class="sister" href="url" id="link3">Tillie</a>

    4、遍历文件树

    $r = soup.contents
    $print (r)

    5、搜索文档树

    find_all(name, attrs, recursive, text, **kwargs)

    在上面的栗子中我们简单介绍了find_all的使用,接下来介绍一下find_all的更多用法-过滤器。这些过滤器贯穿整个搜索API,过滤器可以被用在tag的name中,节点的属性等。

    (1)name参数:

    字符串过滤:会查找与字符串完全匹配的内容

    a_list = bs.find_all("a")
    print(a_list)

    正则表达式过滤:如果传入的是正则表达式,那么BeautifulSoup4会通过search()来匹配内容

    from bs4 import BeautifulSoup
    import re
    file = open('./aa.html', 'rb')
    html = file.read()
    bs = BeautifulSoup(html,"html.parser")
    t_list = bs.find_all(re.compile("a"))
    for item in t_list:
    print(item)

    列表:如果传入一个列表,BeautifulSoup4将会与列表中的任一元素匹配到的节点返回

    t_list = bs.find_all(["meta","link"])
    for item in t_list:
    print(item)

    方法:传入一个方法,根据方法来匹配

    from bs4 import BeautifulSoup
    file = open('./aa.html', 'rb')
    html = file.read()
    bs = BeautifulSoup(html,"html.parser")
    def name_is_exists(tag):
    return tag.has_attr("name")
    t_list = bs.find_all(name_is_exists)
    for item in t_list:
    print(item)

    (2)kwargs参数:

    from bs4 import BeautifulSoup
    import re
    file = open('./aa.html', 'rb')
    html = file.read()
    bs = BeautifulSoup(html,"html.parser")
    # 查询id=head的Tag
    t_list = bs.find_all(id="head") print(t_list)
    # 查询href属性包含ss1.bdstatic.com的Tag
    t_list = bs.find_all(href=re.compile("http://news.baidu.com"))
    print(t_list)
    # 查询所有包含class的Tag(注意:class在Python中属于关键字,所以加_以示区别)
    t_list = bs.find_all(class_=True)
    for item in t_list:
    print(item)

    (3)attrs参数:

    并不是所有的属性都可以使用上面这种方式进行搜索,比如HTML的data-*属性:

    t_list = bs.find_all(data-foo="value")

    如果执行这段代码,将会报错。我们可以使用attrs参数,定义一个字典来搜索包含特殊属性的tag:

    t_list = bs.find_all(attrs={"data-foo":"value"})
    for item in t_list:
    print(item)

    (4)text参数:

    通过text参数可以搜索文档中的字符串内容,与name参数的可选值一样,text参数接受 字符串,正则表达式,列表

    from bs4 import BeautifulSoup
    import re
    file = open('./aa.html', 'rb')
    html = file.read()
    bs = BeautifulSoup(html, "html.parser")
    t_list = bs.find_all(attrs={"data-foo": "value"})
    for item in t_list:
    print(item)
    t_list = bs.find_all(text="hao123")
    for item in t_list:
    print(item)
    t_list = bs.find_all(text=["hao123", "地图", "贴吧"])
    for item in t_list:
    print(item)
    t_list = bs.find_all(text=re.compile("d"))
    for item in t_list:
    print(item)

    当我们搜索text中的一些特殊属性时,同样也可以传入一个方法来达到我们的目的:

    def length_is_two(text):
    return text and len(text) == 2
    t_list = bs.find_all(text=length_is_two)
    for item in t_list:
    print(item)

    (5)limit参数:

    可以传入一个limit参数来限制返回的数量,当搜索出的数据量为5,而设置了limit=2时,此时只会返回前2个数据

    from bs4 import BeautifulSoup
    import re
    file = open('./aa.html', 'rb')
    html = file.read()
    bs = BeautifulSoup(html, "html.parser")
    t_list = bs.find_all("a",limit=2)
    for item in t_list:
    print(item)
  • 相关阅读:
    sql server 跟踪各事件的字段项编码及解释
    sql server 有关锁的视图说明 syslockinfo
    SQL Server:查看SQL日志文件大小命令:dbcc sqlperf(logspace)
    [SqlServer]创建链接服务器
    SQL Server 2008 存储过程,带事务的存储过程(创建存储过程,删除存储过程,修改存储过
    sql server 索引分析相关sql
    IO系统性能之一:衡量性能的几个指标
    Writing to a MySQL database from SSIS
    用漫画的形式来讲解为什么MySQL数据库要用B+树存储索引?
    一份 Tomcat 和 JVM 的性能调优经验总结!拿走不谢
  • 原文地址:https://www.cnblogs.com/implus/p/13804072.html
Copyright © 2011-2022 走看看