zoukankan      html  css  js  c++  java
  • python网络爬虫与信息提取——5.信息组织与提取方法

    1.信息标记的三种形式

    (1)XML(eXtensible Markup Language)可扩展标记语音

    <name> … </name>有内容的标签
    <name />无内容的标签
    <!‐‐ ‐‐>注释

    (2)JSON(JavsScript Object Notation)有类型的键值对 key:value

    “key” : “value”
    “key” : [“value1”, “value2”]多值用[,]组织
    “key” : {“subkey” : “subvalue”}键值对嵌套用{,}

    (3)YAML(YAML Ain’t Markup Language)无类型键值对 key:value

    缩进表达所属关系

    ‐ 表达并列关系

    | 表达整块数据 # 表示注释

    key : value
    key : #Comment
    ‐value1
    ‐value2
    key :
        subkey : subvalue

    2.比较

    XML

    最早的通用信息标记语言,可扩展性好,但繁琐

    Internet上的信息交互与传递

    JSON

    信息有类型,适合程序处理(js),较XML简洁

    移动应用云端和节点的信息通信,无注释

    YAML

    信息无类型,文本信息比例最高,可读性好

    各类系统的配置文件,有注释易读

    3.信息提取的一般方法

    方法一:完整解析信息的标记形式,再提取关键信息

    优点:信息解析准确
    缺点:提取过程繁琐,速度慢

    方法二:无视标记形式,直接搜索关键信息

    优点:提取过程简洁,速度较快
    缺点:提取结果准确性与信息内容相关

    融合方法:结合形式解析与搜索方法,提取关键信息

    需要标记解析器及文本查找函数

    4.基于bs4库的html内容查找方法

    <>.find_all(name, attrs, recursive, string, **kwargs)
    返回一个列表类型,存储查找的结果

     ∙ name : 对标签名称的检索字符串

    ∙ attrs: 对标签属性值的检索字符串,可标注属性检索
    ∙ recursive: 是否对子孙全部检索,默认True
    ∙ string: <>…</>中字符串区域的检索字符串

    <tag>(..) 等价于 <tag>.find_all(..)
    soup(..)  等价于 soup.find_all(..)

    扩展方法:

    <>.find() 搜索且只返回一个结果,同.find_all()参数
    <>.find_parents() 在先辈节点中搜索,返回列表类型,同.find_all()参数
    <>.find_parent() 在先辈节点中返回一个结果,同.find()参数
    <>.find_next_siblings() 在后续平行节点中搜索,返回列表类型,同.find_all()参数
    <>.find_next_sibling() 在后续平行节点中返回一个结果,同.find()参数
    <>.find_previous_siblings() 在前序平行节点中搜索,返回列表类型,同.find_all()参数
    <>.find_previous_sibling() 在前序平行节点中返回一个结果,同.find()参数

    4.中国大学排名爬虫实例

    1. #CrawUnivRankingB.py
    2. import requests
    3. from bs4 import BeautifulSoup
    4. import bs4
    5.  
    6. def getHTMLText(url):
    7.     try:
    8.         requests.get(url, timeout=30)
    9.         r.raise_for_status()
    10.         r.encoding r.apparent_encoding
    11.         return r.text
    12.     except:
    13.         return ""
    14.  
    15. def fillUnivList(ulist, html):
    16.     soup BeautifulSoup(html, "html.parser")
    17.     for tr in soup.find('tbody').children:
    18.         if isinstance(tr, bs4.element.Tag):
    19.             tds tr('td')
    20.             ulist.append([tds[0].string, tds[1].string, tds[3].string])
    21.  
    22. def printUnivList(ulist, num):
    23.     tplt "{0:^10} {1:{3}^10} {2:^10}"
    24.     print(tplt.format("排名","学校名称","总分",chr(12288)))
    25.     for in range(num):
    26.         u=ulist[i]
    27.         print(tplt.format(u[0],u[1],u[2],chr(12288)))
    28.      
    29. def main():
    30.     uinfo []
    31.     url 'https://www.zuihaodaxue.cn/zuihaodaxuepaiming2016.html'
    32.     html getHTMLText(url)
    33.     fillUnivList(uinfo, html)
    34.     printUnivList(uinfo, 20# 20 univs
    35. main()
  • 相关阅读:
    Python 类 元类 new之间的关系
    Scrapy Item类分析
    python中的可变参数和不可变参数
    简易python购物车
    关于Javascrip瀑布流深度解析
    python3.5 的str类型和bytes类型的转换
    php 扩展
    PHP开源网
    ElementUI中树形控件el-tree修改样式/添加title
    SVN 重命名文件夹
  • 原文地址:https://www.cnblogs.com/Wang-Y/p/8478083.html
Copyright © 2011-2022 走看看