zoukankan      html  css  js  c++  java
  • 初试python爬取网页数据

      任务要求:寻找记录当日全国疫情数据的网站,爬取其中的数据存入数据库,最后像之前数据可视化一样用图表显示数据。

      参考博客:https://www.cnblogs.com/dd110343/p/12461824.html

      在讲解之前先附上老师要求的表格统计图:

    这是我在完成该作业时记录的过程,写得很简略。留作业当天晚上我选择使用Java+Jsoup尝试爬取,但是所选择的网站,当我用Chrome浏览器读取它的HTML代码时,发现其数据是使用jQuery写在<script>里的,由于我不会使用Java+Jsoup将<script>中关于数据的内容单独摘取出来,且舍友已经通过python写出了爬取功能,我就打算用python再试试。python爬取网站的能力很强,代码也十分简单:

     1 import requests
     2 from bs4 import BeautifulSoup
     3 import re
     4 import pymysql
     5 import json
     6 import datetime
     7 #记录执行次数
     8 num=0
     9 #向数据库写入数据
    10 def insertdata(data,n):
    11     conn=pymysql.connect("localhost","root","Inazuma","paqu",charset='utf8')
    12     cur=conn.cursor()
    13     sql="INSERT INTO yiqing(Date,Province,City,Confirmed,Cured,Dead) VALUES(%s,%s,%s,%s,%s,%s)"
    14     try:
    15         cur.execute(sql,data)
    16         conn.commit()
    17         print(n)
    18     except:
    19         conn.rollback()
    20         print("ERROR")
    21     conn.close()
    22 #所要爬取的网站的地址
    23 url = 'https://raw.githubusercontent.com/BlankerL/DXY-2019-nCoV-Data/master/json/DXYArea.json'
    24 #调用requests.get()方法
    25 response = requests.get(url)
    26 #转换为文本
    27 version = response.text
    28 #提取其中的json数据
    29 jsonData = json.loads(version)
    30 #根据数据进行筛选写入
    31 for i in range(len(jsonData['results'])):
    32     if(jsonData['results'][i]['countryName']=='中国'):
    33         province = jsonData['results'][i]['provinceName']
    34         for j in range(len(jsonData['results'][i]['cities'])):
    35             confirmed=jsonData['results'][i]['cities'][j]['confirmedCount']
    36             cured=jsonData['results'][i]['cities'][j]['curedCount']
    37             dead=jsonData['results'][i]['cities'][j]['deadCount']
    38             city=jsonData['results'][i]['cities'][j]['cityName']
    39             #使用python中datetime的方法提取时间(yyyy-mm-dd)
    40             date=datetime.date.today()
    41             #提取数据完成,执行操作,num+1
    42             num=num+1
    43             #调用入库方法
    44             insertdata((date,province,city,confirmed,cured,dead),num)

    我一开始选择爬取的网站是这个:https://wp.m.163.com/163/page/news/virus_report/index.html?_nw_=1&_anw_=1,但针对其中某<div>控件里<ul>中用于存储数据的的<li>元素数据无法提取出来,针对其<div>的上一级爬取没有问题,整个HTML爬取也能正常显示,但是内部爬取就返回为空。这个BUG我从当天中午一直弄到下午5点左右(3月11号),但还是没有解决,最后在浏览其他资料时偶然看到了上面我给的博客,我发现他爬取的网站是一个纯json数据的文本,提取json数据很简单,最后完成了该任务。当然,我之前爬取网站出现的BUG不可能不管,还在学习中。下面给出在爬取数据后的运行情况以及其可视化显示:

    python:

    Navicat for MySQL(这里显示部分数据,总计426条(见上图)):

    可视化(代码跟上次一样,只是更改了读取的数据库,查询的SQL语句以及HTML中动态插入表格部分的部分代码):‘

     

  • 相关阅读:
    mybatis-databaseIdProvider多数据库支持
    mysql-高性能索引策略
    mysql-冗余和重复索引
    mybatis-枚举类型的typeHandler&自定义枚举类型typeHandler
    mybatis-自定义typeHandler
    mysql-覆盖索引
    单例模式
    mybatis实战教程一:开发环境搭建
    MySQL分页查询优化
    深入组件
  • 原文地址:https://www.cnblogs.com/20183711PYD/p/12492854.html
Copyright © 2011-2022 走看看