zoukankan      html  css  js  c++  java
  • Python抓取中文网页

    早就有想法把博客每天的访问流量记下来,刚好现在申请了GAE的应用,又开始学Python,正好拿这个练手。打算先利用Python把访问记录保存在本地,熟悉之后可以部署到GAE,利用GAE提供的cron就可以每天更近访问流量了。OK,开始~

      首先是简单的网页抓取程序:

      [python] view plaincopy import sys, urllib2

      req = urllib2.Request("http://blog.csdn.net/nevasun")

      fd = urllib2.urlopen(req)

      while True:data = fd.read(1024)

      if not len(data):break sys.stdout.write(data)

      在终端运行提示urllib2.HTTPError: HTTP Error 403: Forbidden,怎么回事呢?

      这是由于网站禁止爬虫,可以在请求加上头信息,伪装成浏览器访问。添加和修改:

      [python] view plaincopy headers = {'User-Agent':'Mozilla/5.0 (Windows; U; Windows NT 6.1; en-US; rv:1.9.1.6) Gecko/20091201 Firefox/3.5.6'} req = urllib2.Request("http://blog.csdn.net/nevasun", headers=headers)

      再试一下,HTTP Error 403没有了,但是中文全都是乱码。又是怎么回事?

      这是由于网站是utf-8编码的,需要转换成本地系统的编码格式:

      [python] view plaincopy import sys, urllib2

      headers = {'User-Agent':'Mozilla/5.0 (Windows; U; Windows NT 6.1; en-US; rv:1.9.1.6) Gecko/20091201 Firefox/3.5.6'} req = urllib2.Request("http://blog.csdn.net/nevasun", headers=headers)

      content = urllib2.urlopen(req)。read()   # UTF-8

      type = sys.getfilesystemencoding()      # local encode format print content.decode("UTF-8")。encode(type)  # convert encode format OK,大功告成,可以抓取中文页面了。下一步就是在GAE上做个简单的应用了~

    转自:http://linux.chinaitlab.com/Python/878184.html


    微信公众号: 猿人谷
    如果您认为阅读这篇博客让您有些收获,不妨点击一下右下角的【推荐】
    如果您希望与我交流互动,欢迎关注微信公众号
    本文版权归作者和博客园共有,欢迎转载,但未经作者同意必须保留此段声明,且在文章页面明显位置给出原文连接。

  • 相关阅读:
    字符串语法
    组合数
    并查集
    Java Collection HashMap源码分析
    Java 虚拟机 ClassLoader
    Java 多线程 Future
    Java 虚拟机 GC机制
    Java 基础 原生类型
    Java 多线程 死锁deadlock产生原因+避免方法
    Java 基础 基本类型vs引用类型,传值vs传引用
  • 原文地址:https://www.cnblogs.com/heyonggang/p/2844710.html
Copyright © 2011-2022 走看看