zoukankan      html  css  js  c++  java
  • python爬虫--基本流程

         基于python3的实现,获取网页的基础技术:request、urllib、selenium;解析网页的基础技术:re正则表达式、BeautifulSoup、和lxml;储存技术:数据库或者表格。

         python环境搭建:

    1、pycharm;

    2、anaconda,适合基础入门,自带很多包,则无需安装。

    3、jupyter notebook。

    之后博文中的环境都基于anaconda的spyder或pycharm。

    用urllib爬取简单的网页

    import urllib.request
    url = "http://www.douban.com/"  
    request=urllib.request.Request(url)  #请求
    response = urllib.request.urlopen(request) #爬取结果
    data=response.read()
    data=data.decode('utf-8')  #设置解码方式
    print(data)               #打印结果






    鉴于很多网站有些反爬虫的设置,我们模拟浏览器登录网页,把爬取的数据下载到本地

    headers = {'User-Agent':'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) ''Chrome/51.0.2704.63 Safari/537.36'} 

    下载到本地,函数:

    def saveFile(data):
        path = "C:\Users\leon\Desktop\02_douban.html"
        f = open(path,'wb')
        f.write(data)
        f.close()

    整体代码如下:
    def saveFile(data):
        path = "C:\Users\leon\Desktop\02_douban.html"
        f = open(path,'wb')
        f.write(data)
        f.close()
    import urllib.request
    url = "http://www.douban.com/"
    headers = {'User-Agent':'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) '  
                            'Chrome/51.0.2704.63 Safari/537.36'}
    request = urllib.request.Request(url=url,headers=headers)
    response = urllib.request.urlopen(request)
    data=response.read()
    data=data.decode('utf-8')
    print(data)
    saveFile(data)

        

  • 相关阅读:
    布局
    面向对象....(概况)
    下拉城市列表
    下拉列表
    内容窗体
    《面向对象》-继承
    《面向对象》--类
    《面向对象》第一讲
    常用的正则表达式
    正则表达式
  • 原文地址:https://www.cnblogs.com/leon507/p/7611709.html
Copyright © 2011-2022 走看看