zoukankan      html  css  js  c++  java
  • Mac os 下 python爬虫相关的库和软件的安装

      由于最近正在放暑假,所以就自己开始学习python中有关爬虫的技术,因为发现其中需要安装许多库与软件所以就在这里记录一下以避免大家在安装时遇到一些不必要的坑。

    一. 相关软件的安装:

      1. homebrew:

         homebrew 是mac os系统下的包管理器由于功能齐全所以在这里比较推荐大家安装,安装及使用教程在我的另一篇博客中,在此附上链接 homebrew的安装

       2. anaconda:anaconda是python下的包管理器,支持创建虚拟环境等功能,个人认为比自带的pip好用,安装anaconda可以前往其官网,链接如下:

          https://www.continuum.io/downloads,选择python3版本的安装包下载即可。

    二. 请求库的安装

        requests:由于requests是第三方库,所以需要手动安装,安装过程如下。

        1 .相关链接

           Github:https://github.com/requests/requests

           PyPi:https://pypi.python.org/pypi/requests

           官方文档:http://www.python-requests.org

           中文文档:http://docs.python-requests.org/zh_CN/latest

        2. 安装库,我们使用conda指令进行安装,在终端中输入如下指令即可成功安装requests库

    conda install requests

          

        Selenium:是一个自动化的测试工具,利用它可以驱动浏览器执行特定的动作,如过页面的数据通过JavaScript动态加载则需要使用到它,其安装过程如下。

        1. 相关链接

          官方网站:http://www.selenium.org

          Github:https://github.com/seleniumHQ/selenium/tree/master/py

          PyPi:https://pypi.python.org/pypi/selenium

          官方文档:http://selenium-python.readthdocs.io

          中文文档:http://selenium-python-zh.readthedocs.io

        2. 安装库,我们同样使用 conda指令进行安装,在终端中输入如下指令即可安装selenium库

    conda install selenium

        

        ChromeDriver:应为selenium需要浏览器配合使用,那么如果默认使用的是chrome浏览器,则需要安装chromeDrvier驱动(版本需要与你使用的chrome的版本兼容),其安装过程如下。

        1. 相关链接

           官方网站:http://sites.google.com/a/chromium.org/chromedriver

           下载地址:  http://chromedriver.storage.googleapis.com/index.html

        2. 安装chromedriver,由于我们安装了homebrew包管理器,我们就可以直接使用brew指令进行安装,在终端中输入下列代码即可进行安装chromedriver了

    brew cask install chromedriver

         3. 安装好后,我们可以在程序中进行测试,代码如下

    from selenium import webdriver
    
    browser = webdriver.Chrome()

              若能正确弹出空白的chrome浏览器,则证明配置没有问题啦!

    三. 解析库安装

       lxml:是python的一个解析库,用于解析html和xml并且对xpath表达式提供了支持,是一个很基础的解析库,安装方式如下。

       1. 相关链接

          官方网站:http://lxml.de

          Github:https://github.com/lxml/lxml

          PyPI:https://pypi.python.org/pypi/lxml

        2.我们使用conda指令进行安装,只需在终端中输入以下代码安装即可

    conda install lxml

         BeautifulSoup:你没看错,它叫美丽汤,它可以解析html和xml并支持多种方式操作网页中的标签和属性,非常强大的解析库并且官方文档也很友好,安装方式如下。

         1. 相关链接

            官方文档:https://www.cremmy.com/software/BeautifulSoup/bs4/doc

            中文文档:https://www.cremmy.com/software/BeautifulSoup/bs4/doc.zh

         2. 我们依旧使用conda指令进行安装,在终端中输入如下代码安装即可

    conda install beautifulsoup4

         3. 安装好后,我们可以在程序中测试它的解析功能,代码如下

    from urllib.request import urlopen
    from bs4 import BeautifulSoup
    
    if __name__ == "__main__":
        html = urlopen("http://www.cnblogs.com")   #urlopen 获取html页面
        bs_obj = BeautifulSoup(html)               #BeauitfulSoup解析后返回
        print(bs_obj.get_text)                     #返回除标签外的纯文本

       

        PyQuery:也是解析工具,提供与jquery(几年前非常火热的JavaScript框架)类似的语法解析html同样也支持css选择器,安装方式如下。

        1. 相关链接

           Github:https://github.com/gawel/pyquery

           PyPI:https://pypi.python.org/pypi/pyquery

           官方文档:http://pyquery.readthedocs.io

        2. 我们仍然使用conda指令安装,但同时也可以使用pip3指令安装,在终端输入如下代码中的一个安装即可

    #使用 conda安装
    conda install pyquery
    #使用 pip3安装
    pip3 install pyquery

      

        tesserocr:可以用来识别验证码或者图片的OCR(光学字符识别)解析库,它是对python API的封装,所以安装它需要先安装tesseract,它们的安装方式如下

        1. 相关链接

           tesserocr Github:https://github.com/sirfz/tesserocr

           tesserocr PyPI:https://pypi.python.org/pypi/tesserocr

           tesseract 下载地址:http://digi.bib.uni-mannheim.de/tesserocr

           tesseract Github:https://github.com/tesseract-ocr/tesseract

           tesseract 语言包:https://github.com/tesseract-oct/tessdata

           tesseract 文档:https://github.com/tesseract-ocr/tesseract/wiki/Documentation

        2. 我们现需要使用brew指令安装ImageMagick和tesseract库,然后再使用conda指令安装tesserocr库,在终端中按次序输入以下代码即可

    # 安装ImageMagick
    brew install imagemagick
    # 安装 tesseract
    brew install tesseract --all-languages
    # 安装 tesserocr
    conda install tesserocr

       3. 安装好后,我们可以在程序中测试它是否能正确运行,代码如下

    import tesserocr
    from PTL import Image
    
    image = Image.open('example.jpeg')
    print(tesserocr.image_to_text(image)) #将图片中的文字转换为字符串

    好了至此,与python爬虫相关的基础库已经安装完成了,本文中并未涉及scrapy库的安装。因为个人认为还是先不要使用框架自己编写爬虫更能提升自己的编码能力,谢谢大家的阅读!

  • 相关阅读:
    公用导航栏的根据url控制选中导航js
    页面切换出动晃动解决
    redis五大数据类型
    redis简介
    Linux安装redis
    各种锁的理解
    原子引用
    理解CAS
    彻底玩转单例模式
    Volatile
  • 原文地址:https://www.cnblogs.com/maoqifansBlog/p/11440173.html
Copyright © 2011-2022 走看看