zoukankan      html  css  js  c++  java
  • Beta版本软件使用说明

    北京航空航天大学计算机学院 远航1617 小组

    产品版本: Beta版本

    产品名称:Crawling   is going on

    文档作者:杨帆

    文档日期:2013/12/24

    1.   引言

    1.1      编写目的

      编写本使用说明的目的是充分叙述本软件所能实现的功能及其运行环境,以便使用者了解本软件的使用范围和使用方法,

    并为软件的维护和更新提供必要的信息。

    1.2      参考资料

    资料名称

    作者

    自己动手写网络爬虫

    罗刚

    Web数据挖掘

    (Soumen Chakrabarti)查凯莱巴蒂

    软件测试

    肖汉

    精通SQL Server   2008完全自学手册

    金玉明

    1.3      术语和缩写词

    缩略语

    全意

    爬虫

    一种自动获取网页内容的程序,是搜索引擎的重要组成部分

    URL

    中文名称为“统一资源定位符”,是互联网上标准资源的地址

    过滤

    去除网页中不符合需求的内容,例如广告等

    线程

    爬虫程序运行时的程序调度单位

    2        软件概述

    2.1      软件用途

      本软件用于自动获取网页内容,同时具有去广告,分类保存扒取到的文件,网页质量判定等功能。

    是网上问答系统等搜索引擎的重要组成部分。

    2.2      软件运行

      本软件运行在PC 及其兼容机上,使用WINDOWS 操作系统 ,需安装JDK以及JRE(建议使用最新版本)。

    双击文件ThreadCrawler_final.jar运行软件。

    2.3      系统配置

      本软件运行在PC 及其兼容机上,使用WINDOWS 操作系统,要求奔腾4以上CPU,512兆以上内存,

    10G 以上硬盘。

    2.4      软件结构


    1.1      软件性能

      功能测试用例通过率达到94%。爬取的网页达到10^2数量级时,平均用时不超过1.5分钟。

      CPU占用率如下表:

    序号

    爬取数

    CPU占用率(%

    内存占用率(KB

    1

    10

    2.28

    174650

    2

    100

    8.46

    190878

    3

    1000

    29.54

    152768

    可靠性,安全性,易用性均经过测试并达到测试要求。

    1.2      输入、处理、输出

    2.6.1   输入

    1)     网络爬取过程开始的一个或多个源网址。

    2)     预期抓取的网页数量。

    2.6.2   处理

      程序将从源网址(输入1)开始依次爬取下一级链接或下一源网址队列中下一链接,爬取到预期爬取网页数量后(输入2)停止爬取。

      点击start键开始爬取。

      点击close键关闭软件。

    2.6.3    输出

    1)        已爬取的URL数;

    2)        当前爬取URL;

    3)        爬取进度;

    4)        爬取状态;

    5)        爬取的URL;

    6)        本地File目录下爬取结果下载的文件内容,包含html等文件。

    7)        数据库中保存文件的绝对路径、文件的下载地址及对应URL的网页编码与类型、对当前文件的下载时间、

        更新时间集、以及最后一次操作时间等信息。

    8)        对于当前数据库中文件类型的统计,以饼状图的形式展示。

    3          软件使用过程

    3.1      软件安装

      将软件压缩包中的全部文件解压到本地。

    3.2      运行说明

      本软件需运行在WINDOWS操作系统下,并需要安装最新版本的JDK和JRE。

      配置数据库到Windows(或Windows server)数据源中,数据库名为yuanhang。数据库中包括:被抓取网页的类型、

    编码等信息;文件下载后在本地的存储路径;文件的下载时间记录、更新时间记录、最后一次更新记录。

      软件安装完成后,双击运行ThreadCrawler_final.jar文件进入软件操作界面。

    3.3      控制输入

    1)    运行软件出现主界面后,在主界面的select the file中选择源网址输入方式。若源网址只有一个,输入方式选择No,

       在URL seed中输入唯一源网址;若需爬取多个源网址,输入方式选择Yes,并在目录下test.txt文件中输入源网址队列。

       输入格式为:每个源网址占一行,回车换行。

    2)    在主界面how much pages中输入想要抓取的网页数量。

    3)    点击“start”按钮开始爬取。

    3.4      输出文件

      在本地File路径下为爬取结果下载的文件内容,包含html等文件。

      在数据库中保存本地文件的绝对路径、文件的下载地址及对应URL的网页编码与类型、对当前文件的下载时间、

    更新时间集、以及最后一次操作时间等信息。

    3.5      输出报告

      在主界面中会显示已爬取的URL数、当前爬取URL、爬取进度、爬取状态、爬取的全部URL。

    3.6      数据库文件分析

      点击主界面analyse键,可对当前数据库内文件类型以及数量信息进行统计,并以饼状图展示。

    3.7      非常规过程

      如果出现不可能处理的问题,可以直接与远航1617 小组的技术支持人员联系团队博客:

      http://www.cnblogs.com/yuanhang1617

    4        软件维护过程

    4.1     源程序清单

    本软件源程序全部位于default package包中,共包括9个文件:

    ConnectServer.java

    CraUi.java

    DownLoadFile.java

    HtmlParserTool.java

    LinkFilter.java

    LinkQueue.java

    MyCrawler.java

    Queue.java

    Url.java


  • 相关阅读:
    20191323王予涵第五章学习笔记
    反汇编测试
    20191323王予涵第四章学习笔记
    20191323王予涵2.3.1测试
    鲲鹏服务器测试
    缓冲区溢出攻击实验
    20191323王予涵第三章学习笔记
    20191323王予涵第十一章学习笔记
    20191323王予涵第七、八章学习笔记
    20191323王予涵sort
  • 原文地址:https://www.cnblogs.com/yuanhang1617/p/3489932.html
Copyright © 2011-2022 走看看