zoukankan      html  css  js  c++  java
  • MOSS2007中型服务场配置 教材<05>:配置SSP爬网计划

    1、 之前第四节教材中,我们已经创建了共享服务提供Shared Services Provider(简称SSP)

    ,并且取名为SSP_HNAREA。这一节,我们接着讲如何配置SSP的执行爬网计划。首先,打开管理中心Central Administration,单击应用程序管理Application Managerment,

    ,单击选项Create or configure this farm’s shared services。或者直接单击面板右侧的选项

    Shared Services Administration中的SSP对象。

    clip_image002

    2、打开SSP管理设置界面,选择和单击要设置的SSP对象。

    clip_image004

    弹出该SSP_HNAREA的设置主界面,并且单击选项“Search”à”Search Settings”。

    clip_image006

    3、 在如下界面中,我们单击选项“Content sources and crawl schedules”(内容源和爬网计划)

    ,进行内容源和爬网计划的创建和设置。

    clip_image008

    4、单击“New Content Source”选项,创建一个内容源,并且设置派往计划:

    设置数据源名称、选择被爬网的内容的类型、爬网的开始地址。(注意:这里我输入的http://gdip.itshare.com/sites/UserPortal,其实是错误的,只需要输入最上面的开始地址,即可。

    clip_image010

    5、接下来,我们要设置参数”Crawl Settiings”、”Crawl Schedules”,

    Crawl Settings有两种方式:爬网范围为整个开始地址的网站的全部内容,和爬网范围为开始抵制的网站的网站首页。

    clip_image012

    6、设定完整爬网:单击”Full Crawl”下面的选项”Create Schedules”,创建一个爬网计划。设置参数,可以参考实际情况和网路使用情况以及系统访问负担情况来考虑设定。

    clip_image014

    7、设定增量爬网:单击”Incremental Crawl”下面的选项”Create Schedules”,创建一个爬网计划。设置参数,可以参考实际情况和网路使用情况以及系统访问负担情况来考虑设定。

    clip_image016

    8、最后,你可以选中勾上“Start full crawl for this content source”来手动启动本次的完整爬网计划。

    clip_image018

    单击按钮“确定”,便开始完整爬网。如下图。

    clip_image020

    附:

    大家也可以尝试使用Search Settings的其他功能选项,比如“Metadata property mapping”(映射属性)来了解爬网的搜索内容。

  • 相关阅读:
    周五笔记
    python2.0代码重构为3.0一日记
    小白使用Bert跑分类模型
    andrew ng 深度学习 网易云课堂课程
    andrew ng machine learning week9 异常检测和推荐系统
    解决端口占用问题
    postgresqlmysql删除数据表中字段的回车和换行
    echarts常用的属性修改
    后端返回文件流,用blog方式下载 type 值
    antD vue 遇到的一些问题处理
  • 原文地址:https://www.cnblogs.com/itshare/p/2230724.html
Copyright © 2011-2022 走看看