zoukankan      html  css  js  c++  java
  • nutch如何修改regex-urlfilter.txt爬取符合条件的链接



    例如我在爬取学生在线的时候,发现爬取不到特定的通知,例如《中粮福临门助学基金申请公告》,通过分析发现原来通知的链接被过滤掉了,下面对过滤url的配置文件regex-urlfilter.txt进行分析,以后如果需要修改可以根据自己的情况对该配置文件进行修改:

    说明:配置文件中以“#”开头的行为注释,以“-" 开头的表示符合正则表达式就过滤掉,以“+”开头的表示符合正则表达式则保留。正则表达式中"^"表示字符串的开头,"$"表示字符串的结尾,"[]"表示集合。中文部分是我添加的注释

     

    1. # Licensed to the Apache Software Foundation (ASF) under one or more  
    2. # contributor license agreements.  See the NOTICE file distributed with  
    3. this work for additional information regarding copyright ownership.  
    4. # The ASF licenses this file to You under the Apache License, Version 2.0  
    5. # (the "License"); you may not use this file except in compliance with  
    6. # the License.  You may obtain a copy of the License at  
    7. #  
    8. #     http://www.apache.org/licenses/LICENSE-2.0  
    9. #  
    10. # Unless required by applicable law or agreed to in writing, software  
    11. # distributed under the License is distributed on an "AS IS" BASIS,  
    12. # WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.  
    13. # See the License for the specific language governing permissions and  
    14. # limitations under the License.  
    15.   
    16.   
    17. # The default url filter.  
    18. # Better for whole-internet crawling.  
    19.   
    20. # Each non-comment, non-blank line contains a regular expression  
    21. # prefixed by '+' or '-'.  The first matching pattern in the file  
    22. # determines whether a URL is included or ignored.  If no pattern  
    23. # matches, the URL is ignored.  
    24.   
    25. # skip file: ftp: and mailto: urls  
    26. #过滤掉file:ftp等不是html协议的链接  
    27. -^(file|ftp|mailto):  
    28.   
    29. # skip image and other suffixes we can't yet parse  
    30. #过滤掉图片等格式的链接  
    31. -.(gif|GIF|jpg|JPG|png|PNG|ico|ICO|css|sit|eps|wmf|zip|ppt|mpg|xls|gz|rpm|tgz|mov|MOV|exe|jpeg|JPEG|bmp|BMP)$  
    32.   
    33. # skip URLs containing certain characters as probable queries, etc.  
    34. #-[?*!@=] 过滤掉汗特殊字符的链接,因为要爬取更多的链接,所以修改过滤条件,使包含?=的链接不被过滤掉  
    35. -[*!@]  
    36.   
    37. # skip URLs with slash-delimited segment that repeats 3+ times, to break loops  
    38. #过滤掉一些特殊格式的链接  
    39. -.*(/[^/]+)/[^/]+1/[^/]+1/  
    40.   
    41. # accept anything else  
    42. #接受所有的链接,这里可以做自己的修改,是的只接受自己规定类型的链接  

     原因解释:因为爬取的公告链接为(http://www.online.sdu.edu.cn/news/article.php?pid=636514943),链接中含有?和=字符,所以被过滤特殊字符的正则表达式过滤掉,通过修改regex-urlfilter.txt配置文件(如上),最终可以爬取这类公告的链接。

  • 相关阅读:
    mysql数据库
    is not in the sudoers file.This incident will be reported
    linux的一些命令
    u盘安装linux(windows7+linux双系统)
    优惠券、礼品卡、礼券
    优惠营销管理
    优惠营销管理
    hdu 1166 线段树单点更新
    hdu 1542 扫描线求矩形面积的并
    hdu 2444 二分图判断与最大匹配
  • 原文地址:https://www.cnblogs.com/jpfss/p/7903783.html
Copyright © 2011-2022 走看看