https://github.com/emyller/webkitcrawler
一个开源的项目,可以快速入门。
http://crawl.group.iteye.com/关于爬虫的一个坛子,主要是Java开源组件Heritrix,nutch爬虫的源码剖析
一些基于webkit实现爬虫的文章
http://www.cnblogs.com/Jiajun/archive/2012/12/12/2813888.html
http://rfyiamcool.blog.51cto.com/1030776/1287810
http://www.haogongju.net/art/511472
http://blog.csdn.net/rongrong0206/article/details/6087974
http://wenku.baidu.com/view/39b88fdd6f1aff00bed51eb5.html
http://www.lianglong.org/tags/webkit/
1.http://www.blueidea.com/tech/program/2009/6571_2.asp
2.http://blog.csdn.net/ciml/category/317893.aspx
3.http://leopard168.blog.163.com/blog/static/168471844201072112642310/
摘 要: 以AJAX技术为代表的Web应用新技术的出现,赋予了JavaScript更加丰富的功能。但也导致更多的URL以数据形式存在于JavaScript 代码中,给网络爬虫的URL提取带来了新的挑战。为了解决这一问题,在此提出了一种基于WebKit的网络爬虫,以WebKit作为爬虫的前端来解析并执 行JavaScript。一是实现JavaScript对网页DOM的修改,从而将存在于此类代码中的URL转换成HTML形式并以静态分析方法来提取; 二是定位JavaScript页面导航的代码并且劫持输入导航方法及对象的变量以提取变量中的URL。这充分降低了客户端脚本给爬虫带来的障碍,从而更好 地提取网页中的URL。
关键词: 网络爬虫; 浏览器引擎; WebKit; JavaScript 1004?373X(2013)18?0062?03 0 引 言 随着各种形式的互联网应用不断出现,互联 网正在显著改变着人类的生活方式,互联网应用已经成为了一部分人类生活中不可或缺的一部分。互联网规模的不断扩大,互联网上的信息也呈几何倍数增长。如何 快速准确地找到所需要的信息就成了一个难题,而网络爬虫正是解决这个问题的关键。在网络爬虫的众多应用场景中,最典型的例子就是搜索引擎。而在备受关注的 Web应用安全领域,网络爬虫也是不可或缺的一部分。 网络爬虫是一个按照一定逻辑扫描或者“爬 行”网页的程序或者脚本。工作流程一般是根据设定的初始URL(统一资源定位符)从网络上获取相应的内容,从这些内容中抽取出需要的信息以及URL,随后 以新抽取的URL为基础重复之前的工作。网络爬虫的目的并不是单纯的“爬行”,而是为更高层次的目的所服务。比如搜索引擎所使用的爬虫在爬行的过程中会根 据关键字协助搜索引擎建立索引,而黑盒Web应用漏洞扫描工具所使用的爬虫在工作时会将发现的Web应用入口记录并提交给漏洞检测模块进行检测。所以网络 爬虫的工作效果将直接决定这些工作的效果。 为了解决JavaScript执行问题,本文提出了一种基于WebKit的网络爬虫。在网络爬虫中引入浏览器引擎,使得网络爬虫可以执行JavaScript并对网页进行渲染,获取网页在浏览器上呈现给用户的结果,从而在之后的分析中提取到更多的URL。 1 WebKit分析 浏览器引擎,是浏览器的 核心部分,也称浏览器内核,负责对网页语法的解释(如HTML,JavaScript)并渲染网页。主流的浏览器引擎包括 Trident,Gecko,Presto以及WebKit。Trident是微软Internet Explorer的浏览器引擎的名称,主要使用者有IE和世界之窗浏览器。Gecko是由Mozilla基金会开发的浏览器引擎的名字,主要代表是 Firefox。Presto是一个由Opera Software开发的浏览器引擎,供Opera 7.0及以上使用。Webkit是一款开源的浏览器引擎[9],目前使用WebKit引擎的浏览器主要有苹果Safari、谷歌Chrome、遨游浏览器 以及360极速浏览器。
句 当中包含有URL,但是不会引起网页DOM结构的变化,所以网页渲染模块不能使它们显现在HTML中,还需要进一步分析JavaScript以提取这些 URL。URL队列管理模块的功能是管理URL队列,负责决定下一个爬行的URL,并决定哪些新发现的URL需要放入队列中。
3 运行测试 4 结 语 本文设计并实现了一种基于WebKit浏 览器引擎的网络爬虫,较好地实现了网页中的JavaScript代码对网页的渲染,从而提升了网络爬虫的URL提取能力,可以有效提高搜索引擎和Web应 用漏洞扫描程序的覆盖率。目前在处理用户触发的JavaScript代码(如onclick事件)方面还有所欠缺,这将是下一步的研究目标。 参考文献 Wikipedia. Web crawler [EB/OL]. [2013?05?30]. http://en.wikipedia.org/wiki/Web_crawler. University of Toronto. HTML and XHTML document type definitions [EB/OL]. [2013?04?23]. http://