javascript 动态页面
目前许多网站大量运用js脚本进行一些页面的处理,这些页面的抓取对爬虫是个挑战。 这类页面的抓取,我用到了下面的方法
分析页面(firebug/chrome调试工具 等),找到ajax获取的数据源,看是否可以直接发请求获取
调用浏览器引擎(webkit)获取最后 js 执行过完成的页面
调用无界面依赖的浏览器引擎(headless browser) casperjs,phantomjs 获取最后的页面
使用 webkit 抓取
安装需要的软件
# Xvfb 模拟 Xwindowssudo apt-get install xvfb# 安装 python webkit包
添加增加下面的下载代码(增加的位置我后面说明)
webview = webkit.WebView()webview.connect( 'load-finished', lambda v,f: gtk.main_quit() )webview.load_uri( request.url )gtk.main()renderedBody = str(webview.execute_script('document.documentElement.innerHTML'))# renderedBody 是执行后页面的内容
注意的上面的代码我没有说明写在哪里,网上很多例子都是说写 下载中间件(DownloaderMiddleware)里,这是有些问题的
scrapy 是基于twisted的异步网络框架。如果下载中间件中长时间阻塞,就会阻塞整个异步处理流程
scrapy 本身的下载 delay 功能,是在中间件下面一层生效(中间件和下载器之间),也就是说如果在下载中间件这里中断处理流程,下载时间间隔功能将失去作用。
还有一个问题就是 上面的方案需要启动模拟的 x-server (xvfb)
目前的方案
casperjs,phantomjs 无界面浏览器(headless browser)
写一个 scrapy 的 下载handler,这是scrapy支持的插件,并且不影响其他框架功能的运行,下载器的开发我会在下一篇讲一下
原文链接: