打开APP
userphoto
未登录

开通VIP,畅享免费电子书等14项超值服

开通VIP
HtmlUnit+Jsoup 解决爬虫无法解析执行javascript的问题

本人最近在研究爬虫。作为一个新手。研究了些爬虫框架,发现所有开源的爬虫框架很多,功能也很齐全,但唯独遗憾的是,目前还没有发现那个爬虫对js完美的解释并执行。看了浅谈网络爬虫爬js动态加载网页(二)之后很有感慨,首先对博主的钻研精神季度敬佩。虽然该文中第二和第三种方案不怎么靠谱,但能想到这些方案,说明博主的思维发散性很强,不会局限于单方向钻牛角尖式的思考。不过很遗憾,因为我就是这样的人。我始终觉得博主对于HtmlUnit的了解不够深入(也可能是我的误解)。于是就开始钻牛角尖了。看了HtmlUnit的简介之后,我有一种预感,认为HtmlUnit没理由不能支持Js的自动解释于执行,事实证明了我的想法。 废话多说无益,

这里拿地址【http://cq.qq.com/baoliao/detail.htm?294064】来测试,通过查看该页面源码,可以发现,该页面文章标题,内容,浏览量都是采用占位符的形式,在页面加载时,通过js替换之,下面代码获取该文章浏览量字段。

public void testCrawler() throws Exception {          /**HtmlUnit请求web页面*/          WebClient wc = new WebClient();          wc.getOptions().setJavaScriptEnabled(true); //启用JS解释器,默认为true          wc.getOptions().setCssEnabled(false); //禁用css支持          wc.getOptions().setThrowExceptionOnScriptError(false); //js运行错误时,是否抛出异常          wc.getOptions().setTimeout(10000); //设置连接超时时间 ,这里是10S。如果为0,则无限期等待          HtmlPage page = wc.getPage("http://cq.qq.com/baoliao/detail.htm?294064");          String pageXml = page.asXml(); //以xml的形式获取响应文本  可以得到js请求          /**jsoup解析文档*/          Document doc = Jsoup.parse(pageXml, "http://cq.qq.com");           Element pv = doc.select("#feed_content span").get(1);          System.out.println(pv.text());          Assert.assertTrue(pv.text().contains("浏览"));            System.out.println("Thank God!");      } 

本站仅提供存储服务,所有内容均由用户发布,如发现有害或侵权内容,请点击举报
打开APP,阅读全文并永久保存 查看更多类似文章
猜你喜欢
类似文章
【热】打开小程序,算一算2024你的财运
htmlunit实现爬取网页
htmlunit简介
[HtmlUnit]Fetch Dynamic Html/Content Created By Javascript/Ajax
定向抓取漫谈
HTMLUNTI?
2023年流行的Java网页抓取库:Jsoup、HtmlUnit和WebMagic
更多类似文章 >>
生活服务
热点新闻
分享 收藏 导长图 关注 下载文章
绑定账号成功
后续可登录账号畅享VIP特权!
如果VIP功能使用有故障,
可点击这里联系客服!

联系客服