打开APP
userphoto
未登录

开通VIP,畅享免费电子书等14项超值服

开通VIP
用wget命令的爬虫功能抓取网页到本地文件,然后用grep命令分析文件。
用wget命令的爬虫功能抓取网页到本地文件,然后用grep命令分析文件。

1. 抓取网页到本地
选择一个网页,比如 http://www.oschina.net/code/snippet_1391852_26067,用wget抓取到本地。
$ wget http://www.oschina.net/code/snippet_1391852_26067
--2016-10-04 00:20:48--  http://www.oschina.net/code/snippet_1391852_26067
Resolving www.oschina.net (www.oschina.net)... 60.174.156.100
Connecting to www.oschina.net (www.oschina.net)|60.174.156.100|:80... connected.
HTTP request sent, awaiting response... 200 OK
Length: unspecified [text/html]
Saving to: ‘snippet_1391852_26067’
snippet_1391852_260     [ <=>                  ]  44.19K  --.-KB/s   in 0.1s   
2016-10-04 00:20:49 (314 KB/s) - ‘snippet_1391852_26067’ saved [45251]

查看:
$ ls
snippet_1391852_26067
已经抓取到本地。

2. 在文件中查找某单词

比如查找return:

$ grep -o return snippet_1391852_26067 
return
return
return
return
return
return
return
return
return
return
return
return

3. 输出文件中某单词个数

比如输出return的个数:

$ grep -c return snippet_1391852_26067 

12

完毕。


本站仅提供存储服务,所有内容均由用户发布,如发现有害或侵权内容,请点击举报
打开APP,阅读全文并永久保存 查看更多类似文章
猜你喜欢
类似文章
【热】打开小程序,算一算2024你的财运
8 个实用的 Linux netcat 命令示例
一行代码提取markdown文件中图片
你需要熟练运用的12个命令行工具
wget和curl的区别|极客教程
小白也会用爬虫利器:you-get,让天下没有难爬的网页
linux之杀死某个应用或命令的一行终极命令
更多类似文章 >>
生活服务
热点新闻
分享 收藏 导长图 关注 下载文章
绑定账号成功
后续可登录账号畅享VIP特权!
如果VIP功能使用有故障,
可点击这里联系客服!

联系客服