打开APP
userphoto
未登录

开通VIP,畅享免费电子书等14项超值服

开通VIP
中文分词实践(基于R语言)

背景:分析用户在世界杯期间讨论最多的话题。

思路:把用户关于世界杯的帖子拉下来,然后做中文分词+词频统计,最后将统计结果简单做个标签云,效果如下:

后续:中文分词是中文信息处理的基础,分词之后,其实还有特别多有趣的文本挖掘工作可以做,也是个知识发现的过程,以后有机会再学习下。

==================================================

* 中文分词常用实现:

单机:R语言+Rwordseg分词包 (建议数据量<1G)

分布式:Hadoop+Smallseg库

词库:Sougou词库,Sougou输入法官网可下载

这里只先介绍单机的实现:

1、R语言:专门用于统计分析、绘图的语言

2、Rwordseg分词包:引用了@ansj开发的ansj中文分词工具,基于中科院的ictclas中文分词算法,无论是准确度还是运行效率都超过了rmmseg4j。

* 环境准备 (Windows或Linux版本都行):

R下载:http://mirrors.ustc.edu.cn/CRAN/

Rwordseg包下载:https://r-forge.r-project.org/R/?group_id=1054

rJava包下载:http://cran.r-project.org/web/packages/rJava/index.html

Rwordseg和rJava这些包解压后放到\R\R-3.1.0\library即可 

* R语言 实现 代码

  1. # 加载rJava、Rwordseg库  
  2. library(rJava);  
  3. library(Rwordseg);  
  4.   
  5. # == 读入数据  
  6. lecture=read.csv("E:\\worldcup_test.txt",sep=",",header=TRUE,fileEncoding="UTF-8");   
  7. # 查看前几行,看是否有字符编码问题  
  8. head(lecture);  
  9. # 获取数据集长度  
  10. n=length(lecture[,1]);  
  11. print(n)  
  12.   
  13. # == 文本预处理  
  14. res=lecture[lecture!=" "];  
  15. #剔除URL  
  16. res=gsub(pattern="http:[a-zA-Z\\/\\.0-9]+","",res);   
  17. #剔除特殊词  
  18. res=gsub(pattern="[我|你|的|了|是]","",res);       
  19.   
  20. # == 分词+频数统计  
  21. words=unlist(lapply(X=res, FUN=segmentCN));  
  22. word=lapply(X=words, FUN=strsplit, " ");  
  23. v=table(unlist(word));    
  24. # 降序排序  
  25. v=rev(sort(v));   
  26. d=data.frame(word=names(v), freq=v);   
  27. # 过滤掉1个字和词频小于100的记录  
  28. d=subset(d, nchar(as.character(d$word))>1 & d$freq>=100)  
  29.   
  30. # == 输出结果  
  31. write.csv(d, file="E:\\worldcup_keyword.txt", row.names=FALSE)  

将文本信息存放在E:\\worldcup_test.txt中,运行后E:\\worldcup_keyword.txt就是保存了统计完的结果了,截图如下:word列是词、freq列是词频

* 常见问题:一些词没被识别  => 手动添加词库

只使用默认词库的分词效果不是很好,最主要问题就是一些球星名字没有被识别出来,如下图:

这种情况需要手动添加一些词库进来,一般使用Sougou词库,在Sougou输入法的工具箱里,有细胞词库一栏,点击后即可在其官网下载需要的词库。

除了使用网上的词库,也可以自己手动添加一些词进去,每个词一行写到.txt文件上,调用installDict()添加即可

  1. # == 添加新词库(跑一遍即可)   
  2. installDict("D:\\Program Files\\R\\R-3.1.0\\libword\\myword.txt", dictname="myword")  
  3. installDict("D:\\Program Files\\R\\R-3.1.0\\libword\\foodball.scel", dictname="foodball")  
  4. # 显示当前手动添加的词库  
  5. listDict()  

手工添加完词库后,分词效果明显就上来了:

* 常见问题:文本存在乱码和特殊字符  => 脚本过滤

由于帖子属于UGC内容,一些乱码和特殊字符会影响R语言处理文本。比如read.cvs()读入文件读到乱码就返回了,没能读入全部文本。

这里没有深入去看R语言的字符处理方式,而是选择绕开这个问题,统一将utf8文本转成unicode,写了段Python根据中文的编码范围来过滤掉乱码(替换为" "):

* 常见问题:文本数据量过大  => 切分文件分批次计算、或使用Hadoop+Smallseg库

==================================================

* 中文分词基础

1、分词算法:

    a、基于规则(即字符串匹配,词库组织成字典树)

        - 正向最大匹配:从左到右,"不知道|你|在|说什么"

        - 反向最大匹配:从右到左,"不|知道|你在|说|什么"

        - 最短路径:切出来的词最少,"不知道|你在|说什么"(效果较好)

    b、基于词义(还不成熟)

    c、基于统计(概率论)

2、语料库(词库):来源于大量真实文本的加工和训练

* 中科院ictclas中文分词系统

中科院的ictclas应该是国内做得最好的中文分词系统了,例子使用的Rwordseg分词包就是基于ictclas算法实现,具体算法思路可在其官网贴出的相关论文学习到:( http://www.ictclas.org/

本站仅提供存储服务,所有内容均由用户发布,如发现有害或侵权内容,请点击举报
打开APP,阅读全文并永久保存 查看更多类似文章
猜你喜欢
类似文章
【热】打开小程序,算一算2024你的财运
用R进行文本挖掘与分析:分词、画词云
用R进行文本分析初探——以《红楼梦》为例
Rwordseg | Lijian's Homepage
文本相似度计算--余弦定理和广义Jaccard系数
我分析了《用商业案例学R语言数据挖掘》书评,告诉你R有多火
中文分词初体验
更多类似文章 >>
生活服务
热点新闻
分享 收藏 导长图 关注 下载文章
绑定账号成功
后续可登录账号畅享VIP特权!
如果VIP功能使用有故障,
可点击这里联系客服!

联系客服