打开APP
userphoto
未登录

开通VIP,畅享免费电子书等14项超值服

开通VIP
软工作业3—词频统计

一、案例课程分析

1.编译环境

pycharm2018、python3.7

2.读文件到缓存区(process_file(dst))

def process_file(dst):  # 读文件到缓冲区
try: # 打开文件
f = open(dst, 'r') # dst为文本的目录路径
except IOError as s:
print(s)
return None
try: # 读文件到缓冲区
bvffer = f.read()
except:
print('Read File Error!')
return None
f.close()
return bvffer

3.处理缓冲区,返回存有词频数据的字典(process_buffer(bvffer))

def process_buffer(bvffer):
if bvffer:
word_freq = {} # 下面添加处理缓冲区 bvffer代码,统计每个单词的频率,存放在字典word_freq
bvffer = bvffer.lower() # 将文本内容都改为小写
for ch in '“‘!;,.?”': # 除去文本中的中英文标点符号
bvffer = bvffer.replace(ch, " ")
words = bvffer.strip().split()
# strip()删除空白符(包括'/n', '/r','/t');split()以空格分割字符串
for word in words:
word_freq[word] = word_freq.get(word, 0) 1
return word_freq

4.输出词频前十的单词(output_result(world_freq))

def output_result(word_freq):
if word_freq:
# 根据v[1]即词频数量排序
sorted_word_freq = sorted(word_freq.items(), key=lambda v: v[1], reverse=True)
for item in sorted_word_freq[:10]: # 输出 Top 10 的单词
print("词:%-5s 频:%-4d " % (item[0], item[1]))

5.主函数对之前的函数进行整合(main())

   if __name__ == "__main__":   dst = 'src/Gone_with_the_wind.txt'  # 《飘》文件的路径   bvffer = process_file(dst)   word_freq = process_buffer(bvffer)   output_result(word_freq)

6.性能分析

为了方便测试,将原来的运行词频的代码卸载main函数中

def main():
dst = 'Gone_with_the_wind.txt' # 《飘》文件的路径
bvffer = process_file(dst)
word_freq = process_buffer(bvffer)
output_result(word_freq)
主函数入口改为性能分析的代码
if __name__ == "__main__":
cProfile.run("main()", "result")
# 把分析结果保存到文件中,不过内容可读性差...需要调用pstats模块分析结果
p = pstats.Stats("result") # 创建Stats对象
p.strip_dirs().sort_stats("call").print_stats() # 按照调用的次数排序
p.strip_dirs().sort_stats("cumulative").print_stats() # 按执行时间次数排序
# 根据上面2行代码的结果发现函数process_buffer最耗时间
p.print_callees("process_buffer") # 查看process_buffer()函数中调用了哪些函数

二、程序运行命令、运行结果截图

《飘》文本文件的词频统计运行截图

 

三、性能分析结果及改进

1.总运行时间

 

2.执行次数最多的部分代码

 

3.执行时间最多的部分代码

来源:http://www.icode9.com/content-4-44951.html
本站仅提供存储服务,所有内容均由用户发布,如发现有害或侵权内容,请点击举报
打开APP,阅读全文并永久保存 查看更多类似文章
猜你喜欢
类似文章
【热】打开小程序,算一算2024你的财运
新浪微博文本分析初探 | 统计之都
用R进行文本挖掘与分析:分词、画词云【2】
中文分词实践(基于R语言)
基于word文档,使用Python输出关键词和词频,并将关键词的词性也标注出来
绘图系列|R-wordcloud2包绘制词云
基于python中jieba包的中文分词中详细使用(一)
更多类似文章 >>
生活服务
热点新闻
分享 收藏 导长图 关注 下载文章
绑定账号成功
后续可登录账号畅享VIP特权!
如果VIP功能使用有故障,
可点击这里联系客服!

联系客服