十年网站开发经验 + 多家企业客户 + 靠谱的建站团队
量身定制 + 运营维护+专业推广+无忧售后,网站问题一站解决
这篇文章主要介绍了python如何实现统计汉字/英文单词数的正则表达式,具有一定借鉴价值,感兴趣的朋友可以参考下,希望大家阅读完这篇文章之后大有收获,下面让小编带着大家一起了解一下。
专注于为中小企业提供网站设计、网站制作服务,电脑端+手机端+微信端的三站合一,更高效的管理,为中小企业崇礼免费做网站提供优质的服务。我们立足成都,凝聚了一批互联网行业人才,有力地推动了上千多家企业的稳健成长,帮助中小企业通过网站建设实现规模扩充和转变。思路
•使用正则式 "(?x) (?: [\w-]+ | [\x80-\xff]{3} )"获得utf-8文档中的英文单词和汉字的列表。
•使用dictionary来记录每个单词/汉字出现的频率,如果出现过则+1,如果没出现则置1。
•将dictionary按照value排序,输出。
源码
#!/usr/bin/python # -*- coding: utf-8 -*- # #author: rex #blog: /tupian/20230522/ #filename counter.py #created: Mon Sep 20 21:00:52 2010 #desc: convert .py file to html with VIM. import sys import re from operator import itemgetter def readfile(f): with file(f,"r") as pFile: return pFile.read() def divide(c, regex): #the regex below is only valid for utf8 coding return regex.findall(c) def update_dict(di,li): for i in li: if di.has_key(i): di[i]+=1 else: di[i]=1 return di def main(): #receive files from bash files=sys.argv[1:] #regex compile only once regex=re.compile("(?x) (?: [\w-]+ | [\x80-\xff]{3} )") dict={} #get all words from files for f in files: words=divide(readfile(f), regex) dict=update_dict(dict, words) #sort dictionary by value #dict is now a list. dict=sorted(dict.items(), key=itemgetter(1), reverse=True) #output to standard-output for i in dict: print i[0], i[1] if __name__=='__main__': main()
Tips
由于使用了files=sys.argv[1:] 来接收参数,因此./counter.py file1 file2 ...可以将参数指定的文件的词频累加计算输出。
可以自定义该程序。例如,
•使用
regex=re.compile("(?x) ( [\w-]+ | [\x80-\xff]{3} )") words=[w for w in regex.split(line) if w]
这样得到的列表是包含分隔符在内的单词列表,方便于以后对全文分词再做操作。
•以行为单位处理文件,而不是将整个文件读入内存,在处理大文件时可以节约内存。
•可以使用这样的正则表达式先对整个文件预处理一下,去掉可能的html tags: content=re.sub(r"<[^>]+","",content),这样的结果对于某些文档更精确。
感谢你能够认真阅读完这篇文章,希望小编分享的“python如何实现统计汉字/英文单词数的正则表达式”这篇文章对大家有帮助,同时也希望大家多多支持创新互联网站建设公司,,关注创新互联行业资讯频道,更多相关知识等着你来学习!