1. python搜索文本文件中的中文词汇并输出词汇所在行的内容
for lnum, line in enumerate(open('ur path')):
if 'key' in line:
print(lnum, line)
2. Python的关键字与符号的中英文对照与意义
python精要参考,
这是我觉得最精简,最方便的书了
http://www.google.com/search?source=ig&hl=zh-CN&rlz=&=&q=python%E7%B2%BE%E8%A6%81&btnG=Google+%E6%90%9C%E7%B4%A2&meta=lr%3D
没别的意思,这是我觉得除了python官方文档最好的一本中文书了
因为你要中文,其实英文有一些不错的书,官方文档就很好
中文很多书只知道到处英文书籍+翻译,质量参差不齐.
拜师就不用了,有问题问吧,很多高人呢
3. python 对一段英文文本整理
>>> s= "D-typed variables, Python; really?!! god's 'its "
>>> reg=re.compile(r"\w+[.,;'\"!?-]\w+|\w+|[.,;'\"!?-]")
>>> reg.findall(s)
['D-typed', 'variables', ',', 'Python', ';', 'really', '?', '!', '!', "god's", "'", 'its']
>>>
4. 用python找出一篇文章中词频最高的20个单词
import re
from collections import Counter
from matplotlib.pyplot import pie,show
f = 't.txt'
c = Counter(re.findall(r'(w{3,})',open(f).read().lower())).most_common(20)
pie([i[1] for i in c],labels=[i[0] for i in c])
show()
5. python需要记住哪几十个单词
楼上的程序存在诸多问题,如没有处理标点,文件读取方法错误等。请问楼主要区分大小写吗?如果区分的话,就按照下面的来: import re def get_word_frequencies(file_name): dic = {} txt = open(filename, 'r').read().splitlines() #下面这句替换了除了'-'外的所有标点,因为'-'可能存在于单词中。 txt = re.sub(r'[^\u4e00-\u94a5\w\d\-]', ' ', txt) #替换单独的'-' txt = re.sub(r' - ', ' ', txt) for line in : for word in line.split(): #如果不区分大小写,那就一律按照小写处理,下面那句改为dic.setdefault(word.lower(), 0) dic.setdefault(word, 0) dic[word] += 1 print dic if __name__ = '__main__': get_word_frequencies('test.txt') 有问题继续追问吧
6. Python的基本术语有哪些
Python解释器
Python文本编辑器
Python代码运行助手
输入和输出
Python基础
数据类型和变量
字符串和编码
使用list和tuple
条件判断
循环
使用dict和set
函数
调用函数
定义函数
函数的参数
递归函数
高级特性
切片
迭代
列表生成式
生成器
迭代器
函数式编程
高阶函数
map/rece
filter
sorted
返回函数
匿名函数
装饰器
偏函数
模块
使用模块
安装第三方模块
面向对象编程
类和实例
访问限制
继承和多态
获取对象信息
实例属性和类属性
面向对象高级编程
使用__slots__
使用@property
多重继承
定制类
使用枚举类
使用元类
错误、调试和测试
错误处理
调试
单元测试
文档测试
IO编程
文件读写
StringIO和BytesIO
操作文件和目录
序列化
进程和线程
多进程
多线程
ThreadLocal
进程 vs. 线程
分布式进程
正则表达式
常用内建模块
datetime
collections
base64
struct
hashlib
hmac
itertools
contextlib
urllib
XML
HTMLParser
常用第三方模块
Pillow
requests
chardet
psutil
virtualenv
图形界面
网络编程
TCP/IP简介
TCP编程
UDP编程
电子邮件
SMTP发送邮件
POP3收取邮件
访问数据库
使用SQLite
使用MySQL
使用SQLAlchemy
Web开发
HTTP协议简介
HTML简介
WSGI接口
使用Web框架
使用模板
异步IO
协程
asyncio
async/await
aiohttp
7. python中如何用一个英文单词对应多个中文意思
字典就可以
myTran = {'like':'喜欢;爱','wait':'等;等待'}
8. Python编程需要记住哪些英语词汇
这个,没必要专门记吧,用到了现查,装个有道词典或词霸什么就行了。平时可以不妨试试登录python官网,查查资料什么的,慢慢就熟悉了。
9. Python中,已经得到一个包含所有单词的词典,如何统计词典中的单词在每一句话中出现的次数
众所周知,英文是以词为单位的,词和词之间是靠空格隔开,而中文是以字为单位,句子中所有的字连起来才能描述一个意思。例如,英文句子I am a student,用中文则为:“我是一个学生”。计算机可以很简单通过空格知道student是一个单词,但是不能很容易明白“学”、“生”两个字合起来才表示一个词。把中文的汉字序列切分成有意义的词,就是中文分词,有些人也称为切词。我是一个学生,分词的结果是:我 是 一个 学生。
中文分词技术属于自然语言处理技术范畴,对于一句话,人可以通过自己的知识来明白哪些是词,哪些不是词,但如何让计算机也能理解?其处理过程就是分词算法。
现有的分词算法可分为三大类:基于字符串匹配的分词方法、基于理解的分词方法和基于统计的分词方法。
1、基于字符串匹配的分词方法
这种方法又叫做机械分词方法,它是按照一定的策略将待分析的汉字串与一个“充分大的”机器词典中的词条进行配,若在词典中找到某个字符串,则匹配成功(识别出一个词)。按照扫描方向的不同,串匹配分词方法可以分为正向匹配和逆向匹配;按照不同长度优先匹配的情况,可以分为最大(最长)匹配和最小(最短)匹配;按照是否与词性标注过程相结合,又可以分为单纯分词方法和分词与标注相结合的一体化方法。常用的几种机械分词方法如下:
1)正向最大匹配法(由左到右的方向);
2)逆向最大匹配法(由右到左的方向);
3)最少切分(使每一句中切出的词数最小)。
还可以将上述各种方法相互组合,例如,可以将正向最大匹配方法和逆向最大匹配方法结合起来构成双向匹配法。由于汉语单字成词的特点,正向最小匹配和逆向最小匹配一般很少使用。一般说来,逆向匹配的切分精度略高于正向匹配,遇到的歧义现象也较少。统计结果表明,单纯使用正向最大匹配的错误率为1/169,单纯使用逆向最大匹配的错误率为1/245。但这种精度还远远不能满足实际的需要。实际使用的分词系统,都是把机械分词作为一种初分手段,还需通过利用各种其它的语言信息来进一步提高切分的准确率。
一种方法是改进扫描方式,称为特征扫描或标志切分,优先在待分析字符串中识别和切分出一些带有明显特征的词,以这些词作为断点,可将原字符串分为较小的串再来进机械分词,从而减少匹配的错误率。另一种方法是将分词和词类标注结合起来,利用丰富的词类信息对分词决策提供帮助,并且在标注过程中又反过来对分词结果进行检验、调整,从而极大地提高切分的准确率。
对于机械分词方法,可以建立一个一般的模型,在这方面有专业的学术论文,这里不做详细论述。
2、基于理解的分词方法
这种分词方法是通过让计算机模拟人对句子的理解,达到识别词的效果。其基本思想就是在分词的同时进行句法、语义分析,利用句法信息和语义信息来处理歧义现象。它通常包括三个部分:分词子系统、句法语义子系统、总控部分。在总控部分的协调下,分词子系统可以获得有关词、句子等的句法和语义信息来对分词歧义进行判断,即它模拟了人对句子的理解过程。这种分词方法需要使用大量的语言知识和信息。由于汉语语言知识的笼统、复杂性,难以将各种语言信息组织成机器可直接读取的形式,因此目前基于理解的分词系统还处在试验阶段。
3、基于统计的分词方法
从形式上看,词是稳定的字的组合,因此在上下文中,相邻的字同时出现的次数越多,就越有可能构成一个词。因此字与字相邻共现的频率或概率能够较好的反映成词的可信度。可以对语料中相邻共现的各个字的组合的频度进行统计,计算它们的互现信息。定义两个字的互现信息,计算两个汉字X、Y的相邻共现概率。互现信息体现了汉字之间结合关系的紧密程度。当紧密程度高于某一个阈值时,便可认为此字组可能构成了一个词。这种方法只需对语料中的字组频度进行统计,不需要切分词典,因而又叫做无词典分词法或统计取词方法。但这种方法也有一定的局限性,会经常抽出一些共现频度高、但并不是词的常用字组,例如“这一”、“之一”、“有的”、“我的”、“许多的”等,并且对常用词的识别精度差,时空开销大。实际应用的统计分词系统都要使用一部基本的分词词典(常用词词典)进行串匹配分词,同时使用统计方法识别一些新的词,即将串频统计和串匹配结合起来,既发挥匹配分词切分速度快、效率高的特点,又利用了无词典分词结合上下文识别生词、自动消除歧义的优点。
到底哪种分词算法的准确度更高,目前并无定论。对于任何一个成熟的分词系统来说,不可能单独依靠某一种算法来实现,都需要综合不同的算法。笔者了解,海量科技的分词算法就采用“复方分词法”,所谓复方,相当于用中药中的复方概念,即用不同的药才综合起来去医治疾病,同样,对于中文词的识别,需要多种算法来处理不同的问题。
10. 确定这些是python中的词汇表吗
自己写就太费事了,不如基于OCR的已有项目去调用去封装吧。。 Python调用Tesseract的DEMO,可以去看看。