6个高效的语言处理Python库,你用过几个?

最近一段时间Python已经成为数据科学行业中大火的编程语言,今天技术学派收集了一些较为高效的语言处理Python库。下面分享给大家。

我们提供的服务有:成都做网站、成都网站制作、成都外贸网站建设、微信公众号开发、网站优化、网站认证、孟州ssl等。为近1000家企事业单位解决了网站和推广的问题。提供周到的售前咨询和贴心的售后服务,是有科学管理、有技术的孟州网站制作公司

1.NLTK

NLTK是构建Python程序以处理人类语言数据的领先平台。它提供了易于使用的界面,以及用于分类、标记化、词干化、标记、分析和语义推理的一套文本处理库。用于工业强度NLP库的包装器。

项目地址:http://www.nltk.org/

2.Pattern

Pattern是Python编程语言的Web挖掘模块。它多有用于数据挖掘、自然语言处理、机器学习网络分析和可视化。

项目地址:https://pypi.org/project/pattern3/3.0.0/

3.Jieba

“结巴”中文分词:做***的 Python 中文分词组件。精确模式,试图将句子最精确地切开,适合文本分析;全模式,把句子中所有的可以成词的词语都扫描出来, 速度非常快,但是不能解决歧义;搜索引擎模式,在精确模式的基础上,对长词再次切分,提高召回率,适合用于搜索引擎分词。

项目地址:https://github.com/fxsjy/jieba

4.TextBlob

TextBlob是一个用于处理文本数据的Python库。它提供了一个简单的API用于常见的自然语言处理(NLP)任务,如词性标注,名词短语提取,情感分析,分类,翻译等。

项目地址:http://textblob.readthedocs.io/en/dev/

5.SnowNLP

SnowNLP是一个python写的类库,可以方便的处理中文文本内容,是受到了TextBlob的启发而写的,由于现在大部分的自然语言处理库基本都是针对英文的,于是写了一个方便处理中文的类库,并且和TextBlob不同的是,这里没有用NLTK,所有的算法都是自己实现的,并且自带了一些训练好的字典。注意本程序都是处理的unicode编码,所以使用时请自行decode成unicode。

 

项目地址:https://github.com/isnowfy/snownlp

6.TextGrocery

TextGrocery是一个基于LibLinear和结巴分词的短文本分类工具,特点是高效易用,同时支持中文和英文语料。

 

项目地址:https://github.com/2shou/TextGrocery

网站名称:6个高效的语言处理Python库,你用过几个?
本文URL:http://www.hantingmc.com/qtweb/news3/482503.html

网站建设、网络推广公司-创新互联,是专注品牌与效果的网站制作,网络营销seo公司;服务项目有等

广告

声明:本网站发布的内容(图片、视频和文字)以用户投稿、用户转载内容为主,如果涉及侵权请尽快告知,我们将会在第一时间删除。文章观点不代表本网站立场,如需处理请联系客服。电话:028-86922220;邮箱:631063699@qq.com。内容未经允许不得转载,或转载时需注明来源: 创新互联