zoukankan      html  css  js  c++  java
  • Python自然语言处理资料库

        

        1、LTP [1]- 语言技术平台(LTP) 提供包括中文分词、词性标注、命名实体识别、依存句法分析、语义角色标注等丰富、 高效、精准的自然语言处理技术。经过哈工大社会计算与信息检索研究中心 11 年的持续研发和推广,

          LTP 已经成为国内外最具影响力的中文处理基础平台。

        2、NLPIR汉语分词系统 [2]- 又名ICTCLAS2013,主要功能包括中文分词;词性标注;命名实体识别;用户词典功能;支持GBK编码、UTF8编码、BIG5编码。新增微博分词、新词发现与关键词提取。

        3、结巴中文分词 [3]- 支持三种分词模式:精确模式,试图将句子最精确地切开,适合文本分析;全模式,把句子中所有的可以成词的词语都扫描出来,速度非常快,但是不能解决歧义;搜索引擎模式,

          在精确模式的基础上,对长词再次切分,提高召回率,适合用于搜索引擎分词。支持繁体分词;支持自定义词典。

        4、Boson中文语义开放平台 [4]- Boson中文语义开放平台提供使用简单、功能强大、性能可靠的中文自然语言分析云服务。通过自主研发的中文分词、句法分析、语义联想和实体识别技术,结合海量行业语料的不断积累,

          为企业和广大开发者提供简单、强大、可靠的中文语义分析云端API。

        5、NLPCN [5]- NLPCN是一个非盈利的自然语言处理组织。遵循开放自由的理念,乐于分享,勤于开源,为为数不多的数据处理的开发者提供了一个资源共享,开源项目介绍,开发者展示的平台。

        6、THUCTC [6]- 是由清华大学自然语言处理实验室推出的中文文本分类工具包,能够自动高效地实现用户自定义的文本分类语料的训练、评测、分类功能。文本文类通常包括特征选取、特征降维、分类模型学习三个步骤。

        7、SnowNLP [7]- 一个用来处理中文文本的库。它是一个python写的类库,可以方便的处理中文文本内容,是受到了TextBlob的启发而写,由于现在大部分的自然语言处理库基本都是针对英文的,

          于是写了一个方便处理中文的类库,并且和TextBlob不同的是,这里没有用NLTK,所有的算法都是自己实现的,并且自带了一些训练好的字典。

        8、TextGrocery [8]- 简单高效的短文本分类工具,基于 LibLinear 和 Jieba。

  • 相关阅读:
    RAISERROR (Transact-SQL)的用法
    Eclipse 工程中set() get()等方法报错的解决方法
    SqlServer单步调试
    centOS7 查看防火墙状态
    如何查看Linux端口占用情况
    异常处理机制(Begin try Begin Catch)
    inner join 、left join 、right join 和full join的区别
    Emacs 快速指南
    x01.DiamondIDE: hello ide
    剑指offer大总结
  • 原文地址:https://www.cnblogs.com/shaosks/p/8409945.html
Copyright © 2011-2022 走看看