Skip to content

Commit

Permalink
Update README.md
Browse files Browse the repository at this point in the history
Modify ReadMe.md
  • Loading branch information
gzp9595 authored Mar 26, 2017
1 parent 2582693 commit 4fb1332
Showing 1 changed file with 28 additions and 28 deletions.
56 changes: 28 additions & 28 deletions README.md
Original file line number Diff line number Diff line change
@@ -1,5 +1,5 @@
# THULAC:一个高效的中文词法分析工具包
##目录
## 目录
* [项目介绍](#项目介绍)
* [编译和安装](#编译和安装)
* [使用方式](#使用方式)
Expand All @@ -13,29 +13,29 @@
* [相关论文](#相关论文)
* [作者](#作者)

##项目介绍
## 项目介绍

THULAC(THU Lexical Analyzer for Chinese)由清华大学自然语言处理与社会人文计算实验室研制推出的一套中文词法分析工具包,具有中文分词和词性标注功能。THULAC具有如下几个特点:

1. 能力强。利用我们集成的目前世界上规模最大的人工分词和词性标注中文语料库(约含5800万字)训练而成,模型标注能力强大。
2. 准确率高。该工具包在标准数据集Chinese Treebank(CTB5)上分词的F1值可达97.3%,词性标注的F1值可达到92.9%,与该数据集上最好方法效果相当。
3. 速度较快。同时进行分词和词性标注速度为300KB/s,每秒可处理约15万字。只进行分词速度可达到1.3MB/s。

##编译和安装
## 编译和安装
* C++版

在当前路径下运行
make
会在当前目录下得到thulac和train_c
##使用方式
###1.分词和词性标注程序
####1.1.命令格式
## 使用方式
### 1.分词和词性标注程序
#### 1.1.命令格式
* C++版
* ./thulac [-t2s] [-seg_only] [-deli delimeter] [-user userword.txt] 从命令行输入输出
* ./thulac [-t2s] [-seg_only] [-deli delimeter] [-user userword.txt] [-intput inputfile] [-output outputfile] 从文本文件输入输出(注意均为UTF8文本)

####1.2.通用参数
#### 1.2.通用参数
-t2s 将句子从繁体转化为简体
-seg_only 只进行分词,不进行词性标注
-deli delimeter 设置词与词性间的分隔符,默认为下划线_
Expand All @@ -45,13 +45,13 @@ THULAC(THU Lexical Analyzer for Chinese)由清华大学自然语言处理与
-input inputfile 设置输入文件地址
-output outputfile 设置输出文件地址

####1.3.接口使用示例
#### 1.3.接口使用示例

新版的THULAC提供了分词和词性标注接口,将`include文件夹`拷贝到自己工程下的`include`中,通过在程序中引用`include"thulac.h"`,即可调用thulac提供的功能。

具体的使用方法可以参考`src/thulac.cc`文件。

####1.4.接口参数
#### 1.4.接口参数

首先需要实例化`THULAC类`,然后可以调用以下接口:

Expand All @@ -67,25 +67,25 @@ THULAC(THU Lexical Analyzer for Chinese)由清华大学自然语言处理与

`THULAC_result`类型为`std::vector<std::pair<std::string, std::string> >`的重定义。即`cut函数`返回结果为`std::vector<std::pair<分词,词性> >`。如果只分词,那么词性会是''(空字符串)。

####1.5.分词和词性标注模型的使用
#### 1.5.分词和词性标注模型的使用

THULAC需要分词和词性标注模型的支持,用户可以登录[thulac.thunlp.org](http://thulac.thunlp.org)网站填写个人信息进行下载,并放到THULAC的根目录即可,或者使用参数`-model_dir dir`指定模型的位置。

###2.模型训练程序
### 2.模型训练程序
模型训练程序train_c是THULAC分词模型的训练程序,用户可以使用train_c训练获得THULAC的分词模型。

####2.1.命令格式
#### 2.1.命令格式

./train_c [-s separator] [-b bigram_threshold] [-i iteration] training_filename model_filename
使用training_filename为训练集,训练出来的模型名字为model_filename

####2.2.参数意义
#### 2.2.参数意义
-s 设置词与词性间的分隔符,默认为斜线/
-b 设置二字串的阀值,默认为1
-i 设置训练迭代的轮数,默认为15
####2.3.训练集格式
#### 2.3.训练集格式
我们使用默认的分隔符(斜线/)作为例子,训练集内容应为

我/r 爱/vm 北京/ns 天安门/ns
Expand All @@ -98,13 +98,13 @@ THULAC需要分词和词性标注模型的支持,用户可以登录[thulac.thu

类似的句子。

####2.4.使用训练出的模型
#### 2.4.使用训练出的模型
将训练出来的模型覆盖原来models中的对应模型,之后执行分词程序即可使用训练出来的模型。

###3.获取模型
### 3.获取模型
获取已经训练好的THULAC模型,请登录[thulac.thunlp.org](http://thulac.thunlp.org)网站填写个人信息进行下载。

##代表分词软件的性能对比
## 代表分词软件的性能对比
我们选择LTP、ICTCLAS、结巴分词等国内代表分词软件与THULAC做性能比较。我们选择Windows作为测试环境,根据第二届国际汉语分词测评发布的国际中文分词测评标准,对不同软件进行了速度和准确率测试。

在第二届国际汉语分词测评中,共有四家单位提供的测试语料(Academia Sinica、 City University 、Peking University 、Microsoft Research), 在评测提供的资源[icwb2-data](http://www.sighan.org/bakeoff2005/)中包含了来自这四家单位的训练集(training)、测试集(testing), 以及根据各自分词标准而提供的相应测试集的标准答案(icwb2-data/scripts/gold).在icwb2-data/scripts目录下含有对分词进行自动评分的perl脚本score。
Expand Down Expand Up @@ -140,39 +140,39 @@ CNKI_journal.txt(51 MB)
|jieba|22.5583s|2314.89KB/s|
|THULAC | 42.625s | 1221.05KB/s|

##词性解释
## 词性解释
n/名词 np/人名 ns/地名 ni/机构名 nz/其它专名
m/数词 q/量词 mq/数量词 t/时间词 f/方位词 s/处所词
v/动词 vm/能愿动词 vd/趋向动词 a/形容词 d/副词
h/前接成分 k/后接成分 i/习语 j/简称
r/代词 c/连词 p/介词 u/助词 y/语气助词
e/叹词 o/拟声词 g/语素 w/标点 x/其它

##THULAC模型介绍
## THULAC模型介绍
1. 我们随THULAC源代码附带了简单的分词模型Model_1,仅支持分词功能。该模型由人民日报分词语料库训练得到。

2. 我们随THULAC源代码附带了分词和词性标注联合模型Model_2,支持同时分词和词性标注功能。该模型由人民日报分词和词性标注语料库训练得到。

3. 我们还提供更复杂、完善和精确的分词和词性标注联合模型Model_3和分词词表。该模型是由多语料联合训练训练得到(语料包括来自多文体的标注文本和人民日报标注文本等)。由于模型较大,如有机构或个人需要,请填写“doc/资源申请表.doc”,并发送至 [email protected] ,通过审核后我们会将相关资源发送给联系人。


##注意事项
## 注意事项

该工具目前仅处理UTF8编码中文文本,之后会逐渐增加支持其他编码的功能,敬请期待。

##其他语言实现
## 其他语言实现

###THULAC(Java版)
### THULAC(Java版)
[https://github.com/thunlp/THULAC-Java](https://github.com/thunlp/THULAC-Java)

###THULAC(Python版)
### THULAC(Python版)
[https://github.com/thunlp/THULAC-Python](https://github.com/thunlp/THULAC-Python)

###THULAC(so版)
### THULAC(so版)
[https://github.com/thunlp/THULAC.so](https://github.com/thunlp/THULAC.so)


##历史
## 历史

|更新时间 | 更新内容|
|:------------|:-------------:|
Expand All @@ -182,7 +182,7 @@ CNKI_journal.txt(51 MB)
|2016-01-10| 开源THULAC分词工具C++版本。|


##开源协议
## 开源协议
1. THULAC面向国内外大学、研究所、企业以及个人用于研究目的免费开放源代码。
2. 如有机构或个人拟将THULAC用于商业目的,请发邮件至[email protected]洽谈技术许可协议。
3. 欢迎对该工具包提出任何宝贵意见和建议。请发邮件至[email protected]
Expand All @@ -193,10 +193,10 @@ CNKI_journal.txt(51 MB)
* **英文: Maosong Sun, Xinxiong Chen, Kaixu Zhang, Zhipeng Guo, Zhiyuan Liu. THULAC: An Efficient Lexical Analyzer for Chinese. 2016.**

##相关论文
## 相关论文
* Zhongguo Li, Maosong Sun. Punctuation as Implicit Annotations for Chinese Word Segmentation. Computational Linguistics, vol. 35, no. 4, pp. 505-512, 2009.


##作者
## 作者

Maosong Sun (孙茂松,导师), Xinxiong Chen(陈新雄,博士生), Kaixu Zhang (张开旭,硕士生), Zhipeng Guo(郭志芃,本科生), Zhiyuan Liu(刘知远,助理教授).

0 comments on commit 4fb1332

Please sign in to comment.