Skip to content

Commit

Permalink
update readme
Browse files Browse the repository at this point in the history
  • Loading branch information
yuwl798180 committed Dec 3, 2019
1 parent f54009a commit 9d982c1
Show file tree
Hide file tree
Showing 2 changed files with 2 additions and 2 deletions.
2 changes: 1 addition & 1 deletion README.md
Original file line number Diff line number Diff line change
Expand Up @@ -137,7 +137,7 @@ sentence|relation|head|head_offset|tail|tail_offset

- 按照 BERT 训练方式,对新任务语料按照语言模型方式预训练。

1. 目前在单句上使用 GCN 时,需要先做句法分析,构建出词语之间的邻接矩阵(句法树相邻的边值设为1,不相邻为0)。目前使用的是 `pyhanlp` 工具构建语法树。这个工具需要按照 java 包,具体使用见 [pyhanlp]https://github.com/hankcs/pyhanlp) 的介绍。
1. 在单句上使用 GCN 时,需要先做句法分析,构建出词语之间的邻接矩阵(句法树相邻的边值设为1,不相邻为0)。目前使用的是 `pyhanlp` 工具构建语法树。这个工具需要按照 java 包,具体使用见 [pyhanlp](https://github.com/hankcs/pyhanlp) 的介绍。


## 后续工作
Expand Down
2 changes: 1 addition & 1 deletion pretrained/readme.md
Original file line number Diff line number Diff line change
@@ -1,4 +1,4 @@
此文件夹下存放预训练的 BERT 文件
此文件夹下存放预训练模型参数的文件夹,如 BERT

中文 BERT 推荐使用哈工大发布的中文全词遮掩预训练模型 [BERT-wmm](https://github.com/ymcui/Chinese-BERT-wwm),而且提供讯飞云下载,国内下载速度很快,具体链接见上述网址。

Expand Down

0 comments on commit 9d982c1

Please sign in to comment.