summaryrefslogtreecommitdiff
diff options
context:
space:
mode:
-rw-r--r--.gitignore1
-rw-r--r--python-spacy-pkuseg.spec625
-rw-r--r--sources1
3 files changed, 627 insertions, 0 deletions
diff --git a/.gitignore b/.gitignore
index e69de29..fd5cff8 100644
--- a/.gitignore
+++ b/.gitignore
@@ -0,0 +1 @@
+/spacy_pkuseg-0.0.32.tar.gz
diff --git a/python-spacy-pkuseg.spec b/python-spacy-pkuseg.spec
new file mode 100644
index 0000000..9708605
--- /dev/null
+++ b/python-spacy-pkuseg.spec
@@ -0,0 +1,625 @@
+%global _empty_manifest_terminate_build 0
+Name: python-spacy-pkuseg
+Version: 0.0.32
+Release: 1
+Summary: Chinese word segmentation toolkit for spaCy (fork of pkuseg-python)
+License: MIT
+URL: https://github.com/explosion/spacy-pkuseg
+Source0: https://mirrors.nju.edu.cn/pypi/web/packages/64/d2/1b8c54075d4acbe8587f25bb69b38fef617af78cfb6502381eba0703dd53/spacy_pkuseg-0.0.32.tar.gz
+
+Requires: python3-numpy
+Requires: python3-srsly
+
+%description
+# pkuseg:一个多领域中文分词工具包 [**(English Version)**](readme/readme_english.md)
+pkuseg 是基于论文[[Luo et. al, 2019](#论文引用)]的工具包。其简单易用,支持细分领域分词,有效提升了分词准确度。
+## 目录
+* [主要亮点](#主要亮点)
+* [编译和安装](#编译和安装)
+* [各类分词工具包的性能对比](#各类分词工具包的性能对比)
+* [使用方式](#使用方式)
+* [论文引用](#论文引用)
+* [作者](#作者)
+* [常见问题及解答](#常见问题及解答)
+## 主要亮点
+pkuseg具有如下几个特点:
+1. 多领域分词。不同于以往的通用中文分词工具,此工具包同时致力于为不同领域的数据提供个性化的预训练模型。根据待分词文本的领域特点,用户可以自由地选择不同的模型。 我们目前支持了新闻领域,网络领域,医药领域,旅游领域,以及混合领域的分词预训练模型。在使用中,如果用户明确待分词的领域,可加载对应的模型进行分词。如果用户无法确定具体领域,推荐使用在混合领域上训练的通用模型。各领域分词样例可参考 [**example.txt**](https://github.com/lancopku/pkuseg-python/blob/master/example.txt)。
+2. 更高的分词准确率。相比于其他的分词工具包,当使用相同的训练数据和测试数据,pkuseg可以取得更高的分词准确率。
+3. 支持用户自训练模型。支持用户使用全新的标注数据进行训练。
+4. 支持词性标注。
+## 编译和安装
+- 目前**仅支持python3**
+- **为了获得好的效果和速度,强烈建议大家通过pip install更新到目前的最新版本**
+1. 通过PyPI安装(自带模型文件):
+ ```
+ pip3 install pkuseg
+ 之后通过import pkuseg来引用
+ ```
+ **建议更新到最新版本**以获得更好的开箱体验:
+ ```
+ pip3 install -U pkuseg
+ ```
+2. 如果PyPI官方源下载速度不理想,建议使用镜像源,比如:
+ 初次安装:
+ ```
+ pip3 install -i https://pypi.tuna.tsinghua.edu.cn/simple pkuseg
+ ```
+ 更新:
+ ```
+ pip3 install -i https://pypi.tuna.tsinghua.edu.cn/simple -U pkuseg
+ ```
+3. 如果不使用pip安装方式,选择从GitHub下载,可运行以下命令安装:
+ ```
+ python setup.py build_ext -i
+ ```
+ GitHub的代码并不包括预训练模型,因此需要用户自行下载或训练模型,预训练模型可详见[release](https://github.com/lancopku/pkuseg-python/releases)。使用时需设定"model_name"为模型文件。
+注意:**安装方式1和2目前仅支持linux(ubuntu)、mac、windows 64 位的python3版本**。如果非以上系统,请使用安装方式3进行本地编译安装。
+## 各类分词工具包的性能对比
+我们选择jieba、THULAC等国内代表分词工具包与pkuseg做性能比较,详细设置可参考[实验环境](readme/environment.md)。
+#### 细领域训练及测试结果
+以下是在不同数据集上的对比结果:
+| MSRA | Precision | Recall | F-score |
+| :----- | --------: | -----: | --------: |
+| jieba | 87.01 | 89.88 | 88.42 |
+| THULAC | 95.60 | 95.91 | 95.71 |
+| pkuseg | 96.94 | 96.81 | **96.88** |
+| WEIBO | Precision | Recall | F-score |
+| :----- | --------: | -----: | --------: |
+| jieba | 87.79 | 87.54 | 87.66 |
+| THULAC | 93.40 | 92.40 | 92.87 |
+| pkuseg | 93.78 | 94.65 | **94.21** |
+#### 默认模型在不同领域的测试效果
+考虑到很多用户在尝试分词工具的时候,大多数时候会使用工具包自带模型测试。为了直接对比“初始”性能,我们也比较了各个工具包的默认模型在不同领域的测试效果。请注意,这样的比较只是为了说明默认情况下的效果,并不一定是公平的。
+| Default | MSRA | CTB8 | PKU | WEIBO | All Average |
+| ------- | :---: | :---: | :---: | :---: | :---------: |
+| jieba | 81.45 | 79.58 | 81.83 | 83.56 | 81.61 |
+| THULAC | 85.55 | 87.84 | 92.29 | 86.65 | 88.08 |
+| pkuseg | 87.29 | 91.77 | 92.68 | 93.43 | **91.29** |
+其中,`All Average`显示的是在所有测试集上F-score的平均。
+更多详细比较可参见[和现有工具包的比较](readme/comparison.md)。
+## 使用方式
+#### 代码示例
+以下代码示例适用于python交互式环境。
+代码示例1:使用默认配置进行分词(**如果用户无法确定分词领域,推荐使用默认模型分词**)
+```python3
+import pkuseg
+seg = pkuseg.pkuseg() # 以默认配置加载模型
+text = seg.cut('我爱北京天安门') # 进行分词
+print(text)
+```
+代码示例2:细领域分词(**如果用户明确分词领域,推荐使用细领域模型分词**)
+```python3
+import pkuseg
+seg = pkuseg.pkuseg(model_name='medicine') # 程序会自动下载所对应的细领域模型
+text = seg.cut('我爱北京天安门') # 进行分词
+print(text)
+```
+代码示例3:分词同时进行词性标注,各词性标签的详细含义可参考 [tags.txt](https://github.com/lancopku/pkuseg-python/blob/master/tags.txt)
+```python3
+import pkuseg
+seg = pkuseg.pkuseg(postag=True) # 开启词性标注功能
+text = seg.cut('我爱北京天安门') # 进行分词和词性标注
+print(text)
+```
+代码示例4:对文件分词
+```python3
+import pkuseg
+# 对input.txt的文件分词输出到output.txt中
+# 开20个进程
+pkuseg.test('input.txt', 'output.txt', nthread=20)
+```
+其他使用示例可参见[详细代码示例](readme/interface.md)。
+#### 参数说明
+模型配置
+```
+pkuseg.pkuseg(model_name = "default", user_dict = "default", postag = False)
+ model_name 模型路径。
+ "default",默认参数,表示使用我们预训练好的混合领域模型(仅对pip下载的用户)。
+ "news", 使用新闻领域模型。
+ "web", 使用网络领域模型。
+ "medicine", 使用医药领域模型。
+ "tourism", 使用旅游领域模型。
+ model_path, 从用户指定路径加载模型。
+ user_dict 设置用户词典。
+ "default", 默认参数,使用我们提供的词典。
+ None, 不使用词典。
+ dict_path, 在使用默认词典的同时会额外使用用户自定义词典,可以填自己的用户词典的路径,词典格式为一行一个词(如果选择进行词性标注并且已知该词的词性,则在该行写下词和词性,中间用tab字符隔开)。
+ postag 是否进行词性分析。
+ False, 默认参数,只进行分词,不进行词性标注。
+ True, 会在分词的同时进行词性标注。
+```
+对文件进行分词
+```
+pkuseg.test(readFile, outputFile, model_name = "default", user_dict = "default", postag = False, nthread = 10)
+ readFile 输入文件路径。
+ outputFile 输出文件路径。
+ model_name 模型路径。同pkuseg.pkuseg
+ user_dict 设置用户词典。同pkuseg.pkuseg
+ postag 设置是否开启词性分析功能。同pkuseg.pkuseg
+ nthread 测试时开的进程数。
+```
+模型训练
+```
+pkuseg.train(trainFile, testFile, savedir, train_iter = 20, init_model = None)
+ trainFile 训练文件路径。
+ testFile 测试文件路径。
+ savedir 训练模型的保存路径。
+ train_iter 训练轮数。
+ init_model 初始化模型,默认为None表示使用默认初始化,用户可以填自己想要初始化的模型的路径如init_model='./models/'。
+```
+#### 多进程分词
+当将以上代码示例置于文件中运行时,如涉及多进程功能,请务必使用`if __name__ == '__main__'`保护全局语句,详见[多进程分词](readme/multiprocess.md)。
+## 预训练模型
+从pip安装的用户在使用细领域分词功能时,只需要设置model_name字段为对应的领域即可,会自动下载对应的细领域模型。
+从github下载的用户则需要自己下载对应的预训练模型,并设置model_name字段为预训练模型路径。预训练模型可以在[release](https://github.com/lancopku/pkuseg-python/releases)部分下载。以下是对预训练模型的说明:
+- **news**: 在MSRA(新闻语料)上训练的模型。
+- **web**: 在微博(网络文本语料)上训练的模型。
+- **medicine**: 在医药领域上训练的模型。
+- **tourism**: 在旅游领域上训练的模型。
+- **mixed**: 混合数据集训练的通用模型。随pip包附带的是此模型。
+欢迎更多用户可以分享自己训练好的细分领域模型。
+## 版本历史
+详见[版本历史](readme/history.md)。
+## 开源协议
+1. 本代码采用MIT许可证。
+2. 欢迎对该工具包提出任何宝贵意见和建议,请发邮件至jingjingxu@pku.edu.cn。
+## 论文引用
+该代码包主要基于以下科研论文,如使用了本工具,请引用以下论文:
+* Ruixuan Luo, Jingjing Xu, Yi Zhang, Xuancheng Ren, Xu Sun. [PKUSEG: A Toolkit for Multi-Domain Chinese Word Segmentation](https://arxiv.org/abs/1906.11455). Arxiv. 2019.
+```
+@article{pkuseg,
+ author = {Luo, Ruixuan and Xu, Jingjing and Zhang, Yi and Ren, Xuancheng and Sun, Xu},
+ journal = {CoRR},
+ title = {PKUSEG: A Toolkit for Multi-Domain Chinese Word Segmentation.},
+ url = {https://arxiv.org/abs/1906.11455},
+ volume = {abs/1906.11455},
+ year = 2019
+}
+```
+## 其他相关论文
+* Xu Sun, Houfeng Wang, Wenjie Li. Fast Online Training with Frequency-Adaptive Learning Rates for Chinese Word Segmentation and New Word Detection. ACL. 2012.
+* Jingjing Xu and Xu Sun. Dependency-based gated recursive neural network for chinese word segmentation. ACL. 2016.
+* Jingjing Xu and Xu Sun. Transfer learning for low-resource chinese word segmentation with a novel neural network. NLPCC. 2017.
+## 常见问题及解答
+1. [为什么要发布pkuseg?](https://github.com/lancopku/pkuseg-python/wiki/FAQ#1-为什么要发布pkuseg)
+2. [pkuseg使用了哪些技术?](https://github.com/lancopku/pkuseg-python/wiki/FAQ#2-pkuseg使用了哪些技术)
+3. [无法使用多进程分词和训练功能,提示RuntimeError和BrokenPipeError。](https://github.com/lancopku/pkuseg-python/wiki/FAQ#3-无法使用多进程分词和训练功能提示runtimeerror和brokenpipeerror)
+4. [是如何跟其它工具包在细领域数据上进行比较的?](https://github.com/lancopku/pkuseg-python/wiki/FAQ#4-是如何跟其它工具包在细领域数据上进行比较的)
+5. [在黑盒测试集上进行比较的话,效果如何?](https://github.com/lancopku/pkuseg-python/wiki/FAQ#5-在黑盒测试集上进行比较的话效果如何)
+6. [如果我不了解待分词语料的所属领域呢?](https://github.com/lancopku/pkuseg-python/wiki/FAQ#6-如果我不了解待分词语料的所属领域呢)
+7. [如何看待在一些特定样例上的分词结果?](https://github.com/lancopku/pkuseg-python/wiki/FAQ#7-如何看待在一些特定样例上的分词结果)
+8. [关于运行速度问题?](https://github.com/lancopku/pkuseg-python/wiki/FAQ#8-关于运行速度问题)
+9. [关于多进程速度问题?](https://github.com/lancopku/pkuseg-python/wiki/FAQ#9-关于多进程速度问题)
+## 致谢
+感谢俞士汶教授(北京大学计算语言所)与邱立坤博士提供的训练数据集!
+## 作者
+Ruixuan Luo (罗睿轩), Jingjing Xu(许晶晶), Xuancheng Ren(任宣丞), Yi Zhang(张艺), Bingzhen Wei(位冰镇), Xu Sun (孙栩)
+北京大学 [语言计算与机器学习研究组](http://lanco.pku.edu.cn/)
+
+%package -n python3-spacy-pkuseg
+Summary: Chinese word segmentation toolkit for spaCy (fork of pkuseg-python)
+Provides: python-spacy-pkuseg
+BuildRequires: python3-devel
+BuildRequires: python3-setuptools
+BuildRequires: python3-pip
+BuildRequires: python3-cffi
+BuildRequires: gcc
+BuildRequires: gdb
+%description -n python3-spacy-pkuseg
+# pkuseg:一个多领域中文分词工具包 [**(English Version)**](readme/readme_english.md)
+pkuseg 是基于论文[[Luo et. al, 2019](#论文引用)]的工具包。其简单易用,支持细分领域分词,有效提升了分词准确度。
+## 目录
+* [主要亮点](#主要亮点)
+* [编译和安装](#编译和安装)
+* [各类分词工具包的性能对比](#各类分词工具包的性能对比)
+* [使用方式](#使用方式)
+* [论文引用](#论文引用)
+* [作者](#作者)
+* [常见问题及解答](#常见问题及解答)
+## 主要亮点
+pkuseg具有如下几个特点:
+1. 多领域分词。不同于以往的通用中文分词工具,此工具包同时致力于为不同领域的数据提供个性化的预训练模型。根据待分词文本的领域特点,用户可以自由地选择不同的模型。 我们目前支持了新闻领域,网络领域,医药领域,旅游领域,以及混合领域的分词预训练模型。在使用中,如果用户明确待分词的领域,可加载对应的模型进行分词。如果用户无法确定具体领域,推荐使用在混合领域上训练的通用模型。各领域分词样例可参考 [**example.txt**](https://github.com/lancopku/pkuseg-python/blob/master/example.txt)。
+2. 更高的分词准确率。相比于其他的分词工具包,当使用相同的训练数据和测试数据,pkuseg可以取得更高的分词准确率。
+3. 支持用户自训练模型。支持用户使用全新的标注数据进行训练。
+4. 支持词性标注。
+## 编译和安装
+- 目前**仅支持python3**
+- **为了获得好的效果和速度,强烈建议大家通过pip install更新到目前的最新版本**
+1. 通过PyPI安装(自带模型文件):
+ ```
+ pip3 install pkuseg
+ 之后通过import pkuseg来引用
+ ```
+ **建议更新到最新版本**以获得更好的开箱体验:
+ ```
+ pip3 install -U pkuseg
+ ```
+2. 如果PyPI官方源下载速度不理想,建议使用镜像源,比如:
+ 初次安装:
+ ```
+ pip3 install -i https://pypi.tuna.tsinghua.edu.cn/simple pkuseg
+ ```
+ 更新:
+ ```
+ pip3 install -i https://pypi.tuna.tsinghua.edu.cn/simple -U pkuseg
+ ```
+3. 如果不使用pip安装方式,选择从GitHub下载,可运行以下命令安装:
+ ```
+ python setup.py build_ext -i
+ ```
+ GitHub的代码并不包括预训练模型,因此需要用户自行下载或训练模型,预训练模型可详见[release](https://github.com/lancopku/pkuseg-python/releases)。使用时需设定"model_name"为模型文件。
+注意:**安装方式1和2目前仅支持linux(ubuntu)、mac、windows 64 位的python3版本**。如果非以上系统,请使用安装方式3进行本地编译安装。
+## 各类分词工具包的性能对比
+我们选择jieba、THULAC等国内代表分词工具包与pkuseg做性能比较,详细设置可参考[实验环境](readme/environment.md)。
+#### 细领域训练及测试结果
+以下是在不同数据集上的对比结果:
+| MSRA | Precision | Recall | F-score |
+| :----- | --------: | -----: | --------: |
+| jieba | 87.01 | 89.88 | 88.42 |
+| THULAC | 95.60 | 95.91 | 95.71 |
+| pkuseg | 96.94 | 96.81 | **96.88** |
+| WEIBO | Precision | Recall | F-score |
+| :----- | --------: | -----: | --------: |
+| jieba | 87.79 | 87.54 | 87.66 |
+| THULAC | 93.40 | 92.40 | 92.87 |
+| pkuseg | 93.78 | 94.65 | **94.21** |
+#### 默认模型在不同领域的测试效果
+考虑到很多用户在尝试分词工具的时候,大多数时候会使用工具包自带模型测试。为了直接对比“初始”性能,我们也比较了各个工具包的默认模型在不同领域的测试效果。请注意,这样的比较只是为了说明默认情况下的效果,并不一定是公平的。
+| Default | MSRA | CTB8 | PKU | WEIBO | All Average |
+| ------- | :---: | :---: | :---: | :---: | :---------: |
+| jieba | 81.45 | 79.58 | 81.83 | 83.56 | 81.61 |
+| THULAC | 85.55 | 87.84 | 92.29 | 86.65 | 88.08 |
+| pkuseg | 87.29 | 91.77 | 92.68 | 93.43 | **91.29** |
+其中,`All Average`显示的是在所有测试集上F-score的平均。
+更多详细比较可参见[和现有工具包的比较](readme/comparison.md)。
+## 使用方式
+#### 代码示例
+以下代码示例适用于python交互式环境。
+代码示例1:使用默认配置进行分词(**如果用户无法确定分词领域,推荐使用默认模型分词**)
+```python3
+import pkuseg
+seg = pkuseg.pkuseg() # 以默认配置加载模型
+text = seg.cut('我爱北京天安门') # 进行分词
+print(text)
+```
+代码示例2:细领域分词(**如果用户明确分词领域,推荐使用细领域模型分词**)
+```python3
+import pkuseg
+seg = pkuseg.pkuseg(model_name='medicine') # 程序会自动下载所对应的细领域模型
+text = seg.cut('我爱北京天安门') # 进行分词
+print(text)
+```
+代码示例3:分词同时进行词性标注,各词性标签的详细含义可参考 [tags.txt](https://github.com/lancopku/pkuseg-python/blob/master/tags.txt)
+```python3
+import pkuseg
+seg = pkuseg.pkuseg(postag=True) # 开启词性标注功能
+text = seg.cut('我爱北京天安门') # 进行分词和词性标注
+print(text)
+```
+代码示例4:对文件分词
+```python3
+import pkuseg
+# 对input.txt的文件分词输出到output.txt中
+# 开20个进程
+pkuseg.test('input.txt', 'output.txt', nthread=20)
+```
+其他使用示例可参见[详细代码示例](readme/interface.md)。
+#### 参数说明
+模型配置
+```
+pkuseg.pkuseg(model_name = "default", user_dict = "default", postag = False)
+ model_name 模型路径。
+ "default",默认参数,表示使用我们预训练好的混合领域模型(仅对pip下载的用户)。
+ "news", 使用新闻领域模型。
+ "web", 使用网络领域模型。
+ "medicine", 使用医药领域模型。
+ "tourism", 使用旅游领域模型。
+ model_path, 从用户指定路径加载模型。
+ user_dict 设置用户词典。
+ "default", 默认参数,使用我们提供的词典。
+ None, 不使用词典。
+ dict_path, 在使用默认词典的同时会额外使用用户自定义词典,可以填自己的用户词典的路径,词典格式为一行一个词(如果选择进行词性标注并且已知该词的词性,则在该行写下词和词性,中间用tab字符隔开)。
+ postag 是否进行词性分析。
+ False, 默认参数,只进行分词,不进行词性标注。
+ True, 会在分词的同时进行词性标注。
+```
+对文件进行分词
+```
+pkuseg.test(readFile, outputFile, model_name = "default", user_dict = "default", postag = False, nthread = 10)
+ readFile 输入文件路径。
+ outputFile 输出文件路径。
+ model_name 模型路径。同pkuseg.pkuseg
+ user_dict 设置用户词典。同pkuseg.pkuseg
+ postag 设置是否开启词性分析功能。同pkuseg.pkuseg
+ nthread 测试时开的进程数。
+```
+模型训练
+```
+pkuseg.train(trainFile, testFile, savedir, train_iter = 20, init_model = None)
+ trainFile 训练文件路径。
+ testFile 测试文件路径。
+ savedir 训练模型的保存路径。
+ train_iter 训练轮数。
+ init_model 初始化模型,默认为None表示使用默认初始化,用户可以填自己想要初始化的模型的路径如init_model='./models/'。
+```
+#### 多进程分词
+当将以上代码示例置于文件中运行时,如涉及多进程功能,请务必使用`if __name__ == '__main__'`保护全局语句,详见[多进程分词](readme/multiprocess.md)。
+## 预训练模型
+从pip安装的用户在使用细领域分词功能时,只需要设置model_name字段为对应的领域即可,会自动下载对应的细领域模型。
+从github下载的用户则需要自己下载对应的预训练模型,并设置model_name字段为预训练模型路径。预训练模型可以在[release](https://github.com/lancopku/pkuseg-python/releases)部分下载。以下是对预训练模型的说明:
+- **news**: 在MSRA(新闻语料)上训练的模型。
+- **web**: 在微博(网络文本语料)上训练的模型。
+- **medicine**: 在医药领域上训练的模型。
+- **tourism**: 在旅游领域上训练的模型。
+- **mixed**: 混合数据集训练的通用模型。随pip包附带的是此模型。
+欢迎更多用户可以分享自己训练好的细分领域模型。
+## 版本历史
+详见[版本历史](readme/history.md)。
+## 开源协议
+1. 本代码采用MIT许可证。
+2. 欢迎对该工具包提出任何宝贵意见和建议,请发邮件至jingjingxu@pku.edu.cn。
+## 论文引用
+该代码包主要基于以下科研论文,如使用了本工具,请引用以下论文:
+* Ruixuan Luo, Jingjing Xu, Yi Zhang, Xuancheng Ren, Xu Sun. [PKUSEG: A Toolkit for Multi-Domain Chinese Word Segmentation](https://arxiv.org/abs/1906.11455). Arxiv. 2019.
+```
+@article{pkuseg,
+ author = {Luo, Ruixuan and Xu, Jingjing and Zhang, Yi and Ren, Xuancheng and Sun, Xu},
+ journal = {CoRR},
+ title = {PKUSEG: A Toolkit for Multi-Domain Chinese Word Segmentation.},
+ url = {https://arxiv.org/abs/1906.11455},
+ volume = {abs/1906.11455},
+ year = 2019
+}
+```
+## 其他相关论文
+* Xu Sun, Houfeng Wang, Wenjie Li. Fast Online Training with Frequency-Adaptive Learning Rates for Chinese Word Segmentation and New Word Detection. ACL. 2012.
+* Jingjing Xu and Xu Sun. Dependency-based gated recursive neural network for chinese word segmentation. ACL. 2016.
+* Jingjing Xu and Xu Sun. Transfer learning for low-resource chinese word segmentation with a novel neural network. NLPCC. 2017.
+## 常见问题及解答
+1. [为什么要发布pkuseg?](https://github.com/lancopku/pkuseg-python/wiki/FAQ#1-为什么要发布pkuseg)
+2. [pkuseg使用了哪些技术?](https://github.com/lancopku/pkuseg-python/wiki/FAQ#2-pkuseg使用了哪些技术)
+3. [无法使用多进程分词和训练功能,提示RuntimeError和BrokenPipeError。](https://github.com/lancopku/pkuseg-python/wiki/FAQ#3-无法使用多进程分词和训练功能提示runtimeerror和brokenpipeerror)
+4. [是如何跟其它工具包在细领域数据上进行比较的?](https://github.com/lancopku/pkuseg-python/wiki/FAQ#4-是如何跟其它工具包在细领域数据上进行比较的)
+5. [在黑盒测试集上进行比较的话,效果如何?](https://github.com/lancopku/pkuseg-python/wiki/FAQ#5-在黑盒测试集上进行比较的话效果如何)
+6. [如果我不了解待分词语料的所属领域呢?](https://github.com/lancopku/pkuseg-python/wiki/FAQ#6-如果我不了解待分词语料的所属领域呢)
+7. [如何看待在一些特定样例上的分词结果?](https://github.com/lancopku/pkuseg-python/wiki/FAQ#7-如何看待在一些特定样例上的分词结果)
+8. [关于运行速度问题?](https://github.com/lancopku/pkuseg-python/wiki/FAQ#8-关于运行速度问题)
+9. [关于多进程速度问题?](https://github.com/lancopku/pkuseg-python/wiki/FAQ#9-关于多进程速度问题)
+## 致谢
+感谢俞士汶教授(北京大学计算语言所)与邱立坤博士提供的训练数据集!
+## 作者
+Ruixuan Luo (罗睿轩), Jingjing Xu(许晶晶), Xuancheng Ren(任宣丞), Yi Zhang(张艺), Bingzhen Wei(位冰镇), Xu Sun (孙栩)
+北京大学 [语言计算与机器学习研究组](http://lanco.pku.edu.cn/)
+
+%package help
+Summary: Development documents and examples for spacy-pkuseg
+Provides: python3-spacy-pkuseg-doc
+%description help
+# pkuseg:一个多领域中文分词工具包 [**(English Version)**](readme/readme_english.md)
+pkuseg 是基于论文[[Luo et. al, 2019](#论文引用)]的工具包。其简单易用,支持细分领域分词,有效提升了分词准确度。
+## 目录
+* [主要亮点](#主要亮点)
+* [编译和安装](#编译和安装)
+* [各类分词工具包的性能对比](#各类分词工具包的性能对比)
+* [使用方式](#使用方式)
+* [论文引用](#论文引用)
+* [作者](#作者)
+* [常见问题及解答](#常见问题及解答)
+## 主要亮点
+pkuseg具有如下几个特点:
+1. 多领域分词。不同于以往的通用中文分词工具,此工具包同时致力于为不同领域的数据提供个性化的预训练模型。根据待分词文本的领域特点,用户可以自由地选择不同的模型。 我们目前支持了新闻领域,网络领域,医药领域,旅游领域,以及混合领域的分词预训练模型。在使用中,如果用户明确待分词的领域,可加载对应的模型进行分词。如果用户无法确定具体领域,推荐使用在混合领域上训练的通用模型。各领域分词样例可参考 [**example.txt**](https://github.com/lancopku/pkuseg-python/blob/master/example.txt)。
+2. 更高的分词准确率。相比于其他的分词工具包,当使用相同的训练数据和测试数据,pkuseg可以取得更高的分词准确率。
+3. 支持用户自训练模型。支持用户使用全新的标注数据进行训练。
+4. 支持词性标注。
+## 编译和安装
+- 目前**仅支持python3**
+- **为了获得好的效果和速度,强烈建议大家通过pip install更新到目前的最新版本**
+1. 通过PyPI安装(自带模型文件):
+ ```
+ pip3 install pkuseg
+ 之后通过import pkuseg来引用
+ ```
+ **建议更新到最新版本**以获得更好的开箱体验:
+ ```
+ pip3 install -U pkuseg
+ ```
+2. 如果PyPI官方源下载速度不理想,建议使用镜像源,比如:
+ 初次安装:
+ ```
+ pip3 install -i https://pypi.tuna.tsinghua.edu.cn/simple pkuseg
+ ```
+ 更新:
+ ```
+ pip3 install -i https://pypi.tuna.tsinghua.edu.cn/simple -U pkuseg
+ ```
+3. 如果不使用pip安装方式,选择从GitHub下载,可运行以下命令安装:
+ ```
+ python setup.py build_ext -i
+ ```
+ GitHub的代码并不包括预训练模型,因此需要用户自行下载或训练模型,预训练模型可详见[release](https://github.com/lancopku/pkuseg-python/releases)。使用时需设定"model_name"为模型文件。
+注意:**安装方式1和2目前仅支持linux(ubuntu)、mac、windows 64 位的python3版本**。如果非以上系统,请使用安装方式3进行本地编译安装。
+## 各类分词工具包的性能对比
+我们选择jieba、THULAC等国内代表分词工具包与pkuseg做性能比较,详细设置可参考[实验环境](readme/environment.md)。
+#### 细领域训练及测试结果
+以下是在不同数据集上的对比结果:
+| MSRA | Precision | Recall | F-score |
+| :----- | --------: | -----: | --------: |
+| jieba | 87.01 | 89.88 | 88.42 |
+| THULAC | 95.60 | 95.91 | 95.71 |
+| pkuseg | 96.94 | 96.81 | **96.88** |
+| WEIBO | Precision | Recall | F-score |
+| :----- | --------: | -----: | --------: |
+| jieba | 87.79 | 87.54 | 87.66 |
+| THULAC | 93.40 | 92.40 | 92.87 |
+| pkuseg | 93.78 | 94.65 | **94.21** |
+#### 默认模型在不同领域的测试效果
+考虑到很多用户在尝试分词工具的时候,大多数时候会使用工具包自带模型测试。为了直接对比“初始”性能,我们也比较了各个工具包的默认模型在不同领域的测试效果。请注意,这样的比较只是为了说明默认情况下的效果,并不一定是公平的。
+| Default | MSRA | CTB8 | PKU | WEIBO | All Average |
+| ------- | :---: | :---: | :---: | :---: | :---------: |
+| jieba | 81.45 | 79.58 | 81.83 | 83.56 | 81.61 |
+| THULAC | 85.55 | 87.84 | 92.29 | 86.65 | 88.08 |
+| pkuseg | 87.29 | 91.77 | 92.68 | 93.43 | **91.29** |
+其中,`All Average`显示的是在所有测试集上F-score的平均。
+更多详细比较可参见[和现有工具包的比较](readme/comparison.md)。
+## 使用方式
+#### 代码示例
+以下代码示例适用于python交互式环境。
+代码示例1:使用默认配置进行分词(**如果用户无法确定分词领域,推荐使用默认模型分词**)
+```python3
+import pkuseg
+seg = pkuseg.pkuseg() # 以默认配置加载模型
+text = seg.cut('我爱北京天安门') # 进行分词
+print(text)
+```
+代码示例2:细领域分词(**如果用户明确分词领域,推荐使用细领域模型分词**)
+```python3
+import pkuseg
+seg = pkuseg.pkuseg(model_name='medicine') # 程序会自动下载所对应的细领域模型
+text = seg.cut('我爱北京天安门') # 进行分词
+print(text)
+```
+代码示例3:分词同时进行词性标注,各词性标签的详细含义可参考 [tags.txt](https://github.com/lancopku/pkuseg-python/blob/master/tags.txt)
+```python3
+import pkuseg
+seg = pkuseg.pkuseg(postag=True) # 开启词性标注功能
+text = seg.cut('我爱北京天安门') # 进行分词和词性标注
+print(text)
+```
+代码示例4:对文件分词
+```python3
+import pkuseg
+# 对input.txt的文件分词输出到output.txt中
+# 开20个进程
+pkuseg.test('input.txt', 'output.txt', nthread=20)
+```
+其他使用示例可参见[详细代码示例](readme/interface.md)。
+#### 参数说明
+模型配置
+```
+pkuseg.pkuseg(model_name = "default", user_dict = "default", postag = False)
+ model_name 模型路径。
+ "default",默认参数,表示使用我们预训练好的混合领域模型(仅对pip下载的用户)。
+ "news", 使用新闻领域模型。
+ "web", 使用网络领域模型。
+ "medicine", 使用医药领域模型。
+ "tourism", 使用旅游领域模型。
+ model_path, 从用户指定路径加载模型。
+ user_dict 设置用户词典。
+ "default", 默认参数,使用我们提供的词典。
+ None, 不使用词典。
+ dict_path, 在使用默认词典的同时会额外使用用户自定义词典,可以填自己的用户词典的路径,词典格式为一行一个词(如果选择进行词性标注并且已知该词的词性,则在该行写下词和词性,中间用tab字符隔开)。
+ postag 是否进行词性分析。
+ False, 默认参数,只进行分词,不进行词性标注。
+ True, 会在分词的同时进行词性标注。
+```
+对文件进行分词
+```
+pkuseg.test(readFile, outputFile, model_name = "default", user_dict = "default", postag = False, nthread = 10)
+ readFile 输入文件路径。
+ outputFile 输出文件路径。
+ model_name 模型路径。同pkuseg.pkuseg
+ user_dict 设置用户词典。同pkuseg.pkuseg
+ postag 设置是否开启词性分析功能。同pkuseg.pkuseg
+ nthread 测试时开的进程数。
+```
+模型训练
+```
+pkuseg.train(trainFile, testFile, savedir, train_iter = 20, init_model = None)
+ trainFile 训练文件路径。
+ testFile 测试文件路径。
+ savedir 训练模型的保存路径。
+ train_iter 训练轮数。
+ init_model 初始化模型,默认为None表示使用默认初始化,用户可以填自己想要初始化的模型的路径如init_model='./models/'。
+```
+#### 多进程分词
+当将以上代码示例置于文件中运行时,如涉及多进程功能,请务必使用`if __name__ == '__main__'`保护全局语句,详见[多进程分词](readme/multiprocess.md)。
+## 预训练模型
+从pip安装的用户在使用细领域分词功能时,只需要设置model_name字段为对应的领域即可,会自动下载对应的细领域模型。
+从github下载的用户则需要自己下载对应的预训练模型,并设置model_name字段为预训练模型路径。预训练模型可以在[release](https://github.com/lancopku/pkuseg-python/releases)部分下载。以下是对预训练模型的说明:
+- **news**: 在MSRA(新闻语料)上训练的模型。
+- **web**: 在微博(网络文本语料)上训练的模型。
+- **medicine**: 在医药领域上训练的模型。
+- **tourism**: 在旅游领域上训练的模型。
+- **mixed**: 混合数据集训练的通用模型。随pip包附带的是此模型。
+欢迎更多用户可以分享自己训练好的细分领域模型。
+## 版本历史
+详见[版本历史](readme/history.md)。
+## 开源协议
+1. 本代码采用MIT许可证。
+2. 欢迎对该工具包提出任何宝贵意见和建议,请发邮件至jingjingxu@pku.edu.cn。
+## 论文引用
+该代码包主要基于以下科研论文,如使用了本工具,请引用以下论文:
+* Ruixuan Luo, Jingjing Xu, Yi Zhang, Xuancheng Ren, Xu Sun. [PKUSEG: A Toolkit for Multi-Domain Chinese Word Segmentation](https://arxiv.org/abs/1906.11455). Arxiv. 2019.
+```
+@article{pkuseg,
+ author = {Luo, Ruixuan and Xu, Jingjing and Zhang, Yi and Ren, Xuancheng and Sun, Xu},
+ journal = {CoRR},
+ title = {PKUSEG: A Toolkit for Multi-Domain Chinese Word Segmentation.},
+ url = {https://arxiv.org/abs/1906.11455},
+ volume = {abs/1906.11455},
+ year = 2019
+}
+```
+## 其他相关论文
+* Xu Sun, Houfeng Wang, Wenjie Li. Fast Online Training with Frequency-Adaptive Learning Rates for Chinese Word Segmentation and New Word Detection. ACL. 2012.
+* Jingjing Xu and Xu Sun. Dependency-based gated recursive neural network for chinese word segmentation. ACL. 2016.
+* Jingjing Xu and Xu Sun. Transfer learning for low-resource chinese word segmentation with a novel neural network. NLPCC. 2017.
+## 常见问题及解答
+1. [为什么要发布pkuseg?](https://github.com/lancopku/pkuseg-python/wiki/FAQ#1-为什么要发布pkuseg)
+2. [pkuseg使用了哪些技术?](https://github.com/lancopku/pkuseg-python/wiki/FAQ#2-pkuseg使用了哪些技术)
+3. [无法使用多进程分词和训练功能,提示RuntimeError和BrokenPipeError。](https://github.com/lancopku/pkuseg-python/wiki/FAQ#3-无法使用多进程分词和训练功能提示runtimeerror和brokenpipeerror)
+4. [是如何跟其它工具包在细领域数据上进行比较的?](https://github.com/lancopku/pkuseg-python/wiki/FAQ#4-是如何跟其它工具包在细领域数据上进行比较的)
+5. [在黑盒测试集上进行比较的话,效果如何?](https://github.com/lancopku/pkuseg-python/wiki/FAQ#5-在黑盒测试集上进行比较的话效果如何)
+6. [如果我不了解待分词语料的所属领域呢?](https://github.com/lancopku/pkuseg-python/wiki/FAQ#6-如果我不了解待分词语料的所属领域呢)
+7. [如何看待在一些特定样例上的分词结果?](https://github.com/lancopku/pkuseg-python/wiki/FAQ#7-如何看待在一些特定样例上的分词结果)
+8. [关于运行速度问题?](https://github.com/lancopku/pkuseg-python/wiki/FAQ#8-关于运行速度问题)
+9. [关于多进程速度问题?](https://github.com/lancopku/pkuseg-python/wiki/FAQ#9-关于多进程速度问题)
+## 致谢
+感谢俞士汶教授(北京大学计算语言所)与邱立坤博士提供的训练数据集!
+## 作者
+Ruixuan Luo (罗睿轩), Jingjing Xu(许晶晶), Xuancheng Ren(任宣丞), Yi Zhang(张艺), Bingzhen Wei(位冰镇), Xu Sun (孙栩)
+北京大学 [语言计算与机器学习研究组](http://lanco.pku.edu.cn/)
+
+%prep
+%autosetup -n spacy-pkuseg-0.0.32
+
+%build
+%py3_build
+
+%install
+%py3_install
+install -d -m755 %{buildroot}/%{_pkgdocdir}
+if [ -d doc ]; then cp -arf doc %{buildroot}/%{_pkgdocdir}; fi
+if [ -d docs ]; then cp -arf docs %{buildroot}/%{_pkgdocdir}; fi
+if [ -d example ]; then cp -arf example %{buildroot}/%{_pkgdocdir}; fi
+if [ -d examples ]; then cp -arf examples %{buildroot}/%{_pkgdocdir}; fi
+pushd %{buildroot}
+if [ -d usr/lib ]; then
+ find usr/lib -type f -printf "/%h/%f\n" >> filelist.lst
+fi
+if [ -d usr/lib64 ]; then
+ find usr/lib64 -type f -printf "/%h/%f\n" >> filelist.lst
+fi
+if [ -d usr/bin ]; then
+ find usr/bin -type f -printf "/%h/%f\n" >> filelist.lst
+fi
+if [ -d usr/sbin ]; then
+ find usr/sbin -type f -printf "/%h/%f\n" >> filelist.lst
+fi
+touch doclist.lst
+if [ -d usr/share/man ]; then
+ find usr/share/man -type f -printf "/%h/%f.gz\n" >> doclist.lst
+fi
+popd
+mv %{buildroot}/filelist.lst .
+mv %{buildroot}/doclist.lst .
+
+%files -n python3-spacy-pkuseg -f filelist.lst
+%dir %{python3_sitearch}/*
+
+%files help -f doclist.lst
+%{_docdir}/*
+
+%changelog
+* Fri May 05 2023 Python_Bot <Python_Bot@openeuler.org> - 0.0.32-1
+- Package Spec generated
diff --git a/sources b/sources
new file mode 100644
index 0000000..daa26e8
--- /dev/null
+++ b/sources
@@ -0,0 +1 @@
+9db1c5161f3e3971365951432bbacc35 spacy_pkuseg-0.0.32.tar.gz