blob: bf48447e6c7299ad8845fa654b69e62d32f9a4c7 (
plain)
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
|
%global _empty_manifest_terminate_build 0
Name: python-MicroTokenizer
Version: 0.21.2
Release: 1
Summary: A micro tokenizer for Chinese
License: MIT license
URL: https://github.com/howl-anderson/MicroTokenizer
Source0: https://mirrors.nju.edu.cn/pypi/web/packages/99/ab/0437c426e6ebb52b00554226e84faeab429684569f8f9ac16d3a37ac427f/MicroTokenizer-0.21.2.tar.gz
BuildArch: noarch
Requires: python3-networkx
Requires: python3-MicroHMM
Requires: python3-crfsuite
Requires: python3-pyyaml
%description
一个微型的中文分词器,目前提供了七种分词算法:
#. 按照词语的频率(概率)来利用构建 DAG(有向无环图)来分词,使用 ``Trie Tree`` 构建前缀字典树
#. 使用隐马尔可夫模型(Hidden Markov Model,HMM)来分词
#. 融合 DAG 和 HMM 两种分词模型的结果,按照分词粒度最大化的原则进行融合得到的模型
#. 正向最大匹配法
#. 反向最大匹配法
#. 双向最大匹配法
#. 基于 CRF (Conditional Random Field, 条件随机场) 的分词方法
%package -n python3-MicroTokenizer
Summary: A micro tokenizer for Chinese
Provides: python-MicroTokenizer
BuildRequires: python3-devel
BuildRequires: python3-setuptools
BuildRequires: python3-pip
%description -n python3-MicroTokenizer
一个微型的中文分词器,目前提供了七种分词算法:
#. 按照词语的频率(概率)来利用构建 DAG(有向无环图)来分词,使用 ``Trie Tree`` 构建前缀字典树
#. 使用隐马尔可夫模型(Hidden Markov Model,HMM)来分词
#. 融合 DAG 和 HMM 两种分词模型的结果,按照分词粒度最大化的原则进行融合得到的模型
#. 正向最大匹配法
#. 反向最大匹配法
#. 双向最大匹配法
#. 基于 CRF (Conditional Random Field, 条件随机场) 的分词方法
%package help
Summary: Development documents and examples for MicroTokenizer
Provides: python3-MicroTokenizer-doc
%description help
一个微型的中文分词器,目前提供了七种分词算法:
#. 按照词语的频率(概率)来利用构建 DAG(有向无环图)来分词,使用 ``Trie Tree`` 构建前缀字典树
#. 使用隐马尔可夫模型(Hidden Markov Model,HMM)来分词
#. 融合 DAG 和 HMM 两种分词模型的结果,按照分词粒度最大化的原则进行融合得到的模型
#. 正向最大匹配法
#. 反向最大匹配法
#. 双向最大匹配法
#. 基于 CRF (Conditional Random Field, 条件随机场) 的分词方法
%prep
%autosetup -n MicroTokenizer-0.21.2
%build
%py3_build
%install
%py3_install
install -d -m755 %{buildroot}/%{_pkgdocdir}
if [ -d doc ]; then cp -arf doc %{buildroot}/%{_pkgdocdir}; fi
if [ -d docs ]; then cp -arf docs %{buildroot}/%{_pkgdocdir}; fi
if [ -d example ]; then cp -arf example %{buildroot}/%{_pkgdocdir}; fi
if [ -d examples ]; then cp -arf examples %{buildroot}/%{_pkgdocdir}; fi
pushd %{buildroot}
if [ -d usr/lib ]; then
find usr/lib -type f -printf "/%h/%f\n" >> filelist.lst
fi
if [ -d usr/lib64 ]; then
find usr/lib64 -type f -printf "/%h/%f\n" >> filelist.lst
fi
if [ -d usr/bin ]; then
find usr/bin -type f -printf "/%h/%f\n" >> filelist.lst
fi
if [ -d usr/sbin ]; then
find usr/sbin -type f -printf "/%h/%f\n" >> filelist.lst
fi
touch doclist.lst
if [ -d usr/share/man ]; then
find usr/share/man -type f -printf "/%h/%f.gz\n" >> doclist.lst
fi
popd
mv %{buildroot}/filelist.lst .
mv %{buildroot}/doclist.lst .
%files -n python3-MicroTokenizer -f filelist.lst
%dir %{python3_sitelib}/*
%files help -f doclist.lst
%{_docdir}/*
%changelog
* Fri May 05 2023 Python_Bot <Python_Bot@openeuler.org> - 0.21.2-1
- Package Spec generated
|