diff options
author | CoprDistGit <infra@openeuler.org> | 2023-05-05 07:52:11 +0000 |
---|---|---|
committer | CoprDistGit <infra@openeuler.org> | 2023-05-05 07:52:11 +0000 |
commit | 715c9e093f2aa3d1f3930332bb89cf056b92be57 (patch) | |
tree | 3afbae6850066ecaf3c6b803d933b087871e704e | |
parent | b2169e757785d3ddb459a97fc93c6b355abd5c63 (diff) |
automatic import of python-microtokenizeropeneuler20.03
-rw-r--r-- | .gitignore | 1 | ||||
-rw-r--r-- | python-microtokenizer.spec | 97 | ||||
-rw-r--r-- | sources | 1 |
3 files changed, 99 insertions, 0 deletions
@@ -0,0 +1 @@ +/MicroTokenizer-0.21.2.tar.gz diff --git a/python-microtokenizer.spec b/python-microtokenizer.spec new file mode 100644 index 0000000..bf48447 --- /dev/null +++ b/python-microtokenizer.spec @@ -0,0 +1,97 @@ +%global _empty_manifest_terminate_build 0 +Name: python-MicroTokenizer +Version: 0.21.2 +Release: 1 +Summary: A micro tokenizer for Chinese +License: MIT license +URL: https://github.com/howl-anderson/MicroTokenizer +Source0: https://mirrors.nju.edu.cn/pypi/web/packages/99/ab/0437c426e6ebb52b00554226e84faeab429684569f8f9ac16d3a37ac427f/MicroTokenizer-0.21.2.tar.gz +BuildArch: noarch + +Requires: python3-networkx +Requires: python3-MicroHMM +Requires: python3-crfsuite +Requires: python3-pyyaml + +%description +一个微型的中文分词器,目前提供了七种分词算法: +#. 按照词语的频率(概率)来利用构建 DAG(有向无环图)来分词,使用 ``Trie Tree`` 构建前缀字典树 +#. 使用隐马尔可夫模型(Hidden Markov Model,HMM)来分词 +#. 融合 DAG 和 HMM 两种分词模型的结果,按照分词粒度最大化的原则进行融合得到的模型 +#. 正向最大匹配法 +#. 反向最大匹配法 +#. 双向最大匹配法 +#. 基于 CRF (Conditional Random Field, 条件随机场) 的分词方法 + +%package -n python3-MicroTokenizer +Summary: A micro tokenizer for Chinese +Provides: python-MicroTokenizer +BuildRequires: python3-devel +BuildRequires: python3-setuptools +BuildRequires: python3-pip +%description -n python3-MicroTokenizer +一个微型的中文分词器,目前提供了七种分词算法: +#. 按照词语的频率(概率)来利用构建 DAG(有向无环图)来分词,使用 ``Trie Tree`` 构建前缀字典树 +#. 使用隐马尔可夫模型(Hidden Markov Model,HMM)来分词 +#. 融合 DAG 和 HMM 两种分词模型的结果,按照分词粒度最大化的原则进行融合得到的模型 +#. 正向最大匹配法 +#. 反向最大匹配法 +#. 双向最大匹配法 +#. 基于 CRF (Conditional Random Field, 条件随机场) 的分词方法 + +%package help +Summary: Development documents and examples for MicroTokenizer +Provides: python3-MicroTokenizer-doc +%description help +一个微型的中文分词器,目前提供了七种分词算法: +#. 按照词语的频率(概率)来利用构建 DAG(有向无环图)来分词,使用 ``Trie Tree`` 构建前缀字典树 +#. 使用隐马尔可夫模型(Hidden Markov Model,HMM)来分词 +#. 融合 DAG 和 HMM 两种分词模型的结果,按照分词粒度最大化的原则进行融合得到的模型 +#. 正向最大匹配法 +#. 反向最大匹配法 +#. 双向最大匹配法 +#. 基于 CRF (Conditional Random Field, 条件随机场) 的分词方法 + +%prep +%autosetup -n MicroTokenizer-0.21.2 + +%build +%py3_build + +%install +%py3_install +install -d -m755 %{buildroot}/%{_pkgdocdir} +if [ -d doc ]; then cp -arf doc %{buildroot}/%{_pkgdocdir}; fi +if [ -d docs ]; then cp -arf docs %{buildroot}/%{_pkgdocdir}; fi +if [ -d example ]; then cp -arf example %{buildroot}/%{_pkgdocdir}; fi +if [ -d examples ]; then cp -arf examples %{buildroot}/%{_pkgdocdir}; fi +pushd %{buildroot} +if [ -d usr/lib ]; then + find usr/lib -type f -printf "/%h/%f\n" >> filelist.lst +fi +if [ -d usr/lib64 ]; then + find usr/lib64 -type f -printf "/%h/%f\n" >> filelist.lst +fi +if [ -d usr/bin ]; then + find usr/bin -type f -printf "/%h/%f\n" >> filelist.lst +fi +if [ -d usr/sbin ]; then + find usr/sbin -type f -printf "/%h/%f\n" >> filelist.lst +fi +touch doclist.lst +if [ -d usr/share/man ]; then + find usr/share/man -type f -printf "/%h/%f.gz\n" >> doclist.lst +fi +popd +mv %{buildroot}/filelist.lst . +mv %{buildroot}/doclist.lst . + +%files -n python3-MicroTokenizer -f filelist.lst +%dir %{python3_sitelib}/* + +%files help -f doclist.lst +%{_docdir}/* + +%changelog +* Fri May 05 2023 Python_Bot <Python_Bot@openeuler.org> - 0.21.2-1 +- Package Spec generated @@ -0,0 +1 @@ +7ec39c594be34712457a903bd7c611a9 MicroTokenizer-0.21.2.tar.gz |