summaryrefslogtreecommitdiff
diff options
context:
space:
mode:
authorCoprDistGit <infra@openeuler.org>2023-05-05 07:52:11 +0000
committerCoprDistGit <infra@openeuler.org>2023-05-05 07:52:11 +0000
commit715c9e093f2aa3d1f3930332bb89cf056b92be57 (patch)
tree3afbae6850066ecaf3c6b803d933b087871e704e
parentb2169e757785d3ddb459a97fc93c6b355abd5c63 (diff)
automatic import of python-microtokenizeropeneuler20.03
-rw-r--r--.gitignore1
-rw-r--r--python-microtokenizer.spec97
-rw-r--r--sources1
3 files changed, 99 insertions, 0 deletions
diff --git a/.gitignore b/.gitignore
index e69de29..7920d1b 100644
--- a/.gitignore
+++ b/.gitignore
@@ -0,0 +1 @@
+/MicroTokenizer-0.21.2.tar.gz
diff --git a/python-microtokenizer.spec b/python-microtokenizer.spec
new file mode 100644
index 0000000..bf48447
--- /dev/null
+++ b/python-microtokenizer.spec
@@ -0,0 +1,97 @@
+%global _empty_manifest_terminate_build 0
+Name: python-MicroTokenizer
+Version: 0.21.2
+Release: 1
+Summary: A micro tokenizer for Chinese
+License: MIT license
+URL: https://github.com/howl-anderson/MicroTokenizer
+Source0: https://mirrors.nju.edu.cn/pypi/web/packages/99/ab/0437c426e6ebb52b00554226e84faeab429684569f8f9ac16d3a37ac427f/MicroTokenizer-0.21.2.tar.gz
+BuildArch: noarch
+
+Requires: python3-networkx
+Requires: python3-MicroHMM
+Requires: python3-crfsuite
+Requires: python3-pyyaml
+
+%description
+一个微型的中文分词器,目前提供了七种分词算法:
+#. 按照词语的频率(概率)来利用构建 DAG(有向无环图)来分词,使用 ``Trie Tree`` 构建前缀字典树
+#. 使用隐马尔可夫模型(Hidden Markov Model,HMM)来分词
+#. 融合 DAG 和 HMM 两种分词模型的结果,按照分词粒度最大化的原则进行融合得到的模型
+#. 正向最大匹配法
+#. 反向最大匹配法
+#. 双向最大匹配法
+#. 基于 CRF (Conditional Random Field, 条件随机场) 的分词方法
+
+%package -n python3-MicroTokenizer
+Summary: A micro tokenizer for Chinese
+Provides: python-MicroTokenizer
+BuildRequires: python3-devel
+BuildRequires: python3-setuptools
+BuildRequires: python3-pip
+%description -n python3-MicroTokenizer
+一个微型的中文分词器,目前提供了七种分词算法:
+#. 按照词语的频率(概率)来利用构建 DAG(有向无环图)来分词,使用 ``Trie Tree`` 构建前缀字典树
+#. 使用隐马尔可夫模型(Hidden Markov Model,HMM)来分词
+#. 融合 DAG 和 HMM 两种分词模型的结果,按照分词粒度最大化的原则进行融合得到的模型
+#. 正向最大匹配法
+#. 反向最大匹配法
+#. 双向最大匹配法
+#. 基于 CRF (Conditional Random Field, 条件随机场) 的分词方法
+
+%package help
+Summary: Development documents and examples for MicroTokenizer
+Provides: python3-MicroTokenizer-doc
+%description help
+一个微型的中文分词器,目前提供了七种分词算法:
+#. 按照词语的频率(概率)来利用构建 DAG(有向无环图)来分词,使用 ``Trie Tree`` 构建前缀字典树
+#. 使用隐马尔可夫模型(Hidden Markov Model,HMM)来分词
+#. 融合 DAG 和 HMM 两种分词模型的结果,按照分词粒度最大化的原则进行融合得到的模型
+#. 正向最大匹配法
+#. 反向最大匹配法
+#. 双向最大匹配法
+#. 基于 CRF (Conditional Random Field, 条件随机场) 的分词方法
+
+%prep
+%autosetup -n MicroTokenizer-0.21.2
+
+%build
+%py3_build
+
+%install
+%py3_install
+install -d -m755 %{buildroot}/%{_pkgdocdir}
+if [ -d doc ]; then cp -arf doc %{buildroot}/%{_pkgdocdir}; fi
+if [ -d docs ]; then cp -arf docs %{buildroot}/%{_pkgdocdir}; fi
+if [ -d example ]; then cp -arf example %{buildroot}/%{_pkgdocdir}; fi
+if [ -d examples ]; then cp -arf examples %{buildroot}/%{_pkgdocdir}; fi
+pushd %{buildroot}
+if [ -d usr/lib ]; then
+ find usr/lib -type f -printf "/%h/%f\n" >> filelist.lst
+fi
+if [ -d usr/lib64 ]; then
+ find usr/lib64 -type f -printf "/%h/%f\n" >> filelist.lst
+fi
+if [ -d usr/bin ]; then
+ find usr/bin -type f -printf "/%h/%f\n" >> filelist.lst
+fi
+if [ -d usr/sbin ]; then
+ find usr/sbin -type f -printf "/%h/%f\n" >> filelist.lst
+fi
+touch doclist.lst
+if [ -d usr/share/man ]; then
+ find usr/share/man -type f -printf "/%h/%f.gz\n" >> doclist.lst
+fi
+popd
+mv %{buildroot}/filelist.lst .
+mv %{buildroot}/doclist.lst .
+
+%files -n python3-MicroTokenizer -f filelist.lst
+%dir %{python3_sitelib}/*
+
+%files help -f doclist.lst
+%{_docdir}/*
+
+%changelog
+* Fri May 05 2023 Python_Bot <Python_Bot@openeuler.org> - 0.21.2-1
+- Package Spec generated
diff --git a/sources b/sources
new file mode 100644
index 0000000..ccd02b5
--- /dev/null
+++ b/sources
@@ -0,0 +1 @@
+7ec39c594be34712457a903bd7c611a9 MicroTokenizer-0.21.2.tar.gz