%global _empty_manifest_terminate_build 0 Name: python-underthesea Version: 6.2.0 Release: 1 Summary: Vietnamese NLP Toolkit License: GNU General Public License v3 URL: https://github.com/undertheseanlp/underthesea Source0: https://mirrors.nju.edu.cn/pypi/web/packages/20/6f/2e4bd93874323d8071e56576577ce3a5443e612fae965fb2fd721d4d9756/underthesea-6.2.0.tar.gz BuildArch: noarch Requires: python3-Click Requires: python3-crfsuite Requires: python3-nltk Requires: python3-tqdm Requires: python3-requests Requires: python3-joblib Requires: python3-scikit-learn Requires: python3-PyYAML Requires: python3-underthesea-core Requires: python3-torch Requires: python3-transformers Requires: python3-seqeval Requires: python3-dm-haiku Requires: python3-optax Requires: python3-soundfile Requires: python3-matplotlib Requires: python3-playsound Requires: python3-PyObjC %description




Open-source Vietnamese Natural Language Process Toolkit

`Underthesea` is: 🌊 **A Vietnamese NLP toolkit.** Underthesea is a suite of open source Python modules data sets and tutorials supporting research and development in [Vietnamese Natural Language Processing](https://github.com/undertheseanlp/underthesea). We provides extremely easy API to quickly apply pretrained NLP models to your Vietnamese text, such as word segmentation, part-of-speech tagging (PoS), named entity recognition (NER), text classification and dependency parsing. 🌊 **An open-source software.** Underthesea is published under the [GNU General Public License v3.0](https://github.com/undertheseanlp/underthesea/blob/master/LICENSE) license. Permissions of this strong copyleft license are conditioned on making available complete source code of licensed works and modifications, which include larger works using a licensed work, under the same license. 🎁 [**Support Us!**](#-support-us) Every bit of support helps us achieve our goals. Thank you so much. 💝💝💝 ## Installation To install underthesea, simply: ```bash $ pip install underthesea ✨🍰✨ ``` Satisfaction, guaranteed. ## Tutorials * [1. Sentence Segmentation](#1-sentence-segmentation) * [2. Text Normalization](#2-text-normalization) * [3. Word Segmentation](#3-word-segmentation) * [4. POS Tagging](#4-pos-tagging) * [5. Chunking](#5-chunking) * [6. Dependency Parsing](#6-dependency-parsing) * [7. Named Entity Recognition](#7-named-entity-recognition) * [8. Text Classification](#8-text-classification) * [9. Sentiment Analysis](#9-sentiment-analysis) * [10. Say 🗣️](#10-say-%EF%B8%8F) * [11. Vietnamese NLP Resources](#11-vietnamese-nlp-resources) ### 1. Sentence Segmentation Usage ```python >>> from underthesea import sent_tokenize >>> text = 'Taylor cho biết lúc đầu cô cảm thấy ngại với cô bạn thân Amanda nhưng rồi mọi thứ trôi qua nhanh chóng. Amanda cũng thoải mái với mối quan hệ này.' >>> sent_tokenize(text) [ "Taylor cho biết lúc đầu cô cảm thấy ngại với cô bạn thân Amanda nhưng rồi mọi thứ trôi qua nhanh chóng.", "Amanda cũng thoải mái với mối quan hệ này." ] ``` ### 2. Text Normalization Usage ```python >>> from underthesea import text_normalize >>> text_normalize("Ðảm baỏ chất lựơng phòng thí nghịêm hoá học") "Đảm bảo chất lượng phòng thí nghiệm hóa học" ``` ### 3. Word Segmentation Usage ```python >>> from underthesea import word_tokenize >>> text = "Chàng trai 9X Quảng Trị khởi nghiệp từ nấm sò" >>> word_tokenize(text) ["Chàng trai", "9X", "Quảng Trị", "khởi nghiệp", "từ", "nấm", "sò"] >>> word_tokenize(sentence, format="text") "Chàng_trai 9X Quảng_Trị khởi_nghiệp từ nấm sò" >>> text = "Viện Nghiên Cứu chiến lược quốc gia về học máy" >>> fixed_words = ["Viện Nghiên Cứu", "học máy"] >>> word_tokenize(text, fixed_words=fixed_words) "Viện_Nghiên_Cứu chiến_lược quốc_gia về học_máy" ``` ### 4. POS Tagging Usage ```python >>> from underthesea import pos_tag >>> pos_tag('Chợ thịt chó nổi tiếng ở Sài Gòn bị truy quét') [('Chợ', 'N'), ('thịt', 'N'), ('chó', 'N'), ('nổi tiếng', 'A'), ('ở', 'E'), ('Sài Gòn', 'Np'), ('bị', 'V'), ('truy quét', 'V')] ``` ### 5. Chunking Usage ```python >>> from underthesea import chunk >>> text = 'Bác sĩ bây giờ có thể thản nhiên báo tin bệnh nhân bị ung thư?' >>> chunk(text) [('Bác sĩ', 'N', 'B-NP'), ('bây giờ', 'P', 'B-NP'), ('có thể', 'R', 'O'), ('thản nhiên', 'A', 'B-AP'), ('báo', 'V', 'B-VP'), ('tin', 'N', 'B-NP'), ('bệnh nhân', 'N', 'B-NP'), ('bị', 'V', 'B-VP'), ('ung thư', 'N', 'B-NP'), ('?', 'CH', 'O')] ``` ### 6. Dependency Parsing Install dependencies for deep learning ```bash $ pip install underthesea[deep] ``` Usage ```python >>> from underthesea import dependency_parse >>> text = 'Tối 29/11, Việt Nam thêm 2 ca mắc Covid-19' >>> dependency_parse(text) [('Tối', 5, 'obl:tmod'), ('29/11', 1, 'flat:date'), (',', 1, 'punct'), ('Việt Nam', 5, 'nsubj'), ('thêm', 0, 'root'), ('2', 7, 'nummod'), ('ca', 5, 'obj'), ('mắc', 7, 'nmod'), ('Covid-19', 8, 'nummod')] ``` ### 7. Named Entity Recognition Usage ```python >>> from underthesea import ner >>> text = 'Chưa tiết lộ lịch trình tới Việt Nam của Tổng thống Mỹ Donald Trump' >>> ner(text) [('Chưa', 'R', 'O', 'O'), ('tiết lộ', 'V', 'B-VP', 'O'), ('lịch trình', 'V', 'B-VP', 'O'), ('tới', 'E', 'B-PP', 'O'), ('Việt Nam', 'Np', 'B-NP', 'B-LOC'), ('của', 'E', 'B-PP', 'O'), ('Tổng thống', 'N', 'B-NP', 'O'), ('Mỹ', 'Np', 'B-NP', 'B-LOC'), ('Donald', 'Np', 'B-NP', 'B-PER'), ('Trump', 'Np', 'B-NP', 'I-PER')] ``` With Deep Learning ```bash $ pip install underthesea[deep] ``` ```python >>> from underthesea import ner >>> text = "Bộ Công Thương xóa một tổng cục, giảm nhiều đầu mối" >>> ner(text, deep=True) [ {'entity': 'B-ORG', 'word': 'Bộ'}, {'entity': 'I-ORG', 'word': 'Công'}, {'entity': 'I-ORG', 'word': 'Thương'} ] ``` ### 8. Text Classification Usage ```python >>> from underthesea import classify >>> classify('HLV đầu tiên ở Premier League bị sa thải sau 4 vòng đấu') ['The thao'] >>> classify('Hội đồng tư vấn kinh doanh Asean vinh danh giải thưởng quốc tế') ['Kinh doanh'] >> classify('Lãi suất từ BIDV rất ưu đãi', domain='bank') ['INTEREST_RATE'] ``` ### 9. Sentiment Analysis Usage ```python >>> from underthesea import sentiment >>> sentiment('hàng kém chất lg,chăn đắp lên dính lông lá khắp người. thất vọng') 'negative' >>> sentiment('Sản phẩm hơi nhỏ so với tưởng tượng nhưng chất lượng tốt, đóng gói cẩn thận.') 'positive' >>> sentiment('Đky qua đường link ở bài viết này từ thứ 6 mà giờ chưa thấy ai lhe hết', domain='bank') ['CUSTOMER_SUPPORT#negative'] >>> sentiment('Xem lại vẫn thấy xúc động và tự hào về BIDV của mình', domain='bank') ['TRADEMARK#positive'] ``` ### 10. Say 🗣️ Text to Speech API. Thanks to awesome work from [NTT123/vietTTS](https://github.com/ntt123/vietTTS) Install extend dependencies and models ```bash $ pip install underthesea[wow] $ underthesea download-model VIET_TTS_V0_4_1 ``` Usage examples in script ```python >>> from underthesea.pipeline.say import say >>> say("Cựu binh Mỹ trả nhật ký nhẹ lòng khi thấy cuộc sống hòa bình tại Việt Nam") A new audio file named `sound.wav` will be generated. ``` Usage examples in command line ```sh $ underthesea say "Cựu binh Mỹ trả nhật ký nhẹ lòng khi thấy cuộc sống hòa bình tại Việt Nam" ``` ### 11. Vietnamese NLP Resources List resources ```bash $ underthesea list-data | Name | Type | License | Year | Directory | |---------------------------+-------------+---------+------+------------------------------------| | CP_Vietnamese_VLC_v2_2022 | Plaintext | Open | 2023 | datasets/CP_Vietnamese_VLC_v2_2022 | | UIT_ABSA_RESTAURANT | Sentiment | Open | 2021 | datasets/UIT_ABSA_RESTAURANT | | UIT_ABSA_HOTEL | Sentiment | Open | 2021 | datasets/UIT_ABSA_HOTEL | | SE_Vietnamese-UBS | Sentiment | Open | 2020 | datasets/SE_Vietnamese-UBS | | CP_Vietnamese-UNC | Plaintext | Open | 2020 | datasets/CP_Vietnamese-UNC | | DI_Vietnamese-UVD | Dictionary | Open | 2020 | datasets/DI_Vietnamese-UVD | | UTS2017-BANK | Categorized | Open | 2017 | datasets/UTS2017-BANK | | VNTQ_SMALL | Plaintext | Open | 2012 | datasets/LTA | | VNTQ_BIG | Plaintext | Open | 2012 | datasets/LTA | | VNESES | Plaintext | Open | 2012 | datasets/LTA | | VNTC | Categorized | Open | 2007 | datasets/VNTC | $ underthesea list-data --all ``` Download resources ```bash $ underthesea download-data CP_Vietnamese_VLC_v2_2022 Resource CP_Vietnamese_VLC_v2_2022 is downloaded in ~/.underthesea/datasets/CP_Vietnamese_VLC_v2_2022 folder ``` ### Up Coming Features * Automatic Speech Recognition * Machine Translation * Chatbot (Chat & Speak) ## Contributing Do you want to contribute with underthesea development? Great! Please read more details at [CONTRIBUTING.rst](https://github.com/undertheseanlp/underthesea/blob/main/contribute/CONTRIBUTING.rst) ## 💝 Support Us If you found this project helpful and would like to support our work, you can just buy us a coffee ☕. Your support is our biggest encouragement 🎁! %package -n python3-underthesea Summary: Vietnamese NLP Toolkit Provides: python-underthesea BuildRequires: python3-devel BuildRequires: python3-setuptools BuildRequires: python3-pip %description -n python3-underthesea




Open-source Vietnamese Natural Language Process Toolkit

`Underthesea` is: 🌊 **A Vietnamese NLP toolkit.** Underthesea is a suite of open source Python modules data sets and tutorials supporting research and development in [Vietnamese Natural Language Processing](https://github.com/undertheseanlp/underthesea). We provides extremely easy API to quickly apply pretrained NLP models to your Vietnamese text, such as word segmentation, part-of-speech tagging (PoS), named entity recognition (NER), text classification and dependency parsing. 🌊 **An open-source software.** Underthesea is published under the [GNU General Public License v3.0](https://github.com/undertheseanlp/underthesea/blob/master/LICENSE) license. Permissions of this strong copyleft license are conditioned on making available complete source code of licensed works and modifications, which include larger works using a licensed work, under the same license. 🎁 [**Support Us!**](#-support-us) Every bit of support helps us achieve our goals. Thank you so much. 💝💝💝 ## Installation To install underthesea, simply: ```bash $ pip install underthesea ✨🍰✨ ``` Satisfaction, guaranteed. ## Tutorials * [1. Sentence Segmentation](#1-sentence-segmentation) * [2. Text Normalization](#2-text-normalization) * [3. Word Segmentation](#3-word-segmentation) * [4. POS Tagging](#4-pos-tagging) * [5. Chunking](#5-chunking) * [6. Dependency Parsing](#6-dependency-parsing) * [7. Named Entity Recognition](#7-named-entity-recognition) * [8. Text Classification](#8-text-classification) * [9. Sentiment Analysis](#9-sentiment-analysis) * [10. Say 🗣️](#10-say-%EF%B8%8F) * [11. Vietnamese NLP Resources](#11-vietnamese-nlp-resources) ### 1. Sentence Segmentation Usage ```python >>> from underthesea import sent_tokenize >>> text = 'Taylor cho biết lúc đầu cô cảm thấy ngại với cô bạn thân Amanda nhưng rồi mọi thứ trôi qua nhanh chóng. Amanda cũng thoải mái với mối quan hệ này.' >>> sent_tokenize(text) [ "Taylor cho biết lúc đầu cô cảm thấy ngại với cô bạn thân Amanda nhưng rồi mọi thứ trôi qua nhanh chóng.", "Amanda cũng thoải mái với mối quan hệ này." ] ``` ### 2. Text Normalization Usage ```python >>> from underthesea import text_normalize >>> text_normalize("Ðảm baỏ chất lựơng phòng thí nghịêm hoá học") "Đảm bảo chất lượng phòng thí nghiệm hóa học" ``` ### 3. Word Segmentation Usage ```python >>> from underthesea import word_tokenize >>> text = "Chàng trai 9X Quảng Trị khởi nghiệp từ nấm sò" >>> word_tokenize(text) ["Chàng trai", "9X", "Quảng Trị", "khởi nghiệp", "từ", "nấm", "sò"] >>> word_tokenize(sentence, format="text") "Chàng_trai 9X Quảng_Trị khởi_nghiệp từ nấm sò" >>> text = "Viện Nghiên Cứu chiến lược quốc gia về học máy" >>> fixed_words = ["Viện Nghiên Cứu", "học máy"] >>> word_tokenize(text, fixed_words=fixed_words) "Viện_Nghiên_Cứu chiến_lược quốc_gia về học_máy" ``` ### 4. POS Tagging Usage ```python >>> from underthesea import pos_tag >>> pos_tag('Chợ thịt chó nổi tiếng ở Sài Gòn bị truy quét') [('Chợ', 'N'), ('thịt', 'N'), ('chó', 'N'), ('nổi tiếng', 'A'), ('ở', 'E'), ('Sài Gòn', 'Np'), ('bị', 'V'), ('truy quét', 'V')] ``` ### 5. Chunking Usage ```python >>> from underthesea import chunk >>> text = 'Bác sĩ bây giờ có thể thản nhiên báo tin bệnh nhân bị ung thư?' >>> chunk(text) [('Bác sĩ', 'N', 'B-NP'), ('bây giờ', 'P', 'B-NP'), ('có thể', 'R', 'O'), ('thản nhiên', 'A', 'B-AP'), ('báo', 'V', 'B-VP'), ('tin', 'N', 'B-NP'), ('bệnh nhân', 'N', 'B-NP'), ('bị', 'V', 'B-VP'), ('ung thư', 'N', 'B-NP'), ('?', 'CH', 'O')] ``` ### 6. Dependency Parsing Install dependencies for deep learning ```bash $ pip install underthesea[deep] ``` Usage ```python >>> from underthesea import dependency_parse >>> text = 'Tối 29/11, Việt Nam thêm 2 ca mắc Covid-19' >>> dependency_parse(text) [('Tối', 5, 'obl:tmod'), ('29/11', 1, 'flat:date'), (',', 1, 'punct'), ('Việt Nam', 5, 'nsubj'), ('thêm', 0, 'root'), ('2', 7, 'nummod'), ('ca', 5, 'obj'), ('mắc', 7, 'nmod'), ('Covid-19', 8, 'nummod')] ``` ### 7. Named Entity Recognition Usage ```python >>> from underthesea import ner >>> text = 'Chưa tiết lộ lịch trình tới Việt Nam của Tổng thống Mỹ Donald Trump' >>> ner(text) [('Chưa', 'R', 'O', 'O'), ('tiết lộ', 'V', 'B-VP', 'O'), ('lịch trình', 'V', 'B-VP', 'O'), ('tới', 'E', 'B-PP', 'O'), ('Việt Nam', 'Np', 'B-NP', 'B-LOC'), ('của', 'E', 'B-PP', 'O'), ('Tổng thống', 'N', 'B-NP', 'O'), ('Mỹ', 'Np', 'B-NP', 'B-LOC'), ('Donald', 'Np', 'B-NP', 'B-PER'), ('Trump', 'Np', 'B-NP', 'I-PER')] ``` With Deep Learning ```bash $ pip install underthesea[deep] ``` ```python >>> from underthesea import ner >>> text = "Bộ Công Thương xóa một tổng cục, giảm nhiều đầu mối" >>> ner(text, deep=True) [ {'entity': 'B-ORG', 'word': 'Bộ'}, {'entity': 'I-ORG', 'word': 'Công'}, {'entity': 'I-ORG', 'word': 'Thương'} ] ``` ### 8. Text Classification Usage ```python >>> from underthesea import classify >>> classify('HLV đầu tiên ở Premier League bị sa thải sau 4 vòng đấu') ['The thao'] >>> classify('Hội đồng tư vấn kinh doanh Asean vinh danh giải thưởng quốc tế') ['Kinh doanh'] >> classify('Lãi suất từ BIDV rất ưu đãi', domain='bank') ['INTEREST_RATE'] ``` ### 9. Sentiment Analysis Usage ```python >>> from underthesea import sentiment >>> sentiment('hàng kém chất lg,chăn đắp lên dính lông lá khắp người. thất vọng') 'negative' >>> sentiment('Sản phẩm hơi nhỏ so với tưởng tượng nhưng chất lượng tốt, đóng gói cẩn thận.') 'positive' >>> sentiment('Đky qua đường link ở bài viết này từ thứ 6 mà giờ chưa thấy ai lhe hết', domain='bank') ['CUSTOMER_SUPPORT#negative'] >>> sentiment('Xem lại vẫn thấy xúc động và tự hào về BIDV của mình', domain='bank') ['TRADEMARK#positive'] ``` ### 10. Say 🗣️ Text to Speech API. Thanks to awesome work from [NTT123/vietTTS](https://github.com/ntt123/vietTTS) Install extend dependencies and models ```bash $ pip install underthesea[wow] $ underthesea download-model VIET_TTS_V0_4_1 ``` Usage examples in script ```python >>> from underthesea.pipeline.say import say >>> say("Cựu binh Mỹ trả nhật ký nhẹ lòng khi thấy cuộc sống hòa bình tại Việt Nam") A new audio file named `sound.wav` will be generated. ``` Usage examples in command line ```sh $ underthesea say "Cựu binh Mỹ trả nhật ký nhẹ lòng khi thấy cuộc sống hòa bình tại Việt Nam" ``` ### 11. Vietnamese NLP Resources List resources ```bash $ underthesea list-data | Name | Type | License | Year | Directory | |---------------------------+-------------+---------+------+------------------------------------| | CP_Vietnamese_VLC_v2_2022 | Plaintext | Open | 2023 | datasets/CP_Vietnamese_VLC_v2_2022 | | UIT_ABSA_RESTAURANT | Sentiment | Open | 2021 | datasets/UIT_ABSA_RESTAURANT | | UIT_ABSA_HOTEL | Sentiment | Open | 2021 | datasets/UIT_ABSA_HOTEL | | SE_Vietnamese-UBS | Sentiment | Open | 2020 | datasets/SE_Vietnamese-UBS | | CP_Vietnamese-UNC | Plaintext | Open | 2020 | datasets/CP_Vietnamese-UNC | | DI_Vietnamese-UVD | Dictionary | Open | 2020 | datasets/DI_Vietnamese-UVD | | UTS2017-BANK | Categorized | Open | 2017 | datasets/UTS2017-BANK | | VNTQ_SMALL | Plaintext | Open | 2012 | datasets/LTA | | VNTQ_BIG | Plaintext | Open | 2012 | datasets/LTA | | VNESES | Plaintext | Open | 2012 | datasets/LTA | | VNTC | Categorized | Open | 2007 | datasets/VNTC | $ underthesea list-data --all ``` Download resources ```bash $ underthesea download-data CP_Vietnamese_VLC_v2_2022 Resource CP_Vietnamese_VLC_v2_2022 is downloaded in ~/.underthesea/datasets/CP_Vietnamese_VLC_v2_2022 folder ``` ### Up Coming Features * Automatic Speech Recognition * Machine Translation * Chatbot (Chat & Speak) ## Contributing Do you want to contribute with underthesea development? Great! Please read more details at [CONTRIBUTING.rst](https://github.com/undertheseanlp/underthesea/blob/main/contribute/CONTRIBUTING.rst) ## 💝 Support Us If you found this project helpful and would like to support our work, you can just buy us a coffee ☕. Your support is our biggest encouragement 🎁! %package help Summary: Development documents and examples for underthesea Provides: python3-underthesea-doc %description help




Open-source Vietnamese Natural Language Process Toolkit

`Underthesea` is: 🌊 **A Vietnamese NLP toolkit.** Underthesea is a suite of open source Python modules data sets and tutorials supporting research and development in [Vietnamese Natural Language Processing](https://github.com/undertheseanlp/underthesea). We provides extremely easy API to quickly apply pretrained NLP models to your Vietnamese text, such as word segmentation, part-of-speech tagging (PoS), named entity recognition (NER), text classification and dependency parsing. 🌊 **An open-source software.** Underthesea is published under the [GNU General Public License v3.0](https://github.com/undertheseanlp/underthesea/blob/master/LICENSE) license. Permissions of this strong copyleft license are conditioned on making available complete source code of licensed works and modifications, which include larger works using a licensed work, under the same license. 🎁 [**Support Us!**](#-support-us) Every bit of support helps us achieve our goals. Thank you so much. 💝💝💝 ## Installation To install underthesea, simply: ```bash $ pip install underthesea ✨🍰✨ ``` Satisfaction, guaranteed. ## Tutorials * [1. Sentence Segmentation](#1-sentence-segmentation) * [2. Text Normalization](#2-text-normalization) * [3. Word Segmentation](#3-word-segmentation) * [4. POS Tagging](#4-pos-tagging) * [5. Chunking](#5-chunking) * [6. Dependency Parsing](#6-dependency-parsing) * [7. Named Entity Recognition](#7-named-entity-recognition) * [8. Text Classification](#8-text-classification) * [9. Sentiment Analysis](#9-sentiment-analysis) * [10. Say 🗣️](#10-say-%EF%B8%8F) * [11. Vietnamese NLP Resources](#11-vietnamese-nlp-resources) ### 1. Sentence Segmentation Usage ```python >>> from underthesea import sent_tokenize >>> text = 'Taylor cho biết lúc đầu cô cảm thấy ngại với cô bạn thân Amanda nhưng rồi mọi thứ trôi qua nhanh chóng. Amanda cũng thoải mái với mối quan hệ này.' >>> sent_tokenize(text) [ "Taylor cho biết lúc đầu cô cảm thấy ngại với cô bạn thân Amanda nhưng rồi mọi thứ trôi qua nhanh chóng.", "Amanda cũng thoải mái với mối quan hệ này." ] ``` ### 2. Text Normalization Usage ```python >>> from underthesea import text_normalize >>> text_normalize("Ðảm baỏ chất lựơng phòng thí nghịêm hoá học") "Đảm bảo chất lượng phòng thí nghiệm hóa học" ``` ### 3. Word Segmentation Usage ```python >>> from underthesea import word_tokenize >>> text = "Chàng trai 9X Quảng Trị khởi nghiệp từ nấm sò" >>> word_tokenize(text) ["Chàng trai", "9X", "Quảng Trị", "khởi nghiệp", "từ", "nấm", "sò"] >>> word_tokenize(sentence, format="text") "Chàng_trai 9X Quảng_Trị khởi_nghiệp từ nấm sò" >>> text = "Viện Nghiên Cứu chiến lược quốc gia về học máy" >>> fixed_words = ["Viện Nghiên Cứu", "học máy"] >>> word_tokenize(text, fixed_words=fixed_words) "Viện_Nghiên_Cứu chiến_lược quốc_gia về học_máy" ``` ### 4. POS Tagging Usage ```python >>> from underthesea import pos_tag >>> pos_tag('Chợ thịt chó nổi tiếng ở Sài Gòn bị truy quét') [('Chợ', 'N'), ('thịt', 'N'), ('chó', 'N'), ('nổi tiếng', 'A'), ('ở', 'E'), ('Sài Gòn', 'Np'), ('bị', 'V'), ('truy quét', 'V')] ``` ### 5. Chunking Usage ```python >>> from underthesea import chunk >>> text = 'Bác sĩ bây giờ có thể thản nhiên báo tin bệnh nhân bị ung thư?' >>> chunk(text) [('Bác sĩ', 'N', 'B-NP'), ('bây giờ', 'P', 'B-NP'), ('có thể', 'R', 'O'), ('thản nhiên', 'A', 'B-AP'), ('báo', 'V', 'B-VP'), ('tin', 'N', 'B-NP'), ('bệnh nhân', 'N', 'B-NP'), ('bị', 'V', 'B-VP'), ('ung thư', 'N', 'B-NP'), ('?', 'CH', 'O')] ``` ### 6. Dependency Parsing Install dependencies for deep learning ```bash $ pip install underthesea[deep] ``` Usage ```python >>> from underthesea import dependency_parse >>> text = 'Tối 29/11, Việt Nam thêm 2 ca mắc Covid-19' >>> dependency_parse(text) [('Tối', 5, 'obl:tmod'), ('29/11', 1, 'flat:date'), (',', 1, 'punct'), ('Việt Nam', 5, 'nsubj'), ('thêm', 0, 'root'), ('2', 7, 'nummod'), ('ca', 5, 'obj'), ('mắc', 7, 'nmod'), ('Covid-19', 8, 'nummod')] ``` ### 7. Named Entity Recognition Usage ```python >>> from underthesea import ner >>> text = 'Chưa tiết lộ lịch trình tới Việt Nam của Tổng thống Mỹ Donald Trump' >>> ner(text) [('Chưa', 'R', 'O', 'O'), ('tiết lộ', 'V', 'B-VP', 'O'), ('lịch trình', 'V', 'B-VP', 'O'), ('tới', 'E', 'B-PP', 'O'), ('Việt Nam', 'Np', 'B-NP', 'B-LOC'), ('của', 'E', 'B-PP', 'O'), ('Tổng thống', 'N', 'B-NP', 'O'), ('Mỹ', 'Np', 'B-NP', 'B-LOC'), ('Donald', 'Np', 'B-NP', 'B-PER'), ('Trump', 'Np', 'B-NP', 'I-PER')] ``` With Deep Learning ```bash $ pip install underthesea[deep] ``` ```python >>> from underthesea import ner >>> text = "Bộ Công Thương xóa một tổng cục, giảm nhiều đầu mối" >>> ner(text, deep=True) [ {'entity': 'B-ORG', 'word': 'Bộ'}, {'entity': 'I-ORG', 'word': 'Công'}, {'entity': 'I-ORG', 'word': 'Thương'} ] ``` ### 8. Text Classification Usage ```python >>> from underthesea import classify >>> classify('HLV đầu tiên ở Premier League bị sa thải sau 4 vòng đấu') ['The thao'] >>> classify('Hội đồng tư vấn kinh doanh Asean vinh danh giải thưởng quốc tế') ['Kinh doanh'] >> classify('Lãi suất từ BIDV rất ưu đãi', domain='bank') ['INTEREST_RATE'] ``` ### 9. Sentiment Analysis Usage ```python >>> from underthesea import sentiment >>> sentiment('hàng kém chất lg,chăn đắp lên dính lông lá khắp người. thất vọng') 'negative' >>> sentiment('Sản phẩm hơi nhỏ so với tưởng tượng nhưng chất lượng tốt, đóng gói cẩn thận.') 'positive' >>> sentiment('Đky qua đường link ở bài viết này từ thứ 6 mà giờ chưa thấy ai lhe hết', domain='bank') ['CUSTOMER_SUPPORT#negative'] >>> sentiment('Xem lại vẫn thấy xúc động và tự hào về BIDV của mình', domain='bank') ['TRADEMARK#positive'] ``` ### 10. Say 🗣️ Text to Speech API. Thanks to awesome work from [NTT123/vietTTS](https://github.com/ntt123/vietTTS) Install extend dependencies and models ```bash $ pip install underthesea[wow] $ underthesea download-model VIET_TTS_V0_4_1 ``` Usage examples in script ```python >>> from underthesea.pipeline.say import say >>> say("Cựu binh Mỹ trả nhật ký nhẹ lòng khi thấy cuộc sống hòa bình tại Việt Nam") A new audio file named `sound.wav` will be generated. ``` Usage examples in command line ```sh $ underthesea say "Cựu binh Mỹ trả nhật ký nhẹ lòng khi thấy cuộc sống hòa bình tại Việt Nam" ``` ### 11. Vietnamese NLP Resources List resources ```bash $ underthesea list-data | Name | Type | License | Year | Directory | |---------------------------+-------------+---------+------+------------------------------------| | CP_Vietnamese_VLC_v2_2022 | Plaintext | Open | 2023 | datasets/CP_Vietnamese_VLC_v2_2022 | | UIT_ABSA_RESTAURANT | Sentiment | Open | 2021 | datasets/UIT_ABSA_RESTAURANT | | UIT_ABSA_HOTEL | Sentiment | Open | 2021 | datasets/UIT_ABSA_HOTEL | | SE_Vietnamese-UBS | Sentiment | Open | 2020 | datasets/SE_Vietnamese-UBS | | CP_Vietnamese-UNC | Plaintext | Open | 2020 | datasets/CP_Vietnamese-UNC | | DI_Vietnamese-UVD | Dictionary | Open | 2020 | datasets/DI_Vietnamese-UVD | | UTS2017-BANK | Categorized | Open | 2017 | datasets/UTS2017-BANK | | VNTQ_SMALL | Plaintext | Open | 2012 | datasets/LTA | | VNTQ_BIG | Plaintext | Open | 2012 | datasets/LTA | | VNESES | Plaintext | Open | 2012 | datasets/LTA | | VNTC | Categorized | Open | 2007 | datasets/VNTC | $ underthesea list-data --all ``` Download resources ```bash $ underthesea download-data CP_Vietnamese_VLC_v2_2022 Resource CP_Vietnamese_VLC_v2_2022 is downloaded in ~/.underthesea/datasets/CP_Vietnamese_VLC_v2_2022 folder ``` ### Up Coming Features * Automatic Speech Recognition * Machine Translation * Chatbot (Chat & Speak) ## Contributing Do you want to contribute with underthesea development? Great! Please read more details at [CONTRIBUTING.rst](https://github.com/undertheseanlp/underthesea/blob/main/contribute/CONTRIBUTING.rst) ## 💝 Support Us If you found this project helpful and would like to support our work, you can just buy us a coffee ☕. Your support is our biggest encouragement 🎁! %prep %autosetup -n underthesea-6.2.0 %build %py3_build %install %py3_install install -d -m755 %{buildroot}/%{_pkgdocdir} if [ -d doc ]; then cp -arf doc %{buildroot}/%{_pkgdocdir}; fi if [ -d docs ]; then cp -arf docs %{buildroot}/%{_pkgdocdir}; fi if [ -d example ]; then cp -arf example %{buildroot}/%{_pkgdocdir}; fi if [ -d examples ]; then cp -arf examples %{buildroot}/%{_pkgdocdir}; fi pushd %{buildroot} if [ -d usr/lib ]; then find usr/lib -type f -printf "/%h/%f\n" >> filelist.lst fi if [ -d usr/lib64 ]; then find usr/lib64 -type f -printf "/%h/%f\n" >> filelist.lst fi if [ -d usr/bin ]; then find usr/bin -type f -printf "/%h/%f\n" >> filelist.lst fi if [ -d usr/sbin ]; then find usr/sbin -type f -printf "/%h/%f\n" >> filelist.lst fi touch doclist.lst if [ -d usr/share/man ]; then find usr/share/man -type f -printf "/%h/%f.gz\n" >> doclist.lst fi popd mv %{buildroot}/filelist.lst . mv %{buildroot}/doclist.lst . %files -n python3-underthesea -f filelist.lst %dir %{python3_sitelib}/* %files help -f doclist.lst %{_docdir}/* %changelog * Tue Apr 25 2023 Python_Bot - 6.2.0-1 - Package Spec generated