diff options
| -rw-r--r-- | .gitignore | 1 | ||||
| -rw-r--r-- | python-openue.spec | 661 | ||||
| -rw-r--r-- | sources | 1 |
3 files changed, 663 insertions, 0 deletions
@@ -0,0 +1 @@ +/openue-0.2.5.tar.gz diff --git a/python-openue.spec b/python-openue.spec new file mode 100644 index 0000000..f20b0e8 --- /dev/null +++ b/python-openue.spec @@ -0,0 +1,661 @@ +%global _empty_manifest_terminate_build 0 +Name: python-openue +Version: 0.2.5 +Release: 1 +Summary: An open toolkit of universal extraction from text. +License: MIT License +URL: https://github.com/zjunlp/openue +Source0: https://mirrors.nju.edu.cn/pypi/web/packages/76/b5/4566a40df559b0a30b31affc8317cff9a38aaf70eb22c69a2e5bb7fd621e/openue-0.2.5.tar.gz +BuildArch: noarch + +Requires: python3-jsonlines +Requires: python3-tqdm +Requires: python3-wandb +Requires: python3-packaging +Requires: python3-numpy +Requires: python3-tensorboard +Requires: python3-pytorch-lightning +Requires: python3-transformers +Requires: python3-dataclasses +Requires: python3-PyYAML +Requires: python3-tensorboardX +Requires: python3-textbrewer +Requires: python3-ts + +%description +[**中文说明**](https://github.com/zjunlp/OpenUE/blob/main/README.md) | [**English**](https://github.com/zjunlp/OpenUE/blob/main/README_EN.md) +<p align="center"> + <a href="https://github.com/zjunlp/openue"> <img src="https://github.com/zjunlp/OpenUE/blob/main/imgs/logo.png" width="400"/></a> +</p> + +<p align="center"> +<strong> OpenUE is a lightweight toolkit for knowledge graph extraction. + </strong> +</p> + <p align="center"> + <a href="https://badge.fury.io/py/openue"> + <img src="https://badge.fury.io/py/openue.svg"> + </a> + <a href="https://github.com/zjunlp/OpenUE/blob/main/LICENSE"> + <img alt="GitHub" src="https://img.shields.io/github/license/zjunlp/openue.svg?color=green"> + </a> + <a href="http://openue.top"> + <img alt="Documentation" src="https://img.shields.io/website/http/huggingface.co/transformers/index.html.svg?down_color=red&down_message=offline&up_message=online"> + </a> +</p> + +[OpenUE](https://aclanthology.org/2020.emnlp-demos.1/) 是一个轻量级知识图谱抽取工具。 + +**特点** + + + - 基于预训练语言模型的知识图谱抽取任务 (兼容BERT, Roberta等预训练模型.) + - 实体关系抽取 + - 事件抽取 + - 槽位和意图抽取 + - <em> 更多的任务 </em> + - 训练和测试接口 + - 快速部署NLP模型 + +## 环境 + + - python3.8 + - requirements.txt + + +## 框架图 + + + +其中主要分为三个模块,`models`,`lit_models`和`data`模块。 + +### models 模块 + +其存放了我们主要的三个模型,针对整句的关系识别模型,针对已知句中关系的命名实体识别模型,还有将前两者整合起来的推理验证模型。其主要源自`transformers`库中的已定义好的预训练模型。 + +### lit_models 模块 + +其中的代码主要继承自`pytorch_lightning.Trainer`。其可以自动构建单卡,多卡,GPU,TPU等不同硬件下的模型训练。我们在其中定义了`training_steps`和`validation_step`即可自动构建训练逻辑进行训练。 + +由于其硬件不敏感,所以我们可以使用多种不同环境下调用OpenUE训练模块。 + +### data 模块 + +`data`中存放了针对不同数据集进行不同操作的代码。使用了`transformers`库中的`tokenizer`先对数据进行分词处理再根据不同需要将数据变成我们需要的features。 + +## 快速开始 + +### 安装 + +#### Anaconda 环境 + +``` +conda create -n openue python=3.8 +conda activate openue +pip install -r requirements.txt +conda install pytorch torchvision torchaudio cudatoolkit=11.1 -c pytorch -c nvidia # 视自己Nvidia驱动环境选择对应的cudatoolkit版本 +python setup.py install +``` + +#### pip安装 + +```shell +pip install openue +``` + +#### pip本地开发 + +```shell +python setup.py develop +``` + +#### 使用方式 + +数据格式为`json`文件,具体例子如下。 + +```json +{ + "text": "查尔斯·阿兰基斯(Charles Aránguiz),1989年4月17日出生于智利圣地亚哥,智利职业足球运动员,司职中场,效力于德国足球甲级联赛勒沃库森足球俱乐部", + "spo_list": [{ + "predicate": "出生地", + "object_type": "地点", + "subject_type": "人物", + "object": "圣地亚哥", + "subject": "查尔斯·阿兰基斯" + }, { + "predicate": "出生日期", + "object_type": "Date", + "subject_type": "人物", + "object": "1989年4月17日", + "subject": "查尔斯·阿兰基斯" + }] +} +``` + +### 训练模型 + +将数据存放在`./dataset/`目录下之后进行训练。如目录为空,运行以下脚本,将自动下载数据集和预训练模型并开始训练,过程中请保持网络畅通以免模型和数据下载失败。 + +```shell +# 训练NER命名实体识别模块 +./scripts/run_ner.sh +# 训练SEQ句中关系分类模块 +./scripts/run_seq.sh +``` + +下面使用一个小demo简要展示训练过程,其中仅训练一个batch来加速展示。 + + +### 验证模型 + +由于我们使用pipeline模型,所以无法联合训练,需要分别训练后进行统一验证。 在运行了两个训练脚本后,在`output`路径下会得到两个模型权重`output/ner/${dataset}`以及`output/seq/${dataset}`根据不同数据集放在对应的目录中。将模型权重目录分别作为`ner_model_name_or_path`和`seq_model_name_or_path`输入到 `run_infer.yaml`或者是`run_infer.sh`运行脚本中,即可进行验证。 + +### Notebook快速开始 + +[ske数据集训练notebook](https://github.com/zjunlp/OpenUE/blob/pytorch/ske.ipynb) +使用中文数据集作为例子具体介绍了如何使用openue中的`lit_models`,`models`和`data`。方便用户构建自己的训练逻辑。 + +[](https://colab.research.google.com/drive/1VNhFYcqDbXl1b3HzU8sc-NgbhV2ZyYzW?usp=sharing) + 使用colab云端环境,无需配置环境。 + +<!--  --> + +### 支持自动调参(wandb) + +```python +# 在代码中将logger 部分替换成wandb logger即可支持wandb +logger = pl.loggers.WandbLogger(project="openue") +``` + + +## 快速部署模型 + +### 下载torchserve-docker + +[docker下载](https://github.com/pytorch/serve/blob/master/docker/README.md) + +### 创建模型对应的handler类 + +我们已经在`deploy`文件夹下放置了对应的部署类`handler_seq.py`和`handler_ner.py`。 + +```shell +# 使用torch-model-archiver 将模型文件进行打包,其中 +# extra-files需要加入以下文件 +# config.json, setup_config.json 针对模型和推理的配置config。 +# vocab.txt : 分词器tokenizer所使用的字典 +# model.py : 模型具体代码 + +torch-model-archiver --model-name BERTForNER_en \ + --version 1.0 --serialized-file ./ner_en/pytorch_model.bin \ + --handler ./deploy/handler.py \ + --extra-files "./ner_en/config.json,./ner_en/setup_config.json,./ner_en/vocab.txt,./deploy/model.py" -f + +# 将打包好的.mar文件加入到model-store文件夹下,并使用curl命令将打包的文件部署到docker中。 +sudo cp ./BERTForSEQ_en.mar /home/model-server/model-store/ +curl -v -X POST "http://localhost:3001/models?initial_workers=1&synchronous=false&url=BERTForSEQ_en.mar&batch_size=1&max_batch_delay=200" +``` +## 项目成员 + +浙江大学:张宁豫、谢辛、毕祯、王泽元、陈想、余海阳、邓淑敏、叶宏彬、田玺、郑国轴、陈华钧 + +达摩院:陈漠沙、谭传奇、黄非 + +<br> + +## 引用 + +如果您使用或扩展我们的工作,请引用以下文章: + +``` +@inproceedings{zhang-2020-opennue, + title = "{O}pe{UE}: An Open Toolkit of Universal Extraction from Text", + author = "Ningyu Zhang, Shumin Deng, Zhen Bi, Haiyang Yu, Jiacheng Yang, Mosha Chen, Fei Huang, Wei Zhang, Huajun Chen", + year = "2020", +} +``` + + + + +%package -n python3-openue +Summary: An open toolkit of universal extraction from text. +Provides: python-openue +BuildRequires: python3-devel +BuildRequires: python3-setuptools +BuildRequires: python3-pip +%description -n python3-openue +[**中文说明**](https://github.com/zjunlp/OpenUE/blob/main/README.md) | [**English**](https://github.com/zjunlp/OpenUE/blob/main/README_EN.md) +<p align="center"> + <a href="https://github.com/zjunlp/openue"> <img src="https://github.com/zjunlp/OpenUE/blob/main/imgs/logo.png" width="400"/></a> +</p> + +<p align="center"> +<strong> OpenUE is a lightweight toolkit for knowledge graph extraction. + </strong> +</p> + <p align="center"> + <a href="https://badge.fury.io/py/openue"> + <img src="https://badge.fury.io/py/openue.svg"> + </a> + <a href="https://github.com/zjunlp/OpenUE/blob/main/LICENSE"> + <img alt="GitHub" src="https://img.shields.io/github/license/zjunlp/openue.svg?color=green"> + </a> + <a href="http://openue.top"> + <img alt="Documentation" src="https://img.shields.io/website/http/huggingface.co/transformers/index.html.svg?down_color=red&down_message=offline&up_message=online"> + </a> +</p> + +[OpenUE](https://aclanthology.org/2020.emnlp-demos.1/) 是一个轻量级知识图谱抽取工具。 + +**特点** + + + - 基于预训练语言模型的知识图谱抽取任务 (兼容BERT, Roberta等预训练模型.) + - 实体关系抽取 + - 事件抽取 + - 槽位和意图抽取 + - <em> 更多的任务 </em> + - 训练和测试接口 + - 快速部署NLP模型 + +## 环境 + + - python3.8 + - requirements.txt + + +## 框架图 + + + +其中主要分为三个模块,`models`,`lit_models`和`data`模块。 + +### models 模块 + +其存放了我们主要的三个模型,针对整句的关系识别模型,针对已知句中关系的命名实体识别模型,还有将前两者整合起来的推理验证模型。其主要源自`transformers`库中的已定义好的预训练模型。 + +### lit_models 模块 + +其中的代码主要继承自`pytorch_lightning.Trainer`。其可以自动构建单卡,多卡,GPU,TPU等不同硬件下的模型训练。我们在其中定义了`training_steps`和`validation_step`即可自动构建训练逻辑进行训练。 + +由于其硬件不敏感,所以我们可以使用多种不同环境下调用OpenUE训练模块。 + +### data 模块 + +`data`中存放了针对不同数据集进行不同操作的代码。使用了`transformers`库中的`tokenizer`先对数据进行分词处理再根据不同需要将数据变成我们需要的features。 + +## 快速开始 + +### 安装 + +#### Anaconda 环境 + +``` +conda create -n openue python=3.8 +conda activate openue +pip install -r requirements.txt +conda install pytorch torchvision torchaudio cudatoolkit=11.1 -c pytorch -c nvidia # 视自己Nvidia驱动环境选择对应的cudatoolkit版本 +python setup.py install +``` + +#### pip安装 + +```shell +pip install openue +``` + +#### pip本地开发 + +```shell +python setup.py develop +``` + +#### 使用方式 + +数据格式为`json`文件,具体例子如下。 + +```json +{ + "text": "查尔斯·阿兰基斯(Charles Aránguiz),1989年4月17日出生于智利圣地亚哥,智利职业足球运动员,司职中场,效力于德国足球甲级联赛勒沃库森足球俱乐部", + "spo_list": [{ + "predicate": "出生地", + "object_type": "地点", + "subject_type": "人物", + "object": "圣地亚哥", + "subject": "查尔斯·阿兰基斯" + }, { + "predicate": "出生日期", + "object_type": "Date", + "subject_type": "人物", + "object": "1989年4月17日", + "subject": "查尔斯·阿兰基斯" + }] +} +``` + +### 训练模型 + +将数据存放在`./dataset/`目录下之后进行训练。如目录为空,运行以下脚本,将自动下载数据集和预训练模型并开始训练,过程中请保持网络畅通以免模型和数据下载失败。 + +```shell +# 训练NER命名实体识别模块 +./scripts/run_ner.sh +# 训练SEQ句中关系分类模块 +./scripts/run_seq.sh +``` + +下面使用一个小demo简要展示训练过程,其中仅训练一个batch来加速展示。 + + +### 验证模型 + +由于我们使用pipeline模型,所以无法联合训练,需要分别训练后进行统一验证。 在运行了两个训练脚本后,在`output`路径下会得到两个模型权重`output/ner/${dataset}`以及`output/seq/${dataset}`根据不同数据集放在对应的目录中。将模型权重目录分别作为`ner_model_name_or_path`和`seq_model_name_or_path`输入到 `run_infer.yaml`或者是`run_infer.sh`运行脚本中,即可进行验证。 + +### Notebook快速开始 + +[ske数据集训练notebook](https://github.com/zjunlp/OpenUE/blob/pytorch/ske.ipynb) +使用中文数据集作为例子具体介绍了如何使用openue中的`lit_models`,`models`和`data`。方便用户构建自己的训练逻辑。 + +[](https://colab.research.google.com/drive/1VNhFYcqDbXl1b3HzU8sc-NgbhV2ZyYzW?usp=sharing) + 使用colab云端环境,无需配置环境。 + +<!--  --> + +### 支持自动调参(wandb) + +```python +# 在代码中将logger 部分替换成wandb logger即可支持wandb +logger = pl.loggers.WandbLogger(project="openue") +``` + + +## 快速部署模型 + +### 下载torchserve-docker + +[docker下载](https://github.com/pytorch/serve/blob/master/docker/README.md) + +### 创建模型对应的handler类 + +我们已经在`deploy`文件夹下放置了对应的部署类`handler_seq.py`和`handler_ner.py`。 + +```shell +# 使用torch-model-archiver 将模型文件进行打包,其中 +# extra-files需要加入以下文件 +# config.json, setup_config.json 针对模型和推理的配置config。 +# vocab.txt : 分词器tokenizer所使用的字典 +# model.py : 模型具体代码 + +torch-model-archiver --model-name BERTForNER_en \ + --version 1.0 --serialized-file ./ner_en/pytorch_model.bin \ + --handler ./deploy/handler.py \ + --extra-files "./ner_en/config.json,./ner_en/setup_config.json,./ner_en/vocab.txt,./deploy/model.py" -f + +# 将打包好的.mar文件加入到model-store文件夹下,并使用curl命令将打包的文件部署到docker中。 +sudo cp ./BERTForSEQ_en.mar /home/model-server/model-store/ +curl -v -X POST "http://localhost:3001/models?initial_workers=1&synchronous=false&url=BERTForSEQ_en.mar&batch_size=1&max_batch_delay=200" +``` +## 项目成员 + +浙江大学:张宁豫、谢辛、毕祯、王泽元、陈想、余海阳、邓淑敏、叶宏彬、田玺、郑国轴、陈华钧 + +达摩院:陈漠沙、谭传奇、黄非 + +<br> + +## 引用 + +如果您使用或扩展我们的工作,请引用以下文章: + +``` +@inproceedings{zhang-2020-opennue, + title = "{O}pe{UE}: An Open Toolkit of Universal Extraction from Text", + author = "Ningyu Zhang, Shumin Deng, Zhen Bi, Haiyang Yu, Jiacheng Yang, Mosha Chen, Fei Huang, Wei Zhang, Huajun Chen", + year = "2020", +} +``` + + + + +%package help +Summary: Development documents and examples for openue +Provides: python3-openue-doc +%description help +[**中文说明**](https://github.com/zjunlp/OpenUE/blob/main/README.md) | [**English**](https://github.com/zjunlp/OpenUE/blob/main/README_EN.md) +<p align="center"> + <a href="https://github.com/zjunlp/openue"> <img src="https://github.com/zjunlp/OpenUE/blob/main/imgs/logo.png" width="400"/></a> +</p> + +<p align="center"> +<strong> OpenUE is a lightweight toolkit for knowledge graph extraction. + </strong> +</p> + <p align="center"> + <a href="https://badge.fury.io/py/openue"> + <img src="https://badge.fury.io/py/openue.svg"> + </a> + <a href="https://github.com/zjunlp/OpenUE/blob/main/LICENSE"> + <img alt="GitHub" src="https://img.shields.io/github/license/zjunlp/openue.svg?color=green"> + </a> + <a href="http://openue.top"> + <img alt="Documentation" src="https://img.shields.io/website/http/huggingface.co/transformers/index.html.svg?down_color=red&down_message=offline&up_message=online"> + </a> +</p> + +[OpenUE](https://aclanthology.org/2020.emnlp-demos.1/) 是一个轻量级知识图谱抽取工具。 + +**特点** + + + - 基于预训练语言模型的知识图谱抽取任务 (兼容BERT, Roberta等预训练模型.) + - 实体关系抽取 + - 事件抽取 + - 槽位和意图抽取 + - <em> 更多的任务 </em> + - 训练和测试接口 + - 快速部署NLP模型 + +## 环境 + + - python3.8 + - requirements.txt + + +## 框架图 + + + +其中主要分为三个模块,`models`,`lit_models`和`data`模块。 + +### models 模块 + +其存放了我们主要的三个模型,针对整句的关系识别模型,针对已知句中关系的命名实体识别模型,还有将前两者整合起来的推理验证模型。其主要源自`transformers`库中的已定义好的预训练模型。 + +### lit_models 模块 + +其中的代码主要继承自`pytorch_lightning.Trainer`。其可以自动构建单卡,多卡,GPU,TPU等不同硬件下的模型训练。我们在其中定义了`training_steps`和`validation_step`即可自动构建训练逻辑进行训练。 + +由于其硬件不敏感,所以我们可以使用多种不同环境下调用OpenUE训练模块。 + +### data 模块 + +`data`中存放了针对不同数据集进行不同操作的代码。使用了`transformers`库中的`tokenizer`先对数据进行分词处理再根据不同需要将数据变成我们需要的features。 + +## 快速开始 + +### 安装 + +#### Anaconda 环境 + +``` +conda create -n openue python=3.8 +conda activate openue +pip install -r requirements.txt +conda install pytorch torchvision torchaudio cudatoolkit=11.1 -c pytorch -c nvidia # 视自己Nvidia驱动环境选择对应的cudatoolkit版本 +python setup.py install +``` + +#### pip安装 + +```shell +pip install openue +``` + +#### pip本地开发 + +```shell +python setup.py develop +``` + +#### 使用方式 + +数据格式为`json`文件,具体例子如下。 + +```json +{ + "text": "查尔斯·阿兰基斯(Charles Aránguiz),1989年4月17日出生于智利圣地亚哥,智利职业足球运动员,司职中场,效力于德国足球甲级联赛勒沃库森足球俱乐部", + "spo_list": [{ + "predicate": "出生地", + "object_type": "地点", + "subject_type": "人物", + "object": "圣地亚哥", + "subject": "查尔斯·阿兰基斯" + }, { + "predicate": "出生日期", + "object_type": "Date", + "subject_type": "人物", + "object": "1989年4月17日", + "subject": "查尔斯·阿兰基斯" + }] +} +``` + +### 训练模型 + +将数据存放在`./dataset/`目录下之后进行训练。如目录为空,运行以下脚本,将自动下载数据集和预训练模型并开始训练,过程中请保持网络畅通以免模型和数据下载失败。 + +```shell +# 训练NER命名实体识别模块 +./scripts/run_ner.sh +# 训练SEQ句中关系分类模块 +./scripts/run_seq.sh +``` + +下面使用一个小demo简要展示训练过程,其中仅训练一个batch来加速展示。 + + +### 验证模型 + +由于我们使用pipeline模型,所以无法联合训练,需要分别训练后进行统一验证。 在运行了两个训练脚本后,在`output`路径下会得到两个模型权重`output/ner/${dataset}`以及`output/seq/${dataset}`根据不同数据集放在对应的目录中。将模型权重目录分别作为`ner_model_name_or_path`和`seq_model_name_or_path`输入到 `run_infer.yaml`或者是`run_infer.sh`运行脚本中,即可进行验证。 + +### Notebook快速开始 + +[ske数据集训练notebook](https://github.com/zjunlp/OpenUE/blob/pytorch/ske.ipynb) +使用中文数据集作为例子具体介绍了如何使用openue中的`lit_models`,`models`和`data`。方便用户构建自己的训练逻辑。 + +[](https://colab.research.google.com/drive/1VNhFYcqDbXl1b3HzU8sc-NgbhV2ZyYzW?usp=sharing) + 使用colab云端环境,无需配置环境。 + +<!--  --> + +### 支持自动调参(wandb) + +```python +# 在代码中将logger 部分替换成wandb logger即可支持wandb +logger = pl.loggers.WandbLogger(project="openue") +``` + + +## 快速部署模型 + +### 下载torchserve-docker + +[docker下载](https://github.com/pytorch/serve/blob/master/docker/README.md) + +### 创建模型对应的handler类 + +我们已经在`deploy`文件夹下放置了对应的部署类`handler_seq.py`和`handler_ner.py`。 + +```shell +# 使用torch-model-archiver 将模型文件进行打包,其中 +# extra-files需要加入以下文件 +# config.json, setup_config.json 针对模型和推理的配置config。 +# vocab.txt : 分词器tokenizer所使用的字典 +# model.py : 模型具体代码 + +torch-model-archiver --model-name BERTForNER_en \ + --version 1.0 --serialized-file ./ner_en/pytorch_model.bin \ + --handler ./deploy/handler.py \ + --extra-files "./ner_en/config.json,./ner_en/setup_config.json,./ner_en/vocab.txt,./deploy/model.py" -f + +# 将打包好的.mar文件加入到model-store文件夹下,并使用curl命令将打包的文件部署到docker中。 +sudo cp ./BERTForSEQ_en.mar /home/model-server/model-store/ +curl -v -X POST "http://localhost:3001/models?initial_workers=1&synchronous=false&url=BERTForSEQ_en.mar&batch_size=1&max_batch_delay=200" +``` +## 项目成员 + +浙江大学:张宁豫、谢辛、毕祯、王泽元、陈想、余海阳、邓淑敏、叶宏彬、田玺、郑国轴、陈华钧 + +达摩院:陈漠沙、谭传奇、黄非 + +<br> + +## 引用 + +如果您使用或扩展我们的工作,请引用以下文章: + +``` +@inproceedings{zhang-2020-opennue, + title = "{O}pe{UE}: An Open Toolkit of Universal Extraction from Text", + author = "Ningyu Zhang, Shumin Deng, Zhen Bi, Haiyang Yu, Jiacheng Yang, Mosha Chen, Fei Huang, Wei Zhang, Huajun Chen", + year = "2020", +} +``` + + + + +%prep +%autosetup -n openue-0.2.5 + +%build +%py3_build + +%install +%py3_install +install -d -m755 %{buildroot}/%{_pkgdocdir} +if [ -d doc ]; then cp -arf doc %{buildroot}/%{_pkgdocdir}; fi +if [ -d docs ]; then cp -arf docs %{buildroot}/%{_pkgdocdir}; fi +if [ -d example ]; then cp -arf example %{buildroot}/%{_pkgdocdir}; fi +if [ -d examples ]; then cp -arf examples %{buildroot}/%{_pkgdocdir}; fi +pushd %{buildroot} +if [ -d usr/lib ]; then + find usr/lib -type f -printf "/%h/%f\n" >> filelist.lst +fi +if [ -d usr/lib64 ]; then + find usr/lib64 -type f -printf "/%h/%f\n" >> filelist.lst +fi +if [ -d usr/bin ]; then + find usr/bin -type f -printf "/%h/%f\n" >> filelist.lst +fi +if [ -d usr/sbin ]; then + find usr/sbin -type f -printf "/%h/%f\n" >> filelist.lst +fi +touch doclist.lst +if [ -d usr/share/man ]; then + find usr/share/man -type f -printf "/%h/%f.gz\n" >> doclist.lst +fi +popd +mv %{buildroot}/filelist.lst . +mv %{buildroot}/doclist.lst . + +%files -n python3-openue -f filelist.lst +%dir %{python3_sitelib}/* + +%files help -f doclist.lst +%{_docdir}/* + +%changelog +* Mon May 15 2023 Python_Bot <Python_Bot@openeuler.org> - 0.2.5-1 +- Package Spec generated @@ -0,0 +1 @@ +4319cae2fa51a49469a364e8ec2958e6 openue-0.2.5.tar.gz |
