python-openmind
noarch
68953f386fe214da7dd0f8b1e210a828a3966284816b0ce112fc8bb37af02b60
openMind is a magicain who takes you to experience the mystery and creativity of AI.
openMind Library是一个深度学习开发套件,支持模型训练、推理等流程,兼容PyTorch和MindSpore等主流框架。
关于openMind Library的安装步骤,推荐用户参考[《安装》](https://modelers.cn/docs/zh/openmind-library/install.html)文档,以确保顺利并正确地完成安装过程。
openMind Library的安装过程还依赖于openmind_accelerate与openmind_hub,用户在进行安装时,可以参考[openmind-accelerate环境准备](https://modelers.cn/docs/zh/openmind-library/basic_tutorial/pretrainer.html#%E7%8E%AF%E5%A2%83%E5%87%86%E5%A4%87)与[openMind Hub Client安装](https://modelers.cn/docs/zh/openmind-hub-client/0.9/install.html)来进行操作。
`pipeline()`提供了使用预训练模型进行推理的全流程,使用`pipeline()`可以轻松实现对文本、图像、音频等多种模态数据的多种任务,如文本情感分析、图像分割、语音识别等。
本章以对文本的情感分析任务为例,展示如何使用`pipeline()`执行一个指定的任务。
首先,实例化一个pipeline对象并指定任务类型,本示例中指定为`sentiment-analysis`(所有支持的任务类型详见 [**pipeline当前支持的推理任务与默认模型**](https://modelers.cn/docs/zh/openmind-library/basic_tutorial/pipeline.html#pipeline%E5%BD%93%E5%89%8D%E6%94%AF%E6%8C%81%E7%9A%84%E6%8E%A8%E7%90%86%E4%BB%BB%E5%8A%A1%E5%8F%8A%E5%85%B6%E9%BB%98%E8%AE%A4%E6%A8%A1%E5%9E%8B))。此方法未指定模型,pipeline使用任务对应的预定义默认模型进行推理。
```python
from openmind import pipeline
classifier = pipeline("sentiment-analysis")
```
在仅指定任务类型时,`pipeline()`会自动下载预定义默认预训练模型及分词器,本示例中的预训练模型和分词器用于情感分析,随后使用`classifier`对输入文本进行情感分析。
```python
classifier("Welcome to the openMind library!")
'''
输出:
[{'label': 'POSITIVE', 'score': 0.999705970287323}]
'''
```
当输入文本不只一条时,可以把所有输入放入到列表中,一次性传给`pipeline()`,`classifier`也将所有结果存储在一个字典列表内并返回:
```python
results = classifier(["Welcome to the openMind library!", "Have a great experience using it!"])
for result in results:
print(f"label: {result['label']}, with score: {round(result['score'], 4)}")
'''
输出:
label: POSITIVE, with score: 0.9997
label: POSITIVE, with score: 0.9998
'''
```
其余openMind Library的基础功能可参考[快速入门](https://modelers.cn/docs/zh/openmind-library/quick_start.html)。
1. 在上传PR之前,请确保所有测试都通过。首先在本地运行如下命令。
```shell
./ci/lint.sh
./ci/unit_test.sh
HUB_TOKEN=your_hub_token ./ci/functional_test.sh
```
2. 当您推送或更新PR(Pull Request)后,系统将自动触发CI(持续集成)构建和测试流程。若所有CI构建和测试均顺利通过,`ci-success`标记将自动添加到您的PR中。然而,若出现CI故障,您可以点击CI日志链接以详细查看失败原因,并在本地进行必要的修复。一旦您完成了修复并希望重新运行CI作业,只需在PR中留下评论`/recheck`即可。
3. 详细贡献指南请参考:
https://gitee.com/modelers/openmind/blob/v0.9.1/docs/zh/developer_tutorial/contribution.md
为保障使用过程安全,推荐用户参考[《安全声明》](./security_statement.md)了解相关安全信息,进行必要的安全加固。
openMind Library使用木兰宽松许可证第2版(MulanPSL v2)。详见[LICENSE](http://license.coscl.org.cn/MulanPSL2)文件。
https://gitee.com/openmind-ai/openmind
木兰宽松许可证, 第2版
openEuler Copr - user mywaaagh_admin
Unspecified
eur-prod-workerlocal-x86-64-normal-prod-00439152-20241220-02074
python-openmind-0.9.1-1.src.rpm
python-openmind
src
5dbe5cf7cbda3c4dc1de20e5b7af11daf8fd150314e913f1e7a024e016263c73
openMind is a magicain who takes you to experience the mystery and creativity of AI.
openMind Library是一个深度学习开发套件,支持模型训练、推理等流程,兼容PyTorch和MindSpore等主流框架。
关于openMind Library的安装步骤,推荐用户参考[《安装》](https://modelers.cn/docs/zh/openmind-library/install.html)文档,以确保顺利并正确地完成安装过程。
openMind Library的安装过程还依赖于openmind_accelerate与openmind_hub,用户在进行安装时,可以参考[openmind-accelerate环境准备](https://modelers.cn/docs/zh/openmind-library/basic_tutorial/pretrainer.html#%E7%8E%AF%E5%A2%83%E5%87%86%E5%A4%87)与[openMind Hub Client安装](https://modelers.cn/docs/zh/openmind-hub-client/0.9/install.html)来进行操作。
`pipeline()`提供了使用预训练模型进行推理的全流程,使用`pipeline()`可以轻松实现对文本、图像、音频等多种模态数据的多种任务,如文本情感分析、图像分割、语音识别等。
本章以对文本的情感分析任务为例,展示如何使用`pipeline()`执行一个指定的任务。
首先,实例化一个pipeline对象并指定任务类型,本示例中指定为`sentiment-analysis`(所有支持的任务类型详见 [**pipeline当前支持的推理任务与默认模型**](https://modelers.cn/docs/zh/openmind-library/basic_tutorial/pipeline.html#pipeline%E5%BD%93%E5%89%8D%E6%94%AF%E6%8C%81%E7%9A%84%E6%8E%A8%E7%90%86%E4%BB%BB%E5%8A%A1%E5%8F%8A%E5%85%B6%E9%BB%98%E8%AE%A4%E6%A8%A1%E5%9E%8B))。此方法未指定模型,pipeline使用任务对应的预定义默认模型进行推理。
```python
from openmind import pipeline
classifier = pipeline("sentiment-analysis")
```
在仅指定任务类型时,`pipeline()`会自动下载预定义默认预训练模型及分词器,本示例中的预训练模型和分词器用于情感分析,随后使用`classifier`对输入文本进行情感分析。
```python
classifier("Welcome to the openMind library!")
'''
输出:
[{'label': 'POSITIVE', 'score': 0.999705970287323}]
'''
```
当输入文本不只一条时,可以把所有输入放入到列表中,一次性传给`pipeline()`,`classifier`也将所有结果存储在一个字典列表内并返回:
```python
results = classifier(["Welcome to the openMind library!", "Have a great experience using it!"])
for result in results:
print(f"label: {result['label']}, with score: {round(result['score'], 4)}")
'''
输出:
label: POSITIVE, with score: 0.9997
label: POSITIVE, with score: 0.9998
'''
```
其余openMind Library的基础功能可参考[快速入门](https://modelers.cn/docs/zh/openmind-library/quick_start.html)。
1. 在上传PR之前,请确保所有测试都通过。首先在本地运行如下命令。
```shell
./ci/lint.sh
./ci/unit_test.sh
HUB_TOKEN=your_hub_token ./ci/functional_test.sh
```
2. 当您推送或更新PR(Pull Request)后,系统将自动触发CI(持续集成)构建和测试流程。若所有CI构建和测试均顺利通过,`ci-success`标记将自动添加到您的PR中。然而,若出现CI故障,您可以点击CI日志链接以详细查看失败原因,并在本地进行必要的修复。一旦您完成了修复并希望重新运行CI作业,只需在PR中留下评论`/recheck`即可。
3. 详细贡献指南请参考:
https://gitee.com/modelers/openmind/blob/v0.9.1/docs/zh/developer_tutorial/contribution.md
为保障使用过程安全,推荐用户参考[《安全声明》](./security_statement.md)了解相关安全信息,进行必要的安全加固。
openMind Library使用木兰宽松许可证第2版(MulanPSL v2)。详见[LICENSE](http://license.coscl.org.cn/MulanPSL2)文件。
https://gitee.com/openmind-ai/openmind
木兰宽松许可证, 第2版
openEuler Copr - user mywaaagh_admin
Unspecified
eur-prod-workerlocal-x86-64-normal-prod-00439152-20241220-02074
python-openmind
noarch
4b0145e0d7fdd3c26225ea5f668fcb4a4dfd2009fe5beb2fd4623711c83a98c4
openMind is a magicain who takes you to experience the mystery and creativity of AI.
openMind Library是一个大模型微调套件,通过命令行接口或SDK原生支持在昇腾NPU上进行微调、推理、评估和部署。通过简化使用流程,充分利用NPU的独特优势,为大模型应用提供高效、可扩展的解决方案。
**为什么使用 openMind Library?**
基于Transformers框架,openMind Library实现了高效的微调流程。它集成了PyTorch生态中常用的工具库功能,提供数据预处理、权重加载、低参微调、量化适配以及训练跟踪等全流程的一键式解决方案。此外,库内融合了针对昇腾NPU的优化算子,可大幅提升模型训练效率。
openMind Library提供了统一的Pipeline SDK,提供更快速、更高效的推理体验。
模型部署方面,openMind Library基于LMDeploy和MindIE,提供多后端部署支持,极大地简化了部署流程,使得模型部署更加便捷。
openMind Library目前支持的特性如下:
- 模型类型:支持Qwen2,Qwen2.5系列模型,更多模型适配中
- 微调训练:SFT训练
- 高效微调:BF16微调,LoRA微调,4bit QLoRA微调
- 分布式训练:DDP,DeepSpeed
- 微调加速:npu_fusion_attention融合算子,npu_rms_norm融合算子
- 训练监控:SwanLab
- 推理:Transformers/Diffusers多backend,text-generation/text-to-image多任务
- 部署:LMDeploy,MindIE
https://gitee.com/openmind-ai/openmind
木兰宽松许可证, 第2版
openEuler Copr - user mywaaagh_admin
Unspecified
eur-prod-workerlocal-x86-64-normal-prod-00439314-20250102-11400
python-openmind-1.0.0-1.src.rpm
python-openmind
src
cbae8eb9f923a5220f5819ec36ea5711c17be324a57f98bca4be571f5809ff81
openMind is a magicain who takes you to experience the mystery and creativity of AI.
openMind Library是一个大模型微调套件,通过命令行接口或SDK原生支持在昇腾NPU上进行微调、推理、评估和部署。通过简化使用流程,充分利用NPU的独特优势,为大模型应用提供高效、可扩展的解决方案。
**为什么使用 openMind Library?**
基于Transformers框架,openMind Library实现了高效的微调流程。它集成了PyTorch生态中常用的工具库功能,提供数据预处理、权重加载、低参微调、量化适配以及训练跟踪等全流程的一键式解决方案。此外,库内融合了针对昇腾NPU的优化算子,可大幅提升模型训练效率。
openMind Library提供了统一的Pipeline SDK,提供更快速、更高效的推理体验。
模型部署方面,openMind Library基于LMDeploy和MindIE,提供多后端部署支持,极大地简化了部署流程,使得模型部署更加便捷。
openMind Library目前支持的特性如下:
- 模型类型:支持Qwen2,Qwen2.5系列模型,更多模型适配中
- 微调训练:SFT训练
- 高效微调:BF16微调,LoRA微调,4bit QLoRA微调
- 分布式训练:DDP,DeepSpeed
- 微调加速:npu_fusion_attention融合算子,npu_rms_norm融合算子
- 训练监控:SwanLab
- 推理:Transformers/Diffusers多backend,text-generation/text-to-image多任务
- 部署:LMDeploy,MindIE
https://gitee.com/openmind-ai/openmind
木兰宽松许可证, 第2版
openEuler Copr - user mywaaagh_admin
Unspecified
eur-prod-workerlocal-x86-64-normal-prod-00439314-20250102-11400
python-openmind-hub
noarch
ab2cc0f435a8cc2f5ada77e5b4f84ddc6cda2e95e5b0616abed5c3d629c826d8
Hub client SDK for openMind
openMind Hub Client可以帮助您在不离开开发环境的情况下与社区进行交互。您可以轻松创建和管理仓库,下载和上传文件以及从模型库获取有用的模型和数据集元数据。
关于openMind Hub Client的安装步骤,推荐用户参考[《安装》](./docs/zh/install.md)文档,以确保顺利并正确地完成安装过程。
例如,下载[t5_small](https://modelers.cn/models/PyTorch-NPU/t5_small/)模型配置文件:
```py
from openmind_hub import om_hub_download
om_hub_download(repo_id="PyTorch-NPU/t5_small", filename="config.json")
```
详见[《下载指南》](./docs/zh/basic_tutorial/download.md)。
访问私有仓库资源、创建仓库和上传文件等场景都需要使用访问令牌(即token)才能与社区进行交互。请[创建访问令牌](https://modelers.cn/my/tokens)并妥善保存,令牌内容仅会在创建时显示。
使用`upload_folder`为您的仓库上传文件,示例如下:
```py
from openmind_hub import upload_folder
upload_folder(
repo_id="owner/repo",
folder_path="./folder_to_upload",
token="xxx",
)
```
+ `token`:对目标仓库具有可写权限的访问令牌,必选。
+ `repo_id`:文件要上传到的仓库,必选。
+ `folder_path`:要上传目录的绝对路径或相对路径,上传的内容不包含该目录本身,必选。支持字符串或Path类型,如:`"./folder"`或`Path("./folder")`。
详见[《上传文件》](./docs/zh/basic_tutorial/upload.md)。
1. 在提交PR之前,请确保所有测试都通过。首先在本地运行如下命令。
```shell
./ci/lint.sh
./ci/unit_test.sh
HUB_TOKEN=your_hub_token ./ci/functional_test.sh
```
2. 当您推送或更新PR(Pull Request)后,系统将自动触发CI(持续集成)构建和测试流程。若所有CI构建和测试均顺利通过,`ci-success`标记将自动添加到您的PR中。然而,若出现CI故障,您可以点击CI日志链接以详细查看失败原因,并在本地进行必要的修复。一旦您完成了修复并希望重新运行CI作业,只需在PR中留下评论`/recheck`即可。
为保障使用过程安全,推荐用户参考[《安全声明》](./security_statement.md)了解相关安全信息,进行必要的安全加固。
https://gitee.com/openmind-ai/openmind-hub
木兰宽松许可证, 第2版
openEuler Copr - user mywaaagh_admin
Unspecified
eur-prod-workerlocal-x86-64-normal-prod-00439150-20241220-02040
python-openmind-hub-0.9.0-1.src.rpm
python-openmind-hub
src
fb4ed72166b45c66b32aceb1277854d72cf9f633f0736a61ce8338473af5de3b
Hub client SDK for openMind
openMind Hub Client可以帮助您在不离开开发环境的情况下与社区进行交互。您可以轻松创建和管理仓库,下载和上传文件以及从模型库获取有用的模型和数据集元数据。
关于openMind Hub Client的安装步骤,推荐用户参考[《安装》](./docs/zh/install.md)文档,以确保顺利并正确地完成安装过程。
例如,下载[t5_small](https://modelers.cn/models/PyTorch-NPU/t5_small/)模型配置文件:
```py
from openmind_hub import om_hub_download
om_hub_download(repo_id="PyTorch-NPU/t5_small", filename="config.json")
```
详见[《下载指南》](./docs/zh/basic_tutorial/download.md)。
访问私有仓库资源、创建仓库和上传文件等场景都需要使用访问令牌(即token)才能与社区进行交互。请[创建访问令牌](https://modelers.cn/my/tokens)并妥善保存,令牌内容仅会在创建时显示。
使用`upload_folder`为您的仓库上传文件,示例如下:
```py
from openmind_hub import upload_folder
upload_folder(
repo_id="owner/repo",
folder_path="./folder_to_upload",
token="xxx",
)
```
+ `token`:对目标仓库具有可写权限的访问令牌,必选。
+ `repo_id`:文件要上传到的仓库,必选。
+ `folder_path`:要上传目录的绝对路径或相对路径,上传的内容不包含该目录本身,必选。支持字符串或Path类型,如:`"./folder"`或`Path("./folder")`。
详见[《上传文件》](./docs/zh/basic_tutorial/upload.md)。
1. 在提交PR之前,请确保所有测试都通过。首先在本地运行如下命令。
```shell
./ci/lint.sh
./ci/unit_test.sh
HUB_TOKEN=your_hub_token ./ci/functional_test.sh
```
2. 当您推送或更新PR(Pull Request)后,系统将自动触发CI(持续集成)构建和测试流程。若所有CI构建和测试均顺利通过,`ci-success`标记将自动添加到您的PR中。然而,若出现CI故障,您可以点击CI日志链接以详细查看失败原因,并在本地进行必要的修复。一旦您完成了修复并希望重新运行CI作业,只需在PR中留下评论`/recheck`即可。
为保障使用过程安全,推荐用户参考[《安全声明》](./security_statement.md)了解相关安全信息,进行必要的安全加固。
https://gitee.com/openmind-ai/openmind-hub
木兰宽松许可证, 第2版
openEuler Copr - user mywaaagh_admin
Unspecified
eur-prod-workerlocal-x86-64-normal-prod-00439150-20241220-02040
python-openmind-hub
noarch
2f4177467482073f39b160b51f0a546131a6c8c35bab823accbe92c9d7b9d32a
Hub client SDK for openMind
openMind Hub Client可以帮助您在不离开开发环境的情况下与社区进行交互。您可以轻松创建和管理仓库,下载和上传文件以及从模型库获取有用的模型和数据集元数据。
关于openMind Hub Client的安装步骤,推荐用户参考[《安装》](./docs/zh/install.md)文档,以确保顺利并正确地完成安装过程。
例如,下载[t5_small](https://modelers.cn/models/PyTorch-NPU/t5_small/)模型配置文件:
```py
from openmind_hub import om_hub_download
om_hub_download(repo_id="PyTorch-NPU/t5_small", filename="config.json")
```
详见[《下载指南》](./docs/zh/basic_tutorial/download.md)。
访问私有仓库资源、创建仓库和上传文件等场景都需要使用访问令牌(即token)才能与社区进行交互。请[创建访问令牌](https://modelers.cn/my/tokens)并妥善保存,令牌内容仅会在创建时显示。
使用`upload_folder`为您的仓库上传文件,示例如下:
```py
from openmind_hub import upload_folder
upload_folder(
repo_id="owner/repo",
folder_path="./folder_to_upload",
token="xxx",
)
```
+ `token`:对目标仓库具有可写权限的访问令牌,必选。
+ `repo_id`:文件要上传到的仓库,必选。
+ `folder_path`:要上传目录的绝对路径或相对路径,上传的内容不包含该目录本身,必选。支持字符串或Path类型,如:`"./folder"`或`Path("./folder")`。
详见[《上传文件》](./docs/zh/basic_tutorial/upload.md)。
为保障使用过程安全,推荐用户参考[《安全声明》](./security_statement.md)了解相关安全信息,进行必要的安全加固。
https://gitee.com/openmind-ai/openmind-hub
木兰宽松许可证, 第2版
openEuler Copr - user mywaaagh_admin
Unspecified
eur-prod-workerlocal-x86-64-normal-prod-00439304-20250102-11311
python-openmind-hub-0.9.1-1.src.rpm
python-openmind-hub
src
300bc6d6e2cd28264869a7d9f07790a594b361e4a9a3d0a5447ca81d3783c8db
Hub client SDK for openMind
openMind Hub Client可以帮助您在不离开开发环境的情况下与社区进行交互。您可以轻松创建和管理仓库,下载和上传文件以及从模型库获取有用的模型和数据集元数据。
关于openMind Hub Client的安装步骤,推荐用户参考[《安装》](./docs/zh/install.md)文档,以确保顺利并正确地完成安装过程。
例如,下载[t5_small](https://modelers.cn/models/PyTorch-NPU/t5_small/)模型配置文件:
```py
from openmind_hub import om_hub_download
om_hub_download(repo_id="PyTorch-NPU/t5_small", filename="config.json")
```
详见[《下载指南》](./docs/zh/basic_tutorial/download.md)。
访问私有仓库资源、创建仓库和上传文件等场景都需要使用访问令牌(即token)才能与社区进行交互。请[创建访问令牌](https://modelers.cn/my/tokens)并妥善保存,令牌内容仅会在创建时显示。
使用`upload_folder`为您的仓库上传文件,示例如下:
```py
from openmind_hub import upload_folder
upload_folder(
repo_id="owner/repo",
folder_path="./folder_to_upload",
token="xxx",
)
```
+ `token`:对目标仓库具有可写权限的访问令牌,必选。
+ `repo_id`:文件要上传到的仓库,必选。
+ `folder_path`:要上传目录的绝对路径或相对路径,上传的内容不包含该目录本身,必选。支持字符串或Path类型,如:`"./folder"`或`Path("./folder")`。
详见[《上传文件》](./docs/zh/basic_tutorial/upload.md)。
为保障使用过程安全,推荐用户参考[《安全声明》](./security_statement.md)了解相关安全信息,进行必要的安全加固。
https://gitee.com/openmind-ai/openmind-hub
木兰宽松许可证, 第2版
openEuler Copr - user mywaaagh_admin
Unspecified
eur-prod-workerlocal-x86-64-normal-prod-00439304-20250102-11311