Enflame Documents
Version: 3.0ea_topsrider
开发概览
燧原软件栈白皮书
1. 简介
2. 版本历史
3. 词汇表
4. 软件栈简介
5. 软件栈架构
6. 组件介绍
6.1. Enflame Driver(驱动程序)
6.2. TopsRuntime(运行时库)
6.3. TopsEngine(编程模型和编译器)
6.4. Developer Tools(开发者工具包)
6.5. Tops-X(扩展开发库)
6.6. Framework(AI框架)
6.7. Application&platform(应用工具&平台)
环境安装
TopsRider 软件栈安装手册
1. 安装综述
1.1. 综述
1.2. 名词解释
2. 安装说明
2.1. 使用前说明
2.2. 安装使用
2.2.1. 静默安装
2.2.2. 交互式操作界面安装
2.3. 软件栈卸载
2.4. TopsInstaller 命令说明
2.4.1. 参数解释
2.4.2. 重点参数说明
3. 附录
3.1. Docker 制作
3.2. Docker 启动
3.3. 版本历史
模型开发
模型训练使用指南
PyTorch 使用指南
torch-gcu1.10 用户使用手册
1. torch_gcu安装使用说明
2. torch_gcu jit模式概述
3. torch_gcu机制介绍:lazynode
4. torch_gcu机制介绍:inplace
5. torch_gcu机制介绍:view
6. torch_gcu自定义Op支持(custom op)
7. 常用debug方法与工具
torch-gcu2.1用户使用手册
版权声明
概述
依赖与支持情况
安装使用说明
用户使用说明
版本说明
Python接口支持情况
distributed接口支持情况
profiler使用说明
Op Debug模块使用说明
CUDA代码一键迁移
Pytorch 算子支持列表
1. 前言
2. 算子支持情况
3. 分布式算子支持情况
TensorFlow 使用指南
TensorFlow 用户使用手册
1. 前言
2. 文档综述
3. 安装使用说明
4. 用户使用说明
5. 附录
TensorFlow 算子支持列表
1. 前言
2. TensorFlow 算子支持列表
模型训练指南
模型训练用户使用手册
版权声明
前言
PPYolo(Paddle)
Faster R-CNN(Paddle)
Mask R-CNN(Paddle)
Bert Large(Paddle)
Transformer(Paddle)
DLRM(Paddle)
Faster R-CNN(pytorch)
Mask R-CNN(pytorch)
DLRM(pytorch)
Bloomz-7b1-mt
Baichuan-7B
Baichuan2
ChatGLM-6B
ChatGLM2-6B
ChatGLM3-6B
GPT-NeoX-20B
InternLM
Qwen-14B-Chat
Llama-2-7b-chat-hf(peft)
Vicuna-13B
Megatron-GPT2-1.5B
Text to image
Dreambooth
textual_inversion(v1.5)
Dreambooth SDXL 1.0
Text to image SDXL 1.0
大模型运行示例用户使用手册
1. 版本申明
2. 简介
3. 前置准备
4. 安装包准备
5. 分布式微调使用示例
6. 分布式预训练使用示例
7. 常见问题
模型推理使用指南
判别式模型推理指南
TopsInference 用户使用手册
1. 前言
2. 安装使用说明
3. 快速入门
4. 用户使用说明
5. 调试方法及常见问题
TopsInference C++ API参考
1. Attribute
2. Class
3. Function
TopsInference Python API 参考
1. User Guide
2. TopsInference API Reference
3. Appendix
TopsInference 示例代码使用手册
1. TopsInference API Sample
2. TopsInference Application Sample
模型推理使用手册
环境配置
执行推理
附录数据集
生成式模型推理指南
stable_diffusion_gcu用户使用手册
前言
SD V1.5/V2_base/V2.1
Controlnet-SD-V1.5
SD-XL-1.0
SD-XL-T2I-Adapter
DeepDanBooru
Esrgan
Real Esrgan
stable_diffusion_x2_latent_upscaler
stable_diffusion_x4_upscaler
ONNX Runtime 使用指南
ONNX Runtime 用户使用手册
1. 版权声明
2. 前言
3. 原理介绍
4. 安装使用说明
5. 用户使用说明
调试相关
TopsExec 用户使用手册
1. 版权声明
2. 前言
3. 原理介绍
4. 安装使用说明
5. 用户使用说明
Loadgen 测试用户手册
版权声明
前言
原理介绍
安装使用说明
用户使用说明
resnet50 使用示例
ssd-resnet34 使用示例
bert large 使用示例
3d-unet-brats19 使用示例
RNN-Transducer使用示例
ONNX 算子支持列表
1. 版权声明
2. 前言
3. 算子支持情况
TopsIDEAS 用户使用手册
1. 前言
2. 简介
3. 安装使用说明
4. 用户使用说明
5. GCU 相关功能
6. ONNX 相关功能
TopsDistInfer用户手册
版权声明
前言
TopsDistInfer使用说明
切分和编译工具使用说明
模型切分和转换方法
流水并行 pipeline 推理
分布式框架用户指南
Horovod 使用指南
Horovod 用户使用手册
1. Horovod介绍
2. Horovod用户文档
模型结构分析工具
TopsModelGraph 用户手册
1. 前言
1.1. 版本历史
2. 介绍
2.1. 概述
3. 运行环境设定
3.1. 硬件要求
3.2. 安装方法
3.3. 卸载方法
3.4. 服务端目标机环境准备
4. 快速开始
4.1. 打开TopsModelGraph文件
4.2. 执行混精校准
5. 主菜单
5.1. 首选项配置
6. 主工具栏
6.1. 插件市场
7. 模型透视图
7.1. 模型编辑器
7.2. 控制台视图
7.3. 属性视图
7.4. 模型结构视图
7.5. 算子类型统计视图
7.6. 书签视图
8. 混精校准透视图
8.1. 混精校准流程
8.2. 模型调试流程
9. 在线升级
10. FAQ
10.1. 使用报错信息汇总
基础开发平台
基础开发平台
TopsPlatform 用户使用指南
通用计算库
计算图优化
TopsGraph 计算图优化
TopsGraph Python API 参考
1. Builder Python API
2. OpBuilders
3. Function
TopsGraph C++ API参考
1. Builder C++ API
2. OpBuilders
3. Operation Semantics
4. DataType
5. Class
6. Function
深度学习与科学计算库
TopsAten 算子库
TopsAten API
1. Definitions
2. TopsAten API Function
TopsAten 用户使用手册
1. 前言
2. TopsAten概述
3. 安装使用
通信库
ECCL 通信库
ECCL 用户使用手册
1. 版本历史
2. ECCL 简介
3. ECCL 用户使用手册
4. eccl-tests
ECCL API 参考
1. 版本历史
2. ECCL API 参考
多媒体软件开发库
FFmpeg 编解码框架
FFmpeg_GCU用户使用手册
前言
FFmpeg_GCU 概述
安装使用
应用举例
TopsCV 异构加速库
TopsCV用户使用手册
前言
TopsCV 概述
安装使用
应用举例
TopsCV C API
1. TopsCV C API
集群部署与设备管理
TopsCloud 用户使用指南
TopsCloud 产品综述
资源管理
K8S_Plugin 用户使用手册
1. 版本申明
2. 简介
3. 版本号查看
4. container-toolkit
5. k8s-device-plugin
6. 部署示例
7. 常见问题
GCUShare 用户使用手册
1. 版本申明
2. 简介
3. 安装GCUShare组件
4. 使用共享GCU
5. 组件卸载
6. 常见问题
Container Toolkit 用户使用手册
1. 版本申明
2. 简介
3. container-toolkit安装包
4. 安装container-toolkit
5. 环境变量
6. 配置文件与日志
7. 查看工具版本号
8. 常见问题
GCU Feature Discovery 用户使用手册
1. 版本申明
2. 简介
3. 部署示例
Node Feature Discovery 用户使用手册
1. 版本申明
2. 简介
3. 部署示例
4. 常见问题
监控管理
GCU-Exporter 用户使用手册
1. 版本申明
2. 简介
3. 查看版本号
4. 端口
5. 指标说明
6. 告警与处理
7. 部署
8. 常见问题
GCU Monitor Examples 用户使用手册
1. 版本申明
2. 简介
3. 应用示例
4. 注意事项
部署运维
GCU-Operator 用户使用手册
1. 版本申明
2. 背景
3. gcu-operator简介
4. 部署示例
5. 功能分析
6. 常见问题
7. 附录
KubeOne 用户使用手册
1. 版本申明
2. 简介
3. 前置准备
4. 配置与命令
5. 部署示例
6. 常见问题
二次开发库
GO-Eflib 用户使用手册
1. 版本申明
2. 简介
3. 使用配置
4. 常见问题
合规声明
文档法律声明
燧原软件栈文档中心
»
模型训练使用指南
»
torch-gcu1.10 用户使用手册
torch-gcu1.10 用户使用手册
¶
目录
1. torch_gcu安装使用说明
1.1. 通过release package直接安装
1.2. 通过编译源码的方式安装
2. torch_gcu jit模式概述
3. torch_gcu机制介绍:lazynode
3.1. 关键概念解释
3.2. 执行流程拆解
3.3. 构图、编译、运行
3.4. 图复用机制
3.5. 补充说明
4. torch_gcu机制介绍:inplace
4.1. HBM占用问题说明
5. torch_gcu机制介绍:view
5.1. HBM占用问题说明
6. torch_gcu自定义Op支持(custom op)
6.1. Custom op in Compile Mode:
6.2. Custom op in Eager Mode:
7. 常用debug方法与工具
7.1. 通用环境变量
7.2. python执行参数
7.3. op调用情况
7.4. hlir graph信息
7.5. 切图与编图数量优化
7.6. 结果正确性分析
7.7. 计算性能分析
7.8. hbm使用分析
7.9. log简化工具
7.10. debug常用思路