Paddle-Inference
master
产品介绍
飞桨推理产品简介
Paddle Inference 简介
快速开始
预测流程
预测示例 (C++)
预测示例 (Python)
预测示例 (C)
预测示例 (GO)
使用方法
源码编译
飞腾/鲲鹏下从源码编译
申威下从源码编译
兆芯下从源码编译
龙芯下从源码编译
下载安装Linux预测库
下载安装Windows预测库
下载安装Mac预测库
性能调优
X86 CPU 上部署量化模型
X86 CPU 上部署BF16预测
工具
模型可视化
模型转换工具 X2Paddle
硬件部署示例
X86 Linux上预测部署示例
X86 Windows上预测部署示例
使用昆仑预测
Linux上GPU预测部署示例
NV Jetson上预测部署示例
Windows上GPU预测部署示例
Benchmark
性能数据
API 文档
C++ API 文档
CreatePredictor 方法
GetVersion 方法
Config 类
PaddlePassBuilder 类
Predictor 类
PredictorPool 类
Tensor 类
枚举类型
Python API 文档
C API 文档
GO API 文档
FAQ
Paddle Inference FAQ
训练推理示例说明
Paddle-Inference
»
C++ API 文档
Edit on GitHub
C++ API 文档
¶
CreatePredictor 方法
GetVersion 方法
Config 类
1. Config 构造函数
2. 设置预测模型
2.1. 从文件中加载预测模型 - 非Combined模型
2.2. 从文件中加载预测模型 - Combined 模型
2.3. 从内存中加载预测模型
3. 使用 CPU 进行预测
3.1. CPU 设置
3.2. MKLDNN 设置
4. 使用 GPU 进行预测
4.1. GPU 设置
4.2. CUDNN 设置
4.3. TensorRT 设置
5. 使用 XPU 进行预测
6. 使用 ONNXRuntime 进行预测
7. 使用 IPU 进行预测
8. 设置模型优化方法
8.1. IR 优化
8.2. Lite 子图
9. 启用内存优化
10. 设置缓存路径
11. FC Padding
12. Profile 设置
13. Log 设置
14. 查看config配置
PaddlePassBuilder 类
Predictor 类
获取输入输出
运行和生成
PredictorPool 类
Tensor 类
枚举类型
DataType
PrecisionType
PlaceType
Read the Docs
v: master
Versions
master
latest
Downloads
html
epub
On Read the Docs
Project Home
Builds