离线预测工具
更新时间:2022-01-25
介绍
本文主要介绍如何使用文心进行离线批量预测。
使用说明
使用预置网络进行预测的方式为使用./run_infer.py入口脚本,通过--param_path参数来传入./examples/目录下的json配置文件。下面以文本分类任务基于CNN网络所训练出的模型为例,来说明Python预测的几个步骤:
- 基于./examples/cls_cnn_ch.json训练出的模型默认储存在./output/cls_cnn_ch/save_inference_model/中,在该目录下找到被保存的inference_model文件夹,例如inference_step_251/;
- 在./examples/cls_cnn_ch_infer.json中修改"inference_model_path"参数,填入上述模型保存路径:
{
...
"inference":{
...
"inference_model_path":"./output/cls_cnn_ch/save_inference_model/inference_step_251"
}
}- 基于示例的数据集,可以运行以下命令在预测集(infer.txt)上进行预测:
# 基于json实现预测。其调用了配置文件./examples/cls_cnn_ch_infer.json
python run_infer.py --param_path ./examples/cls_cnn_ch_infer.json- 预测运行的日志会自动保存在./output/predict_result.txt文件中,其他各任务的Python预测步骤与上述一致,具体请参考【NLP任务详细说明】中每个任务的的『预测我的第一个模型』部分。
