使用训练完成的模型

当REVIVE SDK完成虚拟环境模型训练和策略模型训练后。我们可以在日志文件夹( logs/<run_id> )下找到保存的模型( .pkl.onnx )。

使用保存的 .pkl 模型

使用训练好的虚拟环境模型(env.pkl)

虚拟环境模型会被序列化为 env.pkl 文件。使用虚拟环境模型时需要使用 pickle 加载序列化的环境模型,然后使用 venv.infer_one_step() 函数或 venv.infer_k_step() 函数进行虚拟环境推理。

import os
import pickle
import numpy as np

# 获得虚拟环境模型的文件路径
venv_path = os.path.join(os.path.dirname(os.path.abspath(__file__)), "logs/run_id", "env.pkl")

# 加载虚拟环境模型
venv = pickle.load(open(venv_path, 'rb'), encoding='utf-8')

# 生成状态数据
state = {"states": np.array([-0.5, 0.5, 0.2]), "actions": np.array([1.])}

# 使用虚拟环境模型进行单时间步的推理
output = venv.infer_one_step(state)
print("Virtualenv model 1-step output:", output)

# 使用虚拟环境模型进行K个时间步推理
# 返回列表的长度为k,对应于K个时间步的输出。
output = venv.infer_k_steps(state, k=3)
print("Virtualenv model k-step output:", output)

使用虚拟环境模型进行推理时,可以额外传入 deterministicclip 参数。其中 deterministic 参数用来决定 输出是否是确定性的。如果为True,则返回最可能的输出;如果为False,则根据模型的概率分布进行采样输出。默认值为True。 clip 用来决定是否应将输出的裁剪到指定的有效范围内, 裁剪范围是根据 *.yaml 文件中的配置进行,如果没有配置则从自动从数据中计算最小值和最大值。默认值为True,表示对输出的动作进行剪切。

Note

详情请参考API REVIVE API 虚拟环境.

使用策略模型(policy.pkl)

策略模型会被序列化为 policy.pkl 文件。使用策略模型时需要使用 pickle 加载序列化的决策模型,然后使用 policy.infer() 函数进行策略模型推理。

import os
import pickle
import numpy as np

# 获得策略模型的文件路径
policy_path = os.path.join(os.path.dirname(os.path.abspath(__file__)), "logs/tmp", "policy.pkl")

# 加载策略模型
policy = pickle.load(open(policy_path, 'rb'), encoding='utf-8')

# 生成状态数据
state = {"states": np.array([-0.5, 0.5, 0.2])}
print("Policy model input state:", state)

# 使用策略模型进行推理,输出动作
action = policy.infer(state)
print("Policy model output action:", action)

策略模型进行推理时,同样可以额外传入 deterministicclip 参数。其中 deterministic 参数用来决定 输出是否是确定性的。如果为True,则返回最可能的输出策略动作;如果为False,则根据策略模型的概率分布进行采样动作输出。默认值为True。 clip 用来决定是否应将输出的动作剪切到动作空间的有效范围内, 裁剪范围是根据 *.yaml 文件中的配置进行,如果没有配置则从自动从数据中计算最小值和最大值。默认值为True,表示对输出的动作进行剪切。

Note

详情请参考API REVIVE API 策略模型.

使用保存的 .onnx 模型

虚拟环境模型和策略模型也会被序列化为 .onnx 文件,使用 .onnx 模型可以方便的进行跨平台部署。

使用虚拟环境模型(env.onnx)

import os
import onnxruntime
import numpy as np

venv_path = os.path.join(os.path.dirname(os.path.abspath(__file__)), "logs/run_id", "env.onnx")
venv = onnxruntime.InferenceSession(venv_path)

# onnx 模型现在已经支持灵活的 batch_size,默认在第 0 维
# 确保输入的数据为浮点类型
# venv_input需要是一个python的字典, 与.pkl模型的输入相似
venv_input = {'temperature' : np.array([0.5, 0.4, 0.3], dtype=np.float32).reshape(3, -1), 'door_open': np.array([1., 0., 1.], dtype=np.float32).reshape(3, -1)}
# 输出的数据需要将其名称囊括在venv_output_names列表中
venv_output_names = ["action", "next_temperature"]

# 这里将用输入的数据进行一次决策流的推理(类似于 .pkl 的 venv.infer_one_step()) --> 返回一个列表(List)
# 输出将以venv_output_names的名称顺序存储在数组中
output = venv.run(input_feed=venv_input, output_names=venv_output_names)
print(output)

使用策略模型(policy.onnx)

import os
import onnxruntime
import numpy as np

policy_path = os.path.join(os.path.dirname(os.path.abspath(__file__)), "logs/run_id", "policy.onnx")
policy = onnxruntime.InferenceSession(policy_path)

# onnx 模型现在已经支持灵活的 batch_size,默认在第 0 维
# 确保输入的数据为浮点类型
# policy_input需要是一个python的字典, 与.pkl模型的输入相似
policy_input = {'temperature' : np.array([0.5, 0.4, 0.3], dtype=np.float32).reshape(3, -1)}
# 输出的数据需要将其名称囊括在policy_output_names列表中
policy_output_names = ["action"]

# 这里将用输入的数据进行一次决策流的推理(类似于 .pkl 的 policy.infer_one_step()) --> 返回一个列表(List)
# 输出将以venv_output_names的名称顺序存储在数组中
output = policy.run(input_feed=policy_input, output_names=policy_output_names)
print(output)