Reacher

../../../_images/reacher.gif

此环境是 Mujoco 环境的一部分,其中包含有关环境的常规信息。

动作空间

Box(-1.0, 1.0, (2,), float32)

观测空间

Box(-inf, inf, (10,), float64)

import

gymnasium.make("Reacher-v5")

描述

“Reacher” 是一个双关节机器人手臂。目标是移动机器人的末端执行器(称为指尖)靠近在随机位置生成的目标。

动作空间

../../../_images/reacher.png

动作空间是 Box(-1, 1, (2,), float32)。动作 (a, b) 表示施加在铰链关节处的扭矩。

序号

动作

控制最小值

控制最大值

名称(在相应的 XML 文件中)

关节

类型(单位)

0

施加在第一个铰链处的扭矩(将连杆连接到固定点)

-1

1

joint0

铰链

扭矩 (N m)

1

施加在第二个铰链处的扭矩(连接两个连杆)

-1

1

joint1

铰链

扭矩 (N m)

观测空间

观测空间由以下部分组成(按顺序)

  • cos(qpos) (2 个元素): 两个手臂角度的余弦值。

  • sin(qpos) (2 个元素): 两个手臂角度的正弦值。

  • qpos (2 个元素): 目标的坐标。

  • qvel (2 个元素): 手臂的角速度(它们的导数)。

  • xpos (2 个元素): 目标和 Reacher 指尖之间的向量。

观测空间是 Box(-Inf, Inf, (10,), float64),其中元素如下

序号

观测

最小值

最大值

名称(在相应的 XML 文件中)

关节

类型(单位)

0

第一个手臂角度的余弦值

-Inf

Inf

cos(joint0)

铰链

无单位

1

第二个手臂角度的余弦值

-Inf

Inf

cos(joint1)

铰链

无单位

2

第一个手臂角度的正弦值

-Inf

Inf

sin(joint0)

铰链

无单位

3

第二个手臂角度的正弦值

-Inf

Inf

sin(joint1)

铰链

无单位

4

目标的 x 坐标

-Inf

Inf

target_x

slide

位置 (m)

5

目标的 y 坐标

-Inf

Inf

target_y

slide

位置 (m)

6

第一个手臂的角速度

-Inf

Inf

joint0

铰链

角速度 (rad/s)

7

第二个手臂的角速度

-Inf

Inf

joint1

铰链

角速度 (rad/s)

8

position_fingertip - position_target 的 x 值

-Inf

Inf

NA

slide

位置 (m)

9

position_fingertip - position_target 的 y 值

-Inf

Inf

NA

slide

位置 (m)

已排除

position_fingertip - position_target 的 z 值(由于 reacher 是 2d,因此始终为 0)

-Inf

Inf

NA

slide

位置 (m)

大多数 Gymnasium 环境仅返回 .xml 文件中关节的位置和速度,作为环境的状态。但是,在 reacher 中,状态是通过仅组合位置和速度的某些元素并对它们执行一些函数转换来创建的。reacher.xml 包含以下 4 个关节

序号

观测

最小值

最大值

名称(在相应的 XML 文件中)

关节

单位

0

第一个手臂的角度

-Inf

Inf

joint0

铰链

角度 (rad)

1

第二个手臂的角度

-Inf

Inf

joint1

铰链

角度 (rad)

2

目标的 x 坐标

-Inf

Inf

target_x

slide

位置 (m)

3

目标的 y 坐标

-Inf

Inf

target_y

slide

位置 (m)

奖励

总奖励为:奖励 = 距离奖励 + 控制奖励

  • 距离奖励:此奖励衡量 Reacher 的指尖(未连接的末端)与目标的距离,如果 Reacher 的指尖离目标更远,则分配更负的值。它是 \(-w_{near} \|(P_{fingertip} - P_{target})\|_2\)。其中 \(w_{near}\)reward_near_weight(默认为 \(1\))。

  • 控制奖励:对 Walker 执行过大动作进行惩罚的负奖励。它被衡量为动作的负平方欧几里得范数,即 \(-w_{control} \|action\|_2^2\)。其中 \(w_{control}\)reward_control_weight。(默认为 \(0.1\)

info 包含各个奖励项。

起始状态

Reacher 手臂的初始位置状态为 \(\mathcal{U}_{[-0.1 \times I_{2}, 0.1 \times I_{2}]}\)。目标的初始位置状态(永久性)为 \(\mathcal{S}(0.2)\)。Reacher 手臂的初始速度状态为 \(\mathcal{U}_{[-0.005 \times 1_{2}, 0.005 \times 1_{2}]}\)。物体的速度状态(永久性)为 \(0_2\)

其中 \(\mathcal{U}\) 是多元均匀连续分布,\(\mathcal{S}\) 是均匀连续球面分布。

默认帧率为 \(2\),每帧持续时间为 \(0.01\),因此 dt = 5 * 0.01 = 0.02

Episode 结束

终止

Reacher 永不终止。

截断

一个 episode 的默认持续时间为 50 个时间步。

参数

Reacher 提供了一系列参数来修改观测空间、奖励函数、初始状态和终止条件。这些参数可以在 gymnasium.make 中通过以下方式应用

import gymnasium as gym
env = gym.make('Reacher-v5', xml_file=...)

参数

类型

默认值

描述

xml_file

str

"reacher.xml"

MuJoCo 模型的路径

reward_dist_weight

float

1

reward_dist 项的权重(参见 奖励 部分)

reward_control_weight

float

0.1

reward_control 项的权重(参见 奖励 部分)

版本历史

  • v5

    • 最低 mujoco 版本现在为 2.3.3。

    • 添加了 default_camera_config 参数,一个用于设置 mj_camera 属性的字典,主要用于自定义环境。

    • 添加了 frame_skip 参数,用于配置 dtstep() 的持续时间),默认值因环境而异,请查看环境文档页面。

    • 修复错误:reward_distance 以前基于物理步骤之前的状态,现在它基于物理步骤之后的状态(相关 GitHub 问题)。

    • 从观测空间中删除了 "z - position_fingertip",因为它始终为 0,因此没有为智能体提供有用的信息,这应该会导致更快的训练(相关 GitHub 问题)。

    • 添加了 xml_file 参数。

    • 添加了 reward_dist_weight, reward_control_weight 参数来配置奖励函数(默认值与 v4 中的值基本相同)。

    • 修复了 info["reward_ctrl"] 未乘以奖励权重的问题。

  • v4:所有 MuJoCo 环境现在都在 mujoco >= 2.1.3 中使用 MuJoCo 绑定

  • v3:此环境没有 v3 版本。

  • v2:所有连续控制环境现在都使用 mujoco-py >= 1.50

  • v1:对于基于机器人的任务,max_time_steps 提高到 1000(不包括 reacher,其 max_time_steps 为 50)。为环境添加了 reward_threshold。

  • v0:初始版本发布