第3章 移动机器人控制中认知人机交互策略的开发
上一章介绍了助行器辅助步态中物理和认知人机交互的概念(见图2.3)。该人机交互通过多模态接口实现,用于在人类移动辅助背景下发展自然的人机交互。因此,根据图2.3,该接口同时包含了认知人机交互和物理人机交互。
具体而言,本章描述了认知人机交互组件,该组件结合了两种传感器模态:主动测距传感(激光雷达)和人体动作捕捉(惯性测量单元),以实现人体跟踪。这种传感器组合从移动机器人角度监测人类步态具有重要优势,如上一章所述。
此外,认知人机交互将人体跟踪信息与控制策略相结合,可使机器人在运动过程中无需接触即可在用户前方跟随(如前一章所述)。因此,认知人机交互模块的功能可以表示为载运机器人构型(见图2.1)。相应地,该策略将在移动机器人上进行评估,以实现自然的“在前方跟随”用户的效果。本研究基于先前的工作[1]。下一章将讨论助行ir辅助运动过程中的物理接触相关问题。
用于移动机器人跟随用户后方的控制策略是文献中常见的方法[2, 3]。此外,还有采用“并排行走”行为的其他方法[4, 5]。最近,[6, 7]提出了一种替代行为,即移动机器人位于用户前方进行跟随。该方法此前已在图2.1中作为认知人机交互模型的一个示例进行了介绍。如前所述,在人类前方伴随在许多应用中都非常有用:如果机器人携带需要分发的工具、材料或商品,将机器人置于用户前方会更自然且便于用户取用物品[7]。
具体来说,在[6]中,作者设计了一个实验,让受试者行走或跑步沿一条直线前进,同时一个移动机器人从后方跟踪与跟随该受试者。该实验表明,一个在人类后方移动的机器人导致人类始终关注其运动。因此,当机器人伴随用户并保持在用户的视野内时,用户会感到更加舒适。
传统轮式移动机器人与人类在运动上存在根本差异。一种可能的解决方案是利用控制系统来吸收人类与移动机器人运动之间的运动学差异。在[8, 9]中采用了虚拟弹簧模型。该方法基于假设:人类目标与移动机器人之间通过一个虚拟弹簧相连。移动机器人的输入速度根据虚拟弹簧的弹性力生成,该方案可吸收人类与移动机器人运动之间的差异。
另一种解决方案是基于详细分析,假设人行走被纳入控制中。在本研究中,采用两个阶段的控制:第一阶段执行控制参数检测,并考虑人体步态模型;第二阶段对应于逆运动学控制器,这将在下一节中讨论。
3.1 认知人机交互的交互策略
人机交互模型如图3.1a所示。该模型中使用的变量和参数包括:人体线速度(vh)、人体角速度(ωh)、人体朝向(ψh)、机器人线速度(vr)、机器人角速度(ωr)以及机器人朝向(ψr)。交互参数定义为 ϕ与 vh之间的夹角,以及RH(称为人机连线)与RH和RC线段之间夹角 θ,以及d,即RH的长度。最后,参数a定义了控制器参考点(R)与机器人旋转中心(C)之间的距离。
该控制方案基于逆运动学,控制变量为角度 ϕ和距离d。该系统的控制律旨在实现期望的人机距离(d= dd)以及一个渐近趋于零的 ϕ角度。
影响控制变量的组件如图3.1b所示。这样,正运动学表示在公式(3.1)中,其中 d˜是期望距离与测量距离之间的差值。
$$
\begin{pmatrix}
\dot{\tilde{\phi}} \
\dot{\tilde{d}}
\end{pmatrix}
=
\begin{pmatrix}
\cos(\theta) & -a\sin(\theta)/d \
-a\cos(\theta)/d & \sin(\theta)
\end{pmatrix}
\begin{pmatrix}
v_r \
\omega_r
\end{pmatrix}
+
\begin{pmatrix}
-v_h\cos(\phi) \
\omega_h + v_h \sin(\phi)/d
\end{pmatrix}
\quad (3.1)
$$
从(3.1)中提出的运动学模型得到的逆运动学控制器,如(3.2)和(3.3)所示。
$$
v_r = \cos(\theta)[-k_d \tilde{d} + v_h\cos(\phi)] - d\sin(\theta)[-k_\phi \tilde{\phi} - \omega_h - \frac{v_h}{d} \sin(\phi)] \quad (3.2)
$$
$$
\omega_r = -\frac{\sin(\theta)}{d}[-k_d \tilde{d} + v_h\cos(\phi)] - \frac{a\cos(\theta)}{d}[-k_\phi \tilde{\phi} - \omega_h - \frac{v_h}{d} \sin(\phi)] \quad (3.3)
$$
在本研究中,未考虑动力学效应。该假设基于以下事实:人类步态包含缓慢的运动,尤其是在人机交互场景中,如先前在[10]中所观察到的。然而,如有必要,可将动态补偿器集成到控制方案中。该补偿器可通过辨识过程获得[11],并与运动学控制器串联使用[12, 13]。人体动力学也未被考虑。尽管如此,此处将人体运动学作为控制律的输入。在此情况下,指令直接提供给机器人以使其跟随人类。
在这种运动学方法中,使用所提出的控制律并假设机器人速度跟踪完美,控制误差 $\tilde{d}$ 和 $\tilde{\phi}$ 收敛至零。将(3.2)和(3.3)代入(3.1)后可得(3.4),该结论变得显而易见。
$$
\begin{pmatrix}
\dot{\tilde{\phi}} \
\dot{\tilde{d}}
\end{pmatrix}
=
\begin{pmatrix}
-k_\phi \tilde{\phi} \
-k_d \tilde{d}
\end{pmatrix}
\quad (3.4)
$$
该控制系统是指数渐近稳定的,如(3.5)和(3.6)所示。
$$
\tilde{d}(t) = \tilde{d}(0) e^{-k_d t} \quad (3.5)
$$
$$
\tilde{\phi}(t) = \tilde{\phi}(0) e^{-k_\phi t} \quad (3.6)
$$
本文提出的控制结构如图3.2所示,其中控制误差为 $\tilde{d}$ 以及 $\tilde{\phi}$。误差 $\tilde{\phi}$ 可表示为 θ、 ψh和 ψr的函数(见图3.1a)。输入到控制器的其他信号包括 vh、 ωh、d以及 θ。控制器输出为控制动作,例如 vr和 ωr。
所提出的控制策略通过不同的人类运动模式(直线、圆形和8字形路径等)进行了仿真,以观察行走器是否正确跟随用户。图3.3显示了其中一个仿真结果,其中人类执行8字形弯道路径(输入),行走器在前方跟随人类的路径(控制器输出)。
该仿真表明,即使人类执行急转弯动作,控制器仍能保持稳定性。可以观察到,在转弯时 θ角度接近 30°,且 ϕ保持在 1°以下(图3.3)。因此,提出的控制器能够使机器人持续跟随人类,同时保持位于用户前方的位置。
可以认为,本节所提出方法的精确实时实现依赖于对控制方案中所用变量的可靠且精确的测量或估计(见公式3.2和3.3)。因此,控制输入估计在该方法中具有至关重要的意义。下一节将描述并验证一种获取控制参数的方法。
3.2 控制输入的估计
本节描述了控制输入的估计(见图3.2),内容组织如下:首先介绍基于激光雷达和惯性测量单元传感器组合的方法;其次展示机器人与传感器系统配置;最后给出基于传感器系统实际信号来估计这些参数的算法。
在此方法中,人类行走信息和时空步态参数被纳入交互参数估计策略中。实际上,控制输入(设定点)在每个步态周期内都会更新。在每个步态周期结束时,计算控制器输出并发送给机器人。同时,下一个步态周期的参数检测过程开始。该参数检测过程将在下一节中详细说明。
步态周期分为两个阶段:支撑相和摆动相。支撑相的开始和结束都涉及足部与地面的双足接触时期(双支撑)。而在摆动相期间,足部处于空中,腿部摆动以准备下一次脚触地[14](图3.4)。在此方法中,腿部位置与姿态通过安装在机器人上的激光雷达获取。该信息可用于估计与腿部运动学以及人类相对于机器人的位置相关的参数。
此外,髋部是使用者与动力单元之间的连接部位。它提供三维运动,并针对每个活动方向进行特定的肌肉控制。在支撑相期间,髋部肌肉的主要作用是稳定上半身。在摆动相期间,目标是肢体控制。每个步幅期间,骨盆在三个方向上异步移动。作用部位为髋关节的支撑处。因此,骨盆处产生的运动幅度最大。
所有运动都遵循小弧线,代表姿势变化的连续体[15]。骨盆旋转的横断面也在图3.4(分段线)[16]中显示。因此,骨盆能够捕捉人类步态中包含的振荡成分的重要运动学信息。这些振荡是检测该控制模式中控制参数的主要来源。
获取所提出模型参数的方法如下:
- 人体线速度(vh)是每个步幅中位置的变化率。因此,在人行走过程中,需要检测步态周期的开始和结束。
- 人体角速度(ωh)是每个步态周期中角速度的平均值。该速度在此方法中通过骨盆旋转的方向变化率来测量。
- 人体朝向(ψh)是每个步态周期中骨盆旋转的平均值。
- 机器人朝向(ψr)由机器人里程计传感器测量。然而,可以使用机载 IMU传感器以获得更精确的测量结果。
- θ表示人体朝向相对于机器人的方向。为了在人类行走时仍能获得准确测量, θ应在双腿到机器人的距离相等(d,通过LRF传感器获取),同时骨盆旋转接近零时测量(图3.5)。
- ϕ表示 vh方向向量与人‐机线段RH之间的方向差值(图3.1a)。 ϕ也等于 θ − ψr+ ψh(图3.2)。仅当 vh的幅值大于零时,该角度才有定义。
3.2.1 机器人与传感器系统设置
移动机器人Pioneer 3-AT [17]被用于对前几节中提出的交互方案进行实际验证。该机器人配备了一台带有Wi-Fi连接的车载计算机,用于接收机器人状态以及控制信息(如角速度和线速度),如图3.6所示。
最大线速度设置为 0.7 m/s,最大角速度设置为 140°/s。还可以在图3.6中看到一个安装在腿部高度的 SICK LMS-200 LRF [18],其角度分辨率为 1°。
用于测量人体骨盆运动的惯性测量单元传感器是在先前的研究中开发的 [19, 20],这是一种名为ZIMUED的可穿戴ZigBee IMU。该传感器节点能够通过ZigBee将三维加速度、三维角速度、三维磁信息以及方向信息(横滚、俯仰和偏航)发送到ZIMUED协调器。该传感器安装在人体骨盆上,如图3.7所示。
机器人与传感器系统集成设置有两种可能的配置,如图3.6所示。第一种是人机交互参数的评估,其中远程计算机通过Wi-Fi连接接收LRF数据和机器人朝向。在此模式下,控制器未执行,但有助于分析参数检测算法的性能。第二种模式是控制模式,在该模式下车载计算机接收传感器信息以执行控制器操作。ZIMUED协调器通过ZigBee连接与人类身上的惯性测量单元传感器相连。同样,协调器通过USB连接将人类的 IMU数据发送至计算机,适用于两种配置。激光雷达和机器人状态每100毫秒采样一次,ZIMUED传感器每20毫秒采样一次。同时,机器人能够接收需要执行的控制指令,如角速度和线速度。
在控制模式下,主程序每20毫秒接收一次IMU数据。该数据包定义了检测算法的主时钟。通信设置的性能在[19]中进行了评估。
考虑到本设置中使用的采样和传输条件,无线通信不会出现数据包丢失的问题。然而,如果控制器正在执行过程中ZigBee通信链路突然中断,检测算法将被阻塞,并启动内部定时器。如果在100ms内未接收到任何数据包,机器人将自动停止,以确保安全操作。
本文提出的腿部检测方法结合了[21, 22]中提出的技术,该方法分为四个基本任务:激光雷达数据预处理、过渡点检测、模式提取和腿部坐标估计。
在预处理阶段,首先确定HIZ(人类交互区)的范围(图3.7),然后利用激光扫描数据识别过渡点。
腿部的位置是通过极坐标计算的(图3.7)。该过程总体基于定义腿部模式的两个过渡事件之间的差异(图3.7中的x标记)。然后,相对于每条腿的中点计算距离和角度。在图3.7中,(d1, a1) 和 (d2, a2) 分别表示左侧和右侧腿的极坐标。
HIZ的角度范围被限制在 −60°到 60°之间,且LRF的扫描距离被限制在2米以内。在此范围内,人类可以自由行走,但腿部不会产生任何遮挡。
当由于另一条腿的遮挡导致一条腿无法被检测到时,算法将计算人类的距离仅检测到一条腿。最后,当人类离开人类交互区时,机器人会自动停止。
3.2.2 交互参数的估计
此处提出的参数估计基于LRF的腿部检测和来自惯性测量单元传感器的骨盆旋转(见图3.5)(图3.6)。该信号由偏航方向表示。由于人类步态的周期性,该方向的速度呈周期性变化,使得该信号适合在每个步态周期同步进行参数估计。在图3.8中,显示了骨盆运动以及右腿和左腿(RL和LL)距离的激光检测信号。这些测量数据是通过人体朝向LRF传感器行走的实验获得的。
图3.8a 显示了从 Z 轴陀螺仪信号获得的骨盆角速度。在每个步态周期中,零点交叉位置用圆圈和方块标记。图3.8b 中的方块标记表示最大骨盆方向(它们发生在右脚跟触地之后)。圆圈标记表示最小骨盆方向(发生在左脚跟触地之后)。同时,这些事件分别在右腿和左腿的距离与方向轨迹中显示(图3.8c, d)。参数检测方法执行如下:
- 人体线速度(vh) 。该参数在每一步更新。最近两个零点之间的时间间隔表示步时。步长是单步中行进的距离,通过在步时内右腿和左腿之间的最大距离获得。 vh的幅值为步长除以步时。由于机器人线速度限制为0.7米/秒,在交互实验中,用户被指示不要超过此限值。
- 人体角速度(ωh) 。该参数在每一步幅中计算一次,为一个步幅期间Z轴陀螺仪测得的所有角速度值的平均值。因此,如果人类直线行走,步态的振荡形式 ωh将接近零(见图3.6)。尽管机器人的角速度限制为 140°/s,但这不会造成任何问题,因为在与机器人正常交互过程中,人类不会达到如此高的角速度。
- 人体朝向(ψh) 。该参数通过在一个步幅内对骨盆方向(来自骨盆偏航)的所有值取平均来计算。该角度的范围在 −180°和 180°之间。
- 机器人朝向(ψr) 。该方向由机器人里程计在每一步进行测量。此角度的范围介于−180°和 180°之间。尽管里程计是获取机器人位置最广泛使用的方法,但该测量方法存在已知的误差[23]。通过在机器人上安装惯性测量单元,可以获得更精确的测量结果。在持续数分钟的实验中,使用惯性测量单元尤其重要,因为累积的里程计误差会更加显著。
- θ角度和人机距离(d) 。 θ是通过激光雷达腿部检测获得的右腿与左腿朝向的平均值。该角度的取值范围限制在 −60°和 60°之间。当双腿距离相等(交叉点)时计算此值,从而得到人机距离。出于交互目的,该距离最大限制为2米。
- ϕ角度 。该角度在每一步幅中计算为 θ − ψr+ ψh。
3.3 实验研究
为了验证所提出算法在检测人机交互参数方面的准确性,进行了三个不同的初步实验。在第一和第二实验中,机器人未进行任何移动。要求受试者沿着地面上标记的不同路径沿直线行走,以确定特定的角度参数(θ、 ϕ和 ωh)。参数 vh根据人类步态在每次测试期间定义,并与估计速度进行比较。
在第三次实验中,机器人被设置为特定的线速度(vr)和角速度(ωr),人类跟随机器人并保持恒定距离。在更具动态性的场景中估计人体线性和角速度,并将其与机器人执行的参考速度进行比较。
第一次实验的路径布局如图3.9a所示。这些标记在地面上的路径(黑色虚线)相对于LRF参考具有不同的预定义 θ角度: −20°, −15°, −10°, −5°, 0°, 5°, 10°, 15°和 20°。要求一名志愿者沿直线朝机器人方向行走,对每一条建议路径进行三次重复。假设在每条路径期间,从LRF测得的θ和从IMU测得的 ψh应与预定义的角度值相同,如图3.9b所示。在此实验中,ϕ角度始终等于零。
第二次实验中所提出的路径布局如图3.10a所示。这些标记在地面的路径(黑色虚线)用于评估基于激光雷达直接测量的 ϕ角度估计。因此,尽管起点与第一次实验相同,但现在所有路径都相互平行。要求志愿者对所提出的路径进行三次重复。然后,志愿者以预定的线速度(vh)和方向执行每条路径,如图3.10b所示。因此,本实验的假设是 θ和 ϕ具有相同的幅值和相反符号。每条路径均被标记为(T1、T2、T3、T4、 0°、T5、T6、T7 和 T8),如图3.10b所示。
此外,在第一和第二实验中,每次测试均采用三种预设的线性人体速度(vh):0.25、0.5 和 0.75 m/s,以评估不同步速对参数估计过程的影响。选择这些速度是基于以往在人机交互场景中的经验,例如搬运负载或助行器辅助步态([10])。因此,每条路径均标记有距离间隔(0.25、0.5 和 0.75 米)。为了达到目标速度,受试者根据每秒发出的声音提示进行步伐移动。
在第一和第二实验中,未对人类角速度进行评估。因此,为了验证该参数的估计过程,进行了第三次实验,实验路径为圆形(图3.11)。机器人被设定以恒定线速度和角速度运行。要求人类在跟随机器人时保持恒定距离。为简化此任务,人类的手部始终与机器人保持接触,如图3.11a所示。本实验的假设是,人体角速度和线速度将大致等于机器人的速度(图3.11b)。设定了三条不同恒定线速度和角速度的圆形轨迹:(i)0.15 米/秒 和 −7°/秒; (ii)0.25 米/秒 和 −11°/秒;以及(iii)0.30 米/秒 和 −14°/秒。
三项实验的结果展示了人机交互参数估计的精确性和变异性。第一部分介绍了所提出方法在交互参数估计方面的实验验证结果。
一旦交互参数估计方法得到验证,下一节将展示使用所提出的控制器进行实验的结果,表明移动机器人实时执行了人机交互参数检测和控制器。
3.3.1 人机交互参数的检测与估计
在第一次实验中, θ和 ψh的估计值在每次测试中都接近预期角度。图3.12显示了在三种预设速度(v1= 0.75 m/s、v2= 0.50 m/s 和 v3=0.25m/s)下沿路径进行的部分测量结果和估计参数。同时展示了惯性测量单元和激光雷达数据(连续信号),以及在两次脚触地瞬间获得的人体线速度和角度参数(离散值)。
从z坐标方向的陀螺仪获得的角速度如图3.12a所示。正如预期的那样,随着线速度的增加,骨盆旋转也随之增加。由于人类沿直线行走,角速度平均值保持接近零。骨盆偏航和俯仰角如图3.12b所示,其中 ψh由偏航角获得。还可以观察到,随着 vh的增加,振荡幅度也增大。
这些时间段内获得的人体腿部路径如图3.12c所示。正如预期的那样,当 vh增大时,步长也随之增加。由于机器人未移动,这些曲线的斜率模量即为实际的 vh。斜率为负表示随着受试者朝向激光雷达行走,距离在减小。尽管脚部位置(步长的指示)已在地面标出,但步长测量的分辨率受到鞋码的影响,这反映在 vh估计的误差上,如图3.12e所示。
通过激光雷达检测获得的腿部朝向如图3.12d所示。最后,估计的角度参数如图3.12f所示。注意, θ和 ψh角度接近预期的 −5°。此外,本实验中提出的 ϕ角度接近零。
从第一次实验中,对不同 vh的 θ和 ψh的估计值进行了分组,并与路径角度(参考值)进行了比较。在θ的估计中(图3.13a),均方根误差为0.6°,偏差为 −0.6°。所获得的误差值在所有实验中似乎保持恒定。这可能是由于实验设置过程中LFR传感器未对准所致。关于 ψh的估计(图3.13b),均方根误差为0.2°,偏差为 −0.2°。尽管行走过程中骨盆存在持续振荡,估计结果仍精确且无偏,并且在 vh变化时表现出良好的重复性。
考虑到第二次实验,图3.14显示了单步内不同测试中的角度参数。可以看出, ψh保持接近零,而 θ和 ϕ保持接近相同幅值且符号相反,符合预期。
从第一和第二实验中, vh所有测试的平均误差(均方根误差)被汇总在图3.15a中。对于0.25、0.50和0.75米/秒的速度,误差估计值保持在0.15 米/秒以下。尽管与期望/执行相比,这仍然较高。
此外,角度参数的误差(图3.15b)保持在 3°附近。由于使用具有更高分辨率的激光雷达直接测量该参数, θ的误差显著更小(约为 1°)。
在第三次实验中,机器人以恒定角速度和线速度沿圆形路径运动。图 3.16显示了机器人轨迹的部分测量结果以及针对线速度为0.3m/s、角速度为 −14°/s时的估计参数。
从陀螺仪在z坐标中获得的角速度如图3.16a所示。由于执行了圆形路径,估计的 ωh保持在接近−14°/s,符合预期(图3.16f)。该测量结果也可在图 3.16b所示的骨盆方向值的趋势中观察到。
在此区间内获得的人体腿部位置和方向如图3.16c、d所示。由于激光雷达和人体腿部同时移动,可以看出这些信号具有恒定的均值。 vh估计值如图3.17e所示,且保持在预期的0.3m/s附近。在测试过程中,人类跟随机器人移动。这可以通过模式 ψh和 ψr图3.16g中的角度。因此, θ和 ϕ如图3.16h所示。
表3.1显示了第三次实验中实际和估计的线速度与角速度的汇总。线速度错误与之前的分析一致,角速度错误保持在接近 1°/s,在此类交互策略中是可接受的。
3.3.2 控制器评估
在验证参数估计方法后,进行了一次最终实验,实验中机器人在用户前方跟随。在此实验中,一名志愿者执行了图3.17所示的8字形路径(lemniscate)。在执行转弯过程中,当人类进行弯道运动时,机器人在其外侧跟随(图3.3a)。图3.17中显示了人类路径和机器人预期路径(实线),同时也标出了人类路径的起点和终点;人类在进入8字形路径前沿直线行走。
值得注意的是,8字形曲线被分为三个阶段进行分析:第一阶段为半圆形路径(人体向左转);第二阶段为圆形路径(人体向右转);第三阶段为最后一个半圆路径(人体向左转)。通过这种方式,可以分析控制器在直线和弯道轨迹中的性能。
图3.18显示了在所提出的实验过程中获得的IMU和LRF传感器数据。尽管在步态过程中骨盆存在周期性(且为三维)振荡,并且考虑到运动是在一个8字形路径,机器人在跟踪时保持了连续且稳定的方向,如 ψr(灰色实线)在图 3.18a中所示。
图3.18b显示了从放置在人体骨盆上的陀螺仪获得的原始信号(灰色实线)和滤波信号(黑线)。采用二阶Butterworth低通滤波器(截止频率为 1 Hz)来抑制与步态节奏无关的高频组件。可以看出,在此应用中未观察到显著延迟。
在整场实验中,腿部检测效果良好,如图3.18c(角度检测)、d(距离检测)所示。从机器人测得的腿部角位置值介于 −40°和 40°之间(图 3.18c)。这些边界属于先前定义的检测范围[−60°,60°]。本实验中,最大交互距离设置为2 m,期望距离dd设为0.9 m。因此,在整个实验过程中,腿间距测量值介于0.4 m至1.2 m之间(图3.18d)。
图3.19显示了图3.17所示实验在不同时刻的快照,该实验持续了约80秒。
从开始到第十五秒,人类沿直线行走(图3.19a)。之后,人类开始向左转(ψh见图3.18a),进入8字形路径。第一个半圆行进至大约第30秒(图3.19b)。在此期间,人体朝向呈正增长(图3.18a),表明他正在向左转。腿部的方向(LRF数据)减少至 0°(图3.18c)在人类开始规划下一个圆圈之前完成了第一个半圆(图3.19c)。
该圆圈在第60秒前完成(图3.19e)。在此区间内,人体朝向持续减小,符合预期(见图3.18a),表明用户正在向右转。之后,腿部角位置再次变为 0°(图3.18c),以完成最后一个半圆(图3.19e)。
最后,人类回到8字形曲线的起点(图3.19f)。ψh和 ψr角度再次接近 0°,符合预期(图3.18a)。
如前所述,所有控制参数在每个步态周期内都会被检测。其中一些参数每步更新一次,而另一些则在每个步幅时更新。然而,控制器变量更新在每步都执行。当人类没有进行下一步时,例如当人类突然停止时,参数将每隔一秒计算一次。最后,图3.20显示了在所提出的实验过程中记录的所有控制数据。参数估计算法从人类执行所提出的路径过程中检测到约100步。
在图3.20a中,从开始到接近第20步,人类沿直线行走,此时 ψh、 ψr和 θ均保持在 0°附近(图3.20a)。因此,控制误差 ϕ也保持在 0°附近。然而,d始终保持在约−0.3米左右(图3.20b)。由于这一情况,控制作用 vr(C)以及机器人的实际速度 vr(R)跟随 vh,最大值约为0.3 米/秒(图3.20c)。此外,控制作用 ωr(C)和测量速度 ωr(R)保持在 0°/s附近,符合预期(图3.20d)。
第20步后,8字形曲线开始。从图3.20a ψr可以看出ψh持续变化, θ当人类向左转时为正,当人类向右转时为负,并且始终保持接近 0°,符合预期。从图3.20b可以看出,在大部分实验过程中,d为负值。这表明人类向前行走,而控制器试图达到期望距离(0.9米)。从图3.20c可以看出, vh始终低于0.5 米/秒,但控制动作 vr(C)达到了机器人的最大前进速度(0.7米/秒),有时也达到了后退速度极限(−0.7米/秒)。控制器试图将控制误差减小至 0。由于机器人动力学的影响,vr(R)相对于 vr(C)存在延迟,但在这些实验条件下,该延迟并未显著影响控制器响应的性能。从图3.20d可以看出, ωr(C)和 ωr(R)对 ωh实现了良好跟踪,同时 ωr(C)与 ωr(R)之间也存在预期的延迟,该延迟小于 vr(C)与 vr(R)之间的延迟。
最后,图3.20e展示了本次测试中执行的轨迹。黑色虚线表示通过激光雷达测量的人类路径,灰色实线表示通过机器人里程计测量的移动机器人路径。三角形标记表示每条路径的起点和终点。
3.4 本章结论
本章提出了一种基于人类步态并通过可穿戴惯性测量单元与车载激光雷达数据融合实现的人机交互策略。此外,还提出了一种用于在人体前方跟踪的新型移动机器人人类控制器,并对该控制器的性能进行了实验验证。
在实验研究中,尽管行走过程中存在持续振荡,但参数估计精确且无偏,并且在人体线速度变化时也表现出良好的重复性。同样,当机器人执行曲线路径时,估计误差低于10%。
本研究表明,所提出的控制方法在辅助移动机器人跟随人类方面是有效的。通过此处提出的跟踪算法,在稳定性表现方面获得了满意的结果。控制器在8字形曲线(lemniscate)上进行了评估,即使在人类路径发生急剧变化的情况下,控制器仍表现出良好的稳定性。在所有实验中,控制器均能保持机器人持续在前方跟随人类步态。同时还展示了良好的控制器在实验过程中跟随人类转向时对机器人朝向的控制性能。
此处提出的人机交互优势之一是计算效率高,这得益于使用佩戴在骨盆和腿部的惯性测量单元(IMU)可直接测量人体运动学,以及通过激光雷达(LRF)进行腿部检测。移动机器人对人体的检测与跟踪可在实时条件下完成,且适用于非结构化环境。通过将人行走分析整合到控制参数检测中,该方法的可靠性得到了保障。
下一章将讨论该控制策略在机器人助行器中的集成。关于人机物理连接的一些问题将需要新的算法和验证,以基于认知人机交互(cHRI)开发出自然的助行器辅助步态。
6618

被折叠的 条评论
为什么被折叠?



