在阅读论文“在未知工作空间中基于触觉的主动对象识别和目标对象搜索”时,我有些无法理解:
本文是关于仅使用触觉信息来查找对象的位置和其他属性的。在第4.1.2节中,作者说他使用GPR指导探索过程,在4.1.4节中,他描述了他如何训练GPR:
使用4.1.2节中的示例,输入为(x,z),输出为y。
只要有联系,就会存储对应的y值。
重复此过程几次。
此训练有素的GPR用于估计下一个探索点,该点是方差最大的点。
在以下链接中,您还可以看到演示:https://www.youtube.com/watch?v=ZiLq3i-BJcA&t=177s。在视频的第一部分(0:24-0:29)中,第一次初始化发生在机器人采样4次的地方。然后在接下来的25秒内,机器人从相应的方向进行探索。我不了解GPR的这种微小初始化如何指导探索过程。有人可以解释一下如何估算第一个探索部分的输入点(x,z)吗?
最佳答案
任何回归算法都以特定算法特有的某种方式简单地将输入(x,z)
映射到输出y
。对于新的输入(x0,z0)
,如果训练中包括许多与此类似的数据点,则算法可能会预测非常接近真实输出y0
的值。如果只有培训数据在非常不同的区域可用,则预测可能会非常糟糕。
GPR包括对预测的置信度的度量,即方差。在以前从未见过训练数据的区域中,方差自然会非常高,而在已经看过的数据点附近非常低。如果“实验”比评估高斯过程花费的时间长得多,则可以使用高斯过程拟合来确保对不确定答案的区域进行采样。
如果目标是充分探索整个输入空间,则可以绘制(x,z)
的许多随机值并评估这些值的方差。然后,您可以在y
中最不确定的输入点执行昂贵的实验。然后,您可以使用到目前为止所有已探查的数据重新训练GPR,然后重复该过程。
对于优化问题(不是OP的问题)
如果希望在整个输入空间中找到y
的最小值,则对在您知道y
值较高的区域中进行实验不感兴趣,但是不确定这些值将有多高。因此,您可以选择(x,z)
的预测值加一个标准偏差,而不是选择方差最大的y
点。通过这种方式将值最小化称为贝叶斯优化,此特定方案称为上置信界(UCB)。预期改善(EI)-改善先前最佳分数的可能性-也很常用。
关于machine-learning - 高斯进度回归用例,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/59868933/