论文笔记Learning object-action relations from bimanual human demonstration using graph networks

摘要 提供了双手演示的动作分类框架。从原始RGB-D视频提取物体几何动作关系,建立基于图的分类器。 图1:数据集:来自数据集的3个示例性RGB-D图像(为了更好的清晰度而编辑的图像);特征提取:三级处理流水线的中间结果和最终结果,一个场景图;分类:基于场景图对右手(RH)和左手(LH)执行的动作进行预测的图形网络分类器。 图2:从我们提议的数据集的示范性记录。第一排:准备早餐麦片,切一根香蕉,倒进
相关文章
相关标签/搜索