德国慕尼黑工业大学(TUM)教授 Angela Schoellig 领导的学习系统与机器人实验室,近日发表了一款能根据指令寻找失物的创新机器人。这款外型如「装有摄影机的轮式扫帚」的装置,是首批成功将影像理解能力与明确执行任务相结合的机器人之一,研究成果已发表於《IEEE Robotics and Automation Letters》。
 |
| /news/2026/03/15/1018274740S.jpg |
该机器人透过顶部的摄影机扫描环境,将 2D 影像像素转化为包含深度资讯的数据,进而构建出精度达公分级的 3D 空间地图。配合笔记型电脑的运算能力,机器人不仅能即时更新环境地图,还能辨识视觉范围内的所有物体,并理解这些物体对人类的意义与功能。
为了像人类一样思考失物可能的去处,研发团队将互联网的大规模语言模型(LLM)知识转化为机器人语言。这意味着机器人明白:眼镜极可能出现在桌子或窗台上,但绝不会出现在瓦斯炉或水槽中。透过这种语义推理,机器人能排除不合理的区域,专注於高机率场所。
在机器人的 3D 地图中,系统会不断计算并标记各区域出现目标物的机率数值。实验数据显示,相较於在房间内随机搜索,这种基於 AI 逻辑的搜索效率提升了将近 30%。机器人运用了双重 AI 技术:一部分用於视觉影像辨识,另一部分则用於语言模型的逻辑判断。
这款机器人具备优异的记忆功能,能将先前的环境影像与现况进行对比。如果厨房中突然出现新物体,机器人能以 95% 的准确度识别出环境变动,并将这些变动区域标记为「极高机率」的搜索热点,从而应对动态变化的居家或工厂环境。
Angela Schoellig 教授表示,下一阶段的研究目标是让机器人具备寻找「视线外」物品的能力,例如抽屉内或橱柜後的物件。这需要机器人进一步与环境互动,利用机械手臂学习如何抓握把手、判断门扇开启方向,让自动化寻物功能延伸至封闭的储物空间中。