共计 970 个字符,预计需要花费 3 分钟才能阅读完成。
Google Deepmind 提出了一种名为 Generative Expressive Motion (GenEM) 的新方法,用于自主生成具有表现力的机器人行为。该方法利用了 LLMs 丰富的社交语境能力,以及它们根据指令或用户偏好生成动作的能力,来生成适应性强的表达式机器人运动。作者通过用户研究和模拟实验证明,他们的方法可以快速生成适应性强、可组合的行为,并能根据用户反馈进行调整。
主要内容:
- GenEM 框架 :GenEM 利用大型语言模型(LLMs)的丰富社交上下文和生成能力,通过少量示例(few-shot)和链式思维(chain-of-thought)提示,将人类语言指令翻译成机器人控制代码。
- 用户研究 :通过在线用户研究,展示了 GenEM 生成的行为在用户反馈下是可感知的,并且在某些情况下,用户对 GenEM 生成的行为的感知甚至优于专业动画师设计的行为。
- 模拟实验 :在移动机器人和模拟四足机器人上进行的实验表明,GenEM 能够生成适应性强、可组合的行为,并且能够响应用户反馈进行迭代修正。
特点:
- 适应性 :GenEM 能够根据用户反馈快速修改行为,生成适应性强的表现力行为。
- 可组合性 :GenEM 生成的行为可以基于已有的机器人技能和学习到的表现力行为进行组合,构建更复杂的行为。
- 灵活性 :GenEM 不依赖于特定社交情境的专用数据集,而是通过上下文学习生成多样化的行为。
实现方法:
- 表现力指令跟随 :GenEM 首先将人类表现力行为转换为机器人表现力行为,然后生成控制代码。
- 行为生成 :使用 LLM 将人类表现力行为翻译成机器人表现力运动,再将这些运动转换为可执行的机器人代码。
- 用户反馈 :用户可以提供迭代反馈来改进行为,GenEM 会根据反馈调整行为生成过程。
具体应用场景:
- 人机交互 :GenEM 可以用于生成机器人在与人类互动时的表达性行为,如点头、摇头、道歉等。
- 机器人服务 :在服务机器人领域,GenEM 可以帮助机器人更好地与人类沟通,提高服务效率。
- 教育和娱乐 :在教育和娱乐场景中,GenEM 可以为机器人生成更具吸引力和表现力的行为,增强用户体验。
总的来说,GenEM 为机器人提供了一种灵活、适应性强且可组合的表现力行为生成框架,有助于机器人在多种社交场景中更自然地与人类互动。
正文完
关注公众号获取最新教程
![post-qrcode](https://pic.gametop10.cn/wp-content/uploads/2023/04/1680444958-weixinG.jpg)
发表至:无分类
2024-01-29