??新智元报道??
编辑:Joey
【新智元导读】MetaAI这次发布的MoDem解决了视觉强化学习领域的三个挑战,无需解码器,效率最高提升250%,一起看看它有多牛。
12月27日,MetaAI 负责视觉和强化学习领域的A
截止27日晚间,这篇推文的阅读量已经达到73.9k。
他表示,仅给出5个演示,MoDem就能在100K交互步骤中解决具有稀疏奖励和高维动作空间的具有挑战性的视觉运动控制任务,大大优于现有的最先进方法。
有多优秀呢?
他们发现MoDem在完成稀疏奖励任务方面的成功率比低数据机制中的先前方法高出150%-250%。
Lecun也转发了这一研究,表示MoDem的模型架构类似于JEPA,可在表征空间做出预测且无需解码器。
论文链接:https://arxiv.org/abs/2212.05698
Github链接:https://github.com/facebookresearch/modem
研究创新和模型架构
样本效率低下是实际应用部署深度强化学习 (RL) 算法的主要挑战,尤其是视觉运动控制。
基于模型的RL有可能通过同时学习世界模型并使用合成部署来进行规划和政策改进,从而实现高样本效率。
然而在实践中,基于模型的RL的样本高效学习受到探索挑战的瓶颈,这次研究恰恰解决了这些主要挑战。
首先,MoDem分别通过使用世界模型、模仿+RL和自监督视觉预训练,解决了视觉强化学习/控制领域的三个主要挑战:
大样本复杂性(Large sample complexity)
高维状态和动作空间探索(Exploration in high-dimensional state and action space)
同步视觉表征和行为学习(Simultaneous learning of visual representations and behaviors)
这次的模型架构类似于Yann LeCun的JEPA,并且无需解码器。
作者Aravind Rajeswaran表示,相比Dreamer需要像素级预测的解码器,架构繁重,无解码器架构可支持直接插入使用SSL预训练的视觉表示。