随着人工智能技术的发展,人们越来越意识到AI需要具备视觉记忆能力才能更好地融入现实世界。Shawn Shen及其团队创立的Memories.ai公司正致力于为可穿戴设备和机器人建立这一“视觉记忆”基础设施。
在最近举行的Nvidia GTC大会上,Memories.ai宣布了一项与Nvidia的合作计划。双方将利用Nvidia的Cosmos-Reason 2推理视觉语言模型和Metropolis视频搜索和总结应用来进一步开发其视觉记忆技术。Shen表示,他们的灵感来源于为Meta公司开发AI眼镜时的经历。
“人工智能已经在数字世界中取得了巨大的成功,但在物理世界中的表现如何呢?可穿戴设备与机器人也需要记忆功能……最终,我们需要让AI具备视觉记忆能力。”Shen如是说。这一概念对大多数AI系统来说相对新颖,尽管OpenAI、xAI和Google Gemini在过去两年内也开发了类似的工具,但它们大多集中在基于文本的记忆上。
Memories.ai成立于2024年,并已成功获得1600万美元的融资。其视觉记忆模型(LVMM)在2025年7月发布,被视作类似于Gemini Embedding 2的小型版本。为了数据收集,公司开发了LUCI硬件设备,用于记录训练模型所需的视频内容。
Shen强调,他们并不打算成为一家硬件公司,也不计划销售这些设备。尽管现在已有一定的市场需求,但Shen认为更大的机会还在未来。“从商业化的角度来看,我们现在更关注的是模型和基础设施建设,因为最终我们相信可穿戴设备与机器人市场会到来,但可能只是在未来某个时间点。”
目前,Memories.ai已与Qualcomm签订合作协议,其视觉记忆模型将在今年晚些时候运行在Qualcomm处理器上。同时,该公司也在与一些大型可穿戴设备公司合作,虽然Shen未具体透露是哪些合作伙伴。
未来,“物理世界中的AI”概念可能会引领新的技术趋势。通过构建“视觉记忆层”,Memories.ai正朝着这个方向努力,并逐步实现这一目标。
推荐意见