机器人记忆系统
每一次实验都值得被记住
机器人持久记忆系统 — 记住技能、从失败中学习、积累经验
开源 (Apache 2.0)
特性
为真实机器人而生
不是又一个聊天机器人记忆。RobotMem 专为与真实世界交互的物理智能体设计。
多模态存储
存储全部 5 种感知类型 — 视觉、触觉、听觉、本体感知和程序性体验 — 包括数值参数和运动轨迹。
跨会话学习
机器人重启后仍然记得。今天学到的技能明天就能用。无需重新训练。
模型无关
兼容任何框架 — ROS、Isaac Gym、MuJoCo、dm_control。不绑定任何特定模型或厂商。
语义搜索
按语义而非关键词查找相关经验。"怎么抓红色杯子?"能返回正确的记忆。
自动去重
dHash 视觉相似度检测,Jaccard 文本重叠检测。无需人工整理即可保持记忆清洁。
轨迹与参数
将力曲线、关节轨迹和数值参数作为结构化数据与自然语言一起存储。
框架集成
接入你的技术栈 9 个集成
即插即用的适配器,兼容你正在使用的工具。
工作原理
三步实现机器人记忆
简单的 API。无需基础设施。只需保存体验,在需要时检索。
1
体验
机器人执行动作。RobotMem 捕获完整的感知 — 它看到了什么、感受到了什么、做了什么。
2
回忆
新会话开始。RobotMem 通过语义搜索检索相关的过去经验。机器人从上次停下的地方继续。
3
进化
随着时间推移,模式涌现,技能固化。机器人从积累的经验中建立真正的专业能力。
快速开始
13 行代码实现机器人记忆
Python API 和 MCP Server。几分钟内让你的机器人拥有记忆。
robot_controller.py
from robotmem import save_perception, recall
# 保存一次抓取体验
save_perception(
description="抓取红色杯子: 力=12.5N, 30步",
perception_type="procedural",
data='{"actions": [[0.1, -0.3, 0.05]], "force_peak": 12.5}',
)
# 下次会话: 检索类似经验
memories = recall("怎么抓杯子")
for m in memories["memories"]:
print(m["content"], m["_rrf_score"])
终端输出
$ python robot_controller.py
[recall] 混合模式 | 3 条结果 | 最高分: 0.847
抓取红色杯子: 力=12.5N, 30步 score=0.847
FetchPush: 成功, 距离 0.012m, 28步 score=0.723
推方块: 力=11.8N, 超调 0.03m score=0.651
为什么选择 RobotMem
与众不同
现有的 AI 记忆系统是为聊天机器人设计的。RobotMem 是为机器人设计的。
| 能力 | RobotMem | Mem0 | Zep | Letta |
|---|---|---|---|---|
| 目标用户 | 机器人 | 聊天机器人 | 聊天机器人 | 聊天机器人 |
| 多模态感知 | ✓ 5 种 | ✕ | ✕ | ✕ |
| 轨迹存储 | ✓ | ✕ | ✕ | ✕ |
| 数值参数 | ✓ | ✕ | ✕ | ✕ |
| 模型无关 | ✓ | ✓ | ✕ | ✕ |
| 离线可用 | ✓ 本地 ONNX | ✕ 云端 | ✕ 云端 | ✓ |
| 视觉去重 (dHash) | ✓ | ✕ | ✕ | ✕ |
| MCP 协议 | ✓ | ✕ | ✕ | ✕ |
| 自然语言存储 | ✓ | ✓ | ✓ | ✓ |
| 得分 | 8 / 8 | 2 / 8 | 1 / 8 | 2 / 8 |
实验验证
真实实验,真实数据
在 MuJoCo 机器人仿真环境中测试。不是理论推导,是实测数据。
+25%
FetchPush 成功率提升
基线 42% → 带记忆 67%。相同策略、相同环境,唯一区别是持久记忆。
3×
跨环境迁移
在 FetchPush 训练,迁移到 FetchSlide:基线 4% → 带记忆 12%。无需微调模型。
< 10ms
检索延迟
BM25 + 向量混合搜索,10,000 条记忆。满足实时机器人控制循环需求。
0
云端依赖
100% 离线运行。本地 SQLite + ONNX 向量模型。无需 API 密钥,无需联网。
开始打造有记忆的机器人
开源免费,一行命令安装。