简要总结
null
这页文档就像一张“安全地图”,告诉我们坏人可能会用哪些方法来捣乱OpenClaw这个聪明的AI助手。它把坏人可能做的事情分成了好几类,比如“偷偷溜进来”、“骗AI做坏事”、“偷走秘密”等等。如果你想知道这个AI助手在哪些地方需要特别保护,或者想帮忙让它变得更安全,就可以看看这一页。
五岁小孩版解释
这个文档在讲OpenClaw AI助手可能会遇到哪些“坏人”和“坏事”。它用一个叫MITRE ATLAS的大框架,把所有的危险都整理出来,就像把不同的怪兽分门别类关进不同的笼子一样,让我们看得清清楚楚。
文档先画了一张图,告诉我们整个系统有哪几道“安全门”。从最外面的聊天软件(像WhatsApp、Telegram)开始,消息要经过好几道检查才能到达AI助手那里。每一道门都有自己的守卫规则,比如检查是谁发来的、把不同的对话隔开、检查要运行的工具是否安全等等。
接下来,文档详细列出了坏人可能使出的各种招数,一共分成了8个大类:
- 侦察:坏人先到处看看,找找AI助手的大门开在哪里。
- 溜进来:坏人想办法拿到进门的“钥匙”,比如偷看配对码、假装成别人,或者偷走密码文件。
- 搞破坏:这是最危险的部分。坏人会直接给AI助手下错误的指令(这叫“提示词注入”),或者把坏指令藏在网页链接里让AI去读,甚至骗AI去运行危险的电脑命令。
- 赖着不走:坏人会想办法一直留在系统里。比如在技能商店(ClawHub)里发布一个坏技能,或者偷偷修改AI助手的设置。
- 躲开检查:坏人会想办法让自己的坏技能看起来是好的,骗过检查规则;或者让坏内容逃过系统的安全包装。
- 到处偷看:坏人会问AI助手:“你都有什么工具呀?”或者“我们刚才聊了啥?”,试图打听秘密。
- 偷东西:坏人会指挥AI助手把重要数据发送到外面的坏网站,或者让AI助手把秘密通过聊天发出去,坏技能也可能直接偷走密码。
- 搞大破坏:最严重的后果,比如让AI助手在电脑上乱执行命令、浪费光所有资源,或者让AI说坏话,损害大家的信任。
文档特别担心技能商店(ClawHub)。因为任何人都可以发布技能,就像任何人都可以在一个市场摆摊。虽然现在有一些检查,比如看发布者的GitHub账号是不是老账号、检查文件里有没有坏词,但这些检查很容易被坏人用小花招骗过去。所以,计划要加入更厉害的检查,比如用VirusTotal这个工具来分析代码是不是安全。
最后,文档把所有危险按照“可能性大不大”和“后果严不严重”排了队,指出了最需要马上解决的几个大问题:
- 直接给AI下坏指令。
- 在技能商店里发布坏技能。
- 坏技能偷走密码。
也给出了改进建议,比如马上要给技能加上“沙箱”(就像给技能一个独立的玩具房,不让它乱跑),以及给AI助手的输出也加上检查。
总之,这个文档就像一份“弱点清单”和“修理计划”,帮助大家知道保护的重点在哪里,一起让OpenClaw AI助手变得更安全、更可靠。