跳过正文
  1. 文章/

OpenClaw 是下一个 ChatGPT 吗?

文森的科技小站
作者
文森的科技小站
文森的科技小站
目录
OpenClaw 页面示意

OpenClaw 是下一个 ChatGPT 吗?
#


快速导览
#

OpenClaw 是一个开源的“代理式”AI 助手框架,目标不是单纯聊天,而是在你常用的通讯应用与服务里主动执行任务(例如管理邮件、安排日程、控制智能家居等),并能长期记忆和主动推送提醒。它把 AI 助手“嵌入”到现实工作流程中,而不是把人拉到单一的网站或应用上去问问题。


相关背景
#

  • 开发者:Peter Steinberger,一位出售过公司 PSPDFKit 的开发者,后来出于兴趣开发了这个项目。
  • 项目历程简介:最初名为 Clawdbot → 因商标冲突改名为 Moltbot → 最终定名 OpenClaw(“Open” 表示开源,“Claw” 延续龙虾/爪子形象)。
  • 上线节奏:2026 年初发布后迅速走红,Github 在 24 小时内拿到数万颗星(短时间内冲破 9,000、随后超过 60,000 star)。名人和研究者也先后转发与讨论。

核心卖点
#

OpenClaw 能把 AI 助手直接放进你已经在使用的聊天与通信工具中(WhatsApp、Telegram、iMessage、Slack、Discord、Signal 等),并实现:

  1. 持久记忆(Persistent memory)
    • 能记住长期对话与偏好,不会像普通会话那样“会话一关闭就忘”。
  2. 主动通知(Proactive notifications)
    • 可以在无需你询问的情况下,主动发送日程提醒、优先事项摘要、邮件整理等。
  3. 真正的自动化(Autonomy / Actions)
    • 在获得授权后能执行动作:排期、填写表单、整理文件、搜索邮箱、生成报告、控制智能家居等。

这些特点让 OpenClaw 不再是“你去问它问题”的工具,而更像嵌入式的助理,在日常工具链中自动完成工作。


重命名风波
#

  • Anthropic 认为 “Clawd/Clawdbot” 与其产品 Claude 商标冲突,向团队提出异议,导致项目改名为 Moltbot。
  • 改名过程中出现一连串“网路糟糕事件”:
    • 社交媒体账号被抢注(自动化 bot 秒抢 @clawdbot),并被用于发布加密货币钱包地址等诈骗信息。
    • 创始人误改了个人 GitHub 名称,导致更多混乱与抢注。
    • 一次 AI 生成的“龙虾吉祥物”图像演化成“Handsome Molty”梗,网络迅速发酵成 meme。
    • 出现假冒下载、假插件、假代币(一个假 $CLAWD 代币短时间内出现过 ~1600 万美元市值后崩盘)等诈骗行为。
  • 最终项目合并开源与社区因素,把名称定为 OpenClaw。

重要里程碑与合作
#

  • 英伟达 CEO Jensen Huang 在访谈与 GTC 主题演讲中称 OpenClaw “definitely the next ChatGPT”,并推动英伟达发布了一个面向 agent 的平台 NemoClaw,以便更多人制作基于 OpenClaw 的代理。 (来源:https://www.cnbc.com/ 与 CNET 报道)
  • OpenClaw 团队与 OpenAI 在 2 月份达成某种合作(原文提到 Steinberger 与 OpenAI 的合作意向/计划)。

当前规模与生态
#

  • ClawHub(插件/技能目录)托管了约 3,000 个“skills”(技能)。
  • 安全研究及扫描机构(如 Censys)发现公开暴露的 OpenClaw 实例超过 21,000+(主要分布在美国、中国、新加坡等地)。
  • 安全研究公司 Koi Security 发现约 341 个恶意技能(在 ~3,000 个技能中)。

安全隐患
#

OpenClaw 的自动化与持久凭证特性带来了与传统 AI 不同的风险:

  • 公开部署与认证缺失:研究人员发现大量公开实例缺乏身份验证或保护,暴露 API key、聊天记录与系统访问权限。
  • 混合身份问题(Hybrid identity):代理在“人”的凭证下持续运行,会形成 AI 与人交织的身份,这类身份目前大多数安全控制无法识别或治理。
  • 恶意/受污染技能:生态中存在恶意技能或被利用的第三方插件,可通过技能渠道分发木马、窃取凭证或执行未经授权的操作。
  • 社交工程与假冒:账号、下载或文档被伪造,导致用户误装恶意软件或把敏感信息授权给不可信代理。
  • 自动化权限放大:一旦代理拥有高权限(例如发邮件/访问云存储/操作智能家居),错误配置或被攻破的后果会非常严重。

安全专家建议的应对策略:

  • 把代理当作“身份”来治理:为 agent 单独的最小权限账号,限定其权限边界并做持续行为监控。
  • 在隔离环境中试验:使用备用设备或 VM 来安装与测试,避免把个人主账户或生产环境暴露。
  • 审计技能来源:只使用可信来源的技能,审查技能代码或依赖项;对权限请求保持怀疑态度。
  • 强化认证与网络边界:避免公开暴露管理接口,启用安全网关、强认证与 IP 白名单等保护措施。

OpenClaw 适合人群
#

  • 适合人群:喜欢折腾、能理解并管理安全/认证/权限、愿意在隔离环境中试验的开发者与技术爱好者;希望把 AI 深度集成到个人工作流中的高级用户。
  • 不适合人群:需要“即装即用”、企业级合规支持、或不愿意处理复杂安全配置的用户;以及在生产环境中未经充分审计就赋予代理高权限的场景。

简而言之:功能亮眼,但边缘尚未打磨,安全风险和使用门槛都明显高于成熟商业产品。


快速上手与建议
#

  1. 官方文档与下载: https://openclaw.ai/ (包含安装指南与安全检查表)
  2. 最佳实践:
    • 在隔离的备用笔记本或虚拟机上安装并测试。
    • 使用专用的服务账号(最小权限)连接邮件、日历、云存储等。
    • 监控网络流量与代理行为,启用日志审计。
  3. 如果你只想体验“智能助手功能”而不想承担风险:等待经过安全审计或选择有厂商支持的商用解决方案。

小结
#

OpenClaw 展示了“代理式 AI 助手”最吸引人的一面:把 AI 嵌入你日常使用的沟通与工作流里,提供记忆、主动服务与自动化,真正把 AI 变成可以长期依赖的“助手”。它的爆红也暴露出治理与安全的短板:从社交媒体账号抢注、诈骗到大规模的公开暴露实例,都是对该类技术大规模应用前必须解决的问题。

如果你是技术爱好者或安全团队的一员,OpenClaw 值得研究与尝试,但务必在受控、安全的环境中进行;如果你只是普通用户,建议暂缓在生产或含敏感数据的环境中使用,等待成熟的生态与更严格的安全实践。


参考阅读
#

  • OpenClaw 官网(文档/安装):https://openclaw.ai/
  • CNET 原文报道(英文):https://www.cnet.com/tech/services-and-software/from-clawdbot-to-moltbot-to-openclaw/

本网站部分链接可能为联盟推广链接(Affiliate Links)。如果你通过这些链接购买产品或服务,站长可能获得佣金,但你无需支付额外费用。

📖 阅读量: