本站点使用Cookies,继续浏览表示您同意我们使用Cookies。
Cookies和隐私政策>
近日,一款名为OpenClaw的自主智能体实现破圈,引发社会各界广泛讨论。网友们将其戏称为“龙虾”,使用该智能体的群体则自称为“虾客”。北京卫视围绕“龙虾”热点推出专题报道,并就智能体背后的算力支撑问题,采访了浪潮信息副总经理赵帅
OpenClaw之所以备受关注,主要是因为它改变了人工智能的应用方式——过去人工智能主要陪人聊天,如今则能自主执行具体任务。OpenClaw能选择合适的人工智能模型作为“大脑”,操作用户的电脑来干活。当然,“龙虾”要想把活干好,离不开算力、模型和开发者社区等“朋友圈”的支持。
要想了解“龙虾”如何工作,需要先明白一个词——Token。Token中文名字叫“词元”,是人工智能认识世界的最小单位。目前一个Token约等于1.5到2个汉字,“龙虾”要完成任务就要消耗Token,而Token是由人工智能模型在计算机服务器上运行生产出来的,所以人工智能模型和计算机服务器就是“龙虾铁哥们儿”。
浪潮信息研发的服务器部署于国内多个大规模智算中心,为我国大模型发展提供超过半数的算力支持。自从3月初“龙虾”火爆以来,这里的服务器变得更加忙碌。
浪潮信息副总经理赵帅接受采访时表示:“OpenClaw出圈爆火,主要是因为它可以自主执行任务,通常是将一个具体任务拆解成多个执行步骤。一个任务可能涉及上百次甚至上千次与大模型的对话,每一次对话消耗的Token数与以往相当,但单个任务被分解为上千次调用,同时使用人数呈十倍、百倍增长,因此Token消耗必然呈指数级上升。”
依托廉价的绿色电力、创新的服务器架构和丰富多样的人工智能模型,中国的Token成本明显低于国外,这为“全民养虾”打下了良好基础。
在用户最为关注的Token生成速度和成本方面,赵帅介绍:“当前Token成本主要指每百万Token输出所需费用。采用DeepSeek R1等大模型,我们可将其Token生成速度实现最快7.3毫秒。同时在Token输出的成本上我们已经实现了每百万Token大概1块钱人民币。”
随着以OpenClaw为代表的自主智能体加速落地,从“对话”到“执行”的应用范式变革,正将算力需求推向新的量级。浪潮信息将持续优化Token生成速度与成本,以更高效的算力底座,支撑中国自主智能体生态的繁荣发展。
访问 AIStoreAIStore是基于元脑生态打造的商业协作线上平台,作为知识资源平台、交流服务平台和商机孵化平台,赋能“百模”与“千行”的对接,目前已上架200+产品和方案,在智能票据识别、AI工业质检、代码生成、视觉智能标注、AI健康助手等领域实现成功牵手和落地应用,助力千行百业加速AI产业创新,高效释放生产力。

扫码访问AIStore