摘要:
这篇文章不讲空话,直接从工程落地视角出发,带你把鸿蒙智能体这件事讲明白:小艺开放平台到底适合做什么、四种开发模式该怎么选、角色指令怎么写才不飘、知识库/插件/工作流怎么配合、为什么很多智能体“能聊但不好用”,以及最关键的——怎么在上架审核阶段少踩坑、尽量一次过审。文章中我还会顺带把“注意力机制”用开发者能听懂的话讲透,因为你一旦理解了它,就会知道为什么同样是写 Prompt,有的人写出来是生产力,有的人写出来是玄学。
截至 2026 年 3 月,小艺开放平台已经提供 LLM 模式、工作流模式、A2A 模式、OpenClaw 模式四类智能体开发路径,并覆盖开发、调试、上架、分发全链路;智能体可以统一上架到智能体市场,并通过系统导航条、小艺搜索、小艺建议等入口被用户触达。


一、先说结论:现在做鸿蒙智能体,不是“赶风口”,而是在抢系统级入口

很多人还在把智能体理解成“套个大模型壳子,做个聊天机器人”。但如果你真正看过小艺开放平台当前的能力边界,就会发现它已经不是一个单纯的对话生成器,而是一个围绕 系统级入口、多端触达、能力编排、服务分发 设计出来的完整平台。官方文档里给出的信息很明确:平台提供 LLM、工作流、A2A、OpenClaw 四种模式,支持从开发、多端调试到部署上架的全生命周期,最后统一进入智能体市场,并通过鸿蒙系统内多个入口分发。

这意味着什么?
意味着你做的不是一个“只能在网页里点开聊两句”的 Demo,而是一个有机会进入 手机、平板、车机、PC、手表 等多终端场景的智能服务。对开发者来说,这个价值远比“做一个能回答问题的 Bot”要大得多。因为真正值钱的,不是模型本身,而是 模型 + 系统入口 + 业务能力 + 场景闭环


二、小艺智能体到底是什么?别把它做成“高级复读机”

如果你做过一些 Agent 项目,很容易犯一个错误:把所有问题都交给大模型自由发挥。结果就是,回答看起来很聪明,但一进真实业务场景就开始漂移、幻觉、答非所问。

我更推荐你把小艺智能体理解成 5 层结构:

  1. 人设层:决定它是谁,用什么语气说话。
  2. 知识层:决定它知道什么,不知道什么。
  3. 能力层:决定它能做什么,比如调用插件、执行工作流、访问外部接口。
  4. 流程层:决定它按什么顺序做事。
  5. 合规层:决定它能不能被上架、能不能长期稳定运营。

官方文档也能印证这一点:小艺开放平台并不是只让你写 Prompt,它同时提供知识库、插件、工作流、卡片、长期记忆、调试预览、版本管理、审核规范等完整能力。尤其是插件部分,官方定义得很清楚:插件本质上是一个工具集,一个插件里可以包含一个或多个工具(API),用来扩展智能体的能力边界;工作流则是把大模型能力与业务逻辑结合起来,通过可视化画布和节点编排处理功能型请求。

说白了,真正能打的智能体,一定不是“嘴强王者”,而是:
有明确边界、能调工具、能走流程、能控风险、能通过审核。


三、开干之前,先把准备工作做对

1. 账号不是重点,认证才是重点

想用小艺开放平台,前提当然是华为开发者联盟账号。但更关键的是认证。官方文档说明,开发者需要先注册并完成实名认证,账号类型分为个人开发者和企业开发者,完成认证后才能使用更多联盟功能和服务资源。

如果你是个人开发者,先别焦虑,很多能力一样能体验;但如果你的智能体未来涉及品牌、商业化、资质提交、企业主体能力,企业账号在后续运营上会更稳。

2. 素材别临时糊弄,审核往往就卡在这些地方

根据官方“配置-基础信息”说明,创建智能体后你可以编辑图标、名称、一句话描述、支持的设备和系统、创建者昵称、分类、别名和 AgentCard。其中图标建议 1:1 正方形,大小不超过 5M,支持 png、jpeg、jpg。

这里我给一个实战建议:
不要把基础信息当成“填表工作”,它其实是产品表达。

你至少要先准备好下面几样东西:

  • 一个能被用户一眼看懂用途的名字
  • 一句能说清价值的描述
  • 一个不廉价的头像
  • 一个明确的目标人群
  • 三到五个高频使用场景
  • 一套失败兜底策略

为什么这么说?因为这些内容不仅影响审核,也直接影响点击率、留存和用户第一次体验。


四、四种开发模式怎么选?选错了,后面全是返工

官方平台介绍已经把四种模式说得很明确:LLM 模式、工作流模式、A2A 模式、OpenClaw 模式。

但官方给的是“平台能力定义”,真正落到工程上,我建议你这样理解:

1. LLM 模式:适合快速验证 idea

适合做问答助手、陪伴型角色、知识顾问、轻咨询类场景。
优点是启动快,角色感强,适合早期验证需求。
缺点也明显:如果没有知识约束和能力边界,很容易“看着很聪明,实则不稳定”。

2. 工作流模式:适合功能闭环

官方文档指出,工作流适合处理功能类请求,能够通过一系列节点顺序执行来完成某个任务,并且支持在画布中实时调试数据流转和任务执行顺序。

这类模式非常适合:

  • 表单处理
  • 信息查询
  • 多步骤任务执行
  • 固定流程自动化
  • 需要强可控性的业务

一句话:
只要你想让结果更稳定,而不是更“像人”,优先考虑工作流。

3. A2A 模式:适合已有第三方智能体能力

官方定义里,A2A 是直连三方智能体。也就是说,如果你已经有成熟的外部 Agent 能力,希望接入鸿蒙生态,这条路更顺。

4. OpenClaw 模式:适合高定制、高联动

官方把 OpenClaw 模式描述为个性化助手方向,相关文档也明确它有独立的基础配置、创建、调试和发布流程。

我的建议非常直接:

  • 想快:先上 LLM
  • 想稳:优先工作流
  • 有外部 Agent 资产:上 A2A
  • 想做深度个性化、高阶控制:考虑 OpenClaw

别一上来就追求“全都要”。
Agent 项目最怕的不是能力不够,而是架构贪心。


五、从 0 到 1 的正确开发流程,我建议你这样做

第一步:先从“标准创建”进,不要上来就堆能力

官方快速创建文档提到,登录小艺开放平台后,点击左上角“+创建智能体”即可进入创建流程;在标准创建页面中,需要先填写名称、头像、智能体描述、分类,以及可使用的设备等基础信息,创建后再进入编排页面。官方还特别说明,智能体描述会直接显示在详情页,相当于给用户看的第一张名片。

这一步最容易犯的错,就是想一步到位,把所有能力全加进去。
我更建议先做 最小可用智能体

  • 一个清晰场景
  • 一段稳定角色指令
  • 一组高频问题
  • 一条主链路任务

先通,再强。

第二步:角色指令别写散文,写“生产规则”

官方文档明确提到,创建智能体时,角色指令(Prompt)会直接决定智能体效果;同时,开场对话能帮助用户理解功能与设定,预置问题则能帮助用户快速体验智能体能力。官方还说明,开场语支持 Markdown,预置问题最多可以设置 3 个。

所以,角色指令千万不要这样写:

你是一个很专业的 AI 助手,请尽可能帮助用户解决所有问题。

这类 Prompt 看似礼貌,实际上没边界、没流程、没格式、没失败策略。

我更推荐你用下面这个模板:

角色定义
你是【鸿蒙智能体上架助手】,服务对象是准备在小艺开放平台发布智能体的开发者。

核心目标
帮助用户完成:
1. 智能体定位梳理
2. 角色指令优化
3. 上架材料检查
4. 审核风险提示

回答规则
1. 优先给结论,再给步骤
2. 不编造平台不存在的能力
3. 涉及合规、隐私、备案时明确提醒用户核验
4. 当用户需求超出能力范围时,直接说明边界并给替代方案

 输出格式
默认按以下结构输出:
- 结论
- 操作步骤
- 风险点
- 建议下一步

 风格要求
语言专业、清晰、克制,不油腻,不夸张,不使用营销口吻。

失败兜底
如果无法确定用户需求,先提供一个最稳妥的默认方案。

你会发现,真正有效的 Prompt 从来不是“文笔优美”,而是 约束明确、结构稳定、边界清晰

第三步:把知识、能力、流程拆开,不要全塞给模型

很多新人做智能体,喜欢把一堆业务文档塞进知识库,然后期待模型自动变强。
这思路不算错,但不完整。

正确拆法应该是:

  • 角色指令:管风格、边界、输出格式
  • 知识库:管事实性内容
  • 插件:管外部动作能力
  • 工作流:管多步骤任务执行
  • 长期记忆:管个性化偏好和历史信息

尤其是长期记忆,别滥用。官方文档说明,长期记忆节点是为个性化场景服务的,例如用户画像、偏好推荐;如果工作流绑定了长期记忆节点,智能体需要先开启长期记忆能力,否则会报错。

所以你要问自己一句:
这个场景真的需要记住用户吗?

如果只是普通问答,不需要。
如果是长期陪伴、推荐、复访咨询,才有必要。

第四步:把“开场语”和“预置问题”当成增长入口来设计

很多开发者只盯着模型效果,却忽略了“用户第一次打开时看到什么”。

但从产品角度看,真正决定首轮留存的,常常不是模型能力,而是用户是否立刻知道“你能帮我干嘛”。

官方文档已经说明,开场语就是用户首次进入智能体时自动展示的引导信息,目的是帮助用户理解用途和交互方式,预置问题最多三个,可供用户一键点击体验。

所以别写这种开场语:

你好,我是你的智能伙伴,很高兴认识你。

这句话没有任何转化能力。

你应该写成这样:

我可以帮你完成三件事:

  1. 检查智能体上架材料是否齐全
  2. 优化角色指令,让回答更稳定
  3. 预判审核风险,减少驳回概率
    你可以直接试试:
  • 我的智能体名称会不会被驳回?
  • 隐私政策该怎么配置?
  • 工作流和 LLM 模式该怎么选?

你会明显感受到,点击率会比“你好呀”高一个量级。

第五步:一定要在调试与预览阶段把问题打透

官方文档指出,调试与预览区域允许开发者与智能体对话,并根据执行过程和响应信息优化配置;当前还提供真机测试、调试等能力,不同模式支持能力略有差异。

这里给你一个非常实战的测试方法:
别只测“正常问题”,一定要测下面 5 类异常输入:

  1. 模糊问题
  2. 超范围问题
  3. 对抗性问题
  4. 多约束组合问题
  5. 缺字段问题

因为真正把你送进审核驳回区的,往往不是主链路,而是边缘场景。


六、为什么很多智能体“能聊,但不好用”?

因为它们只做了“对话”,没做“任务设计”。

真正好用的智能体,至少要做到三件事:

1. 用户说一句,它知道该走哪条链路

不是所有问题都交给模型自由生成。
有些该查知识库,有些该走工作流,有些该调用插件,有些应该直接拒答。

2. 它有明确的输出结构

尤其是面向工具型场景,最忌讳“废话很多,信息很散”。

比如你做的是审核助手,就应该固定输出:

  • 风险等级
  • 问题点
  • 修改建议
  • 是否建议提交审核

3. 它知道什么时候说“不知道”

智能体不是考试选手,不需要每道题都答。
越是上架型、垂直型智能体,越要学会拒绝超边界问题。

这才是工程化,而不是“AI 有灵性”。


七、顺带把注意力机制讲透:为什么理解它,你的 Prompt 会瞬间提升一个层级?

很多人一听“注意力机制”,就觉得那是算法工程师的事,跟智能体开发关系不大。
其实恰恰相反。

Transformer 论文《Attention Is All You Need》提出了基于自注意力机制的模型架构。论文中对 self-attention 的描述很清楚:它本质上是在同一序列内部建立不同位置之间的关联,用来计算序列表示;Transformer 也正是依赖这种机制来建模输入与输出,而不再依赖传统 RNN 或卷积主干。

把这个概念翻译成智能体开发语言,就是一句话:

模型不是在“理解你的心思”,而是在“分配它的注意力”。

所以,为什么同一个任务,有的人 Prompt 效果好,有的人效果差?
本质原因是:
前者把模型的注意力,稳定地拉到了“正确的约束和关键信息”上;
后者则让模型在一堆模糊描述里自己猜。

这也是为什么我一直强调:

  • 指令要分层
  • 规则要前置
  • 示例要短而准
  • 输出格式要固定
  • 知识片段不要又长又乱
  • 关键约束不要埋在大段废话里

你可以把注意力机制简单理解成一个“信息分发器”。
你给模型的信息越清晰、越结构化、越靠近任务中心,它越容易把“注意力预算”花在关键点上;反过来,如果你的 Prompt 东一榔头西一棒子,那模型再强,也会出现输出漂移。

所以,Prompt Engineering 不是玄学。
它本质上是在做一件事:
帮模型把注意力放对地方。


八、上架审核怎么过?这部分才是真正的生死线

开发做完,只成功了一半。
真正把一批开发者拦在门外的,往往不是代码,而是上架审核。

1. 名称先过第一关:别一上来就被卡死

官方审核规范对智能体名称要求非常具体:名称需要能够直观表达功能或服务,长度不得超过 8 个中文字符或中英文字符,只支持简体中文或中英文结合,不支持特殊符号、繁体字等;同时不能带价格、促销、赚钱诱导等营销词,比如“免费”“9 块 9”“躺赢”等。

所以这些名字基本都是高危:

  • AI暴富助手
  • 免费简历王
  • 全网最强投流神器
  • 9块9简历优化官

你要的是“清晰可信”,不是“地摊文学”。

2. 功能必须有实用价值,不能做成空壳

官方审核规范明确要求,智能体要具备良好兼容性,能正常启动和返回,不能频繁崩溃、闪退、无响应;同时必须具备实用价值和创意,不能只是纯信息展示,也不能等同于系统自带的简单功能。官方还强调,不得过度营销、诱导跳转,不得在未实现基础功能的情况下强制引导用户跳转到其他应用或页面。

这条特别重要。
因为很多人会犯两个典型错误:

  • 做一个“介绍型智能体”,本质只有说明文,没有服务能力
  • 把智能体做成导流页,核心目的是跳 App 或跳 H5

这种产品在今天的审核逻辑里,风险都很高。

3. 隐私政策不是摆设,链接一定要能打开

官方“配置-隐私协议服务”说明,发布智能体时必须提供隐私政策,可以选择自定义隐私政策,也可以使用平台的隐私声明托管服务生成协议;上架时只能关联 1 个隐私协议。官方“用户隐私”规范则进一步要求:开发者必须提供便捷可查看的隐私政策链接,内容要说明收集和使用个人信息的目的、方式和范围,还要说明用户如何撤回同意、请求删除数据,以及有效的隐私反馈渠道。

我建议你把这件事理解成三句话:

  • 链接必须能打开
  • 内容必须和实际处理行为一致
  • 不是必须采集的数据,就别采

别抱侥幸心理。
隐私这一块,现在已经不是“补一下文案”就能混过去的阶段了。

4. 涉及 AI 生成内容,就老老实实做内容合规申报

官方“配置-内容合规”文档已经写得很明白:根据相关法律法规要求,智能体上架前需要填写 人工智能生成合成内容标识大模型备案信息;如果结果中包含 AI 生成的文本、图片、音频、视频、虚拟场景等内容,需要如实勾选并填写相应信息。

另外,官方“智能体资质”说明还提到:如果智能体接入大模型,可能需要提供 生成式人工智能服务上线备案号算法备案编号;如果未接入大模型则可忽略。

这部分不要偷懒,也不要猜。
涉及就填,不涉及就按实际情况申报。
千万别抱着“先上再说”的心态去碰合规。

5. 未成年人、广告、误导信息,都是重灾区

官方审核规范对未成年人保护、广告和误导性内容都给了明确限制:
如果面向未成年人收集个人信息,需要遵守相应未成年人保护法规;非儿童类智能体信息里,也不能使用“适合儿童”等误导性描述。广告内容必须合法、可识别、显著标注“广告”,不得虚假、误导、诱导用户。

所以你要记住一个基本原则:

别拿智能体做擦边内容包装器,也别拿它做灰度营销入口。


九、上架不是终点,版本管理才是长期运营的开始

很多人把智能体上架当成项目收尾,其实恰恰相反,上架只是开始。

官方文档说明,智能体支持版本管理,可以查看历史版本、回退到历史版本;而且版本记录中会包含 上下架撤回审核 时的版本。需要注意的是,回退历史版本时,插件、工作流、知识库、卡片等关联资源可能会自动关联最新版本,或者在资源已删除/下架时自动解除关联。

这说明什么?

说明你不能只会“上线”,还要会:

  • 版本追踪
  • 问题回滚
  • 资源依赖治理
  • 小步快跑迭代

真正成熟的智能体团队,都会把下面这些指标拉起来:

  • 首次对话完成率
  • 工具调用成功率
  • 用户复访率
  • 审核驳回原因分布
  • 高危问题触发率
  • 人工兜底占比

别让智能体上线之后,变成一个没人管的摆设。


十、我自己总结的一套“过审率更高”的实战清单

发版前,你至少把这 10 件事逐项过一遍:

1. 名称是不是一眼能看懂用途?

别抽象,别营销,别玄乎。

2. 一句话描述有没有说清用户收益?

不要只写“智能助手”,要写“帮谁解决什么问题”。

3. 开场语是不是能直接引导第一次使用?

最好一进去就让用户知道你最擅长哪三件事。

4. 预置问题是不是选了高频场景?

别放你觉得酷的问题,要放用户最常点的问题。

5. 角色指令里有没有边界、格式、兜底策略?

没有这三样,迟早漂。

6. 工具、知识、流程有没有职责分离?

别让模型背锅。

7. 隐私协议是不是和实际能力一致?

尤其是权限、第三方、数据存储和用户联系渠道。

8. 内容合规和备案信息是不是按实际填写?

不要赌审核运气。

9. 有没有做异常输入测试?

只测正常链路,等于没测。

10. 有没有把版本回滚方案想好?

尤其是涉及插件、知识库、工作流联动时。


十一、一个很现实的建议:先做“能稳定解决 1 个问题”的智能体,再谈全能

我见过不少项目,目标写得特别大:

  • 既能问答
  • 又能查资料
  • 还能做流程
  • 还能个性化陪伴
  • 最后还想商业化

结果往往是:
每个点都沾一点,但没有一个点做深。

如果你真想在小艺开放平台上做出一个能走远的智能体,我更建议你遵循下面这个顺序:

先单点打透,再逐步扩能力。

比如:

  • 第一版:只做智能体上架审核助手
  • 第二版:补知识库和规则模板
  • 第三版:接插件,支持材料检查
  • 第四版:接工作流,支持自动生成整改建议
  • 第五版:加长期记忆,支持团队偏好和历史项目上下文

这样做出来的产品,才是“活的”。


十二、结尾:鸿蒙智能体真正拼的,不是模型参数,而是工程组织能力

最后说句大实话。

做小艺智能体这件事,表面上看像是在做 AI,实际上更像是在做:

  • 产品定义
  • 系统设计
  • Prompt 架构
  • 工具编排
  • 合规治理
  • 版本运营

模型当然重要,但它只是底座。
真正决定你能不能把智能体做出来、上得去、留得住的,是你有没有把“场景、能力、流程、合规、分发”五件事同时想明白。

而这,恰恰就是鸿蒙智能体现在最有意思的地方。
它给开发者的,不只是一个接大模型的入口,而是一条从 AI 能力 走向 系统级服务 的路。

Logo

讨论HarmonyOS开发技术,专注于API与组件、DevEco Studio、测试、元服务和应用上架分发等。

更多推荐