一份优秀的AI PRD应包含哪些区别于传统软件PRD的核心要素?

解读

面试官真正想验证的是:你是否理解“AI功能”与“传统功能”在需求描述、验收标准、交付节奏、风险管控上的本质差异。国内AI项目普遍面临“算法指标≠用户体感”“数据合规红线高”“算力预算卡脖子”三大痛点,PRD 如果不能提前把算法边界、数据链路、迭代节奏写清楚,后期必然返工。因此,回答要围绕“把不确定性变成可落地、可量化、可复盘”展开,突出数据、模型、合规、成本四条主线。

知识点

  1. 算法可交付基线:Precision/Recall、F1、AUC、TOP-N 命中率等,必须给出“可上线”阈值与“可迭代”阈值两层数字。
  2. 数据闭环四件套:采集、标注、质检、回流;需明确数据源合法性(个人信息保护法、数据跨境评估)、标注规范版本号、质检抽检比例。
  3. 算力成本换算:训练 GPU 时、推理 QPS/RT 与云厂商刊例价的对应关系,能直接折算到每月预算。
  4. 模型更新节奏:灰度放量比例、影子模式、A/B 实验桶编号、回滚阈值(如召回率下降 3% 立即回滚)。
  5. 合规预埋:算法备案、深度合成标识、用户单独同意、未成年人过滤逻辑。
  6. 失败案例补偿:兜底策略、人工审核链路、用户投诉通道,防止“算法翻车”导致舆情。

答案

一份可直接评审的 AI PRD 必须补充以下 6 大核心要素,任一缺失都可能在内部评审会被算法、法务、财务直接挑战:

  1. 算法目标双阈值
    写明“上线门槛”与“迭代目标”两组指标,并给出线上可自动回捞的统计口径。例如智能客服意图识别,上线门槛:TOP-1 准确率≥85%,迭代目标 90%;指标通过离线 benchmark + 线上 shadow 双通道验证。

  2. 数据供给 SOW(Statement of Work)
    用独立章节把“数据从哪里来、怎么标、谁出钱”写死:

    • 数据源:用户对话日志脱敏后使用,已获个人信息主体“单独同意”,保存 30 日自动删除;
    • 标注规范:附《意图标签 V4.2》PDF,标签层级不超过 3 层,互斥率 100%;
    • 预算:标注 10 万条,单价 1.2 元/条,总预算 12 万,由业务方承担。
  3. 算力与成本预算表
    给出训练+推理两笔账:

    • 训练:A100 80G * 8 卡 * 5 天 ≈ 3.2 万(按阿里云 preemptible 刊例价);
    • 推理:峰值 500 QPS,RT≤200 ms,需 6 卡 T4,月成本 1.1 万;
      并写明“若模型 Size 下降 30%,成本可节省 20%”,让财务一眼看到优化空间。
  4. 模型更新与回滚策略

    • 灰度节奏:5%→15%→50%→100%,每阶段观察 3 天;
    • 回滚触发:核心指标下降≥3% 或客诉量上涨≥50%,10 分钟内切换回旧模型;
    • 影子模式:新模型并行跑 24 h,写影子日志但不影响用户,对比无差异再放量。
  5. 合规与风险清单
    对照《互联网信息服务算法推荐管理规定》逐条打钩:

    • 算法备案号申请中,预计上线前 30 天提交;
    • 深度合成内容加水印,透明度报告每季度更新;
    • 未成年人识别逻辑:调用实名接口 age<18 自动关闭个性化推荐。
  6. 失败补偿与兜底方案

    • 置信度低于 0.6 的结果走人工审核通道,承诺 2 h 内给出结论;
    • 用户投诉入口前置在结果页,24 h 内完成退款或补偿优惠券;
    • 建立“AI 事故复盘”机制,出现重大 badcase 48 h 内邮件通报全员。

把这 6 点写进 PRD,评审现场就能少被挑战 80% 的时间,后续迭代也有数据可依、责任到人。

拓展思考

如果面试继续追问“如何证明你写的指标合理”,可补充“行业基线 + 竞品拆解 + 用户可用性测试”三段式:

  1. 行业基线:公开论文/开源数据集榜单,证明 85% 已处于行业 75 分位;
  2. 竞品拆解:用脚本批量调用竞品接口,估算对方准确率 83%,我们 85% 略有优势;
  3. 可用性测试:找 30 名目标用户做任务完成率测试,发现 85% 准确率下任务成功率 96%,再降到 80% 则掉到 88%,从而验证 85% 是用户体验拐点。

把这套验证过程也写进 PRD 的“指标推导”附录,评审委员基本不再质疑“拍脑袋”,你也就从“写需求”升级为“定标准”,直接体现 AI 产品经理的核心价值。