为什么AI产品的用户需求往往是模糊的、概率性的,而传统软件的需求是确定的?

解读

面试官抛出此题,核心想验证三件事:

  1. 你是否真正理解“AI 交付的是概率”这一本质差异;
  2. 能否用国内真实业务场景举例,把技术语言翻译成业务语言;
  3. 是否具备把“模糊需求”拆解成可迭代指标的产品方法。
    回答时切忌只谈“算法有准确率”,而要展示“从业务痛点→概率目标→数据闭环→用户感知”的全链路认知,并体现对合规、成本、用户体验的平衡思路。

知识点

  1. 交付物本质:传统软件交付的是“确定性逻辑”,AI 交付的是“概率分布”。
  2. 需求来源差异:ToB/ToG 客户往往只提“提升效率”“降低风险”这类宏观 KPI;ToC 用户甚至无法准确描述自己想要什么,只能给出“感觉不准”“不够智能”等主观反馈。
  3. 国内数据现状:中文公开语料稀缺、行业私有数据割裂,导致模型表现本身就带地域性、行业性随机误差。
  4. 合规灰度:《个人信息保护法》《深度合成规定》要求“显著标识+可回溯”,进一步放大了结果不确定性,产品需为“概率性违规”留冗余策略。
  5. 产品化方法:把“模糊需求”转译为“可接受区间”——先与客户共创定义“可接受的 Precision@Top5 下限”“可接受的漏检率经济损失上限”,再用数据闭环持续逼近区间上限。

答案

“传统软件的需求之所以确定,是因为它的交付物是‘if-else’——相同输入必得相同输出,用户可以用穷尽法验收。AI 产品交付的是‘概率’,相同输入可能输出不同结果,用户只能给‘统计型’预期,因此需求天然模糊。
在国内落地时,这种模糊性被三件事放大:
第一,客户说不清。比如某省电网提‘用 AI 识别输电线路隐患’,实际要同时兼顾‘召回率≥98%’(不能漏掉风筝挂线)和‘误报率≤5%’(不能天天半夜叫醒运维),但客户初期只给一句‘尽量别漏,也别太吵’。
第二,数据不确定。中文小样本场景下,模型在 A 省 95% 准确率,换到 B 省可能掉到 88%,客户就会认为‘产品坏了’,需求随之漂移。
第三,合规灰度。《深度合成规定》要求对 AI 生成内容做显著标识,但‘显著’到底指字体多大、颜色多深,监管没有量化标准,产品只能给概率性兜底策略。
因此,AI 产品经理的第一步不是写 PRD,而是把‘模糊需求’翻译成‘可接受区间’:和客户共创确定‘业务可承受的最大损失’,再反推出模型指标;上线后通过数据闭环持续把区间上限往右推,直到用户感知从‘可用’变为‘好用’。”

拓展思考

  1. 如何让客户“感知”概率提升:国内 ToG 项目验收常看“领导演示效果”。可把 Top5 结果做成“红橙黄”三色风险卡片,用可视化把 92%→96% 的 Precision 转化为“红色卡片从 3 张减到 1 张”,让概率差异一眼可感。
  2. 用“保险”对冲概率:参考人保的“AI 模型责任险”,把误报导致的经济损失打包进保费,客户不再追求 100% 准确,而愿接受 95% 准确率+风险赔付,需求谈判空间瞬间打开。
  3. 把合规不确定性变成产品特性:在直播实时字幕场景,可设计“置信度低于阈值自动切换人工字幕”的兜底策略,并把切换次数作为 SLA 写进合同,既满足《网络音视频信息服务管理规定》,也让客户对“概率”有量化预期。