对于普通用户,您会提供什么样的可解释性信息?(如关键词、置信度)

解读

面试官想知道三件事:

  1. 你是否清楚“普通用户”不是算法工程师,他们只关心“结果靠不靠谱、错了怎么办”。
  2. 你是否能把技术黑箱翻译成“人话”,同时兼顾合规(《个人信息保护法》《算法推荐管理规定》要求显著告知、便捷关闭)。
  3. 你是否能根据场景风险等级,把“解释深度”做成可配置策略,而不是一刀切。

知识点

  1. 可解释性分层
    L1 结果层:一句话结论+置信度+“为什么是我”关键词。
    L2 逻辑层:Top3 影响因子+可视化条形图(0-100 分值)。
    L3 技术层:特征权重、SHAP 值、混淆矩阵——只给后台运营或客诉组。

  2. 合规红线

    • 必须告知“算法名称、主要运行机制、投诉渠道”(网信办 2022 年 3 号文)。
    • 不得泄露他人信息(不能用“与你相似的用户买了”作为解释)。
  3. 用户认知阈值
    置信度 0-100 比 0-1 小数更直观;颜色分段(绿/黄/红)降低理解成本;超过 85% 才显示“高可信”标签,避免误用。

  4. 场景差异
    电商推荐:关键词+“基于你最近浏览的连衣裙”;
    医疗 AI:必须给出“仅供参考,非诊断结论”+医生复核入口;
    金融风控:只给“信用记录不足”这类合规描述,不能出现“收入低”等敏感词。

  5. 闭环机制
    用户点击“结果不准”→弹窗收集原因→回流标注池→7 日内邮件告知优化进展,形成“解释-反馈-迭代”数据闭环。

答案

以“手机银行大额转账智能风控”场景为例,面向普通用户的可解释性信息设计如下:

  1. 结果层
    文案:本次转账需额外验证,系统可信度 72%。
    颜色:黄色警示。
    关键词:收款账户首次交易、夜间大额、设备更换。

  2. 操作指引
    按钮【查看原因】→展开折叠面板,列出三项影响因子条形图(每项 0-100 分值),并附“如何提升可信度”小贴士(如“下次可先在常用设备小额转账”)。

  3. 合规声明
    页脚 10 字提示:“算法名称:反欺诈风控模型;投诉:955XX-9”。

  4. 退出机制
    提供“人工复核”入口,用户可转客服,30 秒内响应;系统同时记录用户选择,用于后续模型校准。

  5. 灰度策略
    对置信度≥90 的案例,直接放行,不再展示解释,减少打扰;对 50-90 区间随机 20% 流量开放完整解释,收集 CTR 与满意度,两周后评估是否全量。

拓展思考

  1. 多模态解释
    未来语音助手场景,可用“语音+可视化卡片”双通道:一句话说明+手机屏显关键词,兼顾驾驶安全。

  2. 个性化解释深度
    通过用户画像把人群分为“极简型”“探索型”,前者只看结论,后者可展开技术细节,实现“千人千面”的解释策略。

  3. 解释效果的北极星指标
    不只是“用户满意度”,而是“解释后用户继续完成核心任务的比例”——例如风控场景下,解释后用户仍成功转账的比例提升 3%,才算真正降低误杀。