若基于 ChatGLM-6B 二次分发,需要向用户披露哪些最小信息集?

解读

面试官想验证三件事:

  1. 你是否清楚 《生成式人工智能服务管理暂行办法》 对“模型来源”与“标识义务”的硬性要求;
  2. 你是否能把 开源协议(MIT/Apache) 转化为面向终端用户的“最小可读”文本,而不是照搬 LICENSE;
  3. 你是否具备 LLMOps 视角,把“披露”做成可持续、可校验的线上能力,而非一次性文案。
    回答时先给“最小法定集合”,再补“行业最佳实践”,体现落地经验。

知识点

  1. 监管红线:境内提供生成式服务须在显著位置披露“模型名称、版本、备案编号(若已备案)、训练数据摘要、输出风险警示”。
  2. 开源合规:ChatGLM-6B 采用 MIT 协议,二次分发必须保留 “原始版权与许可声明”,并注明 “已做修改”;若量化/剪枝,还需说明 “性能可能下降”
  3. 消费者知情权:《电子商务法》第17 条要求“真实、全面”的商品或服务信息,模型能力、局限性、数据截止点均属披露范围。
  4. LLMOps 可审计:把披露文本写入模型卡片(Model Card),随版本走 Git,线上通过 /disclosure 接口返回 JSON,方便监管抽检与前端动态渲染。

答案

面向终端用户的最小信息集可压缩为 “5+2” 结构,全部在首次使用弹窗或“关于我们”页面一次性呈现:

  1. 模型身份
    “本服务底层语言模型为 ChatGLM-6B(版本号 v1.1,权重 sha256:xxx),由 清华大学知识工程实验室 开源。”

  2. 修改声明
    “我们已在原始权重基础上进行 指令微调与 8bit 量化,输出表现可能与官方描述存在差异。”

  3. 数据与知识截止
    “模型训练数据截止 2023-07,对之后发生的事件不具备认知能力。”

  4. 备案与许可
    “模型已按《生成式人工智能服务管理暂行办法》完成 境内深度合成算法备案(编号:Beijing-2024-xxx);使用遵守 MIT 开源协议。”

  5. 风险警示
    “模型会生成看似合理但可能 不准确或不当 的内容,请勿直接作为医疗、法律、投资建议。”

  6. 用户反馈通道
    提供 7×24 小时邮箱与产品内“一键纠错” 入口,满足法规对“投诉举报机制”的要求。

  7. 更新日志
    披露 “模型权重、Prompt 模板、安全策略” 三者的版本历史,确保用户可追溯任意时刻的生成逻辑。

以上文本 ≤300 字,前端可折叠,但必须 “默认展开首屏”,且不可设置“已读勾选”才能使用,避免被认定“默认同意”而无效。

拓展思考

  1. 动态水印:在生成内容末尾插入 不可见哈希水印(如 64bit 随机串),后台记录对应模型版本与用户 ID,出现舆情时 30 分钟内可定位来源。
  2. 分层披露:ToC 用户看“5+2”简版,ToB 客户额外提供 《模型安全白皮书》(含红队测试报告、偏见指标、抗 prompt injection 得分),既满足合规又形成商业溢价。
  3. 自动化校验:在 CI/CD 流水线中加入 “披露文本完整性检查”,若版本号升级而披露未同步,则拒绝打包镜像,防止“忘改一句话导致下架”的高额合规风险。