若基于 ChatGLM-6B 二次分发,需要向用户披露哪些最小信息集?
解读
面试官想验证三件事:
- 你是否清楚 《生成式人工智能服务管理暂行办法》 对“模型来源”与“标识义务”的硬性要求;
- 你是否能把 开源协议(MIT/Apache) 转化为面向终端用户的“最小可读”文本,而不是照搬 LICENSE;
- 你是否具备 LLMOps 视角,把“披露”做成可持续、可校验的线上能力,而非一次性文案。
回答时先给“最小法定集合”,再补“行业最佳实践”,体现落地经验。
知识点
- 监管红线:境内提供生成式服务须在显著位置披露“模型名称、版本、备案编号(若已备案)、训练数据摘要、输出风险警示”。
- 开源合规:ChatGLM-6B 采用 MIT 协议,二次分发必须保留 “原始版权与许可声明”,并注明 “已做修改”;若量化/剪枝,还需说明 “性能可能下降”。
- 消费者知情权:《电子商务法》第17 条要求“真实、全面”的商品或服务信息,模型能力、局限性、数据截止点均属披露范围。
- LLMOps 可审计:把披露文本写入模型卡片(Model Card),随版本走 Git,线上通过 /disclosure 接口返回 JSON,方便监管抽检与前端动态渲染。
答案
面向终端用户的最小信息集可压缩为 “5+2” 结构,全部在首次使用弹窗或“关于我们”页面一次性呈现:
-
模型身份:
“本服务底层语言模型为 ChatGLM-6B(版本号 v1.1,权重 sha256:xxx),由 清华大学知识工程实验室 开源。” -
修改声明:
“我们已在原始权重基础上进行 指令微调与 8bit 量化,输出表现可能与官方描述存在差异。” -
数据与知识截止:
“模型训练数据截止 2023-07,对之后发生的事件不具备认知能力。” -
备案与许可:
“模型已按《生成式人工智能服务管理暂行办法》完成 境内深度合成算法备案(编号:Beijing-2024-xxx);使用遵守 MIT 开源协议。” -
风险警示:
“模型会生成看似合理但可能 不准确或不当 的内容,请勿直接作为医疗、法律、投资建议。” -
用户反馈通道:
提供 7×24 小时邮箱与产品内“一键纠错” 入口,满足法规对“投诉举报机制”的要求。 -
更新日志:
披露 “模型权重、Prompt 模板、安全策略” 三者的版本历史,确保用户可追溯任意时刻的生成逻辑。
以上文本 ≤300 字,前端可折叠,但必须 “默认展开首屏”,且不可设置“已读勾选”才能使用,避免被认定“默认同意”而无效。
拓展思考
- 动态水印:在生成内容末尾插入 不可见哈希水印(如 64bit 随机串),后台记录对应模型版本与用户 ID,出现舆情时 30 分钟内可定位来源。
- 分层披露:ToC 用户看“5+2”简版,ToB 客户额外提供 《模型安全白皮书》(含红队测试报告、偏见指标、抗 prompt injection 得分),既满足合规又形成商业溢价。
- 自动化校验:在 CI/CD 流水线中加入 “披露文本完整性检查”,若版本号升级而披露未同步,则拒绝打包镜像,防止“忘改一句话导致下架”的高额合规风险。