网信办《人工智能生成合成内容标识办法》生效当日,DeepSeek迅速响应,不仅对AI生成内容进行明确标识,还公开V3/R1模型训练细节,并强调模型开源。同时,针对AI发展的局限性与滥用风险,DeepSeek也采取了一系列应对措施。
紧跟新规,明确AI内容标识
9月2日,网信办《人工智能生成合成内容标识办法》正式生效,其中第四条要求对符合要求的AI生成合成内容添加显式标识。DeepSeek紧跟政策,在官微发布最新回应公告,凡是AI生成的内容,都会清楚标注「AI生成」。同时郑重提醒,用户严禁恶意删除、篡改、隐匿标识,更不能用AI传播、制作虚假信息。
公开V3/R1模型训练细节
DeepSeek还发布了《模型原理与训练方法说明》,介绍了大模型的训练和推理阶段。在训练阶段,其将模型训练分为预训练和优化训练两个环节。预训练旨在让模型掌握通用语言理解与生成能力,通过大规模自监督学习从文本数据中学习语言模式与知识关联。优化训练则是在预训练基础上,通过特定任务数据进一步调整模型参数,使模型适应实际应用场景,一般通过SFT、RL等方法,让模型学会根据指令回答问题,符合人类偏好和需求。在训练数据方面,预训练阶段主要使用互联网公开可用信息及与第三方合作获取许可的数据,虽无需个人信息,但对偶然包含的个人信息会尽力筛查移除,并打造数据治理流程保证数据质量。优化训练阶段的问答对数据由研究团队生成提供,少部分可能基于用户输入,若涉及用户输入,会进行安全加密、去标识化和匿名化处理,还为用户提供选择退出权利,且构造专门安全数据进行安全对齐。
模型推理与开源
模型推理阶段即模型被部署提供服务,训练完成并部署后,模型可通过对输入信息编码计算预测下一个token,从而具备文本生成和对话等能力。DeepSeek的产品服务基于用户输入,采用自回归生成方式预测接续词汇序列,输出内容并非简单检索或“复制粘贴”训练数据,而是基于对语言结构和语义关系的深度理解动态生成。此外,DeepSeek强调模型开源,通过开源平台对外公开发布所有模型的权重、参数以及推理工具代码等,采用宽松MIT协议,供使用者自由、免费下载部署使用,同时发布各模型完整技术报告,供社区和研究人员参考。
应对AI局限性与滥用风险
针对AI存在的“幻觉”问题,即生成错误、遗漏或不符合事实的内容,DeepSeek正通过技术手段降低幻觉率,如使用高质量训练数据、优化对齐策略、RAG等,但现阶段无法完全消灭,同时在多处添加显著提示标识,提醒用户内容可能不准确,仅供参考,尤其在专业领域不提供建议。对于AI滥用可能带来的隐私保护、版权、数据安全等风险,DeepSeek高度重视,采取制定内部风险管理制度、开展模型安全性评估、进行红队测试、增强模型和服务透明度等硬核措施,还赋予用户知情权、选择权、控制权,用户可查询服务基本信息、拒绝数据用于模型训练、删除历史数据等。
以上文章由 AI 总结生成