DeepSeek创始人Liang Wenfeng在输出培训中使用OpenAI模型清楚地拒绝了
2025-09-19
根据中国新闻局的说法,DeepSeek-R1推理模型研究论文由DeepSeek团队和Liang Wenfeng作为相应的作者开发,最近一直在国际权威性杂志《自然》杂志上。这是Peer审查的大型语言模型的第一个世界,填补了行业差距。 根据媒体关于18日的报道,自然评论说:几乎所有主要模型都无法被同伴重新审视,而DeepSeek终于打破了这个空间。与今年1月发表的第一版论文相比,新论文揭示了更多的模型培训细节,并在模型发行的早期阶段对怀疑做出了积极回应。 所有使用的数据均来自Internet 在同行考试过程中,Deptseek团队根据评论的观点减少了模型的拟人化描述,并增加了模型培训的技术细节,包括模型培训数据和安全性考虑因素,并回答有关知识努力的先前问题。 DeepSeek显然否认了对使用OpenAI模型输出进行培训的先前疑问。在64页的同行评审文档中,DeepSeek介绍了DeepSeek-V3 Base(DeepSeek-R1基础模型)使用的数据来自Internet。尽管它可能包含由GPT-4产生的结果,但它是偶然的,并且没有特殊的蒸馏过程。