2026年1月26日消息,近日Mistral公司CEO Arthur Mensch近日在访谈中声称中国开源大模型DeepSeek-V3 “基于Mistral的稀疏混合专家架构构建”,该言论引发广泛争议。
2026年1月26日消息,近日Mistral公司CEO Arthur Mensch近日在访谈中声称中国开源大模型DeepSeek-V3 “基于Mistral的稀疏混合专家架构构建”,该言论引发广泛争议。

据了解,这一言论迅速引发技术社区反驳,被指“逆天发言”“岁月史书”,核心争议点聚焦于架构原创性与时间线矛盾。Mistral的Mixtral MoE架构论文发布于2024年1月4日,DeepSeek-V3的MoE论文发表于2024年1月7日,两者仅差3天,不存在“基于构建”的时间逻辑。

同时,2025年Mistral 3 Large发布时,技术社区发现其架构几乎复制DeepSeek-V3的设计,反而印证DeepSeek的原创性。