2026年2月4日消息,智谱官方账号宣布,GLM-4.7-Flash开源14天突破百万下载。
2026年2月4日消息,智谱官方账号宣布,GLM-4.7-Flash开源14天突破百万下载。

据了解,GLM-4.7-Flash发布两周,在Hugging Face的下载量突破了100万,该模型支持200K超长上下文,采用MLA机制,显著降低KV-Cache内存占用,并支持MTP推测解码以加速推理。在性能方面,GLM-4.7-Flash在SWE-bench Verified代码修复测试中取得59.2%的高分,远超Qwen3-30B-A3B的22%。

同时,模型以MIT许可证开源,支持本地部署,适配vLLM、SGLang、transformers等框架,且官方提供华为昇腾NPU支持。