无论从硬件生态、软件优化还是用户实践,AI NAS都正在走向一个新的发展窗口。它既是存储设备,也是AI算力节点,还可能成为未来创作者、企业与各类行业工作流的中枢平台。
传统NAS(网络附加存储)曾长期被视为“数据仓库”,以文件集中存储、权限管理与备份可靠性为核心能力。但在内容创作日益依赖数据与智能处理的今天,叠加了AI能力的AI NAS(智能网络存储)正在成为创作者与中小团队新的效率引擎。近日,PChome与英特尔技术专家、极空间NAS负责人陶建良,以及深度使用AI NAS的自媒体创作者“电动派大星”,围绕AI NAS的应用模式、算力架构、生态构建与未来方向进行了深入交流。也让我们对于AI NAS这一新物种有了更深的了解。

从左至右:极空间陶建良、电动派大星、英特尔技术专家
·AI NAS 的价值起点:数据安全与智能处理的双重需求
英特尔技术专家提到,AI 端侧应用正在快速扩展,如何在保障数据隐私的前提下利用AI提升效率,是当下用户的核心诉求。AI NAS作为拥有本地算力与本地数据的设备,正好承担起“数据不出本地”的AI执行载体。

极空间Z425 AI NAS
在创作者实际工作场景中,这一需求尤为突出。电动派大星分享,他的团队长期需要处理大量产品资料、合作方文件与拍摄素材,其中不少内容不能上传到云端,因此他们将大语言模型直接部署到极空间Z525 NAS中,通过本地运行完成资料摘要、内容整理与素材筛选。
“此前我们试过在Docker上配置Ollama,但效果不够稳定。极空间今年发布了DeepSeek优化版本,我们升级内存后可以直接跑14B模型,高效进行对话和内容处理,这对我们团队非常重要。”他说。

极空间T6 AI NAS
极空间的另外一款采用英特尔酷睿Ultra 5处理器的移动NAS产品T6也为电动派大星的外出拍摄场景提供了高效的数据管理方案。电动派大星分享了一个典型场景:团队去国外拍摄潜水项目,5人每天使用运动相机拍摄大量素材。T6在此过程中承担了SD卡即插即备份、自动文件命名、备份后自动清卡、通过“闪电传”同步到国内工作室的Z425上等关键作用,后续通过Z425的AI空间即时进行素材语义筛选(如搜索“鱼群”),极大的提升了后期编辑速度。
·极空间的AI三层体系:从开箱即用到专业扩展
针对用户如何在NAS上部署大模型的问题,极空间负责人陶建良详细介绍了他们的“三层AI体系”。
第一层,是开箱即用的本地AI功能。
包括相册智能分类、人物识别、语义搜索等,用户无需部署模型即可体验。
第二层,是官方提供的大模型一键自动部署体系。
极空间针对不同性能的NAS提供DeepSeek 1.5B、7B、14B等不同规模的模型版本,新款高性能设备在接入外置显卡后可运行Qwen-30B级别模型,部署流程以简单的向导方式完成,普通用户也能轻松上手。
第三层,是面向专业用户的完全开放体系。
极空间正在完善Docker、Ollama以及第三方模型商店等环境,允许技术熟练的用户自由部署模型。极空间负责解决算力调度、显卡识别与数据读写等底层问题。同时,通过雷电接口支持外接显卡,在更大算力的加持下,运行密集AI工作负载成为可能。
陶建良总结:“我们要同时照顾三类用户:想要开箱即用的、需要简单部署的,以及完全懂技术、希望深度定制的。部分用户清楚自己要什么,我们要做的是提供足够灵活的存储栈与算力支持。”
·算力瓶颈与系统优化:CPU、NPU与GPU的协同
在大家的传统印象里,NAS这种设备的性能好像跟高算力不太沾边,而在AI算力需求越来越大的今天,相信许多用户也非常好奇:不接独立显卡的情况下,一台NAS真的能承载大模型吗?
陶建良坦率表示,在不接显卡的情况下,AI推理主要依赖CPU和内存,单用户体验可以接受,多用户并发仍难以达到商用级别。而对于即时响应的大模型,内存占用也相对较大,因此极空间的AI NAS产品通常都会预留多个内存插槽,以方便有需求的用户扩展内存。

英特尔技术专家补充了一个关键背景:
即将于2026年CES正式发布的英特尔第三代酷睿Ultra处理器(代号Panther Lake)在NPU算力与token处理能力上大幅提升,可同时支持多个小型模型任务,对于小工作室而言已经可以承担多路并发。
同时,为了解决NPU调度不充分的问题,英特尔推出了XPU Scheduler,能够让CPU、iGPU与NPU在任务中协同处理,补足过往NPU调用不理想的情况。该方案在酷睿Ultra 200H(Arrow Lake-H)与Panther Lake中都将落地,未来也会在极空间的设备中落地,为AI任务提供更稳定的算力分配,显著提升用户体验。
电动派大星从创作者视角也补充道,“如果NAS的算力足够强大,效率足够高的话,诸如Stable Diffusion等文生图的负载完全可以交由NAS来做,这样就可以释放出PC的算力,专注于剪辑工作。”
英特尔技术专家也强调,AI NAS和AI PC并非替代关系,而是互补。AI PC适合即时、高交互的操作,而NAS适合长时间、高负载、依赖本地数据的任务,如文生图、素材分析、大模型推理等,未来两者将形成协同关系。
·AI NAS将走向垂直行业与全生态协同
英特尔技术专家表示,AI NAS 正处于“开始落地”的阶段,各行业对AI NAS的认可度正在提升。不过虽然行业已经认可其价值,但系统稳定性与行业深度场景仍需要持续优化,未来将结合更多垂直场景逐步深入专用市场。
在访谈最后,英特尔与极空间一直认为,AI NAS的价值在于“数据+算力+工具”的长期沉淀,并非“一台设备满足所有人”,应用场景也不仅限于创作者,也包括中小企业、大型生产部门、游戏行业等,将会朝向垂直行业精细化发展。
展望未来,AI NAS将从通用NAS向行业型、专业型AI边缘节点演进,多用户并发、本地知识库、AI Agent、行业插件等将成为核心方向。
通过本次三方对话可以看到,无论从硬件生态、软件优化还是用户实践,AI NAS都正在走向一个新的发展窗口。它既是存储设备,也是AI算力节点,还可能成为未来创作者、企业与各类行业工作流的中枢平台。
随着多任务调度、外接显卡、行业应用生态与本地大模型能力的不断成熟,AI NAS将不仅是数据容器,更是智能生产力的核心部件。此次访谈从英特尔的底层生态、极空间的产品策略,到创作者团队的具体使用案例,展现了AI NAS从技术到应用的全面脉络。可以看到,AI NAS既具备面向大众的普适价值,也承载着行业细分化发展的巨大潜力。随着软硬件协同优化与生态扩张,这一领域将持续演进,并成为未来内容生产与数据智能的重要基础设施。

网友评论