信创模盒 ModelHub XC|InfiniVRAM 支持昆仑芯P800
2026-02-25
上个月,我们发布了信创模盒XC-LLM推理引擎的首个关键特性InfiniVRAM无限显存详见:信创模盒XC-LLM 推出重磅首发功能 InfiniVRAM),其在昇腾910B3上首次验证了单卡多模型、秒级热切换的可行性。近日,这一技术正式扩展支持昆仑芯P800,统一显存管理架构的跨平台能力再获验证。


本次适配基于XC-LLM统一的显存管理抽象架构,通过复用已有的显存管理层接口与资源治理协议,快速完成从昇腾到昆仑芯的平滑迁移,此次迁移为后续向海光、寒武纪等更多信创芯片扩展奠定基础。


在昆仑芯P800实测中,单卡部署多模型且总显存需求远超物理容量的场景下,系统持续服务稳定。当请求在不同模型间切换时,调度系统触发秒级热切换,完成显存换入换出与资源重分配,全过程对应用透明,性能表现优异。


昆仑芯版本已正式开源,下载地址:

https://git.modelhub.org.cn:9443/EngineX/xc-llm-kunlun



关于信创模盒ModelHub XC与XC-LLM

信创模盒ModelHub XC是面向信创算力生态的AI模型与工具平台,致力于推动国产硬件平台上的人工智能创新与落地。其自研的信创模盒大模型推理引擎XC-LLM,是面向信创场景打造的新一代推理基础设施,系统化解决信创环境下普遍面临的适配性、成本与运行效率三大核心挑战。

InfiniVRAM无限显存作为XC-LLM的首个关键特性,通过"显存—内存协同+系统级调度编排"的联合方案,使单张算力卡能够承载并稳定运行多个大模型,支持多模型总显存需求显著超过物理显存容量的场景,推动算力资源从"可部署"走向"可运行、可调度、可运营"。


范式集团(港交所代码: 6682)是全球领先的通用人工智能科技公司,以“AI for everyone”为使命,致力于用“AI agent+世界模型”的技术路线赋能千行万业。公司成立于2014年,于2025年实现集团化,下设企业服务(第四范式)、大模型与AGI(万神殿)、消费电子(范式领航)、智慧能源(范式方舟)、智慧体育(范式网动)等业务板块。截至目前,公司已在金融、零售、医疗等领域成功落地超10000+个AI应用,始终致力于推动AI普惠,助力企业实现可持续增长。