近日,超聚变携手中科加禾,将其异构原生模型推理引擎SigInfer与超聚变FusionOne AI一体机内置的核心计算框架深度融合,共同推出跨芯片、多模型加速(DeepSeek、QWQ等)的高性能大模型一体机,让企业无需关心多元异构加速卡之间的软硬件差异,同时大幅提升大模型推理应用的算力效率,为AI产业注入全新活力。
强强联合,打造行业新标杆
中科加禾聚焦编译技术,着力打造通用化、低成本、高性能的基础软件工具链,为用户提供AI应用跨多种CPU、GPU、NPU执行的统一软件平台,使得每颗AI芯片都能融入人工智能主流生态。旗下异构原生模型推理引擎产品SigInfer为异构算力提供统一服务接口以及卓越性能提升,实现异构算力及大模型应用“零成本迁移、零损耗执行、零延迟部署”的高效落地。
而超聚变作为全球领先的算力基础设施与服务提供者,其FusionOne AI大模型一体机,为企业提供双生态南北向安全异构的算力基础设施,满足企业对不同芯片性能的多样化需求,从点亮、跑起来到用得好的全流程大模型使能服务,释放最佳算力,以及基于超聚变自身数智化经验沉淀而成的AI应用落地服务,加速AI迈向规模化应用新阶段。
双方携手共建多元算力系统生态,致力于不断降低大模型应用的算力门槛,推动AI技术在各行业的广泛普及与深入应用。
普惠AI:卓越性能、开放架构、开箱即用
▎卓越性能
基于推理加速引擎SigInfer以及双方团队的联合深度调优,FusionOne AI一体机可以高效运行DeepSeek模型全家桶以及通义千问QWQ-32B。以DeepSeek 671B满血版大模型为例,仅需1台FusionServer G8600服务器,配置8卡H20,即可流畅运行,同时可支持多达512用户并发访问,满足企业大规模、高并发的业务需求。
▎开放架构
架构设计上秉持开放理念,南向兼容英伟达、国产等主流AI芯片,屏蔽异构芯片差异化调度;北向支持大模型输出结果的结构化、语义化,简化大模型输出的集成难度,降低业务落地门槛
▎开箱即用
通过超聚变FusionOne AI容器平台,将算子、推理加速引擎、大模型应用等多种资源镜像进行一站式打包,统一快速部署、配置,分钟级上线,且无需模型性能二次调优。
展望未来,超聚变与中科加禾将继续携手共进,充分发挥各自技术与资源优势,共同构建更加普惠的大模型落地解决方案,持续推动AI生态的繁荣发展,开启智能新时代的无限可能。