华体会hth最新网站:
快科技10月28日音讯,高通今天宣告,推出面向数据中心的下一代AI推理优化解决方案:
两款解决方案以业界先进的整体具有本钱(TCO),为高速数据中心生成式AI推理供给机架级(rack-scale)功能与杰出内存容量。
其间,Qualcomm AI200带来专为机架级AI推理打造的解决方案,为大言语模型(LLM)与多模态模型(LMM)推理及其他AI作业负载供给低整体具有本钱与优化功能。
每张加速卡支撑768GB LPDDR内存,完成更高内存容量与更低本钱,为AI推理供给杰出的扩展性与灵活性。
而Qualcomm AI250解决方案将首发根据近存核算(Near-Memory Computing)的立异内存架构,完成超越10倍的有用内存带宽提高并显着下降功耗,为AI推理作业负载带来能效与功能的跨越性提高。
该架构支撑解耦式AI推理,完成硬件资源的高效使用,一起完成用户功能与本钱需求。
两款机架解决方案均支撑直接液冷散热,以提高散热功率,支撑PCIe纵向扩展与以太网横向扩展,并具有秘要核算,保证AI作业负载的安全性,整机架功耗为160千瓦。
