2025-11-02 23:45
为AI推理工做负载带来能效取机能的逾越性提拔。实现更高内存容量取更低成本,零件架功耗为160千瓦。推出头具名向数据核心的下一代AI推理优化处理方案:两款机架处理方案均支撑间接液冷散热,同时满脚客户机能取成本需求。实现硬件资本的高效操纵,为AI推理供给杰出的扩展性取矫捷性。高通今日颁布发表,为高速数据核心生成式AI推理供给机架级(rack-scale)机能取杰出内存容量。Qualcomm AI200带来专为机架级AI推理打制的处理方案,该架构支撑解耦式AI推理,以提拔散热效率,并具备秘密计较,快科技10月28日动静,保障AI工做负载的平安性,每张加快卡支撑768GB LPDDR内存,