10月8日,鸿海集团旗下富士康宣布,将携手英伟达(NVIDIA) ,打造有史以来全球最快的单体AI超级计算中心——鸿海高雄超级计算中心,助力中国台湾成为人工智能驱动型行业的全球领导者,能够执行癌症研究、大型语言模型开发和智慧城市创新等高级任务。
据介绍,这个新的超级计算中心将部署英伟达GB200 NVL72 服务器,单机架内集成了 36 个 Grace CPU 和 72 个Blackwell B200 GPU,这些GPU通过英伟达的 NVLink 技术连接,可提供 130TB/s 的互联带宽,允许 72个GPU 系统作为单个统一的 GPU 运行,可提供高达 3240 TFLOPS 的 FP64 和 FP64 Tensor Core 性能,并将整合了高达 13.5 TB 的 HBM3e 内存,可以实现 576 TB/s 的超大内存带宽。
与英伟达 H100 Tensor Core GPU 相比,GB200 NVL72 可以提供 30 倍的 LLM 推理、4 倍的 LLM 训练和 18 倍的 CPU 数据处理能力,综合能效达到了H100 的 25 倍。
由于这个新的超级计算中心将部署多达64个机架的 GB200 NVL72 服务器,因此总共将拥有2304个Grace CPU和4608个B200 GPU, 可提供超过90 EFLOPS(每秒9000亿亿次浮点运算)的AI性能。这将使其成为训练大型 AI 模型和对万亿参数模型执行复杂推理操作的理想选择。
作为对比,在今年上半年公布的第63届全球超级计算机Top500榜单中,美国橡树岭国家实验室和AMD合作的Frontier超级计算机以1.206 EFLOPS的高性能 Linpack (HPL)算力位居全球第一,而由英特尔支持的“极光”(Aurora)超级计算机则以 1.01 EFLOPS的HPL算力排名第二。
但是,Aurora超级计算机却是当时最快的AI超级计算机,其在89% 的系统上实现了10.6 EFLOPS的AI算力。2022年8月启动的号称全球最快的阿里云张北超级智算中心,其总体的建设规模是12 EFLOPS的AI算力。这也足见拥有90 EFLOPS AI算力的鸿海高雄超级计算中心的强大。
富士康副总裁兼发言人 James Wu 表示:“富士康的新型 AI 超级计算机由英伟达的 Blackwell 平台提供支持,是世界上最强大的超级计算机之一,代表了 AI 计算和效率的重大飞跃。”
作为全球最大的电子产品制造商,鸿海集团旗下富士康为全球顶级科技品牌生产从智能手机到服务器的各种产品而闻名,其在全球拥有庞大的员工队伍和制造工厂,是全球技术基础设施的关键供应商。它也是智能制造领域的领导者和工业 AI 的先驱之一,它还在 NVIDIA Omniverse 中实现了工厂的数字化。
富士康也是最早使用 NVIDIA NIM 微服务开发特定领域大型语言模型 (LLM) 的公司之一,这些模型嵌入到其 AI 工厂的各种内部系统和流程中,用于智能制造、智能电动汽车和智能城市。
据介绍,富士康将在 2025 年年中之前在第一阶段推出超级计算机,并将在 2026 年之前全面完成鸿海高雄超级计算中心的部署。这个超级计算中心将使用多种 NVIDIA 技术,例如 NVIDIA Omniverse、Isaac 机器人平台和数字孪生,这些技术将提供各种 NVIDIA 工具和库,以实现更好的制造过程。
值得注意的是,鸿海董事长刘扬伟8日在“鸿海科技日”活动上表示,随着地缘政治愈演愈烈,“你听过主权AI,未来你将听到主权服务器”,即当地国家的服务器会需要在当地制造。
“主权AI会有许多国家机密信息在里面,这些AI相关软件在AI服务器硬件里运行,虽然服务器是硬件,但也变得非常机密,要确认其安全性,这将是未来发展方向。”刘扬伟解释道。
因此,鸿海正积极成为全球第一个出货英伟达最新GB200 AI服务器的供应商,也规划在墨西哥打造全球最大的GB200 AI服务器工厂,抢占主权服务器商机。
编辑:芯智讯-浪客剑
本文来自新知号自媒体,不代表商业新知观点和立场。 若有侵权嫌疑,请联系商业新知平台管理员。 联系方式:system@shangyexinzhi.com