AI 人工智能技术发展蓬勃,各类型 AI 应用亦如雨后春笋,逐步改变人类社会的生活面貌,但面对晶片出现供应不足、产量受限、价格高昂等情况,不少企业亦转用云端计算服务,务求以更低成本,支援 AI 进行更高效的运算及学习,推动各式各样的 AI 应用。在 AI 研发及技术推动方面,早前 AWS 与 NVIDIA 就宣佈合作,全球最大型网络服务供应商,遇上最炙手可热的图像处理器生產商,带来的「云端计算」体验与创新令人期待。
在去年底举办的 AWS 云端科技发表会(AWS re:Invent)上,Amazon Web Services(AWS)就宣布与 NVIDIA 扩大策略合作,内容包括 AWS 旗下的云端服务 Amazon EC2,AWS EC2 将採用 NVIDIA 的超级电脑晶片 H200 GPU,并提供适用於大规模和尖端「生成式 AI」和高效能运算工作的执行个体 P5e,以及适用於微调 AI、推论、图形及影片生成工作的执行个体 G6 和 G6e。
AWS 与 NVIDIA 两强合作自然令人注目,尤其是 NVIDIA 推出了新一代、被人称为「为 AI 而生」的 AI 超级电脑晶片 H200。新一代的 H200 不但能以 4.8 TB/s 的速度提供 141 GB 记忆体,不只内存容量较 H100 多近两倍,频宽(Bandwidth)亦较前一代 H100 多 2.4 倍。简单而言,如同样用作推动 AI 运算工作,H200 更大的内存量能让更大更多的模型和数据集直接储存在 GPU 上,从而减少数据传输的延迟,H200 升级后的频宽亦能让数据更快传送到处理核心。
如单纯比较 H100 与 H200 的规格,从效能上来说,H200 在使用特定的「生成式 AI」和高效能计算(HPC)基準测试之中,效能就较 H100 提高达 45%,如以运行 Llama 2 模型为例,H200 的速度就较上一代快近两倍,绝对是使用「生成式 AI」的最佳 GPU;而作為全球大型云端网络服务供应商,AWS 正好以 EC2 向客户提供使用 H200 的最佳方式:一个成本更低、效率更高的云端服务。
此外,会上 AWS 亦宣佈与 NVIDIA 合作推出採用 H200 的 AI 训练服务 DGX Cloud,该服务由 AWS 托管,能加快尖端「生成式 AI」和参数超过 1 兆的大型语言模型的训练速度;两强合作还包括打造世界上最快的 GPU 驱动人工智慧超级电脑 Ceiba,该计划亦同由 AWS 拖管,预计 Ceiba 会是台配备 16,384 个 H200 晶片、能够处理 65 exaflops 人工智能运算效能的超级电脑。
在 AI 科技发展迅速的时代,AWS 与 NVIDIA 的强强联手成为 AI 研发竞赛路上最令人注目的合作,除了令人更期待它们在晶片、人工智能、云端运算上如何再进一步,作为普通用家,两间科技巨擘的合作亦开啟了用户以更经济的形式使用最先进「生成式 AI」技术的先河,让「生成式 AI」技术更普及、更易应用於日常生活之中。