英特尔 ARM 英伟达共同发布规范草案,统一 AI 数据交换格式

2024-01-05 阅读26 评论0 喜欢0

叶紫网 北京时间 9 月 15 日消息,当地时间周三的芯片公司,英特尔 ARM 和英伟达共同发布了一项所谓人工智能通用交换格式的规范草案,目的是使机器处理人工智能的过程更快、更高效。

英特尔、ARM 草案中和英伟达推荐使用人工智能系统 8 位的 FP8 浮点处理格式。他们表示,FP8 为了加快人工智能的发展,浮点处理格式可以优化硬件内存的利用率。他们表示,FP8 浮点处理格式可以优化硬件内存的利用率,从而加速人工智能的发展。该格式也适用于人工智能培训和推理,有助于开发更快、更高效的人工智能系统。

在开发人工智能系统时,数据科学家面临的关键问题不仅仅是收集大量数据来训练系统。此外,还需要选择表达系统权重的格式,权重是人工智能从训练数据中学习影响系统预测效果的重要因素。权重使得 GPT-3 这样的人工智能系统可以自动从一个长句子中生成整个段落 DALL-E 2 基于特定标题的人工智能生成逼真的肖像画。

常用的人工智能系统权重格式有半精度浮点 FP16 和单精度浮点数 FP32,前者使用 16 位数据表示系统权重,后者使用 32 位。半精度浮点和更低精度浮点可以减少人工智能系统训练和运行所需的内存空间,加快计算速度,甚至减少占用的带宽资源和功耗。半精度浮点数以及更低精度浮点数能减少了训练和运行人工智能系统所需的内存空间,同时还加快计算速度,甚至减少占用的带宽资源和耗电量。但因为位数较单精度浮点数更少,准确性会有所降低。

然而,包括英特尔,ARM 很多行业公司,包括英伟达,都会 8 位的 FP8 浮点处理格式是最佳选择。英伟达产品营销总监萨沙英伟达产品营销总监萨沙纳拉西姆汉(Shar Narasimhan)博客文章中指出,FP8 计算机视觉和图像生成系统中浮点处理格式的精度等于半精度浮点数,同时明显加速。

英伟达、ARM 和英特尔表示,他们将让 FP8 浮点处理格式已成为其他公司无需许可即可使用的开放标准。三家公司在白皮书上 FP8 详细描述。三家公司在白皮书上 FP8 详细描述。纳拉西姆汉说,这些规范将提交给技术标准化组织 IEEE,看 FP8 格式能否成为人工智能行业的一般标准?

纳拉西姆汉说:我们相信,一般的交换格式将带来硬件和软件平台的快速进步,提高互操作性,从而促进人工智能计算的进步。”

当然,三家公司之所以不遗余力地推动 FP8 由于自己的研究,格式成为通用交换格式。英伟达的 GH100 Hopper 架构是对的 FP8 支持格式,英特尔 Gaudi2 还支持人工智能训练芯片组 FP8 格式。

但通用的 FP8 格式也会使 SambaNova、AMD、Groq、IBM、Graphcore 和 Cerebras 当竞争对手受益时,这些公司在开发人工智能系统时进行了测试或使用 FP8 格式。人工智能系统开发商 Graphcore 西蒙联合创始人兼首席技术官人工智能系统开发商 Graphcore 西蒙联合创始人兼首席技术官(Simon Knowles)在今年 7 月份的一篇博客文章写道:8 在处理性能和效率方面,位浮点数的出现给人工智能计算带来了巨大的优势。诺尔斯还表示,这是行业确定单一开放标准的机会,比采用多种格式相互竞争要好得多。


不只是科技数码,还有一些有趣的生活分享给大家

  • 文章

    0

  • 浏览

    0

  • 获赞

    0

赞一个、收藏了!

分享给朋友看看这篇文章

热门推荐