AI领域专用加速器,完美解决计算问题!

原创内容,转载请注明:  [http://www.ssdfans.com]  谢谢!

自从机器学习(ML)出现以来,用于解决传统计算无法解决的复杂问题的速度在不断加快。即使在神经网络设计方面取得了进步,机器学习的效率和准确性还是高度依赖于训练过程。用于训练的方法已从基于CPU的软件发展到GPU和FPGA,由于它们的并行性而具有很大的优势。但是,使用专门设计的领域特定计算解决方案具有明显的优势。

因为训练过程的计算密集性极高,所以整体性能和单位性能都非常重要。数据显示,运行训练过程时,领域特定的硬件可以比GPU和FPGA改善几个数量级。

AI Domain Specific Processor

去年12月12日,GLOBALFOUNDRIES(GF)和Enflame Technology宣布了用于数据中心训练的深度学习加速器解决方案。Enflame Cloudblazer T10在GF的12LP FinFET平台上使用2.5D封装的深度思考单元(DTU)。T10拥有超过140亿个晶体管。它使用PCIe 4.0和Enflame Smart Link进行通信。 AI加速器支持多种数据类型,包括FP32,FP16,BF16,Int8,Int16,Int32等。

Enflame DTU核心具有32个可扩展智能处理器(SIP)。每组8个SIP用于在DTU中创建4个可扩展的智能集群(SIC)。HBM2用于为处理元件提供高速存储。DTU和HBM2与2.5D封装集成在一起。

该设计突出了GF的12LP FinFET工艺的一些优势。由于ML训练中的SRAM利用率很高,因此SRAM功耗会在电源效率中起主要作用。GF的12LP低压SRAM大大降低了该设计的功耗。12LP的另一个优点是与28nm或7nm相比,互连效率更高。虽然7nm提供较小的特征尺寸,但对于更高级别的金属,其布线密度没有得到相应的改善。这意味着对于像DTU这样的高度连接的设计,12LP提供了独特高效的过程节点。Enflame T10已被采样,计划于2020年初在位于纽约马耳他的GF 8号工厂生产。

像Enflame这样的公司在设计T10这种加速器时必须走非常好的路线。机器学习的特定要求决定了设计的许多架构决策。片上通信和可重配置性是必不可少的特性。T10的片上重配置算法在该领域表现出色。他们选择12LP,意味着在不需要承担高级节点更高风险和费用情况下可以获得最佳性能。GF能够在集成解决方案中提供HBM2和2.5D封装,从而进一步降低了项目的风险和复杂性。

通常情况下,增加训练数据集可以改善ML应用程序的性能。处理这些不断增加的工作负载的唯一方法是使用专门针对该任务而设计的快速高效的加速器。CloudBlazer T10似乎是解决这一问题的一个完美解决方案。

原文链接:https://semiwiki.com/semiconductor-manufacturers/globalfoundries/281970-specialized-accelerators-needed-for-cloud-based-ml-training/

分类目录 国外动态, 行业动态.
扫一扫二维码或者微信搜索公众号ssdfans关注(添加朋友->点最下面的公众号->搜索ssdfans),可以经常看到SSD技术和产业的文章(SSD Fans只推送干货)。
ssdfans微信群介绍
技术讨论群 覆盖2000多位中国和世界华人圈SSD以及存储技术精英
固件、软件、测试群 固件、软件和测试技术讨论
异构计算群 讨论人工智能和GPU、FPGA、CPU异构计算
ASIC-FPGA群 芯片和FPGA硬件技术讨论群
闪存器件群 NAND、3D XPoint等固态存储介质技术讨论
企业级 企业级SSD、企业级存储
销售群 全国SSD供应商都在这里,砍砍价,会比某东便宜20%
工作求职群 存储行业换工作,发招聘,要关注各大公司招聘信息,赶快来
高管群 各大SSD相关存储公司高管和创始人、投资人

想加入这些群,请微信扫描下面二维码,或搜索nanoarchplus,加阿呆为微信好友,介绍你的昵称-单位-职务,注明群名,拉你进群。SSD业界需要什么帮助,也可以找阿呆聊。