当前位置: 首页 » 行业聚焦 » 国际资讯 » 正文

“史上最大芯片”装机交付,用于研究癌症疗法和黑洞碰撞

运算1秒钟相当于地球所有人每天每秒不停地算4年


  来源: DeepTech深科技 时间:2019-11-24 编辑:马致远
分享到:



今年8月,集成1.2万亿个晶体管的“史上最大芯片”The Cerebras Wafer Scale Engine(简称WSE)诞生,在11月19日召开的Supercomputing 2019大会上,该芯片制造公司Cerebras Systems推出了搭载该芯片的计算机系统——Cerebras CS-1,这也将是世界上最强大的AI计算系统。美国两家国家实验室是该公司的客户,其中阿贡国家实验室已成功部署并宣布,将用这套系统发现癌症疗法和理解黑洞碰撞。

图| Cerebras CS-1


通常,硅芯片是从8、10或12英寸等不同规格的晶圆上单独切下来的。而CS-1搭载的并不是一个芯片,而是一整个晶圆,它把晶圆切割成一个很大的长方形,每个芯片都相互连接,可以使每个晶体管都能像整体一样高速运转。一个典型处理器可能在一个芯片上有100亿个晶体管,而CS-1搭载的整个晶片上所有核的晶体管总数超过1.2万亿个。

在AI计算中,芯片尺寸至关重要,但是高级处理器必须要有专用的硬件和软件系统相配合才能实现理想的性能。CS-1系统设计和Cerebras软件平台相结合,可以充分用到从WSE上的40多万个计算内核和18 GB高性能片上存储器中提取的每一点的处理能力。


图| Cerebras晶片规模的引擎


而且,CS-1不需要大量修改现有模型,并且用户只需将基于标准的100Gb以太网链路插入交换机就可以启动培训模型。

CS-1有15个机架,大概是26英寸高(66.04厘米)。研究人员Andrew Feldman表示,CS-1是“最快的AI计算机”。CS-1计算机的机器学习能力相当于数百架基于GPU的计算机能力,这些计算会消耗数百千瓦。但CS-1仅消耗17千瓦,占标准机架能耗的三分之一。他把CS-1和谷歌的TPU计算集群相比,强调谷歌的TPU2机器学习集群需要10个机架和超过100千瓦的功耗,才能提供一个CS-1机箱三分之一的性能。

Feldman说:“我们是由40万个专用AI处理器组成的AI机器。”CS-1由40万核、1万亿晶体管大小的处理器芯片驱动,可将原本需要至少几周的大型神经网络训练任务缩短到几分钟甚至几秒钟。同时,它通过让潜在客户在Cerebras的机器上训练他们自己的神经网络模型吸引潜在客户。

另外,Cerebras还公布了一些系统软件的细节,该软件允许用户使用Pytorch和Tensorflow之类的ML标准框架编写他们的机器学习模型。强大的图形编译器可自动将这些模型转换为CS-1的优化可执行文件,而丰富的工具集可实现直观的模型调试和性能分析。


图| Cerebras软件系统允许用户使用Pytorch和Tensorflow之类的ML标准框架来编写他们的机器学习模型

关键词:芯片 晶圆 集成电路    浏览量:1056

声明:凡本网注明"来源:仪商网"的所有作品,版权均属于仪商网,未经本网授权不得转载、摘编使用。
经本网授权使用,并注明"来源:仪商网"。违反上述声明者,本网将追究其相关法律责任。
本网转载并注明自其它来源的作品,归原版权所有人所有。目的在于传递更多信息,并不代表本网赞同其观点或证实其内容的真实性,不承担此类作品侵权行为的直接责任及连带责任。如有作品的内容、版权以及其它问题的,请在作品发表之日起一周内与本网联系,否则视为放弃相关权利。
本网转载自其它媒体或授权刊载,如有作品内容、版权以及其它问题的,请联系我们。相关合作、投稿、转载授权等事宜,请联系本网。
QQ:2268148259、3050252122。


让制造业不缺测试测量工程师

最新发布
行业动态
行业聚焦
国际资讯
仪商专题
按分类浏览
Copyright © 2023- 861718.com All rights reserved 版权所有 ©广州德禄讯信息科技有限公司
本站转载或引用文章涉及版权问题请与我们联系。电话:020-34224268 传真: 020-34113782

粤公网安备 44010502000033号

粤ICP备16022018号-4