短短几年,人工智能就从一个被搁置“冷宫”的学术研究,变成商业化最前沿的“网红”,在安防、金融、教育、制造、家居、娱乐等各个与人们生活息息相关的领域,掀起了一股智能化升级和万物互联的飓风。
“意外”的开始
在很长的一段时间内,外界对英伟达有两个印象:显卡大厂、皮衣老黄。一个是英伟达的核心GPU产品,一个是英伟达的形象代言人。
从1993年成立到成为和AMD、英特尔抗衡的半导体巨头,英伟达经历了几个关键的阶段:一是图形处理器突围期,拿下大半的游戏显卡市场;二是AI巅峰期,借着AI和挖矿一鸣惊人,三是AI转型后时期,从高处下沉后的再反思。
AI芯片战火蔓延,谁会是人工智能时代AI芯片的最终玩家
早年的英伟达凭借GeForce系列显卡在游戏市场所向披靡,和成立于1969年的AMD同坐一把交椅,N卡和A卡孰优孰劣之争也是游戏界老生常谈的话题。
在此期间,英伟达既遇到显卡质量事故,面临合作伙伴高额的赔偿,也遭到竞争对手恶意拒绝技术专利共享,一路起起落落,一波三折。好在他们技术实力过硬,除了旗舰产品GeForce各方面性能给力,英伟达也在收购不同图像处理公司,加大技术研发投入,加强在游戏渲染硬件上的优势。
但即便如此,此时的英伟达更多的还是游戏宅眼中的“大神”,距离除PC之外更广阔的主流B端市场还很远。
转折点发生在2012年的ImageNet(图像识别领域赛事)大赛上,当时Geoffrey Hinton的学生通过两个GPU将深度卷积神经网络AlexNet的准确率提高了10.8%,震撼了学术界,英伟达也借此一战成名,从游戏市场一大步跨入AI市场。
看似无心插柳柳成荫,但实际上背后是英伟达在GPU上多年的厚积薄发。当学术界开始尝试用GPU做通用计算(GPGPU)时,英伟达看到了GPU在图形运算之外的潜力,捣鼓出了改变深度学习,也改变了英伟达自己的CUDA(通用并行计算平台),一个用于GPU通用计算的并行计算平台和编程模型,从软硬件层面释放了GPU做并行计算的能力,非常适合运行深度学习算法。
然而在2012到来之前,这个产品的特点只有一个:只烧钱不赚钱。但当Geoffrey Hinton和两个学生用GPU+CUDA开启深度学习黄金时代后,一切都不同了。自此之后,英伟达的GPU代替CPU成了AI训练市场的香饽饽。
Nvidia人工智能的今天和未来
目前,Nvidia已经占据了人工智能算力领域的主导位置。在数据中心领域,即使有一些初创公司推出训练和推理加速芯片,但是想要取代Nvidia需要相当长的时间。首先,大规模部署芯片对于产品的可靠性有相当高的需求,而且分布式系统是一个系统工程,需要芯片在各类指标上(不只是算力,还包括通信,接口带宽等)都达到优秀的指标,光这一点就需要初创公司相当多的时间去打磨。此外,Nvidia更高的壁垒在于开发者生态,需要开发出一个易用的编程模型和相关编译器的难度并不亚于设计芯片,而要孵化开发者生态则需要更多的时间。我们认为,至少在未来3-5年内,Nvidia在数据中心的地位难以被撼动。
但这并不意味着Nvidia在人工智能时代就可以高枕无忧。Nvidia 的软肋仍然在于其移动端――随着人工智能从云端逐渐走向边缘和终端,边缘和终端类的AI加速芯片或许是其他公司的机会。Nvidia之前推出的终端/边缘类产品并不算特别领先或成功,例如Jetson系列终端GPU的能效比并不领先,芯片架构也是沿用数年前的设计。我们认为,AI加速在终端的市场份额可能会占据总体AI芯片市场不小的份额,如果Nvidia无法抓住终端AI市场,那么其最终在整个AI市场的份额可能会被局限在云端数据中心。
该文观点仅代表作者,本站仅提供信息存储空间服务,转载请注明出处。若需了解详细的安防行业方案,或有其它建议反馈,欢迎联系我们。