人工智能AI芯片:从前世看今生
现如今,人工智能的行业正在不断取得飞快性的进步。作为当前人工智能技术的重要基础,AI芯片产品有着巨大的价值和地位。
2018年开始,人工智能这个行业对AI芯片的热情瞬间被彻底点燃,无论是大公司、小公司、芯片厂家和互联网公司,都在积极的布局这一领域。眼下的整个人工智能行业,可谓热闹非凡、人声鼎沸。
但是,越是繁华的景象,就越要去保持镇定和冷静。大家都知道,作为人工智能行业的关键所在,AI芯片有着非常高的技术研究和创新。在芯片发展的来看,我们现在就是处于AI芯片的低级阶段。未来就是AI芯片最重要的阶段了,不管设计是还是架构都存在着巨大的进步。那么,现在AI芯片的现状怎么样?下一轮又将在哪里爆发呢?
AI芯片的前世今生
通过漫长的研究和探索,人工智能在最近的几年里取得了飞快性的进展。人工智能系统在语音识别和图像识别等行业取得了非凡的成果。原因是普遍认为,足够的计算能力、大量的数据和深层次的学习算法在这三大要素的合力完成了这次的突破。
当中,得益于摩尔定律在最近二十年的开展,足够的能力使得可以在能够承受的功耗、时间和价格内提供人工智能算法所需的计算功能。依据英特尔的处理器芯片能性和出售价格比照来算,单位价格能够购买到的计算能力提升了1.5万倍,从而使“通用中央处理器”(CPU)能够支持各种人工智能的任务。能够说,经过芯片技能来大幅增强人工智能研制的时机已经十分成熟。但是,因为CPU要面对非常多种工作任务来进行设计和优化,所以不是所有AI算法都是最好的选择。
为此,出现了多种CPU加专用芯片的方案,从而来解决计算资源和内存访问的研究。此外,与“脑启发式”(brain-inspired)的深度神经网络不同的“类脑”(brain-like)计算研究也推出了先进的神经拟态芯片来支持超高能效比的自然学习方式。
所以,如果以设计理念来划分的话,AI芯片可分为两种。
第一种是“AI加速芯片”
它是确定性地加速某类特定的算法或任务,从而达到目标行业对速度、、内存占用功耗和成本等方面的要求。
现在,AI加速芯片的研发有两种主要的方式:
一种是利用已有的GPU、众核处理器、DSP、FPGA芯片来做软硬件优化;
另一种是设计专用的芯片,也就是ASIC。
第二种是“智能芯片”
它让芯片像人一样能使用不同的AI算法进行学习和推导,处理包含感知、理解、分析、决策和行动的一系列任务,并且具有适应场景变化的能力。
目前,面向综合能力、自适应能力的智能芯片研究有两类设计方法,
一种是基于类脑计算的“神经拟态芯片”;
另一种是基于可重构计算的“软件定义芯片”。
围绕这两大方向,全球各大芯片公司都积极在人工智能领域进行布局,英特尔也是如此。而英特尔的特别的地方,是能够提供全方面的、多元化的解决方案。
我们既提供多种芯片类型的产品,又覆盖了从终端到数据中心的使用场景。在终端领域,可以使用Movidius、Mobileye的ASIC芯片。在边缘计算中,可以使用ASIC芯片和FPGA芯片;
在数据中心领域,可以灵活选择至强可扩展处理器、众核处理器和NNP等芯片方案。此外,英特尔还通过神经拟态芯片Loihi积极探索新的计算模式。
AI芯片的未来之路
目前,AI芯片虽然在某些具体能力上可以超越人的能力,但在灵活性上跟人类智能还有很大的差距,大多数仍处于对特定算法阶段。
从短期内来看,以多种组合方式为主,来加速各类应用算法的落地(看重能效比、性价比、可靠性);
从中期来看,要发展自重构、自学习、自适应的芯片来支持算法的演进和类人的自然智能;
从长期来看,则是朝着通用AI芯片的方面发展。
在我看来,“通用AI芯片”是AI芯片的掌上明珠。
它最理想化的方式是淡化人工干预(如限定领域、设计模型、挑选训练样本、人工标注等)的通用智能芯片,必须具备可编程性、架构的动态可变性、高效的架构变换能力或自学习能力、高计算效率、高能量效率、应用开发简洁、低成本和体积小等特点。
主要面对两大挑战:
一是通用性(算法和架构)
二是实现的复杂度
通用AI芯片的复杂度来自于功能的多样性和自主学习、适应能力。所以,通用AI芯片的发展方向不会是冒昧地采用某种芯片来解决问题,因为理论模型和算法还没有完善。
最有效的方式是先用一个多种芯片设计思路组合的灵活的异构系统来支持,取长补短。一旦架构成熟,就可以考虑设计SoC来在一个芯片上支持通用AI。
从芯片发展的大趋势来看,目前尚处于AI芯片发展的初级阶段,无论是科研还是产业应用都有巨大的创新空间。
从确定算法、领域的AI加速芯片向具备更高灵活性、适应性的智能芯片发展是科研发展的必然方向。
神经拟态芯片技术和可重构计算芯片技术允许硬件架构和功能随软件变化而变化,实现以高能效比支持多种智能任务,在实现AI功能时具有独到的优势,具备广阔的前景。
未来十年将是AI芯片发展的重要时期,有望在架构和设计理念取得巨大的突破。