在GPU、MIC、FPGA等加速器芯片促进高性能计算发生变革后,一种新的异构计算正在悄然兴起,特别是在移动领域。著名高性能计算网站HPCwire的主编撰文讨论了这种新趋势,主要内容如下:
ARM公司在2011年10月宣布了其新的设计方案“big.LITTLE”,这是一种把大型、高性能的内核与小型、高能效的内核集成在一起的芯片架构,其意图是降低能耗,从而延长智能手机、平板电脑等设备的电池寿命。
大型、高性能的内核将被用于运行对性能要求较高的应用(如导航和游戏),而小型、高能效的内核将被用于运行操作系统和简单的应用。当电池处于低电量时,所有应用都将被移至小型、高能效的内核,从而保持设备的续航能力。ARM称这样最多可将电池寿命延长70%。
这种“大核/小核”的思想并非由ARM提出,而是已被科研团体提出近十年了。最早的一篇相关论文由美国加州大学圣地亚哥分校和惠普实验室的研究人员发表,该文发现一枚由四个不同内核构成的芯片的能效可提升3倍,而性能却未受到明显损失。作者还发现在多数情况下,只需要两种不同类型的内核就能实现能效的提升。
随着数据中心和超级计算机在规模上的不断扩大,能耗已成为一个制约因素,能效更高的超级计算已成为关注重点。
按照摩尔定律,Intel、AMD和IBM等公司的处理器的晶体管的集成度在不断提高,然而其时钟频率却没有提升,因此这些处理器的性能、特别是能耗比增长得很慢。
未来几年内,最可能采用“大核/小核”方案的架构包括x86和ARM。ARM的“big.LITTLE”方案已经在移动计算领域获得了应用,而随着ARM在2011年推出64位架构和惠普等公司正在研究如何利用ARM处理器建设数据中心,采用“大核/小核”方案的ARM服务最早可能会在2015年左右出现。
基于x86的“大核/小核”服务器芯片可能不久就能面世,Intel已准备好利用这项技术。Intel有大量的x86内核,而且对GPU的投入不多,因此最有可能利用x86内核来研制“大核/小核”芯片。虽然Intel在这方面还没有采取明显行动,但该公司近期申请的一份专利显示Intel的确在严肃地考虑“大核/小核”芯片。而AMD和NVIDIA的异构SoC也使用了“大核/小核”技术。
“大核/小核”方案并不能解决高能效计算的所有问题,不过目前看来是一种很有希望的方式。这种利用了异构架构的优势却更加简单的模式值得推荐,它一方面可能会对GPU计算造成威胁,另一方面也可以作为GPU的一种互补技术。而可以确定的是,“一刀切”的架构将无法继续发展下去了。