|
|
|
英特尔引爆口水战 CPU与GPU谁将取代谁http://www.sina.com.cn 2008年04月15日 11:23 电脑报
在本月初举行的2008年春季Intel信息技术峰会(IDF)上,Intel高级副总裁兼数字企业事业部总经理帕特·基辛格在主题演讲中表示:“视觉计算是一场革命,它将颠覆持续了几十年的显卡产业。在下一代视觉计算中,显卡产业已经走到了尽头,取而代之的是可编程的显示计算通用架构芯片。视觉计算虽然不会马上替代显卡,但是在三四年之后,随着相关技术、产品的成熟上市,显卡产业将会消亡。”这段话不仅代表了Intel对未来发展趋势的看法,同时也是自2007年NVIDIA开始大力宣传“GPU核心”论之后,Intel首次作出的“官方”回应。 从大型机到小型机,再到PC和笔记本,电脑产业的微型化和整合化一直在发展着。在芯片领域,早就有人提出,未来CPU和GPU将整合在一起,成为单独的产品,这个设想已经被越来越多的厂商和专家认可。不论是从产品技术还是用户需求来看,更小巧的整合独立芯片都是必然的发展方向。不过,目前制造CPU和GPU的厂商虽然很少,却都有着强劲的实力,在二者整合化的道路上,不同的厂商因为自身的特点,必然会在竞争和发展过程中扮演着不同的角色。 Intel: 强化和巩固“CPU核心”论 本次IDF大会上,基辛格介绍说:过去的多边形渲染已经不够了,下一代是可编程、通用的架构,Intel的可编程显示计算通用架构芯片将带来可编程、高清晰度的逼真渲染。视觉计算正在改写用户的视觉感受和身临其境的高清体验。下一代技术将可以提供自然真实的游戏体验、图形效果和高清晰度视频和音频,从而对电脑的性能和架构提出了更高的要求。例如,光线追踪等整体照明技巧可用于提供准确的阴影和照明效果,从而对计算机提出了比传统显卡更高的性能要求。应用中的行为逼真度(如游戏中的逼真动作或医疗成像中的人体动作真实表现)也推动了对更普遍计算的需求。最终,人们将享受到完全不同以往的互动体验。 针对这种新一代可视化需求,Intel专门开发了一套面向可编程的显示计算通用架构芯片的全新架构——Larrabee架构,并计划将于今年晚些时候进行首次展示。谈到Larrabee,基辛格说:“这个架构是Intel白手起家设计的,具有很高的能耗比,矢量指令级也是全新的设计,在目前架构基础之上可以增加100多个指令、增加了浮点运算能力、全新的内存操作能力,能够满足下一代工作负载的需求。 同时也会加入下一代高速缓存架构,这样就能够支持更多的可编程核以及功能的执行。”此外,基辛格还提到Intel将提供一整套的软件来支持新架构的应用和普及。 按照Intel的观点,可编程的显示计算通用架构芯片会在未来应用中占据越来越重要的地位,随着可编程的显示计算通用架构芯片逐步取代GPU的地位,显卡则会慢慢被集成化所取代,作为独立硬件生存下去的空间会越来越小。在许多年以后,CPU和GPU也许已经失去了目前的定义,两者合二为一成为一个全新的硬件。在这个过程完成之前,CPU在电脑中的地位将日益重要,而GPU的重要性则不断“淡化”,先是集成到主板中,最终成为CPU的“一部分”。 再进一步从技术角度看,目前,入门级显卡内部晶体管数量为2亿个,相当于45nm处理器Core2 Duo E8200单个核的晶体管数量,假设将E8200的其中一个核换成GPU,那么就可以在不改变晶体管数量的情况下实现CPU+GPU的架构模式,今后CPU还将发展到四核、八核甚至更多,GPU成为CPU的一部分是切实可行的。照此看来,未来的显卡和早先的声卡会有几分相似。 NVIDIA: 未来GPU才是PC的核心部件 去年NVIDIA提出了“GPGPU(通用图形处理器)”概念,和CPU相比,GPU具有更强的浮点运算能力、更大的带宽等诸多优势,连晶体管数量都是GPU略胜一筹。性能和复杂性不断提升的GPU自然不甘继续做CPU的配角,NVIDIA首席执行官兼总裁黄仁勋甚至毫不掩饰地提出:“未来GPU将越来越多地取代CPU的数据处理职能,未来GPU才是计算机的核心部件!” “GPGPU”被热炒以后,Intel和NVIDIA在发展理念上可谓背道而驰。Intel作为全球最大的CPU供应商,自然希望CPU的应用范围越来越广,PC的性能和档次由CPU来决定。事实上,过去Intel在宣传上已经做到了这点,如果不是IT相关人士、游戏玩家或硬件玩家等相对“专业”的族群,大部分人对电脑的认识仅仅停留在CPU,认为CPU决定电脑性能。近年来虽然随着硬件知识的普及、PC价格不断下降,这种情况有了很大的改观,但相当一部分人依然认为:CPU决定电脑性能。 NVIDIA的理念是,CPU没有必要用太好、太贵的,普通CPU搭配中档独立显卡,综合性能比高端CPU搭配整合显卡要高很多,前者价格还更加便宜。但是由于大家理念上的认知问题,NVIDIA的解决方案仅仅只是被“内行”们认可,而这显然不是NVIDIA的初衷。
【发表评论 】
不支持Flash
|