㈠ 地平线征程5:国产大算力自动驾驶芯片即将量产!
驾驶辅助功能作为车企在新能源时代新的技术护城河之一,在当下受到的关注与日俱增,决定一台车驾驶辅助能力的,除了有能够看得见摸得着的激光雷达、摄像头这类感知传感器,在看不到的地方自动驾驶芯片同样至关重要,它的性能高低直接决定,感知传感器采集到的信息能否被准确、快速的处理。那么对于高阶的驾驶辅助功能,甚至是自动驾驶,我们需要什么样性能的自动驾驶芯片呢?
㈡ 华为模仿OPPO,mate50将搭载双芯片,两块芯片到底有多强
OPPO的双芯片跟华为的芯片是完全不同的两个方向,之前华为的手机采用的是自主设计的集成式麒麟soc,芯片内部集成了通讯基带、IPS、NPU等模块,在性能释放与技术含量上面,华为的都要比OPPO更强。
OPPO手机内部除了高通骁龙的soc,还定制了一款6nm的NPU芯片焊在主板上。这款NPU芯片主要的功能就是跟骁龙芯片共同参与影像计算,以求达到更好的成像效果。
如果美方没有制裁华为,那么华为集成式的麒麟soc将会在性能、能耗比、ai算力上面远远领先国内其他友商的产品。假如mate 50系列真的是采用双芯片的方案,那么华为在芯片的算力上面,可能不如其他友商的产品。可是真要让华为解决了芯片代工问题,那么到时候华为手机的市场竞争力将会非常强。
㈢ 浪潮AI最新升级的AIStation 3.0平台算力调度能力怎么样
AIStation 3.0平台是浪潮AI最新升级的AI资源平台,在AI算力调度方面已全面支持最新NVIDIA® Ampere架构芯片,支持GPU多实例的灵活划分,用户可以通过管理界面动态调整GPU算力组合,从单卡多实例的细粒度划分,到多机多卡的大规模并行计算,帮助用户最大限度释放算力资源。另外,还将提供更弹性的算力运行策略,实现运行环境与运行资源的隔离,开发者可以在不改变运行环境的情况下按需对资源进行伸缩,让开发者不必关注底层算力技术,算力随用随取,按需分配,快速响应,进一步提高开发训练效率。
㈣ 芯片算力tops是什么意思
品牌型号:HUAWEI P50 Pocket
芯片算力tops就是处理器运算能力。tops是TeraOperationsPerSecond的缩写,1tops代表处理器每秒钟可进行一万亿次(10^12)操作。
集成电路或称微电路(microcircuit)、微芯片(microchip)、晶片/芯片(chip)在电子学中是一种将电路(主要包括半导体设备,也包括被动组件等)小型化的方式,并时常制造在半导体晶圆表面上。
集成电路对于离散晶体管有两个主要优势:成本和性能。成本低是由于芯片把所有的组件通过照相平版技术,作为一个单位印刷,而不是在一个时间只制作一个晶体管。性能高是由于组件快速开关,消耗更低能量,因为组件很小且彼此靠近。2006年,芯片面积从几平方毫米到350 mm²,每mm²可以达到一百万个晶体管。
㈤ 黑芝麻智能第二款大算力芯片A1000 pro流片成功
集微网消息,在 汽车 智能化成为全球主流共识,软件定义 汽车 的商业模式加速发展的当下,以人工智能为核心的软件技术将决定智能 汽车 “该有的样子”, 汽车 产业原有的商业模式也将被打破。因此,包括摩根士丹利等投行认为,特斯拉通过销售软件订阅服务获得的利润最终可能比销售硬件更多。
诚然,用软件升级的方式拓展全新的功能和性能,车厂能从软件升级中获取更多的收益,但前提是硬件水平够“硬核”。业内人士指出,“只有将硬件的性能和算力备足,才能为后续的软件升级提供足够多的空间。”
其中,稳定的车规级芯片以及计算平台是自动驾驶“军备竞赛”中的重要基石。目前,英特尔、英伟达、特斯拉等海外车规级SoC芯片玩家仍是主流。近年来,黑芝麻智能、芯驰 科技 等为代表的本土势力也在加速崛起,其中, 黑芝麻智能4月份于上海发布的新款A1000 pro最高可达196 TOPS,典型功耗25W,继续保持国内最高算力自动驾驶算力芯片的位置。
先进工艺打造自动驾驶“最强大脑”
今年来,上汽、蔚来等越来越多的车企都对大算力表现出了强烈的追求,目的就是为后续的软件算法和创新留下足够大的空间。随着自动驾驶的技术、应用向前发展,市场对大算力的需求持续高涨,而算力主要由芯片来提供。 因此,自动驾驶发展的核心在于 汽车 的“最强大脑”——芯片。
黑芝麻智能CMO杨宇欣向集微网透露:“这两年客户对算力增长的要求是非常快的,因为自动驾驶正处于高速发展的时期,其实主流厂商刚开始更多的还是以硬件预埋或者是算力冗余的方式来进行系统开发。 因为自动驾驶本身的技术演进也比较快,所以客户对算力的要求是挺高的。 ”
基于此,在去年发布A1000芯片后,黑芝麻智能在今年4月又发布了2021年国产最强车规级自动驾驶芯片华山二号系列最新款A1000 Pro,这是国内目前唯一能够满足ISO 26262 ASIL D级别功能安全要求的大算力芯片。同时, 经过一年的打磨,随着工艺的稳定,性能的优化以及配套软件的成熟,华山二号A1000 算力最高可达到INT8下58TOPS,INT4下116TOPS。黑芝麻智能也因此成了国内唯一已经推出两款满足ISO26262功能安全标准的高算力芯片厂商。
从性能来看,A1000 Pro基于两大自研核心IP——车规级图像处理器NeuralIQ ISP以及DynamAI NN车规级低功耗神经网络加速引擎打造,得益于DynamAI NN大算力架构, A1000 Pro 支持INT8稀疏加速,算力达到106 TOPS,最高可达196 TOPS,继续保持国内最高算力自动驾驶算力芯片的位置。
与此同时, A1000 Pro内置高性能GPU可以支持高清360度3D全景影像渲染, 能够覆盖L3/L4高级别自动驾驶功能,支持从泊车、城市内部到高速等场景。
此外,芯片要实现高速处理数据任务,数据的传输速率是关键。 A1000 Pro内部可以配置不同数据通路和运算机制,在芯片内部部署互为冗余的双套系统和安全岛校验。 基于内部多核心建立高速通信通路,A1000 Pro大幅提高数据传输效率。
对于在不到1年的时间内就迅速实现A1000 Pro芯片从研发到成功流片,杨宇欣表示,“A1000 Pro是基于A1000核心进行设计优化和性能提升,这样可以用更短的时间来推出更高算力的产品;其次, 我们采用业界创新先进封装工艺集成多个核心,解决了在16nm工艺下支持超大规模深度学习引擎的难题; 此外,我们FAD全自动驾驶平台的软件平台,可以实现多核心任务调度来提高芯片的效率。”
更让人期待的是,据杨宇欣透露, 目前A1000 Pro已经在系统上跑起来了,预计今年9、10月份能交付客户,计划于2022年底实现车型量产上市。
深耕国内 汽车 市场,做更懂本土需求的智能平台
在自动驾驶竞争中,概念车量产与规模化应用将是角逐的焦点。车企要提升智能应用的落地,需要来自芯片厂商密切配合,为其应用方案需求提供定制化的底层硬件支持。
因此, 自动驾驶芯片以及计算平台的本土化更符合国内市场需求。 作为行业领先的车规级自动驾驶计算芯片和平台研发企业,黑芝麻智能目前能针对国内市场需求,提供完整的解决方案。在“软件定义 汽车 ”的商业模式下,除了芯片外,黑芝麻智能还开发了FAD全自动驾驶平台的智能开发平台。
FAD 全自动驾驶平台包含完善的工具链开发包及应用支持,内置50多种AI参考模型库转换用例,不仅可以帮助客户降低算法开发门槛,还可以帮助客户快速移植模型和部署落地的一体化流程。
据介绍,A1000 Pro支持黑芝麻智能最新的FAD 全自动驾驶平台,FAD全自动驾驶平台包含业界领先的面向分布式计算的自动驾驶中间件,能够适配多种标准协议和操作系统,并提供软件全生命周期的管理。在A1000Pro系统中,任务可以在多个子系统之间动态迁移,具有易开发、高可用、零拷贝等特性,提升算法的效率与灵活性。
对于FAD 全自动驾驶平台的意义,杨宇欣指出:“客户开发自动驾驶的过程中,每个客户都有自己的技术方案诉求,所以我们一直主打开放。这其中包含了两个层面的开放, 一是软件工具链体系的开放, 这个可以让客户去在上面进行更多的定制化。 二是生态的开放, 客户在这个平台上可以选择不同的合作伙伴,比如说不同的算法厂商、核心供应链的核心器件厂商,我们的平台都可以支持。所以, 从这两个层面来看,我们能够满足现在车厂在做自动驾驶过程中的各种各样诉求。 ”
从这个层面来看, 黑芝麻智能是运用底层技术赋能行业,通过打造更懂本土客户需求的智能平台,并且基于底层计算平台形成一个开放的生态。 目前,黑芝麻智能已经与东风、一汽、蔚来、上汽、博世等主机厂及Tier1企业达成合作。
对于自动驾驶的展望,杨宇欣说道:“各家车厂都在积极做下一代架构自动驾驶,因为车厂现在也开始‘军备竞赛’,其中包括了软件、算法,以及新的电子信息架构技术的比拼。现在车企都在规划下一代智能 汽车 架构,这个非常考验各家车厂对未来技术方向的把握和推动力。”
(校对/落日)
㈥ 浅谈多核心CPU和SoC芯片及其工作原理
姓名:吕红霞;学号:20011210203;学院:通信工程学院
转自https://mp.weixin.qq.com/s/rULXlihPLhZCjnGhbMbCMg
【嵌牛导读】 本文讲解了多核心CPU和SoC芯片及其工作原理
【嵌牛鼻子】 多核CPU,进程,线程
【嵌牛提问】 现在的CPU或SoC基本都是在单芯片中集成多个CPU核心,形成通常所说的4核、8核或更多核的CPU或SoC芯片。为什么要采用这种方式?多个CPU 核心在一起是如何工作的?CPU核心越多就一定越好吗?
【嵌牛正文】
要说明什么是多核心CPU或SoC芯片,首先要从CPU核心(Core)说起。我们知道,CPU是中央处理器(Central Processing Unit)的英文简称,它具有控制和信息处理的能力,是电脑和智能设备的控制中枢。如果把传统CPU芯片中的封装和辅助电路(例如引脚的接口电路、电源电路和时钟电路等)排除在外,只保留完成控制和信息处理功能的核心电路,这部分电路就是 CPU核心 ,也简称CPU核。一个CPU核心基本上是一个完全独立的处理器,它可以从内部存储器中读取指令,并执行指令指定的控制和计算任务。
如果把 一个 CPU核心和相关辅助电路封装在一个芯片中,这个芯片就是传统的 单核心CPU芯片 ,简称单核CPU。如果把 多个 CPU核心和相关辅助电路封装在一个芯片中,这个芯片就是 多核心CPU芯片 ,简称多核CPU。当然,多核心CPU芯片会包含更多的辅助电路,以解决多个CPU核心之间的通信和协调问题。
如果在多核心CPU芯片中再集成一些其它功能部件和接口电路,就形成了完整的系统,那么这个芯片就变成了 多核心SoC芯片 了,简称多核SoC。在不严格区分的情况下,SoC也可以称为CPU。
发展多核心CPU的初心源于“人多力量大”的简单道理。从这个意义上来看,当初芯片集成度不高的时候,Inteli8086 CPU和i8087协处理器应该算是多核心CPU的雏形,是 多芯片协作形成了一个处理核心 ,需要采取许多技术来解决CPU和协处理器之间的合作、协作问题。
今天芯片的集成度很高,单芯片中集成几个甚至几十个CPU核心已不在话下,但还是不能满足超级计算的需要,需要在超级计算机中使用成千上万块高性能CPU芯片一起合作、协作,这可以看作 芯片内 多核心、 芯片外 多芯片的多核心CPU集群。
CPU芯片从外观上看是一块芯片,但打开封装来看,内部可能只有一块裸片(die),也可能是多块裸片封装在一起,称为 多芯片模组 (Multichip Mole,简称 MCM ),如图2b所示。但从软件角度来看,封装形式无关紧要,无论是芯片内还是芯片外,CPU核心多少才是最重要的,它们决定着系统的并行运算和处理能力,它们的主频频率和核心之间通信方式决定了系统的处理速度。
另外,今天的桌面计算机CPU、手机SoC中还集成了许多图形处理器(GPU)核心、人工智能处理器(APU)核心等,这些是否也应该算作多核心CPU和SoC中的“核心”呢?我觉得从广义角度上应该算吧。
因此,要回顾多核心CPU的发展,大致可以分为 1 .雏形期; 2 . 单芯片单核心; 3 .单芯片多核心; 4 .单核心多芯片; 5 .多核心多芯片几种情形。这些发展阶段不一定按照这个前后顺序,可能有交叉时期,也可能有前后颠倒的情形。第2和第3种情形一般是应用在桌面计算机、智能手机等移动终端上的CPU芯片,第4和第5种是应用在服务器和超级计算机上的CPU芯片。本文限于篇幅和主题集中的需要,主要探讨第3种 单芯片多核心 的情况,这种情况下的CPU是 单芯片多处理器 (Chip Multi Processors,简称 CMP )模式。
1971 ~2004年,单核心CPU一路独行 。Intel公司1971年推出全球首款CPU芯片i4004,直到2004年推出超线程的Pentium 4 CPU系列,期间共33年时间。在这期间,CPU芯片很好地沿着摩尔定律预示的规律发展,沿着集成度不断翻倍、主频不断提升、晶体管数量快速增加的道路前进,这是一条单核心CPU不断迭代升级的发展之路。
但是,当晶体管数量大幅增加导致功耗急剧增长,CPU芯片发热让人难以接受,CPU芯片可靠性也受到很大影响的时候,单核心CPU发展似乎到了穷途末路。摩尔定律的提出者 戈登.摩尔 也依稀觉得“尺寸不断缩小”、“主频为王”这条路子即将走到尽头。2005年4月他曾公开表示,引领芯片行业接近40年的摩尔定律将在10~20年内失效。
其实,早在上世纪90年代末,就有许多业界人士呼吁用CMP技术实现的多核心CPU替代单线程单核心CPU。IBM、惠普、Sun等高端服务器厂商,更是相继推出了多核心服务器CPU。但是,由于服务器CPU芯片价格太高、应用面较窄,并未引起大众广泛关注。
2005年初AMD抢先推出了64位CPU芯片,并率先Intel发表声明保证其64位CPU的稳定性和兼容性,Intel才想起了利用“多核心”这一武器进行“帝国反击战”。2005年4月,Intel仓促推出简单封装的2核心Pentium D和Pentium4至尊版840。之后不久,AMD也发布了双核心皓龙(Opteron)和速龙(Athlon)CPU芯片[9]。
2006 年被认为是多核心CPU的元年 。这年7月23日,Intel基于酷睿(Core)架构的CPU发布。11月,Intel又推出了面向服务器、工作站和高端PC机的至强(Xeon)5300和酷睿2双核心和4核心至尊版系列CPU。与上一代台式机CPU相比,酷睿2双核心CPU在性能方面提高40%,功耗反而降低40%。
作为对Intel的回应,7月24日,AMD宣布对双核Athlon64 X2处理器进行大降价。两大CPU巨头在宣传多核心CPU时,都会强调其节能效果。Intel发布的低电压版4核心至强CPU功耗仅为50瓦。而AMD的“Barcelona”4核心CPU的功耗也没超过95瓦。在Intel高级副总裁Pat Gelsinger看来,摩尔定律还是有生命力的,因为“CPU从单核心到双核心,再到多核心的发展,可能是摩尔定律问世以来,CPU芯片性能提升最快的时期” [9]。
CPU 技术发展要比软件技术发展更快 ,软件对多核心CPU的支持相对滞后。如果没有操作系统的支持,多核心CPU的性能提升优势不能发挥出来。同样运行Win7的情况下,4核心CPU和8核心CPU所带来的差异化体验并不明显,导致这种情况的原因是Win7根本没有对8核心CPU进行相应的优化。而在Win10出来后,8核心CPU所带来的体验速度就明显要比4核心处理器快很多,这源于微软在Win10上对多核心CPU的支持做了优化。而且微软还将在Win10上针对多核心CPU做进一步适配优化。
目前 核心最多的服务器CPU 有Intel至强铂金9282,56核心112线程,引线焊球多达5903个,估计售价约4万美元;AMD霄龙 7H12,64核心128线程,散热设计功耗280W。这两款CPU都需要采用液冷散热。 核心最多的台式机CPU 有Intel酷睿i97980XE至尊版,18核心36线程,散热设计功耗165W,售价1999美元;AMD的Ryzen9 5950X,16核心32线程,散热设计功耗105W,售价6049元。 核心最多的手机SoC 有Apple M1、麒麟9000、高通骁龙 888等。多核心CPU或者多核心SoC似乎成为一种潮流,但是不是核心越多CPU就越好呢?在不考虑其它因素影响,单从技术和集成度考虑的话,有人甚至预测到2050年,人们可能会用上1024个核心的CPU芯片。
我们先从任务处理的角度来看这个问题。如果把CPU处理的事情叫做任务的话,以前的CPU只有一个核心,CPU只会“一心一用”地处理一个任务,干完一件事再接着干下一件事。专业上称之为 串行单任务处理 。这在DOS操作系统的时代是合适的,这个时期对CPU的追求只有一条,那就是处理速度要尽可能地快。在Windows操作系统出现后,出现了多任务的处理需求,要求CPU可以“一心多用”,同时干多件事情。专业上称之为 分时多任务处理 。这个时期对CPU的追求 一是 处理速度要尽可能地快, 二是 同时可处理的任务尽可能地多。其实这种“一心多用”的处理方法是把时间分配给了多个任务,从宏观上看CPU处理的任务多了,但从某项任务来看CPU对该项任务的处理速度变慢了。
要实现CPU处理的任务更多、处理速度更快,人们自然想到了在芯片中集成多个CPU核心,采用“多心多用”的方式处理事务,因而就出现了多核心CPU的需求,而这种需求在服务器CPU应用方面显得尤为迫切。
我们再从提高CPU时钟频率,加快处理速度的角度来看这个问题。无论是“一心一用”、“一心多用”、还是“多心多用”,只要提高了CPU的时钟频率,CPU的处理速度都会加快。如论是单任务还是多任务,就会在更短时间完成任务。因此,CPU发展的历史就是随着芯片技术的进步,CPU的时钟频率不断提升的历史,从早期的MHz级别不断提升到目前的GHz级别,大约提升了1000倍左右。无论是单核心还是多核心,CPU时钟频率是人们选用CPU芯片的重要指标。
过去很长一段时间里,随着Intel和AMD CPU速度越来越快,x86操作系统上的软件的性能和速度自然会不断提高,系统整机厂家只要对现有软件作轻微设置就能坐享电脑系统整体性能提升的好处。
但是随着芯片工艺沿着摩尔定律发展,CPU集成度提高、晶体管密度加大,时钟频率提升,直接导致CPU芯片的功率不断增大,散热问题成为一个无法逾越的障碍。据测算,CPU主频每增加1GHz,功耗将上升25瓦,而在芯片功耗超过150瓦后,现有的风冷散热将无法满足要求。2003年前后Intel推出的主频为3.4GHz的Pentium4至尊版CPU芯片,最高功耗已达135瓦,有人给它送了一个“电炉”的绰号,更有好事者用它来玩煎蛋的游戏。现在的服务器CPU芯片Xeon W-3175标称功耗为255W,默认频率实测能达到380W,超频的话甚至会突破500W,必须采用高端水冷系统来降温。
所以,功耗极限制约着CPU频率的提升。下图是CPU功率密度随时间的变化趋势图,IntelPentium之后的CPU芯片,由于晶体管密度和时钟频率提升,CPU芯片的功率密度陡然上升,CPU产生的热量将会超过太阳表面。
综上所述,追求多任务处理功能,追求处理速度提升是CPU芯片设计的两大目标。以提升CPU时钟频率而加快处理速度又受到CPU功耗极限的制约,多核心CPU芯片成为解决上述矛盾的必由之路。目前,多核心CPU和SoC已成为处理器芯片发展的主流。
与单核心CPU相比,多核心CPU在体系结构、软件、功耗和安全性设计等方面面临着巨大的挑战,但也蕴含着巨大的潜能。本文参考了后附的参考资料1,对多核心CPU用到的技术作如下简单介绍。
1. 超线程技术
一个传统CPU核心只有一个运算处理单元(Processing Unit,简称PU)和一个架构状态单元(Architectual State,简称AS),在同一时间只能处理一个软件线程(Thread)。采用了 超线程 (Hyper-Threading,简称 HT )技术的CPU核心中包含一个PU和两个AS,两个AS共用这个PU。软件在CPU核心上运行时,AS与软件线程对接,并把线程的任务分配到PU中的相关单元中。所以,两个AS就可以处理两个软件线程。
用生产车间打个比方,PU是生产部门,有几台机床用于生产;AS是跟单员,他同时只能跟一个任务订单;软件线程好比是任务订单。如果生产车间只有一个AS时,这个车间同时只能处理一个任务订单,PU的有些机床有事干,有些机床可能无事干而闲置。如果有两个AS时,就能处理两个任务订单,并把任务分配到不同的机床上去完成。
所以,具有超线程的CPU核心的集成度增加量不大,但有两个AS后使它看起来像两个逻辑的CPU核心,就可以同时处理两个软件线程,大约可以提高40%的处理能力。所以,我们经常可以看到CPU芯片广告,说某多核心CPU芯片是N个核心,2×N个线程,就是采用了超线程带来的好处。否则,如果没有采用超线程技术的话,多核心CPU芯片参数就只能写成N个核心,N个线程。下图给出了2核心CPU无超线程和有超线程的示意图。
2. 核心结构研究
多核心CPU的结构分成 同构 (homogeneous)多核和 异构 (heterogeneous)多核两类,同构多核是指芯片内多个CPU核心的结构是相同的,而异构多核是指芯片内多个CPU核心的结构各不相同。面对不同的应用场景,研究核心结构的实现方式对CPU整体性能至关重要。核心本身的结构,关系到整个芯片的面积、功耗和性能。怎样继承和发展传统CPU的成果,也直接影响多核的性能和实现周期。同时,核心所用的指令系统对系统的实现也是很重要的,多核心采用相同的指令系统还是不同的指令系统,能否运行操作系统等,也是设计者要研究的重要问题。
3.Cache 设计技术
CPU和主存储器之间的速度差距对多核心CPU来说是个突出的矛盾,因此必须使用多级Cache来缓解。可分为共享一级Cache、共享二级Cache和共享主存三种方式。多核心CPU一般采用共享二级Cache的结构,即每个CPU核心拥有私有的一级Cache,并且所有CPU核心共享二级Cache。
Cache本身的体系结构设计直接关系到系统整体性能。但是在多核心CPU中,共享Cache或独有Cache孰优孰劣、是否在片上建立多级Cache、以及建立几级Cache等,对整个芯片尺寸、功耗、布局、性能以及运行效率等都有很大的影响,需要认真研究和慎重对待。同时还要考虑多级Cache引发的一致性问题。
4. 核心间通信技术
多核心CPU的各核心同时执行程序,有时需要在核心之间进行数据共享与同步,因此硬件结构必须支持CPU核心间的通信。高效通信机制是多核心CPU高性能的重要保障,比较主流的片上高效通信机制有两种, 一种 是基于总线共享的Cache结构,另 一种 是基于片上的互连结构。
总线共享Cache结构 是指每个CPU核心拥有共享的二级或三级Cache,用于保存比较常用的数据,并通过核心间的连接总线进行通信。它的优点是结构简单,通信速度高,缺点是基于总线的结构可扩展性较差。
片上互连的结构 是指每个CPU核心具有独立的处理单元和Cache,各个CPU核心通过交叉开关电路或片上网络等方式连接在一起。各个CPU核心间通过消息进行通信。这种结构的优点是可扩展性好,数据带宽有保证,缺点是硬件结构复杂,且软件改动较大。
5. 总线设计技术
传统CPU中,Cache不命中或访问存储器事件都会对CPU的执行效率产生负面影响,而总线接口单元(BIU)的工作效率会决定此影响的程度。在多核心CPU中,当多个CPU核心同时要求访问内存,或多个CPU核心内私有Cache同时出现Cache不命中事件时,BIU对这些访问请求的仲裁机制效率,以及对外存储访问的转换机制的效率决定了多核心CPU系统的整体性能。
6. 针对多核心的操作系统
对于多核心CPU,优化操作系统的 任务调度 是提升执行效率的关键。任务调度算法有 全局 队列调度和 局部 队列调度之分。前者是指操作系统维护一个全局的任务等待队列,当系统中有一个CPU核心空闲时,操作系统就从全局任务等待队列中选取就绪任务开始在此核心上执行。其优点是CPU核心利用率较高。后者是指操作系统为每个CPU核心维持一个局部的任务等待队列,当系统中有一个CPU核心空闲时,便从该核心的任务等待队列中选取就绪任务来执行。其优点是有利于提高CPU核心局部Cache命中率。大多数的多核心CPU操作系统采用的是基于全局队列的任务调度算法。
多核心CPU的中断处理和单核CPU有很大不同。CPU核心之间需要通过中断方式进行通信和协调,所以,CPU核心的本地中断控制器和仲裁各CPU核心之间中断的全局中断控制器需要封装在芯片内部。
另外,多核心CPU操作系统是一个多任务系统。由于不同任务会竞争共享资源,因此需要系统提供同步与互斥机制。而传统的用于单核心CPU的解决机制并不能满足多核心的情况,需要利用硬件提供的“读-修改-写”的原始操作或其他同步互斥机制来进行保证。
7. 低功耗设计技术
每两三年CPU晶体管密度和功耗密度都会翻倍。低功耗和热优化设计已经成为多核心CPU设计的重点。需要同时在操作系统级、算法级、结构级、电路级等多个层次上考虑。每个层次上实现的效果不同,抽象层次越高,功耗和温度降低的效果越明显。
8. 可靠性及安全性设计技术
在今天的信息社会,CPU的应用无处不在,对CPU的可靠性和安全性提出了更高要求。一方面多核心CPU复杂性提高,低电压、高主频、高温度对维持芯片安全运行带来挑战。另一方面,来自外界恶意攻击越来越多,手段越来越先进,高可靠、安全性设计技术越来越受到重视。
要弄明白多核心CPU是如何工作,要从应用程序、操作系统和CPU核心一起来分析。Windows操作系统作为任务调度者,按照 进程 (Process)和 线程 (Thread)为应用程序(Program)分配程序执行的硬件资源——CPU核心。一个进程对应一个应用程序,但是一个应用程序可以同时对应多个进程,通过多个进程来完成这个程序的执行。
应用程序未执行的时候是“静态”的,程序一旦被用户启动执行,就被操作系统接管变成“动态”的了。操作系统按照一个一个的 进程 管理着一批被用户启动了的程序。所以一个 进程 可以看作是一个“执行中的程序”,进程中包括了由操作系统分配给这个程序的基本资源。
一个进程又被细分为多个 线程 ,只有 线程 才能通过操作系统获得CPU核心的使用权限来让自己运行。只包含一个线程的进程可以叫做 单线程 程序,如果包含多个线程的进程,就可以叫做 多线程 程序了。
程序的线程要想获得CPU时间,必须进入操作系统的线程队列排队,经过操作系统调度之后,获得某个CPU核心的执行时间。操作系统对CPU核心的分派是非常复杂的过程,谁也无法用简短的文字说清楚具体详细的过程。以下按单核心CPU和4核心CPU两种情况来示意说明,程序进程的一个个线程,是如何分派到CPU核心上进行执行的[7]。
如果CPU是单核心的话,而且没有采取超线程技术,线程队列就只有1个,线程的选择也只有1个。如果采取了超线程技术,单核心就扩展成2个逻辑核心,线程队列就有2个,线程的选择就有2个。
如果站在多核心CPU角度看,每个CPU核心不断从操作系统收到要执行的软件线程,按照程序指令去完成规定任务,它可能要使用存储器、运算器、输入输出等部件,还要与其它CPU核心进行通信和传递数据,完成任务后还要报告。这些过程可看成一个一个的事件,都要通过事件中断处理部件来协调。多核心CPU的硬件调度处理模式大致有三种[8][18]。
1. 对称多处理 (Symmetric Multi-Processing,简称 SMP )是目前使用最多的模式。在SMP模式下,一个操作系统同等地管理着各个CPU核心,并为各个核心分配工作负载。目前,大多数的操作系统都支持SMP模式,例如Linux,Windows,Vxworks等。另外,这种模式通常用在同构多核CPU上,因为异构多核CPU的结构不同,实现SMP比较复杂。
2. 非对称多处理 (Asymmetric Multi-Processing,简称 AMP )是指多个核心相对独立地运行着不同的任务,每个核心可能运行不同的操作系统或裸机程序,或者不同版本的操作系统,但是有一个 主导 的CPU核心,用来控制其它 从属 的CPU核心以及整个系统。这种模式大多情况是异构多核心CPU。例如MCU + DSP,MCU +FPGA等。当然,同构多核心CPU也可以用。
3. 边界多处理 (Bound Multi-processing,简称 BMP )与SMP基本相同,唯一区别是开发者可以定义某个任务仅在某个CPU核心上执行。
以上只是原理性的简单介绍,如果要了解多核心CPU的硬件调度原理和实现细节,恐怕只能打进Intel或AMD公司内部,才能了解更多技术详情。
多核心CPU中的核心是否越多越好,多CPU系统中的CPU芯片是否也越多越好?同样条件下是否具有超线程就比不具有超线程的好?回答是仁者见仁,智者见智。主要是要分清用在哪些场合,不能一概而论。
首先,多核心CPU或者多CPU之间需要同步和调度,这是以时间开销和算力损耗为代价的。如果CPU核心数或者CPU芯片数增加对系统处理能力提升是加分项的话,同步和调度带来的时间开销和算力损耗就是减分项。如果加分大于减分,而且成本增加可接受的话,则方案是可行的,否则就是不值当的方案。系统方案的评判除了要考虑CPU核心数量以外,还要考虑操作系统的差异、调度算法的不同,应用和驱动程序特点等因素,它们共同影响着系统的处理速度。以下是一些文章的讨论观点。
1 . CPU核心越多,执行速度不一定越快。这里说的是“不一定”,因为一个线程可能要等待其它线程或进程完成后,才能轮到它继续执行。在它等待别的线程或进程的时候,即便排队队列轮到了它,它也只能放弃运行权利而继续等待,让队列后续线程超过它在CPU上执行。对它这个线程的程序来说是变慢了,但对系统来说,它起码它让开了位置让其它线程继续运行。多核心CPU肯定可以加速批量进程的执行,但对某个进程或者某类型的程序来说,未必是最快的。
2 .智能手机要向用户提供优秀的使用体验,不仅仅是靠CPU性能一个方面。除了CPU核心数这个因素以外,还应包括决定通信质量的基带芯片的性能,再加上GPU的性能、游戏和VR应用性能等。系统综合性能好才是真的好。
3 .联发科2015年推出10核心、3重架构等手机SoC芯片技术,后来又开发了10核心、4重架构helio X30,通过多重架构的方式来降低功耗。虽然联发科在多核心SoC方面的技术优势是毋庸置疑,但是高通在2015年底推出了仅有四个核心的骁龙820芯片,苹果手机较早使用的SoC芯片也不过是双核心而已。这些都表明,对于智能手机而言,多核心CPU或SoC的意义到底大不大,不可绝对断言,需要从系统角度分析才能得出正确结论。
结语 :多核心CPU和SoC是为了满足整机系统对处理能力和处理速度不断提升的需求,在单核心CPU沿着摩尔定律向前发展,受到了芯片功率极限阻碍时,人们不得不选择的一种突破路线。多核心CPU推动着操作系统的更新和升级,操作系统又决定了多核心CPU效能的发挥。多核心CPU技术的难点是多核心之间的信息传递、数据同步和任务调度等。系统性能优劣不能只考虑CPU核心数量,还要考虑操作系统、调度算法、应用和驱动程序等。多核心CPU技术和FinFET等3D芯片技术可以看作是延续摩尔定律生命的两大关键技术。
㈦ 自动驾驶之蔚来篇——“起步失速”的蔚来正在加码自动驾驶研发!
传统车企以发动机、变速箱以及整车调校等方面塑造竞争优势;新四化趋势下,不少新造车势力选择以电动化切入,以智能科技为核心优势,企图换道超车。
经过多年发展,蔚来、小鹏、理想三家已成功在美股上市,跑赢第一轮淘汰赛。那么从技术的角度来看,三强中谁才是自动驾驶能力最强的车企?今天,编辑将从感知硬件、芯片算力、实现功能、研发布局四个方面来评价,分析谁才是最具智能科技的中国品牌!
蔚来篇:代表车型蔚来EC6
EC6是ES6的轿跑版本,也是蔚来汽车当前在售车型中智能化程度最高的一款。
任少卿对计算机视觉领域有着深刻的理解,他曾在2016年拿下计算机视觉领域顶级会议CVPR的BestPaperAward。在《2018年度自动驾驶谷歌学术引用榜》中,任少卿自动驾驶方向累计学术引用全球第二。
任少卿的加入只是李斌NIOPilot自主研发复兴计划的第一步,面对遥遥领先的特斯拉,蔚来明白仅有任少卿一个人还是不够的。
紧接着,蔚来又提拔了一位年轻高管——自动驾驶总监章健勇,并设置了自动驾驶团队双AVP。
据悉,章健勇是蔚来早期员工,曾在2013年-2014年间在上汽集团负责自动驾驶前期开发工作。他此前的汇报对象是北美原蔚来自动驾驶VPJamieCarlson,后者已于今年6月份离职。
除了软件算法自研之外,蔚来向特斯拉一样,广泛布局智能化产业链。
有消息称,在芯片自研方面,原小米芯片和前瞻研究部门总经理白剑与10月初入职蔚来任智能硬件副总裁,随后开始在车主内部进行调研,询问车主希望蔚来的芯片支持哪些功能。
2020年11月30日,有媒体报道称:“蔚来内部正式确定L4级自动驾驶自研项目,由8月加入的助理副总裁(AVP)任少卿负责”,对此,蔚来对此既没有辟谣也没有承认。但可以基本确定,起步失速的蔚来汽车,现又重新走上了自动驾驶自研的道路。
本文来源于汽车之家车家号作者,不代表汽车之家的观点立场。