加入收藏 | 设为首页 | 会员中心 | 我要投稿 威海站长网 (https://www.0631zz.cn/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 运营中心 > 建站资源 > 经验 > 正文

MEC里很多的应用实际上是网络的应用吗?

发布时间:2018-11-05 11:42:30 所属栏目:经验 来源:中国IDC圈
导读:MEC 最早叫Mobile Edge Computing, 现在大家都叫Multi – Access Edge Computing。 不管是移动的边缘计算或者是多接入的边缘计算,都离不开NFV这个课题。
132726564永嘉网(http://www.52yongjia.com)从以下几个方面介绍,首先讲QoS与云、SDN的关系,第二讲在服务器里影响QoS的有哪些要素,第三是介绍英特尔的一些项目还有我们的一些技术,最后有一个整个QoS管理的框图。 公有云里主要关注三个东西,一个是讲服务可用性,一个是SLA等级管理,第三个是带宽/吞吐量,可是对应到SDN/NFV以及电信云,还有刚才讲的MEC的部分,关注的内容除了这三点以外还有更多的内容需要去关注,一个是传输延时,还有响应时间以及中断延时,二是讲性能及延时的一致性,不能放在不同的CPU上,性能的波动非常大。最后是5G网络切片需求,不同的切片对QoS的要求也是不一样的。 为什么需要QoS,不管是云也好还是SDN/NFV也好,基础都是虚拟化的技术,虚拟化的本质就是要用虚机或者虚拟化的实体去共享服务器物理资源,包括CPU、内存、网络、存储、加速等。既然是共享,所以竞争不可避免。 当我去剖析产生QoS问题的两大根源,就会发现无外乎两各方面:第一个是硬件的资源分布不均衡,比如在有些CPU上挂很多资源,有些CPU上压根没有资源。首先是内存,英特尔也做了很多测试,特别不推荐的是内存非对称的配置。第二个是NUMA Balance,IO及加速设备没有平均分布在两个CPU上,或者更多的四路、八路的CPU上。另一个原因是讲虚拟化实体之间本身的竞争和干扰,首先QoS建模不准确。第二是在业务编排时,可能没有给到足够的资源,第三个是负载不均衡,最后是流量控制不准确,本身这个CPU这个核已经跑满了,可是流量控制没有跟上,还在不断放流量到这个虚机或者虚拟化实体里来。总的看下来,根源还是讲TCO和SLA等级两个要去做一个平衡。 影响QoS的要素在服务器上的分布,1核个数要求、2内存容量要求、3网络带宽要求是目前公有云的可选项,你去访问一个IaaS的平台,它实际上让你input的几样东西,就是要求多少核,要多少内存、多少网络,还有存储要多少。但其实影响到QoS要素远不止这些,包括Cache占用,在英特尔的架构里或者其他也有别的CPU的架构里,在最后一级缓存是所有的核去共享的,除了所有的核之间本身有竞争外,在同一个核里,不同的虚拟化实体之间也会有这个竞争。这块对整个QoS有蛮大影响。还有内存带宽占用,不管你多少个通道,所有的核、所有的虚机访问都是通过这个物理通道访问。这块的带宽如果不去对虚机做分配和限制,势必会被‘Noisy Neighbor’干扰。当然业界有很多讨论,它有一个虚拟化实体特别强势,老是占用资源,它就是‘Noisy Neighbor’。第六个是核的主频问题, 不同应用对核的主频要求各不相同。第七个是跨NUMA访问限制,刚才从文也有讲这个,我们从CPU本地区访问它的IO资源或者加速资源,跟你跨过UPI再到另一个地方访问这些资源,得到的延时是完全不一样的。 回顾一下传统服务器在公有云部分怎么做QoS管理,管理的部分比较少,都是通过VIM下发到Hypervisor,为什么Hypervisor没有划到服务器里面去,现在有很多人是把Hypervisor独立出来的,去做offload,不要放到CPU上。这个是4和5的部分,一个是讲内存/带宽的绑定,一个是讲cache占有率的绑定。黄色跟绿色代表两个APP,如果你不去做绑定,那它在内存编排器里资源的占用是杂乱无章的。英特尔的技术RDT技术允许我们做一个绑定,限制虚拟化实体它只能用多少带宽。这个是cache的部分,也有差不多的技术,我们是限定某一个虚机只能用哪些路cache。右边那个图是讲我们做过绑定之后的效果,每个虚机只在它对应的位里去占用对应位的cache。这是性能的对比,两个APP ,第一张图是没有做绑定的,当一个APP出现峰值的时候,另一个掉到了谷底。这个是经过绑定之后的,可以看到两个APP的performance是很稳定的。

(编辑:威海站长网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

    热点阅读