摩登3咨询:_美国力挺的Open RAN,真的能成功吗?

今年以来,关于Open RAN的新闻不绝于耳。这种全新的网络架构在打开我们视野的同时,也带来了很多的困惑。 究竟什么是Open RAN?它真的是美国的5G杀手锏吗?它会成功吗? 1     Open RAN剑指开放   说起Open RAN,Open这个“词”的含义相当直白,就是开放的意思。RAN则是Radio Access Network缩写,意思就是无线接入网。因此,Open RAN的含义就是开放的无线接入网。 对于2G和3G来说,RAN包含两个网元:基站,以及管理基站的控制器(2G叫BSC,3G叫RNC)。到了4G,网络开始扁平化,控制器被取消,基站直连核心网,RAN就只有基站这一个网元,5G时代依然如此。 2G和3G现在已在退网,我们暂且不提。关键是4G和5G,RAN侧就是孤零零的一个基站,还要怎样开放呢? 其实,这看似小小的基站,里面大有乾坤。 在无线网络发展的远古时代,基站是浑然一体的一个设备,仅仅对外出两类接口:连接核心网的传输接口,以及连接天线的射频接口。 这两类接口之间的基站主设备,就像是一个“黑盒子”,我们只是大概知道里面是由电源,交换,基带,收发信机,数字中频,射频等零件组装起来的,运行着相关软件来支撑这一系统的正常工作。 这些基站的硬件和软件都是各个厂家自研的,内部各模块的划分和之间的接口对外不可见,其内运行的软件也是如此。运营商要买基站就只能整套买,出了问题厂家包排查包解决。 到了4G时代,这个“黑盒子”稍微打开了点,大家都把基站划分成了两大模块:BBU和RRU,以及它们之间的接口CPRI(通用公共无线接口)。 但是,BBU和RRU的内部实现还是不对外开放的,各厂家的方案各异。它们之间的CPRI接口虽然名字上带着“通用公共”,其实也是私有的,各厂家都有各自的数据格式,不能互通。 因此,运营商要买基站,还是得BBU,RRU连带软件从一家整套买,爱立信的BBU是不可能接诺基亚的RRU的。 从2G到5G至今,随着供应商之间竞争的加剧,倒闭的倒闭,并购的并购,供应商越来越少,而由于通信行业的技术壁垒又非常高,新的玩家很难进入,最终形成了近似少数厂家寡头垄断的客观现实。 运营商设备投资的费用高企,各供应商的产品同质化,价格难以降低,又没有新的厂家可以替代,这可如何是好? 于是,无数期望的目光纷纷投向了“白盒化”基站。 白盒基站,就是要把传统的黑盒基站打开,并大卸八块,软硬件解耦,并将所有的接口开放。这样一来,即使这些部件由不同厂家提供,只要大家都遵循相同的协议就可以组装起来运行。 其中的BBU硬件需要使用通用服务器(也称作COTS,Commercial Off-The-Shelf,意为商用现成品),可以从市场上的任意服务器厂家购买。 在BBU使用了通用服务器之后,就必须支持虚拟化功能(称作vRAN),才能在上面灵活地部署来自不同厂家的功能软件。 RRU硬件由于不仅仅处理数据,还要进行无线信号的发送和接收,必须使用专用的功放和滤波器等部件,因此不能直接使用通用服务器,需要由专业的RRU厂家提供。 不同厂家的RRU硬件,怎样运行不同软件提供商的软件呢?这就需要这些硬件遵循同样的开放架构,并且支持虚拟化。这样一来,运营商不论从哪家购买RRU,都可以运行第三方的软件。 RRU怎样和不同厂家的BBU软件对接呢?这就要求RRU和BBU之间的接口也是要开放的,大家都完全遵守相同的协议,才能互通有无。 在5G时代,传统的BBU可进一步拆分成CU和DU,这两个网元也可以采用不同的软件供应商,运营商的选择更多,网络的灵活性进一步增加。  比如,基站RRU的硬件采用供应商A,B,C三家,RRU软件采用供应商D,E,F三家,CU和DU的硬件采用供应商G,DU的软件采用供应商H,I,J三家,CU的软件采用供应商K。 这样一来,原先只能由2到3个传统设备商提供的同质化的基站,现在可以由11家厂商提供。原先孤零零的一颗大树,现在变成了一片树林,还形成了新的生态系统,各厂家在自己的生态位上各司其职! 这样一来,对运营商来说,其供应商体系将更加灵活,更加多元化,还能引入充分的竞争来激发创新活力,不必再担心因网络被某家供应商独占而丧失议价权。网络建设的成本也得以降低。 基站白盒化的诉求,核心在于软硬件解耦和接口开放,承载着运营商对于成本的节省,以及摆脱设备商胁迫的梦想,成就了如今Open RAN的风起云涌。 上图是一个关于Open RAN部署动机的调查。可以看出,28%的运营商的诉求是降低成本;21%的运营商考虑解除供应商锁定,引入竞争;15%的运营商想要借此增强网络部署的灵活性。此三点需求占了64%,是绝对的主流。 2     Open RAN背后的组织 当大家在讨论Open RAN的时候,经常能看到C-RAN,xRAN,O-RAN,ORAN,oRAN,OpenRAN,Open vRAN,O-vRAN这些字眼,让人眼花缭乱。 它们又都是什么意思,跟Open RAN之间的关系是什么呢? 上面这些说法其实来源于三个不同的组织:O-RAN联盟,OpenRAN工作组,以及Open vRAN计划。我们先从O-RAN联盟说起。 2018年,那是一个春天,在西班牙巴塞罗那一年一度的世界移动大会(MWC)期间,中国移动,美国AT&T,德国电信,日本NTT DOCOMO,以及法国的Orange这五巨头联合起来,宣布了O-RAN联盟的诞生。 O-RAN联盟的前身,就是中国移动发起的C-RAN联盟,以及日本NTT DOCOMO主导的xRAN论坛。 C-RAN,就是Centralized RAN或者Cloud RAN,由中国移动在2009年提出。其核心思想是把多个BBU集中部署形成基带池,然后再进行虚拟化和云化,从而降低能耗,基础设施投入以及运维成本。   xRAN成立于2016年,其主要目标是用开放可替代的通用服务器来替换传统基站的专用硬件,从而将基站的软硬件解耦,核心思想也无非是开放二字。  基于相同的目标,C-RAN联盟和xRAN论坛合二为一,成为了新的O-RAN联盟。上文提到的ORAN,oRAN等不同写法也都代表的是O-RAN联盟。 O-RAN联盟的成员众多,参与的运营商除了包含创始的五巨头之外,还有中国电信和联通,西班牙电信,英国沃达丰,日本软银,KDDI等,几乎囊括了全球绝大部分主流运营商。 设备商里面,爱立信,诺基亚,中兴,三星,中国信科等都是O-RAN联盟成员,只有华为没有参与。高通,Intel等芯片厂家也位列其中。 此外,还有大量新兴的中小设备商的参与,包括美国的Altiostar, Parallel,Mavenir,以及来自中国的佰才邦,赛特斯,亚信,京信等,他们都想从中分得一杯羹。 那么,O-RAN是怎样对基站进行拆分呢?主要有下面四个目标(新四化): 接口开放化:把基站内部原有的封闭接口的开放,在这个基础上,不同厂家的软件才有可能无缝配合,以此降低对单一厂商的依赖,鼓励创新,降低成本。 软件开源化:推动无线协议栈开源,共享代码,降低研发成本,让产业企业把更多精力聚焦在核心算法和差异化功能软件的研发上。  硬件白盒化:将传统基站的专用硬件用通用服务器代替,充分进行软硬件解耦,降低行业门槛,吸引更多中小企业参与竞争。  网络智能化:RAN开放和解耦之后,可以引人工智能,实现复杂组网环境下的高效运维管理,提升频谱资源的利用率,降低网络能耗。 在上述四点思路的指导下,基站就被分解成了下面的样子: O-RAN联盟负责制定统一的技术规范,以及互操作测试规范,在顺从3GPP定义的5G基站标准接口(E1/F1/FH/X2/Xn/NG)的基础上,还自行扩展了A1/O1/O2/E2等接口,约束非常严格。 为了实现上述目标,O-RAN联盟成立了9个工作组,3个焦点组,以及1个开源软件社区。 下面再说另一个主要组织:OpenRAN。 2016年,Facebook发起了一个叫做TIP(Telecom Infra Project,电信基础设施)的项目,下面包含了很多子项目,其中就有一个OpenRAN的项目计划。 2017年,全球运营商巨头沃达丰把自己研究的SDR RAN的成果奉献给了TIP,并创建OpenRAN工作组,旨在建立一个基于通用服务器,可软件定义技术的白盒化RAN解决方案。 参与OpenRAN的运营商成员以欧美地区为主,中国的三大运营商都没有参与。项目由沃达丰和西班牙电信牵头,沃达丰负责全力推进。 传统设备商中,除诺基亚积极参与之外,爱立信,华为和中兴都没有参与。此外新晋设备商三星对此也非常激进。 此外,希望夹缝生存,在通信市场分得一杯羹的大量欧美新兴的中小设备商的参与非常积极,他们已经在全球开始部署OpenRAN商用网络,并开始组建自己的生态系统。 跟O-RAN联盟不同,OpenRAN工作组并没有对开放网络的内外部接口进行严格规范的定义,他们属于务实行动派,积极鼓励各运营商和设备商进行Open RAN网络的实际部署,并在外场进行互操作测试。 也就是说,O-RAN联盟是标准先行,而OpenRAN则是先部署验证,标准后续再补。因此目前实际部署的开放接入网络基本都是基于OpenRAN的。 总体而言,O-RAN和OpenRAN这两个组织的参与成员虽然不尽相同,推进策略也各有侧重,但其目标和产品方案却大体一致,拥有非常广泛的共同语言。 在2020年2月份,两者携起手来,共同在欧洲成立了开放测试和集成中心(OTIC),共享资源来进行Open RAN的研究和推进。 从上图可以看出,OpenRAN定义了一套自己的工作流程,并和3GPP,开源软件社区,以及O-RAN联盟之间都有广泛的合作。 话说另外一个组织:Open vRAN的起源,也要从2018年说起。 同样是在当年的巴塞罗那全球移动通信大会上,思科发布了一个名为Open vRAN生态系统的计划,目标同样是基于通用硬件,以及开放式模块化的软件架构来让RAN走向开放之路。 Open vRAN也被称作O-vRAN。vRAN里面的v就是virtualized,指的是虚拟化,Open RAN的基础。 据悉,在2020年6月,思科和Telenor在挪威总部已经开始了Open vRAN的实验,进一步验证使用虚拟化的开放架构的成本和效率。 从上面的介绍可以看出,Open RAN是一个统称,代表了目前的基站白盒化,接口开放化,以及软件开源化,网络智能化等网络发展架构,而O-RAN,OpenRAN,Open vRAN等则是推动Open RAN不断前进的组织名称。 正是这些组织的诸多工作,不断为Open RAN添柴加火,成就了Open RAN今日的热度。 3     Open RAN需要面对的问题 毫无疑问,Open RAN代表了无线网络发展的方向,在技术上是可行的。但与此同时,它的成熟度又是明显不够的,面临的挑战也是巨大的。 技术复杂度增加 开放的接口会带来更加复杂的处理机制,部分接口还需定义全新规范的信令流程,增加了整体的设备复杂度和系统集成的难度。 并且,多个供应商之间要互联互通,就必须进行互操作测试。目前该测试也就是仅限于基站,核心网两个网元,涉及的厂家也不多,即便这样在前期也是困难重重,常有不兼容的情况发生。 Open RAN把基站拆地七零八碎,由于各厂家的技术方案各不相同,他们之间对接口相关规范的理解也可能存在差异,所需互操作验证的工作量是非常巨大的。…

摩登3测速登陆_关于5G最新进展的一些数据

12月24日,在国务院新闻发布会上,工业和信息化部新闻发言人、信息通信发展司司长闻库表示,这一年来,工信部大力推动5G发展应用,加快5G网络建设,取得了比较好的效果。 网络建设稳步推进。今年新增5G基站约58万个,推动5G基站共建共享33万个,实现了年初所定地市覆盖5G的目标。1~11月,国内市场5G手机出货量达1.44亿部,占手机出货量的51.4%;上市5G手机新机型累计199款,占新上市机型的47.7%。用户数量增长较快,。应用落地进程速度加快。 免责声明:本文内容由21ic获得授权后发布,版权归原作者所有,本平台仅提供信息存储服务。文章仅代表作者个人观点,不代表本平台立场,如有问题,请联系我们,谢谢!

摩登3注册开户_IMU中加速度计、陀螺仪、磁力计的工作原理

编排 | strongerHuang 来源 | autotian@CSDN IMU:Inertial Measurement Unit,即惯性测量单元。它是由三轴加速计、三轴陀螺仪、三轴磁力计等多种传感器组成的模块。 IMU在无人驾驶汽车、无人机上面应用的比较多,包括手机等很多电子设备也有IMU传感器的存在。 下面就来讲讲IMU中三轴加速计、三轴陀螺仪、三轴磁力计的工作原理。 1、三轴加速度计 三轴加速度传感器是基于加速度的基本原理去实现工作。 1.测量比力 三轴加速度计是一种惯性传感器,能够测量物体的比力,即去掉重力后的整体加速度或者单位质量上作用的非引力。当加速度计保持静止时,加速度计能够感知重力加速度,而整体加速度为零。在自由落体运动中,整体加速度就是重力加速度,但加速度计内部处于失重状态,而此时三轴加速度计输出为零。 2.测量角度 三轴加速度计的原理能够用来测量角度。直观地,如图所示,弹簧压缩量由加速度计与地面的角度决定。比力能够通过弹簧压缩长度来测量。因此在没有外力作用的情况下,加速度计能够精确地测量俯仰角和滚转角,且没有累积误差。 MEMS三轴加速度计是采用压阻式、压电式和电容式工作原理,产生的比力(压力或者位移)分别正比于电阻、电压和电容的变化。这些变化可以通过相应的放大和滤波电路进行采集。该传感器的缺点是受振动影响较大。 介于其测量角度的工作原理三轴加速度计无法测量偏航角: 可测量俯仰角和横滚角: 2、三轴陀螺仪 三轴陀螺仪是惯性导航系统的核心敏感器件,其测量精度直接影响惯导系统的姿态解算的准确性。 作用:用于测量单元中的角速度及对角速度积分后角度的计算 原理:理解三轴陀螺仪的原理首先要知道科里奥利力 科里奥利力 科里奥利力(Coriolis force)有些地方也称作哥里奥利力,简称为科氏力,是对旋转体系中进行直线运动的质点由于惯性相对于旋转体系产生的直线运动的偏移的一种描述。科里奥利力来自于物体运动所具有的惯性。 —来自百度百科 当一个质点相对于惯性系做直线运动时,因为质点自身惯性,它相对于旋转体系,其轨迹是一条曲线。立足于旋转体系,我们认为有一个力驱使质点运动轨迹形成曲线。科氏力就是对这种偏移的一种描述,表示为: 即本来直线的运动当放在一个旋转体系中直线轨迹会发生偏移,而实际上并直线运动的问题并未受到力的作用,设立这样一个虚拟的力称为科里奥利力。 由此我们在陀螺仪中,选用两块物体,他们处于不断的运动中,并令他们运动的相位相差-180度,即两个质量块运动速度方向相反,而大小相同。它们产生的科氏力相反,从而压迫两块对应的电容板移动,产生电容差分变化。电容的变化正比于旋转角速度。由电容即可得到旋转角度变化。 3、三轴磁力计 磁力计能提供装置在XYZ各轴所承受磁场的数据,接着相关数据会汇入微控制器的运算法,以提供磁北极相关的航向角,利用这些信息可侦测地理方位。 磁力仪是采用三个互相垂直的磁阻传感器,每个轴向上的传感器检测在该方向上的地磁场强度。 免责声明:本文内容由21ic获得授权后发布,版权归原作者所有,本平台仅提供信息存储服务。文章仅代表作者个人观点,不代表本平台立场,如有问题,请联系我们,谢谢!

摩登3平台注册登录_尽着自己最大的努力,不加班不快乐

1.1 大赛介绍 全国大学生智能汽车竞赛是以“立足培养、重在参与、鼓励 探索、追求卓越”为宗旨,鼓励创新的一项科技竞赛活动。今年首次新增了电 磁 AI 组别,希望通过神经网络学习甚至超越传统的 PID 控制方法。 在这份报告中,我们小组对小车设计制作整体思路、机械、电路、电控、 神经网络几个方面进行了详细的介绍。 整体思路中主要概括了项目构建时的主 要核心思想,机械部分中主要阐述了小车的机械部分中主要阐述了小车的结构 设计,包含各部件的安装位置以及对车模的保护措施,电路部分主要阐述了小 车的电路结构设计为软件停工稳定输入与输出环境减少外界干扰。 电控部分主 要阐述了如何采用 PID 进行小车控制,包含舵机控制,差速控制,电机控制等。 神经网络部分主要阐述了如何采用神经网络学习小车控制方法,包含数据集制 作,电感位置分布,网络结构创新等。 虽说看似就是一简单巡线的项目,但是随着深入地进行研究,我们发现在 此之上可以用非常多方法大幅度提升巡线效果,比如可以通过无线串口进行 PID 远程调参,通过神经网络去自动地寻找较好的控制方法,通过陀螺仪和编码器 去记录整个赛道等等。 随着一步步地迭代,我们的工程越来越大,完成的功能 也越来越多,自然而然速度也在一点一滴地提升。 1.2 整体方案设计 本节主要简要地介绍智能车系统总体设计思路,在后面的章节中将整个系 统分为机械结构,硬件电路设计,传统 PID 设计,神经网络设计等四部分对智 能车控制系统进行深入的介绍和分析。 根据第十五届智能车竞赛规则,AI 电磁组比赛是在 PVC 赛道上进行,赛道 采用黑色边线引导。选手制作的车模完成赛道运行一周。车辆运行时间是从车 模冲过起跑线开始,到最后车模回到起跑线为止。赛道中存在的元素包括直线 道路、曲线弯道、十字交叉路口、环岛(可不进入)。 根据竞赛规则相关规定及以上任务要求,智能车系统采用大赛组委会统一 提供的 C 型车模,以恩智浦公司生产的 MIMXRT1064DVL6A 作为核心控制器,在 IAR 开发环境中进行软件开发。智能车系统检测电磁场信号为基础,通过单片机 处理信号实现对车体控制。通过编码器测速模块来检测车速,并采用 RT1064 的 输入捕捉功能进行脉冲计数计算速度和路程;电机转速控制采用 PID 控制,通 过 PWM 控制驱动电路调整电机的转速,完成智能车速度的闭环控制。 根据以上系统方案设计,赛车总共包括一下几个模块: 1.RT1064 单片机最小系统模块;2.电源模块; 3.电机驱动模块 ;4.传感器模块; 5. 无线串口模块; 6.编码器测速模块; 7.陀螺仪模块; 8.停车线检测模块; 9.人机交互模块。 ▲ 图1.2-1 系统框图 机械设计中,我们需要考虑多电感的保护,转向机构设计,电路板放置, 车身强度等问题。 2.1 智能汽车车体机械建模 此次竞赛选用的是东莞市博思电子数码科技有限公司生产的智能车竞赛专 用模型车(C 型模型车),配套的电机型号为 RS-380,舵机的型号为 FUTABA3010。智能车的外形大致如下: ▲ 车模照片 2.2 转向机构设计 在调试过程中,我们发现原有的转向机构中舵机的转角与前轮的转角不为线 性关系,故尝试更改前轮转向机构为线性控制,但导致前轮转向时的响应时间 增长,转弯不及时。 最终我们使用了自制的舵机固定板与舵机转向套装,如下图所示。 ▲ 舵机固定板与舵机转向套装 最终虽然控制仍不为线性,但做到了前轮转向的快速响应,转向机构整体如 下图。 ▲ 转向机构 2.3 电路板放置 对于电路板排布,我们经过两次迭代,最终选择采用如下图所示的碳板作为 整体的支撑结构,使用 4 根铜柱与车模底盘连接,保证强度的同时,也能尽可 能地让车身更轻,从而有更为稳定的结构,且易于加装/拆卸长前瞻。 ▲ 自制支撑结构 为了维持多个电感与车模之间固定的相对位置,我们将所有装有采集电感传 感器的电路板都安装在碳板上,同时为了操作、拆卸更加方便,我们将其他电 路板也固定在了碳板之上。 ▲ 碳板固定 2.4 智能汽车传感器的安装 车模中的传感器包括有:速度传感器,车模姿态传感器(陀螺仪、加速度计), 霍尔传感器以及采集电感传感器。下面分别介绍这些传感器的安装。 2.4.1 速度传感器的安装 速度传感器使用了龙邱 512 线 mini…

摩登3娱乐怎么样?_要能搞定容性负载,提高放大器性能便唾手可得~

容性负载一定会影响运算放大器的性能。简单地说,容性负载可以将放大器变为振荡器。今天我们就来说说—— ◎ 容性负载如何将放大器变为振荡器 ◎ 如何处理容性负载? 放大器变振荡器?这是有原理的! 运算放大器固有的输出电阻Ro与容性负载一起,构成放大器传递函数的另一个极点。如波特图所示,在每个极点处,幅度斜率(负值)减小20dB/10倍。请注意各极点如何增加多达-90°的相移。我们可以从两个角度来考察不稳定性问题。请看对数图上的幅度响应,当开环增益与反馈衰减之和大于1时,电路就会变得不稳定。类似地,还可以看相位响应,在环路相移超过-180°的频率,如果此频率低于闭环带宽,则运算放大器往往会发生振荡。电压反馈型运算放大器电路的闭环带宽等于运算放大器的增益带宽积(GBP,或单位增益频率)除以电路的闭环增益(ACL)。 运算放大器电路的相位余量可以看作是使电路变得不稳定时所需的闭环带宽的额外相移量(即相移+相位余量=-180°)。随着相位余量趋于0,环路相移趋于-180°,运算放大器电路便趋于不稳定。通常而言,如果相位余量值远小于45°,就会导致频率响应的尖峰,以及阶跃响应时的过冲或响铃振荡等问题。为了保持足够的相位余量,容性负载所产生的极点至少应比电路的闭环带宽高10倍。如果不是这样,请考虑电路不稳定的可能性。 如何处理容性负载?教你三招 首先应当确定,运算放大器能否安全地驱动自身负载。许多运算放大器数据手册规定了“容性负载驱动能力”,另有一些则提供了关于“小信号过冲与容性负载之间关系”的典型数据。查看这些数值,可以发现过冲随着负载电容增加成倍递增。当过冲接近100%时,运算放大器便趋于不稳定。如果可能,请让过冲远低于此限值。另外请注意,此图针对特定增益而言。对于电压反馈型运算放大器,容性负载驱动能力随着增益的增加而提高。因此,在单位增益时能够安全驱动100pF电容的电压反馈型运算放大器,在增益为10时应当能够驱动1000pF电容。 一些运算放大器数据手册给出了开环输出电阻(Ro),由此可算出上述附加极点的频率。如果附加极点的频率(fp)比电路带宽高出10倍,电路将保持稳定。 如果运算放大器的数据手册没有说明容性负载驱动能力或开环输出电阻,并且没有提供过冲与容性负载的关系图,那么为了确保稳定性,必须假设任何负载电容均要求采取某种补偿技术。有许多方法都能使标准运算放大器电路稳定驱动容性负载,下面是其中几种: 噪声增益操控 这是一种在低频应用中保持稳定的有效方法,然而却经常被设计人员所忽略。其原理是提高电路的闭环增益(也称为“噪声增益”),而不改变信号增益,从而降低开环增益与反馈衰减之积变为1的频率。在一些电路的运算放大器输入端之间连接RD即可实现,如下图所示。利用所给的公式可求得这些电路的“噪声增益”。 由于稳定性受噪声增益而不是信号增益控制,因此上面的电路可提高稳定性,且不会影响信号增益。只需使“噪声带宽”(GBP/ANOISE)比负载所产生的极点至少低10倍,便可确保稳定。 这种稳定方法有一个缺点,即折合到输入端的电压噪声和输入失调电压进一步放大,导致输出噪声和失调电压增加。将电容CD与RD串联,可以消除增加的直流偏置电压,但这种技术会增加噪声,无法消除。这些电路在包含CD和不含CD两种情况下的有效噪声增益如图所示。 使用时,CD应尽可能大;最小值应为10ANOISE/(2πRDGBP),才能使“噪声极点”至少比“噪声带宽”低10倍。 环外补偿 这种方法是在运算放大器的输出端与负载电容之间增加一个电阻RX,如下图所示。该电阻显然在反馈环路之外,但它与负载电容一起,可将一个零点引人反馈网络的此传递函数,从而减小高频时的环路相移。 为确保稳定,RX值应使所增加的零点(fZ)至少比运算放大器电路的闭环带宽低10倍。增加RX后,电路性能不会像第一种方法一样受到影响,输出噪声不会增加,但相对负载而言的输出阻抗会提高。由于RX和RL构成电阻分压器,这可能会降低信号增益。如果RL已知且相当稳定,则可以提高运算放大器电路的增益,以抵消该增益损失。 这种方法对于驱动传输线路非常有效。为了避免驻波,RL和RX的值必须等于电缆的特性阻抗(一般为50Ω或75Ω)。因此,RX是预先确定的,剩下的工作就是让放大器的增益加倍,以便抵消电阻分压器造成的信号损耗,这样问题就解决了。 环内补偿 如果RL是未知的或动态变化的,则增益级的有效输出电阻必须保持较低。这种情况下,将RX连接在整个反馈环路以内可能有帮助,如下图所示。采用这种配置,直流和低频反做来自负载本身,因此从输入端到负载的信号增益仍然不受分压器(RX和RL)的影响。 此电路中增加的电容CF可以抵消CL所造成的极点和零点。简单地说,CF所产生的零点与CL所产生的极点一致,同时CF所产生的极点与CL所产生的零点一致。因此,总传递函数和相位响应与没有电容时完全一样。为了确保极点和零点组合均得以抵消,必须精确求解上述方程式。另外应注意条件;如果负载阻抗相对较大,则这些条件很容易得到满足。 如果RO未知,将难以计算。这种情况下,设计程序就变成猜谜游戏,这可以说是电路设计的噩梦。关于SPICE,有一点应当注意:运算放大器的SPICE模型并未精确模拟开环输出电阻(RO),因此并不能完全取代补偿网络的经验设计。 还有一点必须注意:CL必须为已知且恒定的值,才能应用这种技术。许多应用中,放大器驱动非常规负载,CL可能会因负载不同而有很大差别。只有CL是闭环系统的一部分时,使用以上电路才是最佳选择。 一种应用是对基准电压进行缓冲或反相,以驱动较大的去耦电容。此时,CL为固定值,可以精确抵消极点/零点组合。这种方法的低直流输出阻抗和低噪声(与前两种方法相比)非常有利。此外,基准电压的去耦电容可能很大(经常为若干微法),使用其它补偿方法并不可行。 以上三种方法均应用于“标准”、单位增益稳定、电压反馈型运算放大器,每种方法各有利弊。现在,您可以应用自己的知识来判断哪种方法最适合您的应用啦~ 关于世健 免责声明:本文内容由21ic获得授权后发布,版权归原作者所有,本平台仅提供信息存储服务。文章仅代表作者个人观点,不代表本平台立场,如有问题,请联系我们,谢谢!

摩登3测速代理_一个轻量级事件驱动嵌入式系统应用框架Quantum Platform

QP(Quantum Platform)是一个轻量级的、开源的、基于状态机的、事件驱动型应用程序框架。这个框架包括四部分: 事件处理器(QEP); 轻量级的事件驱动框架(QF); 任务调度微内核(QV、QK、QXK); 实时跟踪调试器(QS)。 (1)QEP Quantum Event Processor是一个通用的,可移植的,可重用的状态机引擎。 QEP允许你直接把UML样式的状态图映射为代码。 QEP提供了传统的简单平面状态机和层次式状态机。QEP可以直接操作事队列和事件分发机制。 (2)QF QF是一个通用的,事件驱动的应用框架,是一个实时框架,面向嵌入式系统。 QF被设计成和QEP,RTOS协同工作。 QF包含了事件队列,活动对象,事件遍历等。 (3)QK QK是一个轻量级可抢占型实时内核 QK是一个极小的,按RTC习惯的,执行独立任务的内核。 QK必须和QF版本相匹配。 (4)QS 一个强大的调试工具 事件处理器,也可以理解为一个状态机引擎,当有事件需要处理时,调用当前状态的状态函数处理这个事件,并处理调用状态函数的返回值,根据返回值进行相应的状态变换(如转移到父状态)。而且状态引擎也处理某状态的进入(ENTER)、退出(EXIT)、初始伪状态(INIT)。 QF是轻量级的、事件驱动、active objects框架。这个框架的主要任务是保证每个active object的线程安全,运行-到-完成(run-to-completion )的事件处理。它包含了直接的事件传送,发布-订阅(publish-subscribe)的事件转发,事件队列,时间事件(延时传送时间事件)。 协作内核(Vanilla内核),它只在time to completion的时候处理event,并在处理所有event后,对active object执行基于priority-based的调度器。它是隐式合作(implicitly-cooperative),因为活跃定时器不需要明确的放弃CPU。代替的是在完成事件处理后,简单的return到QV调度器中。 QK是一个超快速的抢占式,基于优先级的,单stack,实时内核专门为执行active objects而设计的。它总是会处理event queued中的高优先级的active objects,但它将event当作一次性的函数来调用(而不是像传统内核那样的endless循环)。尽管如此,如果新的事件优先级比当前处理的事件优先级高,QK内核依然提供了抢占式的一次性的event处理功能(像抢占式中断处理器允许中断彼此抢占)。这意味着,QK可以使用单stack来保存所有active objects的context。 QXK是一个简单的抢占,基于优先级的,阻塞,实时内核专门为传统的阻塞代码的主动对象,如商用中间件(TCP / IP协议栈,UDP协议栈,嵌入式文件系统等)或遗留代码混合设计。 QS是软件追踪系统,使开发人员能够以最少的系统资源监控目标,并没有停止或显著放缓代码直播事件驱动QP的应用程序。QS是用于测试,故障排除和优化QP应用的理想工具。QS甚至可以用于支持产品制造验收测试。 免责声明:本文内容由21ic获得授权后发布,版权归原作者所有,本平台仅提供信息存储服务。文章仅代表作者个人观点,不代表本平台立场,如有问题,请联系我们,谢谢!

摩登3内部554258_What is the Memory Model in C++11

C++11其实主要就四方面内容,第一个是可变参数模板,第二个是右值引用,第三个是智能指针,第四个是内存模型(Memory Model)。 相对来说,这也是较难理解的几个特性,分别针对于泛型编程,内存优化,内存管理和并发编程。 并发编程是个非常大的模块,而在诸多内容底下有一个基本的概念,就是并发内存模型(Memory Model)。 那么,什么是内存模型? 1 Memory Model 早在之前介绍并发编程的文章中,我们就知道同步共享数据很重要。而同步可分为两种方式:原子操作和顺序约束。 原子操作是数据操作的最小单元,天生不可再分;顺序约束可以协调各个线程之间数据访问的先后顺序,避免数据竞争。 通常的同步方式会有两个问题,一是效率不够,二是死锁问题。导致效率不够是因为这些方式都是lock-based的。 当然,若非非常在意效率,完全可以使用这些同步方式,因其简单方便且不易出错。 若要追求更高的效率,需要学习lock-free(无锁)的同步方式。 内存模型,简单地说,是一种介于开发者和系统之间的并发约定,可以无锁地保证程序的执行逻辑与预期一致。 这里的系统包括编译器、处理器和缓存,各部分都想在自己的领域对程序进行优化,以提高性能,而这些优化会打乱源码中的执行顺序。尤其是在多线程上,这些优化会对共享数据造成巨大影响,导致程序的执行结果往往不遂人意。 内存模型,就是来解决这些优化所带来的问题。主要包含三个方面: Atomic operations(原子操作) Partial ordering of operations(局部执行顺序) Visible effects of operations(操作可见性) 原子操作和局部执行顺序如前所述,「操作可见性」指的是不同线程之间操作共享变量是可见的。 原子数据的同步是由编译器来保证的,而非原子数据需要我们自己来规划顺序。 2 关系定义 这里有三种关系术语, sequenced-before happens-before synchronizes-with 同一线程语句之间,若A操作在B操作之前执行,则表示为A sequenced-before B,A的执行结果对B可见。 而在不同线程的语句之间,若A操作在B操作之前就已发生,则表示为A happens-before B。该关系具有可传递性,也就是说,若A happens-before B,B happens-before C,则一定能得出A happens-before C。 若A操作的状态改变引发了B操作的执行,则表示为A synchronizes-with B。比如我们学过的事件、条件变量、信号量等等都会因一个条件(状态)满足,而执行相应的操作,这种状态关系就叫做synchronizes-with。 由于synchronizes-with的特性,可以借其实现happens-before关系。 内存模型就是提供一个操作的约束语义,借其可以满足上述关系,实现了顺序约束。 3 Atomics(原子操作) 原子操作的知识之前也介绍过,限于篇幅,便不再捉细节。 先来整体看一下原子操作支持的操作类型,后面再来讲应用。 这里挑两个来介绍一下相关操作,算是回顾。 第一个来讲atomic_flag,这是最简单的原子类型,代表一个布尔标志,可用它实现一个自旋锁: 1#include  2#include  3#include  4 5class spin_lock 6{ 7    std::atomic_flag flag = ATOMIC_FLAG_INIT; 8public: 9    void lock() { while(flag.test_and_set()); }1011    void unlock() { flag.clear(); }12};1314spin_lock spin;15int g_num = 0;16void work()17{18    spin.lock();1920    g_num++;2122    spin.unlock();23}2425int main()26{27    std::thread t1(work);28    std::thread t2(work);29    t1.join();30    t2.join();3132    std::cout << g_num;3334    return 0;35} atomic_flag必须使用ATOMIC_FLAG_INIT初始化,该值就是0,也就是false。 只能通过两个接口来操作atomic_flag: clear:清除操作,将值设为false。 test_and_set:将值设为true并返回之前的值。 第9行的lock()函数实现了自旋锁,当第一个线程进来的时候,由于atomic_flag为false,所以会通过test_and_set设置为true并返回false,第一个线程于是可以接着执行下面的逻辑。 当第二个线程进来时,flag为true,因此会一直循环,只有第一个线程中unlock了才会接着执行。由此保证了共享变量g_num。 第二个来讲atomic ,它所支持的原子操作要比atomic_flag多。 一个简单的同步操作: 1#include  2#include  3#include  4#include  5#include  6#include  7 8std::atomic<bool> flag{false}; 9std::vector<int> shared_values;10void work()11{12    std::cout << "waiting" << std::endl;13    while(!flag.load())14    {15        std::this_thread::sleep_for(std::chrono::milliseconds(5));16    }1718    shared_values[1] = 2;19    std::cout << "end of the work" << std::endl;20}2122void set_value()23{24    shared_values = { 7, 8, 9 };25    flag = true;26    std::cout << "data prepared" << std::endl;27}2829int main()30{31    std::thread t1(work);32    std::thread t2(set_value);33    t1.join();34    t2.join();3536    std::copy(shared_values.begin(), shared_values.end(), std::ostream_iterator<int>(std::cout, " "));3738    return 0;39} 这里有两个线程,它们之间拥有执行顺序,只有先在set_value函数中设置好共享值,才能在work函数中修改。 通过flag的load函数可以获取原子值,在值未设置完成时其为false,所以会一直等待数据到来。当flag变为true时,表示数据已经设置完成,于是会继续工作。 4 Memory ordering(内存顺序) 是什么保证了上述原子操作能够在多线程环境下同步执行呢? 其实在所有的原子操作函数中都有一个可选参数memory_order。比如atomic 的load()和store()原型如下: bool std::_Atomic_bool::load(std::memory_order _Order = std::memory_order_seq_cst) const noexceptvoid std::_Atomic_bool::store(bool _Value, std::memory_order _Order = std::memory_order_seq_cst) noexcept 这里的可选参数默认为memory_order_seq_cst,所有的memory_order可选值为: enum memory_order {    memory_order_relaxed,    memory_order_consume,    memory_order_acquire,    memory_order_release,    memory_order_acq_rel,    memory_order_seq_cst}; 这就是C++提供的如何实现顺序约束的方式,通过指定特定的memory_order,可以实现前面提及的sequence-before、happens-before、synchronizes-with关系。 顺序约束是我们和系统之间的一个约定,约定强度由强到弱可以分为三个层次: Sequential consistency(顺序一致性): memory_order_seq_cst Acquire-release(获取与释放): memory_order_consume,memory_order_acquire,memory_order_release,memory_order_acq_rel Relaxed(松散模型): memory_order_relaxed Sequential consistency保证所有操作在线程之间都有一个全局的顺序,Acquire-release保证在不同线程间对于相同的原子变量的写和读的操作顺序,Relaxed仅保证原子的修改顺序。 为何要分层次呢? 其实顺序约束和系统优化之间是一种零和博弈,约束越强,系统所能够做的优化便越少。 因此每个层次拥有效率差异,层次越低,优化越多,效率也越高,不过掌握难度也越大。 所有的Memory order按照操作类型,又可分为三类: Read(读):memory_order_acquire,memory_order_consume Write(写):memory_order_release Read-modify-Write(读-改-写):memory_order_acq_rel,memory_order_seq_cst Relaxed未定义同步和顺序约束,所以要单独而论。 例如load()就是Read操作,store()就是Write()操作,compare_exchange_strong就是Read-modify-Write操作。 这意味着你不能将一个Read操作的顺序约束,写到store()上。例如,若将memory_order_acquire写到store()上,不会产生任何效果。 我们先来从默认的Sequential consistency开始,往往无需设置,便默认是memory_order_seq_cst,可以写一个简单的生产者-消费者函数: 1std::string sc_value;…

摩登3平台注册登录_中兴SSB 1+X方案规模商用助力运营商5G领航城市网络建设

如何高效、低成本地实现5G高层覆盖、让高楼用户也能畅享5G呢? 中兴提出了一种SSB 1+X的创新方案,助力运营商解决高楼场景网络建设。 免责声明:本文内容由21ic获得授权后发布,版权归原作者所有,本平台仅提供信息存储服务。文章仅代表作者个人观点,不代表本平台立场,如有问题,请联系我们,谢谢!

摩登3测速登录地址_嵌入式开发中常用的几种通信接口总结

在嵌入式系统中,板上通信接口是指用于将各种集成电路与其他外围设备交互连接的通信通路或总线。以下内容为常用板上通信接口:包括I2C、SPI、UART、1-Wire: I2C总线 I2C总线是一种同步、双向、半双工的两线式串行接口总线。这里,半双工的含义是指在任意给定的时刻,只有一个方向上是可以通信的。 I2C总线最早由Philips半导体公司于20世纪80年代研发面市。I2C最初的设计目标是为微处理器/微控制器系统与电视机外围芯片之间的连接提供简单的方法。 I2C总线由两条总线组成:串行时钟线SCL和串行数据线SDA。 SCL线——负责产生同步时钟脉冲。 SDA线——负责在设备间传输串行数据。 I2C总线是共享的总线系统,因此可以将多个I2C设备连接到该系统上。连接到I2C总线上的设备既可以用作主设备,也可以用作从设备。 主设备负责控制通信,通过对数据传输进行初始化/终止化,来发送数据并产生所需的同步时钟脉冲。 从设备则是等待来自主设备的命令,并响应命令接收。主设备和从设备都可以作为发送设备或接收设备。无论主设备是作为发送设备还是接收设备,同步时钟信号都只能由主设备产生。 在相同的总线上,I2C支持多个主设备的同时存在。图1-1显示了I2C总线上主设备和从设备的连接关系。 当总线空闲时,SDA 和SCL 都处于高电平状态,当主机要和某个从机通讯时,会先发送一个开始条件,然后发送从机地址和读写控制位,接下来传输数据(主机发送或者接收数据),数据传输结束时主机会发送停止条件。传输的每个字节为8 位,高位在前,低位在后。 开始条件:SCL 为高电平时,主机将SDA 拉低,表示数据传输即将开始。 从机地址:主机发送的第一个字节为从机地址,高7 位为地址,最低位为R/W 读写控制位,1 表示读操作,0 表示写操作。 一般从机地址有7 位地址模式和10 位地址模式两种,如果是10 位地址模式,第一个字节的头7 位是11110XX 的组合,其中最后两位(XX)是10 位地址的两个最高位,第二个字节为10 位从机地址的剩下8 位,如下图所示: 应答信号:每传输完成一个字节的数据,接收方就需要回复一个ACK(acknowledge)。写数据时由从机发送ACK,读数据时由主机发送ACK。当主机读到最后一个字节数据时,可发送NACK(Notacknowledge)然后跟停止条件。 数据:从机地址发送完后可能会发送一些指令,依从机而定,然后开始传输数据,由主机或者从机发送,每个数据为8 位,数据的字节数没有限制。 重复开始条件:在一次通信过程中,主机可能需要和不同的从机传输数据或者需要切换读写操作时,主机可以再发送一个开始条件。 停止条件:在SDA 为低电平时,主机将SCL 拉高并保持高电平,然后在将SDA 拉高,表示传输结束。 SPI总线 SPI总线是同步、双向、全双工的4线式串行接口总线,最早由Motorola公司提出。SPI是由“单个主设备+多个从设备”构成的系统。需要说明的是:在系统中,只要任意时刻只有一个主设备是处于激活状态的,就可以存在多个SPI主设备。常运用于EEPROM、FLASH、实时时钟、AD转换器、数字信号处理器和数字信号解码器之间实现通信。 为了实现通信,SPI共有4条信号线,分别是: (1)主设备出、从设备入(Master Out Slave In,MOSI):由主设备向从设备传输数据的信号线,也称为从设备输入(Slave Input/Slave Data In,SI/SDI)。 (2)主设备入、从设备出(Master In Slave Out,MISO):由从设备向主设备传输数据的信号线,也称为从设备输出(Slave Output/Slave Data Out,SO/SDO)。 (3)串行时钟(Serial Clock,SCLK):传输时钟信号的信号线。 (4)从设备选择(Slave Select,SS):用于选择从设备的信号线,低电平有效。 SPI使用方法: 上图所示芯片有2 个SPI 控制器,SPI 控制器对应SPI 主设备,每个SPI 控制器可以连接多个SPI从设备。挂载在同一个SPI 控制器上的从设备共享3 个信号引脚:SCK、MISO、MOSI,但每个从设备的CS 引脚是独立的. 主设备通过控制CS 引脚对从设备进行片选,一般为低电平有效。任何时刻,一个SPI 主设备上只有一个CS 引脚处于有效状态,与该有效CS 引脚连接的从设备此时可以与主设备通信。 所以,SPI通信方式可以使用“一主多从”的结构进行通信。每个连接到总线上的器件都有唯一的地址,主设备启动数据传输并产生时钟信号,从设备被主设备寻址,同一时刻只允许有一个主设备。 从设备的时钟由主设备通过SCLK 提供,MOSI、MISO 则基于此脉冲完成数据传输。SPI 的工作时序模式由CPOL(Clock Polarity,时钟极性)和CPHA(Clock Phase,时钟相位)之间的相位关系决定,CPOL 表示时钟信号的初始电平的状态,CPOL 为0 表示时钟信号初始状态为低电平,为1 表示时钟信号的初始电平是高电平。CPHA 表示在哪个时钟沿采样数据,CPHA 为0 表示在首个时钟变化沿采样数据,而CPHA 为1 则表示在第二个时钟变化沿采样数据。 根据CPOL 和CPHA 的不同组合共有4 种工作时序模式:CPOL=0,CPHA=0、CPOL=0,CPHA=1、CPOL=1,CPHA=0、CPOL=1,CPHA=1 UART UART——通用异步收发传输器,UART 作为异步串口通信协议的一种,工作原理是将传输数据的每个字符一位接一位地传输。在应用程序开发过程中使用频率较高的数据总线。 基于UART的数据传输是异步形式的串行数据传输。基于UART的串行数据传输不需要使用时钟信号来同步传输的发送端和接收端,而是依赖于发送设备和接收设备之间预定义的配置。 对于发送设备和接收设备来说,两者的串行通信配置(波特率、单位字的位数、奇偶校验、起始位数与结束位、流量控制)应该设置为完全相同。通过在数据流中插入特定的比特序列,可以指示通信的开始与结束。当发送一个字节数据的时候,需要在比特流的开头加上起始位,并在比特流的末尾加上结束位。数据字节的最低位紧接在起始位之后。 UART 串口的特点是将数据一位一位地顺序传送,只要2 根传输线就可以实现双向通信,一根线发送数据的同时用另一根线接收数据。 UART 串口通信有几个重要的参数,分别是波特率、起始位、数据位、停止位和奇偶检验位,对于两个使用UART 串口通信的端口,这些参数必须匹配,否则通 起始位:表示数据传输的开始,电平逻辑为“0” 。 数据位:可能值有5、6、7、8、9,表示传输这几个bit 位数据。一般取值为8,因为一个ASCII 字符值为8 位。 奇偶校验位:用于接收方对接收到的数据进行校验,校验“1” 的位数为偶数(偶校验) 或奇数(奇校验),以此来校验数据传送的正确性,使用时不需要此位也可以。 停止位:表示一帧数据的结束。电平逻辑为“1”。 波特率:串口通信时的速率,它用单位时间内传输的二进制代码的有效位(bit) 数来表示,其单位为每秒比特数bit/s(bps)。常见的波特率值有4800、9600、14400、38400、115200 等,数值越大数据传输的越快,波特率为115200…

摩登3娱乐怎么样?_“曙光城市云”助力南召脱贫攻坚,走出发展新路径

2020年是打赢脱贫攻坚战,全面建成小康社会的决战之年,一场突如其来的疫情更让脱贫攻坚决战之路难上加难。然而,随着数字经济在“新基建”推动下快速发展并向各领域渗透逐渐加深,以曙光城市云中心为核心的数字技术在精准扶贫、公共服务均等化和产业扶贫三方面赋能脱贫攻坚的作用不断凸显,有力保障了脱贫攻坚决战的胜利。 数字技术助力精准扶贫 地处伏牛山腹地的河南省南召县,是典型的深山县、库区淹没县,是国家扶贫开发工作重点县。2017年,南召提出建设“实力、生态、智慧、幸福”新南召的发展定位,“智慧南召”开启了数字扶贫的新篇章。随着曙光城市云中心投入使用,南召县108个单位实现了市、县、乡镇的互联互通,南召以“一网通办”为突破口,打响了脱贫攻坚的“数字战役”。 该县将县域内各项社会、人口、经济数据录入云平台,使数据在全县各单位、各乡镇实现共享,通过大数据技术推动行政、社会、经济、民生多方面一体化统筹,取得了因地制宜,因人而异的精准扶贫,在今年2月彻底摘掉了“国家级贫困县”的帽子。 “信息高速路”带来发展新路径 按照智慧南召的发展要求,南召县凭借曙光城市云中心带来的政务信息化优势,以“政用、民用、商用”为主线,以“优政、利民、兴业”为基本目标,以数据开放和资源共享为途径,深入推进技术融合、业务融合、数据融合,推动政府决策科学化、社会治理精准化、公共服务高效化,乘着“新基建”的东风,着力打造数字经济大县,为实现南召县“三网建设”培育高质量发展新优势扫清障碍。 2017年以来,南召县着重发力交通网络建设、大数据网络和电商物流网络“三网建设”。在大数据网络建设方面,南召县依托曙光城市云,通过整合、优化38个部门的960多项具体审批事项,实现了政务服务跨行业、跨部门、跨层级协作,建立了智慧政务服务平台,实现了“一窗受理、一网通办”,大大加快了信息资源共享和业务协同,以及数据资源的整合与挖掘。目前已推出948项网上可办事项,审批服务事项网上可办率达到了97%,做到了“让数据多跑路,让群众少跑腿”。 此外,曙光城市云中心还有力支撑了南召“电商网”的发展,成为了南召县打赢脱贫攻坚战役的新武器。凭借强大的算力,南召曙光城市云中心可支撑1万个大中型企业应用或10万个小微型企业应用,为县域经济的发展提供了强劲后劲。目前该县已建成电子商务产业园,注册服务类、平台类、应用类电子商务企业100余家,2020年该县电子商务从业人数达2000余人,全年电子商务交易额突破22亿元。 曙光依据南召县的实际情况,结合社会经济发展目标与规划布局,以曙光城市云中心为核心,打造的智慧社会治理、智慧生态环保、智慧园区等N个智慧应用平台,有序推进南召新兴智慧城市建设各项任务,实现全域协调发展。 2017年11月,中科曙光与南召县签署战略合作协议,通过曙光首创的“企业投建云中心,政府购买云服务”的商业模式,为政府电子政务平台和政务服务平台提供安全可靠、性能优异、应用丰富、成本低廉的云服务平台。随着云服务的逐渐深入,曙光与南召各乡镇、重点企业进行了广泛而深入的合作,推进了行业间技术融合、业务融合与数据融合发展,实现了智慧交通、智慧文旅、智慧生态、智慧水利、智慧医疗、智慧教育等应用板块建设,全面提升了城市智慧水平,带动了区域经济转型升级和高质量发展。 曙光城市云中心作为推动高质量发展的主抓手和突破口,为南召县的发展打通了信息“大动脉”。其意义,不仅在于大幅度提升了南召新兴基础设施水平,更重要的是,把数字经济和互联网的思维方式、生产方式、生活方式引入经济社会发展之中,为政府的科学施政、及时处理提供了有力依据。此外,该中心经过两年的运营,已形成一套符合南召实际情况的完整运营与运维机制,为今后主导产业转型升级,实施乡村振兴战略,提升社会治理水平,促进县域经济高质量发展提供全新动力。 未来,南召依托曙光城市云中心,双方将深化合作,全面建成南召新兴智慧城市平台和体系,形成统筹协调发展、体制机制完善、政府运行高效、社会治理、数字经济、智慧经济创新活跃的南召新局面,树立先进智慧城市建设新典范。