分类目录:摩登3官网注册

摩登3咨询:_关于现场总线技术,这篇文章我想推荐给你~

PROCENTEC等行业专家的数据显示,采用基于RS-485现场总线技术(PROFIBUS®)的应用在持续增长,工业以太网(PROFINET)应用也在快速增长。2018年,全球共安装6100万个PROFIBUS现场总线节点,PROFIBUS过程自动化(PA)设备同比增长7%。PROFINET安装基数为2600万个节点,仅2018年安装的器件数量就达到5100万。 随着RS-485现场总线采用率的稳定增长,同时工业4.0加快了智能互联工厂的发展,我们需要确保不断优化现场总线技术,为智能系统提供支持。经过优化的现场总线技术必须仔细权衡EMC稳定性和数据传输可靠性这两个因素。 不可靠的数据传输会降低整体系统性能。在运动控制应用中,现场总线一般用于对单轴或多轴电机实施闭环位置控制。这些电机一般处于高数据速率、长电缆传输线状态,如图1所示。如果位置控制不可靠,那么实际性能会下降,次品率上升,进而导致工厂生产率降低。在无线基础设施应用中,现场总线一般用于对天线实施倾斜度/位置控制,因此准确的数据传输至关重要。在运动控制和无线基础设施应用中,需要提供不同级别的EMC保护,具体如图1所示。运动控制应用通常处于电噪声环境中,这可能导致数据误差。对于无线基础设施,则必须为其提供保护措施,避免在裸露的环境中间接遭受雷击损坏。 图1. RS-485的EMC、数据速率和电缆长度要求。 对于这些要求严苛的应用,需要仔细检查RS-485收发器的电缆时序性能,以确保系统可靠性和EMC特性。本文将介绍几个重要的系统时序和通信电缆概念;阐述一些关键性能指标,包括时钟和数据分配、电缆驱动能力;并展示使用下一代ADM3065E/ADM3066E RS-485收发器为工业应用带来的优势。 时序性能 为了在高数据速率下通过长电缆实现可靠的数据传输,必须考虑影响RS-485的一些重要因素,例如通常与低压差分信号(LVDS)有关的抖动和偏斜等时序性能概念。RS-485收发器和系统电缆造成的抖动和偏斜都需要考虑。 抖动和偏斜 抖动可以量化为时间间隔误差;即信号跃迁的预期到达时间和实际到达时间之间的差值。在通信链路中,有多种因素会导致抖动。基本上,每种导致抖动的因素都可以描述为是随机或确定性的。随机抖动可以通过高斯分布描述,一般源于半导体内部的热噪声和宽带散射噪声。确定性抖动则来自通信系统内部;例如,占空比失真、串扰、周期性外部噪声源或码间干扰。对于使用 RS-485标准的通信系统,数据速率低于100 MHz,确定性抖动更明显。 峰峰值抖动是衡量确定性来源产生的系统抖动总体性能的有用指标。其可以在时域中测量,具体是通过在同一显示屏上叠加大量信号跃迁(一般被称为眼图)。使用无限持续的示波器显示屏或者使用示波器的内置抖动分解软件来实现,如图2所示。 图2. 时间间隔误差、抖动和眼图。 重叠跃迁的宽度为峰峰抖动,中间的空白区域称为眼。这个眼是接收节点在RS-485长电缆的远端可以采样的区域。眼宽越大,接收节点可以采样的窗口越宽,且可以降低错误接收位的风险。可用眼主要受来自RS-485驱动器和接收器,以及互联电缆的确定性抖动影响。 图3显示通信网络中造成抖动的各种来源。在基于RS-485的通信系统中,影响时序性能的两大因素是收发器脉冲偏斜和码间干扰。脉冲偏斜也称为脉冲宽度失真或占空比失真,是收发器在发射和接收节点产生的一种确定性抖动。脉冲偏斜定义为信号上升沿和下降沿之间的传输延迟差值。在差分通信中,这种偏斜会产生不对称交越点,并且发送0s和1s的持续时间不匹配。在时钟分配系统中,过度的脉冲偏斜表现为发射时钟的占空比失真。在数据分配系统中,这种不对称会增加眼图中显示的峰峰抖动。在这两种情况下,过度的脉冲偏斜会对通过RS-485传输的信号产生不利影响,且会降低可用的采样窗口和整个系统的性能。 图3. RS-485通信网络中造成抖动的主要因素。 当信号沿的到达时间受到处理该信号沿的数据模式影响时,会发生码间干扰(ISI)。对于采用长电缆互联的应用,码间干扰效应变得越来越明显,使其成为影响RS-485网络的关键因素。更长的互联会产生RC时间常数,其中电缆电容在单个位周期结束时没有充满电。在发射数据只由时钟组成的应用中,不存在这种码间干扰。码间干扰也可能由电缆传输线上的阻抗不匹配(因为短截线或终端电阻使用不当)引起。具备高输出驱动能力的RS-485收发器一般可以帮助最大限度降低码间干扰效应,因为它们对RS-485电缆负载电容充电时所需的时间更短。 峰峰抖动容差的百分比与应用高度相关,一般使用10%抖动作为衡量RS-485收发器和电缆性能的基准。过度抖动和偏斜会影响接收端RS-485收发器的采样性能,增大发生通信错误的风险。在正确端接的传输网络中,选择经过优化的收发器,以最大限度降低收发器脉冲偏斜和码间干扰效应,才能实现更可靠、无错的通信链路。 RS-485收发器设计和电缆影响 TIA-485-A/EIA-485-A RS-485标准提供了RS-485发射器和接收器的设计和操作范围相关规范,包括电压输出差分(VOD)、短路特性、共模负载、输入电源阈值和范围。TIA-485-A/EIA-485-A标准未规定RS-485的时序性能(包括偏斜和抖动),由IC供应商根据产品数据手册规格进行优化。 其他标准,例如TIA-568-B.2/EIA-568-B.2双绞线电信标准提供了电缆交流和直流影响RS-485信号质量的背景。此标准提供了抖动、偏斜和其他时序测量的相关考量和测试程序,并设置了性能限值;例如,5e电缆允许的最大偏斜为45 ns/100 m。ADI应用笔记 AN-1399 详细探讨了TIA-568-B.2/EIA-568-B.2标准,以及使用非理想电缆对系统性能的影响。 虽然可用标准和产品数据手册提供了很多有用信息,但任何有意义的系统定时性能表征都需要在长电缆上测量RS-485收发器的性能。 使用RS-485实现更快速、更广泛地通信 ADM3065E RS-485收发器具备超低的发射器和接收器偏斜性能,所以非常适合用于传输精密时钟,通常采用电机编码标准。事实证明,ADM3065E在电机控制应用中采用典型电缆长度的确定性抖动小于5%(图4和图5)。ADM3065E具有较宽的电源电压范围,因此这种时序性能水平也可用于需要3.3 V或5 V收发器电源的应用。 图4. ADM3065E的典型时钟抖动性能。 图5. ADM3065E接收眼图:分布在100 m电缆上的25 MHz时钟。 除了出色的时钟分配,ADM3065E时序性能还支持实现可靠的数据分配,以及高速输出和最少的附加抖动。图6显示,通过使用 ADM3065E,RS-485数据通信的时序限制会大大放宽。标准RS-485收发器的抖动通常为10%或更低。ADM3065E可以在长达100米的电缆上以20 Mbps以上的速度运行,并且仍然可以在接收节点保持10%的抖动。这种低水平抖动降低了接收数据节点错误采样的风险,可实现使用典型的RS-485收发器无法实现的传输可靠性。对于接收节点可以容忍高达20%抖动的应用,可以在100米电缆内实现高达35 Mbps的数据速率。 图6. ADM3065E接收数据节点具有出色的抖动性能。 这种时序性能使ADM3065E成为电机控制编码器通信接口的理想选择。对于使用EnDat 2.2编码器协议传输的每个数据包,数据传输都与时钟下降沿同步。图7显示,对绝对位置(TCAL)进行初始计算后,起始位开始将数据从编码器传输回主控制器。随后的错误位(F1,F2)表明了当编码器引起的故障错误的具体位置。然后,编码器发送一个绝对位置值,以LS开头,后接数据。时钟和数据信号的完整性对于通过长电缆能否成功发送定位和错误信号至关重要,EnDat 2.2指定最大抖动为10%。这是EnDat 2.2指定采用20米电缆、16 MHz时钟速率时的最高抖动要求。图4显示,ADM3065E能够满足此要求,时钟抖动仅5%,图6显示ADM3065E能够满足数据传输抖动要求,但标准RS-485收发器不能满足。 图7. 时钟/数据同步的EnDat 2.2物理层和协议(基于EnDat 2.2图表实施调整)。 ADI公司对ADM3065E收发器出色的电缆时序性能进行表征,确保系统设计人员掌握必要的信息,以便成功开发符合EnDat 2.2规格要求的设计。 更长电缆通信实现更高可靠性 TIA-485-A/EIA-485-A RS-485标准要求采用合规的RS-485驱动器,在满负载网络中产生至少1.5 V的差分电压幅值VOD。这个1.5 VOD允许在长电缆内发生1.3 V直流电压衰减,而RS-485接收器要求以至少200 mV输入差分电压工作。ADM3065E用于在提供5 V供电时输出至少2.1 V 的VOD,此情况已经超出了RS-485规范要求。 满负载RS-485网络相当于54 Ω差分负载,该负载模拟双端接总线,包含2个120 Ω电阻,另外750 Ω则由32个1单位负载(或12 kΩ)连接器件构成。ADM3065E采用专有的输出架构,可在满足共模电压范围要求的同时最大化VOD,并超越了TIA-485-A/EIA-485-A的要求。图8显示,ADM3065E在使用3.3 V电轨供电时,产生的驱动力超过RS-485标准要求>210%,而采用5 V电轨供电则超过>300%。这扩大了ADM3065E系列的通信范围,相比常规的RS-485收发器,支持更多远程节点和更高的噪声容限。 图8. ADM3065E在广泛电源范围内的性能表现均超越了RS-485驱动器要求。 图9通过1000米电缆的典型应用性能,进一步说明了这一点。通过标准AWG 24电缆通信时,ADM3065E的性能比标准的RS-485收发器高 30%—接收节点上的噪声容限高30%,或者在低数据速率下,最大电缆长度增加30%。这种性能非常适合RS-485电缆长达数百米的无线基础设施应用。 图9. ADM3065E能够为超长距离应用提供出色的差分信号。 EMC保护和抗扰度 RS-485信号采用平衡差分式传输,本身就具有一定的抗干扰能力。系统噪声均等地耦合到RS-485双绞线电缆中的每条导线。双绞线使产生的噪声电流沿相反方向流动,与RS-485总线耦合的电磁场相互抵消。这降低了系统的电磁敏感性。此外,ADM3065E增强的2.1 V驱动强度支持在通信中实现更高的信噪比(SNR)。在长电缆传输中,例如地面和无线基站天线之间的距离长达几百米,具备增强的SNR性能和出色的信号完整性可以确保对天线实施准确、可靠的倾斜/位置控制。 图10. 无线基础设施的电缆长度可能超过几百米。 结论 免责声明:本文内容由21ic获得授权后发布,版权归原作者所有,本平台仅提供信息存储服务。文章仅代表作者个人观点,不代表本平台立场,如有问题,请联系我们,谢谢!

摩登3娱乐登录地址_优秀!一鼓作气学会“一致性哈希”,就靠这18张图了

前言 当架构师大刘看到实习生小李提交的记账流水乱序的问题的时候,他知道没错了:这一次,大刘又要用一致性哈希这个老伙计来解决这个问题了。 嗯,一致性哈希,分布式架构师必备良药,让我们一起来尝尝它。 1. 满眼都是自己二十年前的样子,让我们从哈希开始 在 N 年前,互联网的分布式架构方兴未艾。大刘所在的公司由于业务需要,引入了一套由 IBM 团队设计的业务架构。 这套架构采用了分布式的思想,通过 RabbitMQ 的消息中间件来通信。这套架构,在当时的年代里,算是思想超前,技术少见的黑科技架构了。 但是,由于当年分布式技术落地并不广泛,有很多尚不成熟的地方。所以,这套架构在经年日久的使用中,一些问题逐渐突出。其中,最典型的问题有两个: RabbitMQ 是个单点,它一坏掉,整个系统就会全部瘫痪。 收、发消息的业务系统也是单点。任何一点出现问题,对应队列的消息要么无从消费,要么海量消息堆积。 无论哪种问题,最终是整套分布式系统都无法使用,后续处理非常麻烦。 对于 RabbitMQ 的单点问题,由于当时 RabbitMQ 的集群功能非常弱,普通模式有 queue 本身的单点问题,所以,最终使用了 Keepalived 配合了两台无关系的 RabbitMQ 搞出了高可用。 而对于业务系统单点问题,从一开始着手解决的时候就出现了波折。一般来说,我们要解决单点问题,方法就是堆机器,堆应用。收发是单点,我们直接多部署几个应用就可以了。如果仅仅从技术上看,无非就是多个收发消息的应用大家一起竞争往 MQ 中放消息拿消息而已。 但是,恰恰就是在把收发消息的应用集群化后,系统出现了问题。 本身这套系统架构会被应用到公司的多类业务上,有些业务对消息的顺序有着苛刻的要求。 比如,公司内部的 IM 应用,不管是点对点的聊天还是群聊消息,都需要对话消息严格有序。而当我们把生产消息和消费消息的应用集群化后,问题出现了: 聊天记录出现了乱序 A 和 B 对话,会出现某些消息没有严格按照 A 发出的先后顺序被 B 接收,于是整个聊天顺序乱成了一锅粥。 经过排查,发现问题的根源就在于应用集群上。由于没有对应用集群收发消息做特殊的处理,当 A 发出一条聊天信息给B时,发送到 RabbitMQ 中的信息会被在 B 处的消费端所争抢。如果 A 在短时间内发出了几条信息,那么就可能会被集群中的不同应用抢走。 这时候,乱序的问题就出现了。虽然应用业务逻辑是相同的,但是这些集群中的应用依然可能在处理信息速度上出现差异,最终导致用户看到的聊天信息错乱。 问题找到了,解决办法是什么? 上面我们说过了,消息顺序错乱是因为集群中不同应用抢消息然后处理速度不一样导致的。如果我们能保证 A 和 B 会话,从开始之后到会话结束之前,永远只会被 B 所在的消费消息集群应用中的同一个应用消费,那么我们就能保证消息有序。这样一来,我们就可以在消费消息的那个应用中,对抢到的消息进行排队,然后依次处理。 那么,这种保证怎么实现呢? 首先,我们在 RabbitMQ 中会建立有相同前缀的队列,后面跟着队列编号。然后,集群中的不同应用会分别监听这两个有着不同编号的队列。当在 A 发送信息时,我们会对信息做一次简单的哈希: m = hash(id) mod n 这里,id 是用户的标识。n 是集群中 B 所在业务系统部署的数量。最终的 m 是我们需要发送到的目的队列编号。 假设,hash(id) 的结果为 2000,n 为 2,经过计算 m = 0。此时,A 就会把他和 B 的对话信息都发送到 chat00 的队列里。B 收到消息后,就会依次显示给终端用户。这样,聊天乱序的问题就解决了。 那么,事情到此就结束了吗?这个解决方案是完美的吗? 2. 看来,我们需要增加应用数量了 随着公司的发展,公司的人数也急剧上升,公司内部的 IM 使用人数也跟着多了起来,新问题又随之出现了。 最主要的问题是,人们收到聊天信息的速度变慢了。原因也很简单,收取聊天信息的集群机器不够用了。解决办法可以简单直接点,再加台机器就好了。 不过,由于收消息的集群中新加入了一台机器,这时候,我们还需要额外多做一些事情: 我们需要为新加入的这台机器上的应用额外再多增加一个队列 chat02。 我们还需要修改下我们的分配消息的规则,把原来的 hash(id) mod 2 修改为 hash(id) mod 3。 重新启动发送消息的项目,以便修改的规则生效。 把收消息的应用部署到新机器上。 到这时,一切还都在可控范围。开发人员只需要在需要的时候,新增加个队列,然后把我们的分配规则小小的修改下即可。 但是,他们不知道的是,暴风雨就要来了。 3. 新的问题来了,也许这就是人生吧…

摩登3娱乐怎么样?_深度剖析不一样的Redis架构设计

–      01、不一样的Redis    – 提到Redis,大家一定会想到的几个点是什么呢? 高并发、KV存储、内存数据库、丰富的数据结构、单线程(版本6之前)等。 那么,接下来,上面提到的这些,都会一一给大家解答,带大家系统剖析一下Redis的架构设计魅力! –      02、为什么会出现缓存?    – 一般情况下,数据都是在数据库中,应用系统直接操作数据库。当访问量上万,数据库压力增大,这个时候,怎么办呢? 有小伙伴会说,分库分表、读写分离。的确,这些确实是解决比较高的访问量的解决办法,但是,如果访问量更大,10万,100万呢?怎么分似乎都不解决问题吧,所以我们需要用到其他办法,来解决高并发带来的数据库压力。 这个时候,缓存出现了,顾名思义,就是先把数据缓存在内存中一份,当访问的时候,我们会先访问内存的数据,如果内存中的数据不存在,这个时候,我们再去读取数据库,之后把数据库中的数据再备份一份到内存中,这样下次读请求过来的时候,还是会直接先从内存中访问,访问到内存的数据了之后就直接返回了。这样做就完美的降低了数据库的压力,可能十万个请求进来,全部都访问了内存中备份的数据,而没有去访问数据库,或者说只有少量的请求访问到了数据库,这样真的是大大降低了数据库的压力,而且这样做也提高了系统响应,大家想一下,内存的读写速度是远远大于硬盘的读写速度的,一个请求进来读取的内存可以比读取硬盘快很多很多,用户的体验也会很高。 –      03、什么是缓存?    – 缓存原指CPU上的一种高速存储器,它先于内存与CPU交换数据,速度很快。 现在泛指存储在计算机上的原始数据的复制集,便于快速访问。 在互联网技术中,缓存是系统快速响应的关键技术之一。 –      04、缓存的三种读写模式    – 1、Cache Aside Pattern(常用) Cache Aside Pattern(旁路缓存),是最经典的缓存+数据库读写模式。 读的时候,先读缓存,缓存没有的话,就读数据库,然后取出数据后放入缓存,同时返回响应。 更新的时候,先更新数据库,然后再删除缓存。 为什么是删除缓存,而不是更新缓存呢? 1、缓存的值是一个结构,hash、list等更新数据需要遍历; 2、懒加载,使用的时候才更新缓存,也可以采用异步的方式填充缓存。 高并发脏读的三种情况: 1、先更新数据库,在更新缓存; update与commit之间,更新缓存,commit失败,则DB与缓存数据不一致。 2、先删除缓存,再更新数据库 update与commit之间,有新的读,缓存空,读DB数据到缓存,数据是旧的数据; commit后DB为新的数据; 则DB与缓存数据不一致。 3、先更新数据库,再删除缓存(推荐) update与commit之间,有新的读,缓存空,读DB数据到缓存,数据是旧的数据; commit后DB为新的数据; 则DB与缓存数据不一致; 采用延时双删策略。 2、Read/Write Through Pattern 应用程序只操作缓存,缓存操作数据库; Read-Through(穿透读模式/直读模式):应用程序读缓存,缓存没有,由缓存回源到数据库,并写入缓存; Write-Through(穿透写模式/直写模式):应用程序写缓存,缓存写数据库。该种模式需要提供数据库的handler,开发较为复杂。 3、Write Behind Caching Pattern 应用程序只更新缓存; 缓存通过异步的方式将数据批量或合并后更新到DB中,不能时时同步,甚至会丢数据。 –      05、Redis又是什么?    – Redis是一个高性能的开源的,C语言写的NoSQL(非关系型数据库)也叫做缓存数据库,数据保存在内存中。Redis是以key-value形式存储,和传统的关系型数据库不一样。不一定遵循传统数据库的那些基本要求。比如,不遵循SQL标准、事务、表结构等。Redis有非常丰富的数据类型,比如String,list,set,zset,hash等。 –      06、Redis可以做什么?    – 1、减轻数据库压力,提高并发量,提高系统响应时间 2、做Session分离 传统的Session是由自己的tomcat进行维护和管理的,在集群和分布式情况下,不同的tomcat要管理不同的session,只能在各个tomcat之间,通过网络和IO进行session复制,极大的影响了系统的性能。 Redis解决了这一个问题,将登陆成功后的session信息,存放在Redis中,这样多个tomcat就可以共享Session信息。 3、做分布式锁 一般Java中的锁都是多线程锁,是在一个进程中的,多个进程在并发的时候也会产生问题,也要控制时序性,这个时候Redis可以用来做分布式锁,使用Redis的setnx命令来实现。 4、电商购物车: 1、以用户id为key 2、商品id为field 3、商品数量为value 电商购物车操作: 1、添加商品:hset cart:1001 10088 1 2、增加数量:hincrby cart:1001 10088 1 3、商品总数:hlen cart:1001 4、删除商品:hdel cart:1001 10088 5、获取购物车所有商品:hgetall cart:1001 5、zset集合操作实现排行榜 1、点击新闻 ZINCRBY hotNews:20190819 1 守护香港 2、展示当日排行前十 ZREVRANGE hotNews:20190819 0 9 WITHSCORES 3、七日搜索榜单计算…

摩登3娱乐怎么样?_精彩回顾 | 速览蓝牙AoA技术,围观室内定位市场!

本文来源:深圳市物联网产业协会 11月13日丨下午 由深圳市科学技术协会主办,深圳市物联网产业协会承办的以“蓝牙AoA技术与市场分析”为主题的《自主创新大讲堂—星火沙龙之物联网产业大讲堂系列活动(10场)》,在深圳市南山区东方科技大厦22楼成功开讲。 现场共吸引了近30位物联网领域专业的技术研发人员前来交流学习。 图丨讲座现场 主讲嘉宾|吴川博士 图丨吴川博士(蓝色衬衫) 本期讲座主讲嘉宾吴川博士毕业于复旦大学微电子专业,曾在全球前十大Fabless芯片设计企业担任高级工程师、主任工程师等核心技术管理岗位,现任上海磐启微电子副总经理,全面负责多项高新核心技术产品研发管理。 吴川博士长期从事高性能通信系统的研究,包括低功耗高灵敏度数字调制解调系统、高带宽可重构的软件无线电设计、基于MIMO多天线阵列技术的通信系统、高带宽高性能卫星通信系统及多天线阵列的室内定位系统等。 图 | 参会嘉宾现场交流 本讲课程,吴老师就蓝牙AoA高精度室内定位技术的原理、技术难点及解决方案、应用场景和未来发展趋势等主题进行专题分享与讨论。 吴老师从室内定位的市场背景入手,从室内定位技术的概述开始讲起,介绍了“蓝牙AOA室内定位的原理、系统、相关特点和蓝牙AOA室内定位的典型应用场景”;着重强调并分享了“蓝牙AOA室内定位中需要特别留意的关注点”。 图丨讲座现场 市场规模丨将以42.0%的年复合成长率增长 随着物联网及人工智能发展,市场对定位技术的需求急剧增加,基于位置服务(LBS)渗透人们生活的各个方面。据Market&Markets的调查数据显示,未来几年,室内定位的全球市场将以42.0%的年复合成长率增长,市场规模预计从2017年的71亿1000万美元扩大到2022年的409亿9000万美元。 图丨来源于Market&Markets 主流室内定位丨基于传感器及基于无线技术 事实上,室内定位并不是一门新兴的技术,人们一直在探索各种技术在室内定位应用领域的可行性,主流的室内定位技术大概可以分为基于传感器定位和基于无线技术定位。 供图丨上海磐启微电子 基于传感器的室内定位技术包括惯性定位、计算机视觉定位、LED定位等。 基于无线技术的室内定位技术包括RFID定位、蓝牙Beacon定位、WiFi定位、UWB定位、蓝牙AoA定位等。 吴川博士针对基于无线的室内定位技术进一步展开了说明,并对各类技术进行了对比。具体可见下表。 供图丨上海磐启微电子 蓝牙AOA室内定位丨原理、特点及应用场景 在讲座中,吴老师重点分享了蓝牙AOA室内定位的优势特点及应用该技术的典型场景。 上海磐启微电子供图丨工作原理图 在定位技术部分,吴老师从蓝牙AOA室内定位系统的现状开始,介绍了蓝牙AoA定位的工作原理即通过测量标签和基站之间的到达角度,以基站为起点形成的射线必经过标签,两条射线的交点即为标签的位置,原则上,两个基站可以实现对标签的3D定位。 上海磐启微电子供图丨优势特点图 同时还重点分享了该定位系统“小于20ms的时延、支持2.4G通用无线收发芯片、支持ISM和非ISM多个通信频段、支持多种不同形式的终端设备、支持2/3D地图、支持多种无线传输接口、支持大型场景且分布式处理架构、易于部署”显著特点等内容。 在典型应用场景部分,吴老师重点分享了工厂人员、商场、超市、医院/医疗等行业在使用实时定位系统时的可实现的优势功能。 工厂人员在使用实时定位系统可实现:实时记录人员的运动轨迹;实时人数清点;设置工位区域、离开超时报警;人员工位绑定、异常提醒;进出工厂、工位考勤;人员求助(按下卡片上的求助键,系统会发出警告并弹出视频)。 讲座| 纵观 免责声明:本文内容由21ic获得授权后发布,版权归原作者所有,本平台仅提供信息存储服务。文章仅代表作者个人观点,不代表本平台立场,如有问题,请联系我们,谢谢!

摩登3注册网址_高速全局快门图像传感器如何减轻基于AI的视觉系统的负担

作者:Ganesh Narayanaswamy 视觉传感器对于数据采集正变得越来越重要。 最初的简单图像传感器为摄影应用开发,如今的图像传感器用于向人工智能(AI)和机器学习系统提供高质量的输入。 这些系统已成为利用新的和创新的处理器架构的精密决策实体。 边缘数据采集 尽管边缘数据采集器件本质上主要是模拟的,但是图像传感器的独特之处在于: 它们的输出在连续的动态光学输入上进行时分复用 它们需要有能力在输出时保持转换后的光输入的完整性来提供图像输出 提供的图像输出具有最佳质量,支持重要的处理 这些要求和随后的结果可能会对视觉系统做出的决策的准确性产生重大影响,而这一结果定义了整个自动化系统的安全性、可靠性和收益率。 基于机器学习的视觉系统 机器学习的出现推动了图像传感器的创新,其性能水平得到了提高,可以支持各种应用。视觉输入是高保真数据–您所看到的就是输入到系统中的信息。 如今,AI算法能够检测、识别和分类这些输入并生成准确的决策输出。这些输出的可靠性取决于输入的质量及其算法的准确性,以及处理这些算法的神经网络。 基于机器学习和深度学习的视觉系统主要使用卷积神经网络(CNN)算法来创建功能强大的自动识别专家系统。 在这些系统中,增加CNN层的深度会提高推理的准确性,但是更多的层也会对这些网络在训练阶段学习所花费的时间以及系统完成推断的延迟产生不利影响 (不要忘了过拟合也会影响结果和功耗)。 同样,高质量的图像输出使视觉系统能够携带最少的CNN图层集,但还能产生高度准确的推断。在以低成本和小尺寸获得可快速部署的智能系统的同时,还实现高性能和低功耗,这带来了显著的好处。 深度学习算法如CNN资源极其密集。如今,有各种处理引擎,包括CPU、GPU、FPGA、专用加速器和最新的微控制器。 设计基于CNN的视觉系统还需要强大的优化库支持。涵盖从专有(如MVTec的HALCON&MERLIC,MATLAB的深度学习工具箱或Cognex的ViDi)到标准工具(如OpenCV)以及软硬件的整合功能。 这些选择直接关系到产品的上市时间。资源密集型处理器通常需要更大的外形尺寸,如散热器的功耗附加组件,或者仅需要较大的空闲空间以通过对流来耗散功率。 提供高质量输出的图像传感器可无需昂贵的处理器、昂贵的第三方库和/或新库的创建需求,以及最佳地结合硬件和软件资源所需的昂贵工具。 换句话说,这些传感器极大地降低了总拥有成本(TCO),并增加了在各种应用和市场中的采用率。 图像传感器输入到机器学习系统 对传递到CNN层的图像传感器输出有相当高的要求,包括: 全局快门可以捕获场景并保留场景以最小化运动伪影 高全局快门效率,以确保每个像素中保留的场景不会被该像素光路之外的光输入破坏 图像输出中的总噪声低,以确保高完整性输入 在运行和待机状态下低功耗,应对以对流传热为常态的摄像系统的典型挑战。 这些特性取决于像素架构和相关电路径的设计。的结构和设计如AR0234CS满足这些需求,非常适合基于CNN的视觉系统。 高速接口赋能快速系统 像素的质量可能极佳,且经过精心设计以生成高质量的图像,但是由于带宽限制,整个视觉系统可能仍会出现性能不佳的情况。当今的传感器都配备了SerDes接口,但是这些接口的流量数据速率会影响整个系统的质量。 高帧速率要求这些接口以高速传输图像数据。同样,传感器必须为每帧输出(fps/mW)消耗低功耗。这些特性支持将系统定时和功率预算转移到最需要的地方-处理引擎-可以合并最新的神经网络和复杂算法。 这使图像处理器能够提取图像数据中的细微差别,这些差别可能是应用的重要内容。视觉系统开发人员因此可以使其系统方案在竞争中脱颖而出。 具备高数据速率MIPI接口,非常适合基于AI的视觉系统。加上它高帧速率、低功耗全帧速率和全分辨率,视觉系统开发人员可以将大部分时间和功耗预算分配给处理器。 免责声明:本文内容由21ic获得授权后发布,版权归原作者所有,本平台仅提供信息存储服务。文章仅代表作者个人观点,不代表本平台立场,如有问题,请联系我们,谢谢!

摩登3内部554258_技术贴:STM32串口通信波特率如何计算?

波特率的计算 STM32下的波特率和串口外设时钟息息相关,USART 1的时钟来源于APB2,USART 2-5的时钟来源于APB1。在STM32中,有个波特率寄存器USART_BRR,如下: STM32串口波特率通过USART_BRR进行设置,STM32的波特率寄存器支持分数设置,以提高精确度。USART_BRR的前4位用于表示小数,后12位用于表示整数。但是它还不是我们想要设置的波特率,想要设置我们串口的波特率大小还需要进行计算。其实有关波特率的计算是下面这一条表达式: 从上面的表达式,我们引入了一个新量USARTDIV,它表示对串口的时钟源fck进行分频。假设我们已知道了波特率和fck时钟频率的大小,那么通过上式便可以计算出USARTDIV的具体大小,然后再通过USART的值大小对波特率寄存器进行设置。 USARTDIV通过上面的表达式得出,是一个带有小数的浮点数(如27.75)。将小数部分和整数部分分开,分别得到一个整数值n(如27)和一个小数值m(如0.75)。有了这两个值我们便可以填写USART_BRR寄存器进而设置我们串口波特率大小了。 将整数部分m(27 = 0x1B)直接写入USART_BRR的后12位部分;将小数部分n乘以16后得到的整数值(如0.75 x 16 = 12 = 0xC)写入USART_BRR前4位部分,最后USART_BRR的值为0x1BC。 注意:如果小数部分乘以16之后仍带有小数,则要四舍五入去除小数部分得到一个新的整数,再将其写入USART_BRR的前四位。 为什么在计算波特率的公式中要乘以16 我们知道串口通信是通过TXD和RXD这两条线进行通信的,当接收器的RXD连接着发送器的TXD,接收器的TXD连接着发送器的RXD,接收器和发送器可以通过RXD和TXD互传数据。当接收器检测到RXD这条线的电平被拉为低电平,立即开始接收发送器发送过来的数据,刚刚那个低电平只是一个告知接收器可以接收数据的起始位而已。 在数据的传输中,信号可能受到一些干扰而产生一些抖动,如下图。如果接收端只对这些信号数据采样一次,那么它有可能采样到的是抖动的不准的数据,进而使数据传输不准确,所以接收端在采样数据线上的数据,通常都要采样多次,然后通过比较获得准确的数据。 前面已经说过,USARTDIV,它表示对串口的时钟源fck进行分频,而这16表示的正是1bit数据的采样次数。为什么呢? 将这个表达式的分子分母倒过来,可以得到下面这条表达式 每一位的传输时间只有1/TX_baud,这个总时间除以16,所以每采样一次的时间正好是T1,即新分频后的周期。而初始的串口时钟信号来自于APBx,APBx时钟信号需要经过分频才会等于T1,所以才需要分频USARTDIV。 免责声明:本文内容由21ic获得授权后发布,版权归原作者所有,本平台仅提供信息存储服务。文章仅代表作者个人观点,不代表本平台立场,如有问题,请联系我们,谢谢!

摩登3官网注册_TE,Silicon Labs,Melexis在世强硬创研讨会在线发布温湿度/光电/位置传感器2020年最新产品

继IoT,工业自动化,5G通信等热门领域的在线研讨会成功举办后,世强硬创电商此次将目光聚焦到了智能传感器。11月20日,世强硬创新产品在线研讨会——智能传感器专场的开展,邀请了Amphenol Sensors,TE,Silicon Labs,Xsens等国际顶尖品牌发布压力/温度/湿度/位置/角度/光电/霍尔等涵盖全品类的传感器最新产品,吸引到来自阿里巴巴,华为,中移物联网,小米等知名企业,共计超1000名研发工程师参会。不少企业组织员工集中参会,在内部形成一定规模的交流学习氛围。 据悉,传感器行业巨头TE的高精度,功耗低至2.7μW的温湿度传感器,Silicon Labs效果媲美Polar的动态心率血氧监测方案,Melexis可承受160℃工作温度的第三代位置传感器……都一一发布于在此次世强硬创新产品在线研讨会,资深技术专家与参会者深入了探讨传感器智能化,低能耗,高精度等产品发展方向。 世强硬创新产品在线研讨会——智能传感器专场所有视频和讲义资料都已上线世强硬创电商平台,前往官网即可了解详情。

摩登3主管554258:_在智慧城市的窗口,物联网逮住了上车的机会!

本文来源:物联传媒 本文作者:飞鸟 2020年全球疫情发生以后,国内外环境存在各种不安定因素,城市发展进入新的周期:信息化、数字化、智能化、高端化成为每个城市和企业认真思考的重要课题。 11月18日,上海成功获得全球智慧城市大会上唯一的最重量级奖项——世界智慧城市大奖(WACA)的消息在网络上广泛传播,这是历年来中国城市首次获得该项荣誉,之前历届获此奖项的城市分别有阿姆斯特丹(荷兰)、特拉维夫(以色列)、纽约(美国)、迪拜(阿联酋)、新加坡、斯德哥尔摩(瑞典)等。 除此以外,中国的另一座城市——鹏城深圳在大会中斩获了”全球智能技术大奖”,该奖项主要表彰在最新5G、AI、物联网、云计算等数字技术赋能城市发展方面表现卓越的城市。 可以说,上海和深圳此次从全球54个国家和地区,450个参评对象中突围而出,终于将其建设智慧城市的成果展现在世界面前,这足以称得上是二者新的城市名片,并让全世界看到其背后闪闪发光着的,尚未完全发掘的巨大产业商机。 亮眼的”智慧城市”规模 根据IDC今年7月发布的《全球智慧城市支出指南》最新预测显示,全球智慧城市相关支出规模的增速因受到新冠疫情的影响而放缓,但预计将在2021年开始逐渐提高增长速度,并在2020-2024年的预测期间内实现14.6%的复合年增长率。 受益于强政策驱动,中国在智慧城市领域的投资建设一直呈现稳步增长趋势。IDC预测,到2022年,中国智慧城市投资将达到2000亿元人民币,分散在可持续基础设施、数据驱动治理以及数字化管理等方面。 从产业规模看,5G、物联网、人工智能等新技术的应用,数据资产的倍数增长以及对网络安全和数据隐私的重视将驱动智慧城市产生新的建设热点,支撑起更为丰富多样的智慧城市应用。根据前瞻产业研究院的预测数据:到2022年,我国智慧城市市场规模将达到25万亿元,对比2017年6万亿元的市场规模,增长将达数倍以上。 数据来源:前瞻产业研究院 抢眼的”智慧城市”计划 很多年前IBM提出智慧地球的理念时,指的就是要将新一代的科学技术充分应用到人、自然系统、社会体系、商业系统和各种组织中,这里就包括了智慧城市的内涵。 根据一般意义上的理解,智慧城市多带有政府服务的性质,通过利用互联网、物联网、云计算、大数据、人工智能等技术,主要解决信息建设分散、数据融合困难、机构运行效率过低等问题,使城市更聪明、更有温度。 比如美国某城市与IBM等科技企业合作,将所有资源(水、电、油、气、交通、公共服务等)都连接起来,通过侦测、分析、整合各种数据,提高城市基础设施运行效率,智能化地做出响应; 比如新加坡将老年人监测系统作为应对人口老龄化和发展智慧国计划的重要组成部分,在独居老人家中安装无线传感器等设备,当监测到老人或可能出现紧急情况时以迅速做出报警等反应。 综上可见,或许是节能环保,或许是政务民生,全球各地发展智慧城市项目的侧重不一定完全相同,但殊途同归,最终都是为了城市的高效治理。 2020年5月,上海市政府发布《上海市推进新型基础设施建设行动方案(2020-2022年)》的通知,明确地指出了上海要通过3年努力,率先在4个方面形成重要影响力,推动全市新型基础设施建设规模和创新能级迈向国际一流水平:率先打造新一代信息基础设施标杆城市;率先形成全球规模最大、种类最全、综合服务功能最强的大科学设施群雏形;率先建成具有国际影响力的超大规模城市公共数字底座;率先构建一流的城市智能化终端设施网络。 眼下,上海将继续通过高规模、系统性、体系化的建设带动智慧城市走入深水区。并且考虑到上海驱动能力强、辐射范围广的城市特征,当下已经出现关于建设长三角智慧城市群的讨论,有望为智慧城市发展带来集群效应。 不仅如此,基于各项条件的推动,近年来全国各地关于建设智慧城市的主观意识都在逐步苏醒,众多的政策扶持和项目规划都在展开,比如《粤港澳大湾区发展规划纲要》、《长江三角洲城市群发展规划》、《成渝城市群发展规划》、《山东半岛城市群规划》、《长江中游城市群发展规划》、《中原城市群发展规划》、《关中平原城市群发展规划》等,都明确提出智慧城市群建设。 无可置疑,智慧城市被公认为城市数字化战略的关键组成部分,是不可忽略的关键要地。 IOTE2021助推智慧城市新发展、新思潮、新机遇! 早几年前,全国各地对”智慧城市”概念的理解五花八门。有的侧重于网络基础设施建设,有的侧重于垂直行业应用,有的城市的工作,虽然只涉及城市信息化建设的某一部分,但为了跟风也能巧妙地冠上智慧城市的头衔……“没有标准,盲目投资、一拥而上、能力不足、不了了之”,这是之前产业条件受限时存在的问题。 但是在这之后,伴随5G、物联网、云计算、人工智能等技术的发展,以及整个产业链的成熟,智慧城市的内容变得足够实际与丰富,参与其中的玩家也更加互通与协作。 往更聚焦的角度看,智慧城市之基础设施——物联网产业演变发展的内涵,始终包含了感知层、网络传输层、平台与计算层、应用层等全产业链,包括了政府、科研机构、厂商、用户等各社会角色的参与。 比如5G以低时延、高带宽的特性支撑城市中诸多应用类型,提供实时反应、高效联动的解决方案;比如LPWAN网络技术以低功耗、大连接为特性,带动城市中水电表、市政基础设施运行管理走向智能化;比如通过统一物联网平台的建设,使智慧城市项目从”独立部署、分散割裂”发展到”统一管理、集中运维”;比如通过对人工智能技术的应用,将海量的城市运营数据自动转化为更智能的决策,在城市路况监测等场景发挥重要作用…… 更多的形式不胜枚举,这些形形色色的物联网技术将被充分应用到城市之中,酝酿出成熟可落地的方案,包括智慧交通、智慧安防、智慧灯杆、智慧园区等。 着眼于物联网隐藏的巨大红利,物联传媒旗下IOTE国际物联网展作为物联网行业最大的专业展会,致力于帮助物联网企业解决痛点需求,助力包括智慧城市在内的产业获得发展。 尤其。 IOTE覆盖物联网全产业链(感知层、网络传输层、运算与平台层、应用层),每年超过1000家企业参展,带来10000+物联网产品与方案的展示。 IOTE每年超过10万+人次的专业观众,带着精准的需求寻找交流合作。 IOTE每届开设RFID、移动物联网、LoRa、高精度定位、传感器、新零售、物联网平台、工业、新零售、智能家居、智慧园区、AIOT等数十场专业论坛,是整个物联网行业的年度思想盛会。 IOTE 2020深圳站展商领域情况 IOTE 2020深圳站观众观展需求情况 IOTE 2020深圳站同期论坛 逮住机遇,乘势而起!IOTE2021致力汇聚最前沿的行业信息,打造物联网行业最精准的供需对接,与展商和观众共创更美好的未来! 参考资料: 免责声明:本文内容由21ic获得授权后发布,版权归原作者所有,本平台仅提供信息存储服务。文章仅代表作者个人观点,不代表本平台立场,如有问题,请联系我们,谢谢!

摩登3测速登录地址_5G的回传带宽该怎么算?

本文来源:无线深海 我们通过无线网络上网时,手机发出的信号需要穿越基站,承载网,到达核心网,与此同时,核心网发出的数据也需要穿越承载网跟基站,才能到达手机,从而完成生命的大和谐。 那么,从服务于多个用户的基站到核心网之间,到底需要多大的带宽呢?这就涉及到回传带宽的估算问题。 其实原本回传带宽的算法并不区分4G和5G,但考虑到5G的架构还包括前传和中传,因此在第一部分先做个总体 话说5G的网络架构,最广为流传的,莫过于下图中的AAU,DU,CU加核心网的标准结构了。 Active Antenna Unit,有源天线单元,是RRU跟天线的合体; Distributed Unit,分布式单元,原4G的BBU拆分出需要实时处理的部分,一般随AAU一起在站点部署; Centralized Unit,集中式单元,原4G的BBU拆分出非实时处理的部分,一般认为应该集中式部署,可管理多个DU; 虽说架构如此,在实际的5G网络部署中,暂时没有强烈的网元拆分的动力,DU和CU基本都是合一部署的。这种情况下,DU加CU还是叫做BBU。 由于CU和DU合一部署为BBU,它们之间的传输就成为了内部接口。因此大家最关注的,还是BBU与核心网之间的传输:回传。 实现回传网络相关的技术都已经非常成熟了。在一般的网络规划中,无线侧必须要传递给承载一个关键数据: 5G站到底需要多大回传带宽? 假设采用5ms单周期,100M带宽的小区理论峰值速率可达7.2Gbps,一个站一般有3个小区。是否应该给承载网传递如下信息:一个5G基站需要至少21.6Gbps的带宽? 当然,如果按照这个值来建网的话,网络运转肯定是没问题的,但想想还是有些浪费:一个基站下的小区在每时每刻都能达到峰值吗?除了净荷之外,还有各种包头,操作维护的开销都考虑到了吗? 其实,在真实网络中,基站覆盖一片区域,用户有的近有的远,信号有的好有的坏,也并非所有用户都在铆足了劲下载,多数还是聊微信刷微博,所以达到小区峰值速率是不可能的,最终下来就是一个平均速率。 关于这个小区平均速率,需要通过仿真得出平均频谱效率,再乘以实际的小区带宽,就可以得出小区的平均速率。 比方说,如果我们取5G的平均频谱效率为10比特每秒每赫兹,在100M带宽下,一个小区的平均速率就是1Gbps。 综上,平均速率再加上10%的开销,一个三小区站点需要的平均回传带宽为3.3Gbps。 虽说平均速率一般可保证站点运行无虞,但保不齐可能在某个时刻爆发,从而突破这个平均值。因此我们也还是需要考虑下峰值的。 因此,业界一般把(1x小区峰值 + 2x小区均值)x110%作为整个站点的峰值。俗称“一峰加两均”,其中的110%就是考虑了10%的开销。 因此,一个三扇区的100M带宽5G站点,所需的峰值回传带宽为(1×7.2Gbps + 2x1Gbps)x110% = 10.12Gbps。 在实际部署时,站点的回传带宽在必须要大于均值,按照峰值来设计峰值当然最好。 按理说这个问题到此就该结束了,但由于5G网络架构的多样性及演进的考虑,一种叫做C-RAN的架构经常可以见到。 其实C-RAN的全称是Centralized RAN,也就是BBU的集中式部署(因此也叫做BBU Pool),虽然这个缩写也可被解读为Cloud RAN,但目前距离无线网络的云化尚有较远的路要走,我们还是按照BBU集中来假设。 在这种情况下,这些集中起来部署的BBU,到底需要多少带宽的回传资源呢?把各个BBU的带宽加起来就行了! 跟前面的思路类似,可以每4个BBU作为一个组,其中1个BBU的回传按照峰值算,另外3个BBU的回传按照均值算。一个C-RAN站点需要的回传带宽,把多个这样的组加起来就可以了。 如此一来,平均下来每个BBU能分到的带宽稍多于其平均带宽。如果有的站点话务突发怎么办?因为所有BBU是共享总的传输带宽的,话务有的高有的低,总体还是趋向于平均值。 综上,建网是要考虑成本和收益的,回传带宽,够用就行。 免责声明:本文内容由21ic获得授权后发布,版权归原作者所有,本平台仅提供信息存储服务。文章仅代表作者个人观点,不代表本平台立场,如有问题,请联系我们,谢谢!

摩登3注册平台官网_启动引擎时的电压过冲怎么破?这款DC/DC转换器让你的设计“稳”操胜券

近年来,汽车上的电子产品越来越多,耗电也越来越多,传统的燃油车电池和发电机能够提供的电量却没有提升,所以对芯片的低功耗,节能化要求是越来越高了。 传统的燃油汽车上有两个电源,分别是发电机和电池,它们的电压范围一般是10-16V左右,而汽车上电子设备中所使用的芯片,包括MCU、电机驱动、车灯驱动等芯片的工作电压却并不是一样的。这就需要在中间经过一系列的一次电源以及二次电源的转换以满足这些芯片的工作需求。同时,从电池和发电机输出的电压存在较大波动,这就需要负责控制供电的电源IC能同时实现有助于稳定工作的高速响应和有助于节能的高功率转换效率。这对市场上目前的车用供电电源IC是一个挑战。 日前,罗姆公司面向ADAS(高级驾驶辅助系统)相关的传感器、摄像头、雷达、汽车信息娱乐系统及仪表盘等,开发出包括12款机型在内的车载一次DC/DC转换器“BD9P系列”产品。 新产品采用ROHM自有的电源技术“Nano Pulse ControlT”,并采用新型控制方式,同时具备原本存在矛盾关系的高速响应和高效率优势,有效地解决了上述挑战,获得了各车载产品制造商的高度好评。 罗姆上海技术中心的FAE朱莎勤向21ic电子网记者详细讲解了这款新产品所采用的创新技术以及独特优势。 “BD9P系列”可在电池的输入电压波动时稳定工作,与普通产品相比,能够将电压波动时的输出过冲抑制在1/10以内,因此不再需要添加以往作为过冲对策所必需的输出电容器。 另外,新产品通过采用新型控制方式,同时具备了通常被认为存在矛盾关系的高速响应和高效率优势。不仅在高负载时的功率转换效率高达92%(输出电流1A时),而且在轻负载时的功率转换效率也达到85%(1mA时),从轻负载到高负载都实现了非常出色的高效率,这将非常有助于进一步降低行驶时和引擎停止时的功耗。 不仅如此,新产品与连接在它后段的二次DC/DC转换器“BD9S系列”相结合,还可组成高效且高速的车载电源电路。这些方案已经作为ROHM提供的参考设计方案公布在官网上。 基于以上这些创新技术,罗姆公司新推出的车载一次”DC/DC转换器“BD9P系列具有如下三个主要优势特点: 1. 即使电池电压波动时也不会过冲,可稳定工作 众所周知,汽车引擎发动时,电压波动时比较剧烈的,如果电压过高,可能会导致后面连接负载的芯片过压损坏,为此,在一些设计方案中就会增加过冲电容。而采用罗姆的这款新产品,就可以完全避免这个问题,从而减少过冲电容的使用,降低用户成本。 2. 在更宽的负载电流范围实现高效率,有助于进一步降低应用产品的功耗 同时具备高速响应和高效率优势,这两项通常被认为是矛盾的。采用以往技术的电源IC,为了确保高速响应性能,需要较大的驱动电流,在轻负载时很难同时兼顾高速响应和高效率。 罗姆的新产品搭载了采用新型控制方式的电路,用低于普通产品的驱动电流即可充分实现高速响应。这不仅使高负载时的转换效率高达92%(输出电流1A时),而且使轻负载时的转换效率也达到85%(1mA时)。从轻负载到高负载均实现了非常出色的高效率,因此无论是引擎停止时还是行驶时,都非常有助于降低应用产品的功耗。 新产品采用ROHM自有的超高速脉冲控制技术“Nano Pulse Control”,始终在不干扰AM广播频段(1.84MHz Max.)的2.2MHz工作,对于最大40V的高电压输入,还实现了由后段元器件驱动的3.3V~5.0V级稳定输出。此外,还内置展频功能,可降低噪声峰值,因此非常适用于对辐射噪声要求尤为严格的车载应用。 朱莎勤告诉21ic电子网记者,这款产品目前提供两种封装形式QFN和SOP封装,QFN偏向小型化,而一般客户会根据自己产线的情况或者PCB面积情况选择不同封装,而SOP带引脚,可靠性和散热性上也更好一些,可以满足客户不同产线或PCB对封装的要求。 为了帮助工程师尽快上手这款产品,罗姆已推出了参考设计和“ROHM Solution Simulator”仿真工具,“ROHM Solution Simulator”是一款在线仿真工具,工程师可以免费试用,从而帮助工程师大大减少在电路设计、电路板设计、降噪设计、热设计、仿真等各设计阶段的设计工时。 朱莎勤透露,该新产品还可支持汽车电子产品可靠性标准AEC-Q100,在严苛的车载环境中也可以确保高可靠性。