标签目录:摩登平台注册登录

摩登三1960_电磁频谱在军事的这些用途,你都知道吗?

频谱相关的系统在所有军事领域都有应用:空中、陆地、海洋、太空和网络空间,甚至是国防部的概念如网络中心战和多域战。这些应用强化了军方对频谱的依赖。 电磁频谱 电磁频谱是一系列频率,范围涵盖从无线电波到微波、可见光、x射线和伽马射线。 当电磁辐射的波长变短时,电磁波的频率就会变高,从而产生更多的能量。 图1 电磁频谱 频谱的不同频段服务于不同的军事目的。 无线电的数据传输速率相对较低,特别是在非常低的频率范围内,不过,它们可以远程传输,并能够穿透建筑物和树木等固体物质,经常用于通信设备。 微波与无线电相比,具有更高的数据吞吐量——数据上传和下载速率,因此能够传输更多的数据,但传输距离有限,且易受到固体物质阻挡,因此,微波经常用于雷达和卫星通信。 红外波,能够发射能量,由于其与热源具有紧密关系,可以用于情报和目标数据。X射线通常用于飞机维修,以识别机身上的裂纹。 最后,伽马射线是高能辐射,有助于识别潜在的核事件。下面,集中讨论国防部在无线电波、微波和红外光谱等方面的使用情况。 频谱的应用 军方使用整个频谱来支持情报和军事行动。这些应用涵盖范围较广,从使用极低频无线电波用于水下潜艇通信,到使用微波作为飞机之间的连续数据链,再到使用频谱末端的红外和紫外激光用来致盲卫星传感器和摧毁无人机。 大多数军事通信使用无线电波、微波和红外频率。几乎每一个现代武器系统——飞机、卫星、坦克、舰船和无线电——都依赖于频谱来发挥作用。这些应用功能可以融合起来,提供全面的军事能力,例如指挥控制或电子战。下面讨论一些频谱应用的示例。 军事指挥官已经习惯于与他们的部队进行近实时的联络。通信包括一系列选项,从低带宽(如传输文本字符串)到数据密集型应用(如全动态视频和视频电话会议)。 这些系统可以部署在陆上(在地面部队或船上)、空中或太空(即在卫星上)。一般来说,通信系统使用无线电和微波频率; 然而,新兴的通信技术在天线之间使用激光传输光来代替无线电波。 无线电使用的不同频率,取决于其需要传输数据的距离和数据量。地基无线电由于受视线的限制,通常用于短距离数据传输,范围较小,不超过50英里。一般情况下,军队使用卫星进行远距离通信。 态势感知 频谱的另一个应用是利用无线电或微波频率,通过提供友军和敌军的位置,来绘制战场图像。最常见的应用是雷达,但最近也使用了光探测和测距(激光雷达)系统。两种技术都是发射信号,然后反射回传感器,从而确定距离、速度以及物体的高度。雷达根据不同的用途使用不同的无线电和微波频率。 虽然由于杂波或雷达回波弱,低频段的系统不能提供高质量的目标图像,但它却可提供一个更大的战场态势。高频段频率可提供高质量的目标图像,但有效探测距离短。雷达和激光雷达系统通常与防空、军事航空、火炮和空间系统息息相关。 信号情报(SIGINT)系统主要收集频谱辐射。这些是被动系统——换言之,它们不发射自己的信号——但可以接收无线电和雷达频率,还可以探测人员、导弹、飞机、大炮和车辆的热辐射信号。 军方利用频谱来锁定目标,并可能攻击对手。一般来说,导弹特别是防空导弹,使用红外或雷达进行末制导攻击目标。 电子干扰器被用来阻止对手掌控频谱,这些干扰器主要用于干扰无线电波和微波频率,从而影响通信(陆基和天基)以及雷达探测范围。 军方也开始使用激光来致盲情报搜集传感器,对小型无人机系统(又称“无人机”)提供潜在的动能杀伤,还可与卫星进行通信。 频谱作战方式 免责声明:本文内容由21ic获得授权后发布,版权归原作者所有,本平台仅提供信息存储服务。文章仅代表作者个人观点,不代表本平台立场,如有问题,请联系我们,谢谢!

摩登3主管554258:_嵌入式开发中常见3个的C语言技巧

原文:https://www.cnblogs.com/CrazyCatJack/p/6080266.html 1.指向函数的指针 指针不光能指向变量、字符串、数组,还能够指向函数。在C语言中允许将函数的入口地址赋值给指针。这样就可以通过指针来访问函数。 还可以把函数指针当成参数来传递。函数指针可以简化代码,减少修改代码时的工作量。通过接下来的讲解大家会体会到这一点的。 /*函数指针简单讲解 *通过指向函数的指 *针调用比较两个数 *大小的程序 */#include  using namespace std;/*比较函数声明*/int max(int,int);/*指向函数的指针声明(此刻指针未指向任何一个函数)*/int (*test)(int,int);int main(int argc,char* argv[]){  int largernumber;/*将max函数的入口地址赋值给 *函数指针test */  test=max;/*通过指针test调用函数max实 *现比较大小 */  largernumber=(*test)(1,2);  cout< endl;    return  0;       } int max(int a,int b){     return (a>b?a:b);   } 通过注释大家应该很容易理解,函数指针其实和变量指针、字符串指针差不多的。如果大家理解了这个小程序,那么理解起下面这个有关Nand flash的源代码就好多了。 typedef struct {    void (*nand_reset)(void);    void (*wait_idle)(void);    void (*nand_select_chip)(void);    void (*nand_deselect_chip)(void);    void (*write_cmd)(int cmd);    void (*write_addr)(unsigned int addr);    unsigned char (*read_data)(void);}t_nand_chip;static t_nand_chip nand_chip;/* NAND Flash操作的总入口, 它们将调用S3C2410或S3C2440的相应函数 */static void nand_reset(void);static void wait_idle(void);static void nand_select_chip(void);static void nand_deselect_chip(void);static void write_cmd(int cmd);static void write_addr(unsigned int addr);static unsigned char read_data(void);/* S3C2410的NAND Flash处理函数 */static void s3c2410_nand_reset(void);static void s3c2410_wait_idle(void);static void s3c2410_nand_select_chip(void);static void s3c2410_nand_deselect_chip(void);static void s3c2410_write_cmd(int cmd);static void s3c2410_write_addr(unsigned int addr);static unsigned char s3c2410_read_data();/* S3C2440的NAND Flash处理函数 */static void s3c2440_nand_reset(void);static void s3c2440_wait_idle(void);static void s3c2440_nand_select_chip(void);static void s3c2440_nand_deselect_chip(void);static void s3c2440_write_cmd(int cmd);static void s3c2440_write_addr(unsigned int addr);static unsigned char s3c2440_read_data(void);/* 初始化NAND Flash */void nand_init(void){#define TACLS   0#define TWRPH0  3#define TWRPH1  0    /* 判断是S3C2410还是S3C2440 */    if ((GSTATUS1 == 0x32410000) || (GSTATUS1 == 0x32410002))    {        nand_chip.nand_reset         = s3c2410_nand_reset;        nand_chip.wait_idle          = s3c2410_wait_idle;        nand_chip.nand_select_chip   = s3c2410_nand_select_chip;        nand_chip.nand_deselect_chip = s3c2410_nand_deselect_chip;        nand_chip.write_cmd          = s3c2410_write_cmd;        nand_chip.write_addr         = s3c2410_write_addr;        nand_chip.read_data          = s3c2410_read_data;        /* 使能NAND Flash控制器, 初始化ECC, 禁止片选, 设置时序 */        s3c2410nand->NFCONF = (1<<15)|(1<<12)|(1<<11)|(TACLS<<8)|(TWRPH0<<4)|(TWRPH1<<0);    }    else    {        nand_chip.nand_reset         = s3c2440_nand_reset;        nand_chip.wait_idle          = s3c2440_wait_idle;        nand_chip.nand_select_chip   = s3c2440_nand_select_chip;        nand_chip.nand_deselect_chip = s3c2440_nand_deselect_chip;        nand_chip.write_cmd          = s3c2440_write_cmd;#ifdef LARGER_NAND_PAGE        nand_chip.write_addr         = s3c2440_write_addr_lp;#else        nand_chip.write_addr         = s3c2440_write_addr;#endif        nand_chip.read_data          = s3c2440_read_data;        /* 设置时序 */        s3c2440nand->NFCONF = (TACLS<<12)|(TWRPH0<<8)|(TWRPH1<<4);        /* 使能NAND Flash控制器, 初始化ECC, 禁止片选 */        s3c2440nand->NFCONT = (1<<4)|(1<<1)|(1<<0);    }        /* 复位NAND Flash */    nand_reset();} 这段代码是用于操作Nand Flash的一段源代码。首先我们看到开始定义了一个结构体,里面放置的全是函数指针。他们等待被赋值。然后是定义了一个这种结构体的变量nand_chip。 然后是即将操作的函数声明。这些函数将会被其他文件的函数调用。因为在这些函数里一般都只有一条语句,就是调用结构体的函数指针。接着往下看,是针对两种架构的函数声明。然后在nand_init函数中对nand_chip进行赋值,这也就是我们刚刚讲过的,将函数的入口地址赋值给指针。 现在nand_chip已经被赋值了。如果我们要对Nand进行读写操作,我们只需调用nand_chip.read_data()或者nand_chip.write_cmd()等等函数。这是比较方便的一点,另一点,此代码具有很强的移植性,如果我们又用到了一种芯片,我们就不需要改变整篇代码,只需在nand_init函数中增加对新的芯片的判断,然后给nand_chip赋值即可。所以我说函数指针会使代码具有可移植性,易修改性。 如果大家想对函数指针有更深的理解建议看一下这篇博文:http://www.cnblogs.com/CBDoctor/archive/2012/10/15/2725219.html 写的超赞,博主很佩服^_^ 2.C语言操作寄存器 在嵌入式开发中,常常要操作寄存器,对寄存器进行写入,读出等等操作。每个寄存器都有自己固有的地址,通过C语言访问这些地址就变得尤为重要。 #define GSTATUS1        (*(volatile unsigned int *)0x560000B0) 在这里,我们举一个例子。这是一个状态寄存器的宏定义。首先,通过unsigned int我们能够知道,该寄存器是32位的。因为要避免程序执行过程中直接从cache中读取数据,所以用volatile进行修饰。 每次都要重新读取该地址上的值。首先(volatile unsigned int*)是一个指针,我们就假设它为p吧。它存储的地址就是后面的0x560000B0,然后取这个地址的值,也就是p,所以源代码变成了((volatile unsigned int *)0x560000B0),接下来我们就能直接赋值给GSTATUS1来改变地址0x560000B0上存储的值了。 /* NAND FLASH (see S3C2410 manual chapter 6) */typedef struct {    S3C24X0_REG32   NFCONF;    S3C24X0_REG32   NFCMD;    S3C24X0_REG32   NFADDR;    S3C24X0_REG32   NFDATA;    S3C24X0_REG32   NFSTAT;    S3C24X0_REG32   NFECC;} S3C2410_NAND;static S3C2410_NAND * s3c2410nand = (S3C2410_NAND *)0x4e000000;volatile unsigned char *p = (volatile unsigned char *)&s3c2410nand->NFSTAT; 有时候,你会看到这样一种情况的赋值。其实这和我们刚刚讲过的差不多。只不过这里是在定义了指针的同时对指针进行赋值。这里首先定义了结构体S3C2410_NAND,里面全部是32位的变量。 又定义了这种结构体类型的指针,且指向0x4e000000这个地址,也就是此刻s3c2410nand指向了一个实际存在的物理地址。s3c2410nand指针访问了NFSTAT变量,但我们要的是它的地址,而不是它地址上的值。所以用&取NFSTAT地址,这样再强制转换为unsigned char型的指针,赋给p,就可以直接通过p来给NFSTAT赋值了。 3.寄存器位操作 #define GPFCON      (*(volatile unsigned long *)0x56000050)GPFCON &=~ (0x1<<3);GPFCON |= (0x1<<3); 结合我们刚刚所讲的,首先宏定义寄存器,这样我们能够直接给它赋值。位操作中,我们要学会程序第2行中的,给目标位清0,这里是给bit3清0。第3行则是给bit3置1。 免责声明:本文来源网络,免费传达知识,版权归原作者所有。如涉及作品版权问题,请联系我进行删除。 最后 以上就是本次的分享,如果觉得文章不错,转发、在看,也是我们继续更新得动力。 猜你喜欢: 免责声明:本文内容由21ic获得授权后发布,版权归原作者所有,本平台仅提供信息存储服务。文章仅代表作者个人观点,不代表本平台立场,如有问题,请联系我们,谢谢!

摩登3测速代理_深度:光刻技术的​历史与现状

集成电路的飞速发展有赖于相关的制造工艺—光刻技术的发展,光刻技术是迄今所能达到的最高精度的加工技术。 集成电路产业是现代信息社会的基石。集成电路的发明使电子产品成本大幅度降低,尺寸奇迹般减小。以计算机为例,1946年诞生的世界第一台数字计算机重30吨,占地约140平方米。而集成电路将晶体管、电阻、电容等电子元件连接在小块的硅片上,可使计算机体积更小,功耗更低,速度更快。自1958年世界上第一块平面集成电路问世,在短短五十多年间,半导体及微电子技术突飞猛进的发展,带动了现代信息技术的腾飞。集成电路的发展与其制造工艺─——光刻技术的进步密不可分。 光刻技术的发展史 光刻技术是利用光化学反应原理和化学、物理刻蚀方法将掩模板上的图案传递到晶圆的工艺技术。光刻的原理起源于印刷技术中的照相制版,是在一个平面上加工形成微图形。光刻技术按曝光光源主要分为光学光刻和粒子束光刻(常见的粒子束光刻主要有X射线、电子束和离子束光刻等)。其中光学光刻是目前最主要的光刻技术,在今后几年内其主流地位仍然不可动摇。 光刻技术的进步使得器件的特征尺寸不断减小,芯片的集成度和性能不断提高。在摩尔定律的引领下,光学光刻技术经历了接触/接近、等倍投影、缩小步进投影、步进扫描投影等曝光方式的变革。曝光光源的波长由436纳米(G线),365纳米(Ⅰ线),,发展到248纳米(KrF),再到193纳米( ArF)。技术节点从1978年的1.5微米、1微米、0.5微米、90纳米、45纳米,一直到目前的22纳米。集成电路的发展始终随着光学光刻技术的不断创新向前推进。 光刻机(也称光刻系统)是光刻技术的关键装备,其构成主要包括光刻光源、均匀照明系统、投影物镜系统、机械及控制系统(包括工件台、掩膜台、硅片传输系统等)。其中光刻光源是光刻机的核心部分。随着集成电路器件尺寸的不断缩小,芯片集成度和运算速度的不断提高,对光刻技术曝光分辨率也提出更高的要求。光学分辨率是指能在晶圆上成像的最小特征尺寸。对于光学投影光刻系统而言,其分辨率由瑞利公式决定:R= k1λ/NA,式中,k1为工艺因子,对于单次曝光k1为0.25,λ为光波长,NA为投影物镜的光学数值孔径。 由此可知,改进光学分辨率的方法有三条途径:一是降低k1值;二是提高数值孔径NA;三是降低波长。在这些途径中,增大数值孔径和缩短曝光波长是通过改变曝光设备实现的,而k1因子的降低则是通过工艺技术的改进去实现的,如投影曝光系统各阶段采用的分辨率增强技术主要包括偏振光照明、相移掩模板、离轴照明等。 降低曝光光源的波长是光刻技术和设备的一个重要发展趋势。半个世纪以来随着光刻技术的发展,特征尺寸随之减小。在196O年代,半导体芯片制造商主要使用可见光作为光源。到了1980年代,光刻主要应用高压放电汞灯产生的436纳米(G线)和365纳米(I线)作为光源。汞灯普遍应用于步进曝光机,从而实现0.35微米的特征尺寸。放电汞灯辐射250纳米紫外光的应用,首次实现了降低光刻光源波长的需求,但随着集成电路技术节点向纳米级发展,光刻机光源也很快从近紫外波段的汞灯光源发展到深紫外波段的准分子激光。应用的主要光源从KrF准分子激光器248纳米激光,ArF准分子激光器193纳米激光到F2准分子激光器157纳米激光。当光源波长发展到157纳米,由于光刻胶和掩膜材料的局限,图形对比度低等因素,使得157纳米光刻技术的发展受到很大限制。 但研究人员发现可以作为浸没液的水对193纳米光波几乎完全透明,充人浸没液后,193纳米光源等效波长小于 157纳米,同时投影透镜数值孔径也有很大的提高。另外193纳米光刻机技术相对成熟,开发者需要重点解决的是浸没技术相关的问题,因而采用浸没技术的193纳米光源取代157纳米光源继续成为研究的热点。到了2003年,采用193纳米波长的130纳米工艺已 大规模量产,如当时的奔腾4芯片。 随着双重图形曝光技术的发展,以英特尔(Intel)为代表的芯片制造商已经宣布正式放弃157纳米的光刻技术,从90纳米工艺一直到未来的45纳米工艺都依赖于193纳米光刻技术。而随着浸没式光刻技术和分辨率增强技术的发展,光刻精度和性能不断提高。2006年国际商业机器公司(IBM)的科学家宣布,他们采用193纳米干涉浸没光刻装置NEMO,制作出29.9纳米的线条,打破了32纳米这一光学光刻极限的预言。采用浸没技术的ArF准分子激光,目前光刻节点已经达到22纳米,未来有可能进一步达到16纳米节点。通过不断创新的光刻技术,摩尔定律仍然得到了保持。 由于可选的光刻曝光光源是有限的,且每更换一种曝光波长,光刻机掩模图样和光刻胶的材料,投影物镜等系统的结构和材料都需更新,因而开发一个新波长的光刻机需要高昂的人力和物力成本,需要多个国家和公司的通力合作方能成功。相对于157纳米光刻技术,193纳米浸没式光刻技术不需要研发新的掩模、透镜和光刻胶材料,193纳米漫没式光刻机甚至可以保留现有193纳米干式光刻机的大部分组件,仅需改进设计部分分系统即可。世界上三大光刻机生产商阿斯麦(ASML)、尼康(Nikon)和佳能(Canon)公司的第一代193纳米浸没式样机都是在原有193纳米干式光刻机的基础上改进研制而成的,大大降低了研发成本和风险。 用于光刻的193纳米准分子激光光源 高端光刻机具有高数值孔径、高吞吐量、高临界尺寸控制性能和低运行成本等特点,这些特点要求光刻光源具有相应的激光性能。优质光刻光源要求窄激光谱宽、高波长和能量稳定性、高平均功率和激光重频。目前193纳米的ArF准分子激光采用浸没技术,可以达到22纳米的光刻节点,并向16纳米节点延伸。成为高端光刻机的主流光源。 准分子激光器是紫外波段最强大的激光光源,是一种辐射几十纳秒脉宽的紫外放电气体激光器。准分子是激发态结合而基态离解的受激二聚体,其特点是基态不稳定,一般在振动弛豫时间内便分解为自由的粒子,而其激发态以结合的形式出现并相对稳定,以辐射的形式衰减,因而准分子激光具有高增益的特点。 准分子激光已经在国外有比较成熟的商用产品,美国的西盟(Cymer)和相干(Coherent)公司,日本的Gigaphoton公司是光刻用准分子激光的主要供应商,目前预电离放电泵浦准分子激光可以实现高重频、高功率、窄线宽的激光输出。基于 ArF准分子激光器,ASML、Nikon、Canon USA等公司已经开发出商用的光刻系统。自1972年美国劳伦斯·利弗莫尔(LawrenceLivermore)国家实验室发现波长为170纳米的Xe2准分子激光以来,已经相继获得17种准分子激光振荡,其光谱覆盖126~675纳米之间的多个波长。 单个准分子激光腔作为光刻光源难以实现窄谱线和高稳定、高能量脉冲的输出。一方面要求同一台激光器同时工作在窄线宽和高输出能量的极限条件下,另一方面高脉冲能量下紫外光学元件的退化会造成窄线宽工作的寿命下降。经研究发现双腔结构是一个很好的解决方案。其中一个放电腔产生 窄线宽但低能量的种子脉冲光源,另一个放电腔实现对种子光源的功率放大。典型的双腔结构有主振荡功率放大腔(master oscillator power amplifier,MOPA)与种子光注入锁定系统(injection locking system,ILS)。MoPA结构中,线宽压窄光学元件工作在较低的重复频率,因降低了光致热效应而延长光学元件的寿命。其次,主振荡器内仅要求产生较低能量的脉冲,更易于获得极窄线宽光谱,并有助于延长元件寿命。以 Cymer 公司的xLA、xLR系列为代表,种子光注入锁定系统的特点是种子光在放大腔往返多次放大,其主要优点是性能稳定和运行成本低。以ILS技术为代表的有Gigaphoton公司于2004年开始进入市场的GT40A系列ArF浸没光刻机。 谱线宽度技术 由放电腔发出的原始光谱宽度达几百皮米,这样宽的光谱带宽无法满足光刻等应用的要求。以目前主流的光刻光源ArF准分子激光器为例,需要把自由振荡的500皮米左右的宽带光谱压窄至亚皮米量级。光谱带宽是影响成像能力和特征尺寸的重要因素。由于光学材料在深紫外波长区的限制,ArF光刻系统的投影棱镜将不可避免地产生色差现象。亚皮米的光谱线展宽所产生的影响也不可忽略,然而,可以通过压窄光源光谱线宽来减小色差效应。为了实现90纳米技术节点的集成电路光刻,必须使激光脉冲的线宽达到亚皮米的量级。其次,采用浸没式光刻增加数值孔径的同时,需要更窄的谱宽相匹配。第三,窄线宽可降低光源对临界尺寸的灵敏度,从而改善由于光源不稳定造成的光刻图样的不均匀。第四,较低的k,要求较窄的光谱线宽相匹配。因此,为了减小光刻的特征尺寸,提高拉曼散射效率和荧光光谱分析精度,有必要对较宽的自然光谱进行线宽压窄。 光刻光源一般采用多棱镜扩束器和大尺寸光栅组合的线宽压窄方案闪。棱镜扩束器用于分离波长并保持较小的发散角,通常使用2~4块棱镜可以实现20~40倍的光学扩束。棱镜材料为紫外波段高透过率的融石英或氟化钙,在棱镜的激光人射和出射面通常都镀有增透膜层。扩束后的光斑投射到大尺寸光栅上,棱镜组与光栅的光路组成利特罗(Littrow)结构。综合考虑棱镜的扩束率、透过率和棱镜增透的要求,棱镜的人射角通常设在68~71度之间。大尺寸光栅通常为中阶梯光栅,其较大的闪耀角有利于光谱的高阶色散和线宽压缩。扩束后的光束也可以先入射到高反平面镜再反射到光栅上,转动高反镜可改变入射到光栅的角度,从而实现激光中心波长的调谐和稳定控制。 为避免大气中氧原子对紫外激光强烈吸收造成的能量损耗,同时隔绝外界对光学元件的污染,通常把棱镜扩束器、反射镜和大尺寸光栅等光学元件装配在一个封闭的腔体内。在光刻光源中这样的腔体被称为线宽压窄模块。在光刻机工作时,线宽压窄模块内一般通有特定流量的高纯氮气或氦气。 激光的光谱宽度除了用峰值的半高全宽(FwHM)表示,同时要可以显示光谱能量95%的积分宽度(E95)。E95指标的大小及稳定性是光刻机的重要参数之一,它影响曝光系统成像能力和临界尺寸(cD)控制。Cymer和Gigaphoton最新机型的E95都小于O.35皮米。 光谱稳定技术 高重频脉冲的波长抖动和短时间内波长的漂移都会引起光谱的增宽。为减少光谱变化引起的曝光像差,光刻光源的波长测量必须要实现较高的精度(相对波长)和准确度(绝对波长)。相对波长的测量可以通过一个或多个标准具来实现。这是因为激光通过标准具形成的干涉环条纹的宽度、间距与激光的波长和线宽相关。另一方面,绝对波长的确定(波长校准)则可以将测得的相对波长与原子吸收线进行比较来实现。稳定的光谱带宽对低节点光刻应用尤为重要。由于投影镜头的色差,光谱带宽的变化将导致散焦误差,引起对比度损失和产生光学邻近误差。此外,激光腔工作气体中氟气的浓度也会影响激光的光谱宽度。在主振荡-放大结构中光谱宽度会随两腔体放电间隔时间呈近线性变化。利用这一特性,可以通过在线检测激光光谱参数,采用闭环控制系统动态调节放电间隔时间,从而实现对光谱进行短期的稳定控制。线宽压窄模块中,同样利用实时检测窄线宽激光的光谱,并动态微调光栅的衍射角,以控制中心波长和线宽的稳定性。光束均匀性技术光刻机照明系统的作用是为整个掩模面提供高均匀性照明,通过控制曝光剂量和实现离轴照明模式以提高光刻系统分辨率,增大焦深。高分辨率投影光刻的照明系统对输出光的波长、均匀性、光强等都有很高的要求,其中照明的均匀性要求为1.5%~1%。照明系统的质量直接影响到投影光刻的质量,高均匀照明技术是照明系统的主要关键技术。在对照明均匀性要求不是很高的系统中,可以通过增加补偿器来改善光照均匀度,补偿器原理是通过控制通光表面各处的透过率来提高光能分布的均匀性。为了更进一步提高输出光能分布的均匀性,照明系统中通常都采用了光学均匀器(或称光学积分器)。通常采用复眼透镜或棒状导光棒作为光学均匀器。提高均匀性的原理为将光束分割成许多细小的光束,使得每一子光束的均匀性比原有光柬的均匀性都有所提高,然后将所有的子光束在空间叠加,使各子光束的光能分布进一步得到补偿,从而较大地提高光能分布的均匀性。 在设计照明系统的光路时,首先应进行扩束的准直系统设计。由于准分子激光的光束截面呈矩形,需要将准分子激光原始的矩形光斑改变成正方形分布,需要一组柱面扩束镜进行扩束,然后由一组球面扩束镜扩束为大小较为合适的正方形的光斑,再利用征透镜阵列器获得好的照明均匀性M。这是因为微透镜阵列分割了能量分布不均匀的激光束,利用数学的积分原理可知,许多细光束叠加就得到了能量分布较为均匀的照明。最后微透镜阵列组要与聚光镜组配合才会得到较好的照明均匀性,通常采用柯勒照明(Kohler illumination)方式,微透镜阵列组的前透镜阵列被它后面的光学系统在掩模上成像时,其后透镜阵列应该被聚光镜组在投影物镜的入瞳处成像,这样既保证了像面均匀性,又保证了与投影物镜之间的匹配。同时为了使投影系统的入瞳与照明系统的出瞳相匹配,照明系统的出瞳要在无穷远处,此时掩模应位于聚光镜组的后焦面处。微透镜阵列后组应位于聚光镜组的前焦面处,只有这样才可以保证微透镜阵列前组被它后面的光学系统成像在掩模上。另外,对于聚光镜组,因为视场与孔径角都相对较小,所以只用两片球面透镜像差就可以得到较好的校正。 对曝光系统光束能量利用率的问题和通过投影系统后激光光束整体均匀性要求,都需要一些定量的评价指标凶,如准分子激光光束均匀性评价指标主要有加工窗口、能量分数、平顶因子等。 液体浸没技术 根据瑞利公式,增大数值孔径(numericalaperture,NA)是一个提高光刻精度的有效技术途径s。漫没式光刻技术的原理是在光刻机投影物镜和晶圆上的光刻胶之间充满高折射率的液体,从而使数值孔径大于1。 对于193纳米光刻而言,传统的干式光刻机在投影物镜和晶圆之间是空气,其有效数值孔径最大仅为0.93。而水在193纳米处的折射率为1.44,并且具有较高的透过率。在曝光过程中,由于水中溶解的物质有可能沉积到投影物镜最后一个透镜的下表面或者光刻胶上,引起成像缺陷,而水中溶解的气体也有可能形成气泡,使光线发生散射和折射。因此,目前业界普遍使用价格便宜、简单易得的去离子和去气体的纯水作为第一代浸没式光刻机的浸没液体。采用水作浸没液体,可实现1.35数值孔径,光刻节点达到了32纳米。为了将浸 没式光刻技术延伸到32纳米甚至22纳米节点,应用折射率更高的液体取代水作为浸没液体。许多公司正致力于第二代浸没液体的研究,已经找到多种折射率在1.65 左有的液体。在引人第二代浸没液体后,寻找高折射率 (>1.65)的投影物镜底部透镜材料将成为进一步提高数值孔径的关键。 浸没式光刻技术已经展现出巨大的优势和发展潜力,浸没带来的一系列难题也找到了相应的对策。如液体温度的控制,压力的测量和控制,气泡的消除,光刻胶 被液体浸没产生的污染,光学系统的重新优化。浸没式光刻机将继续朝着更大数值孔径的方向发展。今后各公司将使用各种第二代浸没液体和高折射率底部透镜材料搭建实验平台进行曝光测试,分析曝光缺陷、线宽均匀性、液体的循环以及液体对成像质量的影响,找到最佳的材料,在此基础上设计更高数值孔径的浸没式光刻机,以应对更小光刻线宽的挑战。 新一代极紫外光刻光源 目前半导体公司已经进军10纳米工艺,但面临的物理限制越来越高,半导体工艺提升需要全新的设备。极紫外(EUv)光刻机是特征尺寸突破10纳米及之后的7纳米、5纳米.工艺的关键,而波长13.5纳米的极紫外光极可能成为下一代光刻光源。激光等离子体极紫外(LPP-EUv)光源由于具有较好的功率扩展能力,目前被认为是最有希望的高功率EUV光刻光源。 由于波长为10~14纳米的极紫外光在材料中被强烈吸收,其光学系统必须采用反射形式。LPP-EUv通常是采用高功率的coz激光束照射到液滴靶材(一般为 金属Sn)上,产生等离子体并辐射出紫外线。再用反射式聚光系统收集EUV辐射并投射到母版上,母版反射的EUv辐射使掩模图形再经过一个反射的成像系统,缩小投影成像到涂有抗蚀剂的硅片上。限制EU v光源功率提升的个重要难题是去除聚光镜上靶材残留物,这些残留中的Sn会导致镜面的反射率降低。除了光源外,EUv的技术难题还包括掩膜、精密光学系统及元件的制造等。 在2016年国际光学工程学会(SPIE)的先进光刻技术研讨会上,与会者认为:虽然目前EUv技术已经取得了巨大进展,但仍不适合半导体大批量生产制造。荷兰ASML公司和日本的Gigaphoton公司在EUv光源领域占据领先地位,均已具有250瓦 EUv光源的研发 能力。其中ASML公司开发了NXE:33xOB商业光刻光源,20i6年功率达到250瓦,每小时可量产125片 晶圆。而Gigaphoton公司在2016年7月展示了功率250瓦、效率4%的LPP-EUv原型样机]。但EUv作为新–代半导体工艺突破的关键,进展还是低于预期。现在三星、台湾积体电路制造公司(台积电)和英特尔的说法基本统一,预计2020年左右可实现5~7纳米节点。EUv光刻机每台价值1.1亿美元,价格昂贵但仍然受到芯片制造厂商的青睐。三星和台积电公司积极采购EUV光刻机,以谋求在7~10纳米节点采用EUV工艺来提高密度并降低成本。 光刻技术是促进集成电路及相关产业发展的关键技术。10年前一根512兆字节的内存条价格为几百元,目前同样价格买到的内存条可存储16~32吉字节。今天一个中档手机的计算性能,超过了10年前的个人微机,并以摩尔定律预计的速度在增长。光刻技术的发展大大提高了芯片的计算速度和存储量,也在改变着人们的生活。 参考文献: [1] 马建军.光学光刻技术的历史演变.电子工业专用设备,2008,37 (4):28-32. [2] 张海波,楼祺洪,周军,等.ArF准分子激光器线宽压缩技术.激光与光电子学进展,20O9,46(12):46-51. [3] 余吟山,游利兵,梁勖,等.准分子激光技术发展.中国激光,2010,37(9): 2253-2270. [4] 李红霞,楼祺洪,叶震寰,等.准分子激光光束均匀性的评价指标研究.强激光与粒子束,20O4,16(6): 729-732. [5] 袁琼雁,王向朝,施伟杰,等.浸没式光刻技术的研究进展.激光与光电子学进展,20O6,43(8): 13-20. [6] Saito T, Ueno Y,Yabu T, et al. LPP-EUv light source for HVM lithog-raphy. Proc. SPIE10254,XXI International Symposium on High Power Laser Systems and Applications 2016,2017. [7] Mizoguchi H,Nakarai H, Abe T,et al. Deveiopment of 25Ow EUvlight source for HVM lithography.China Semiconductor Technology International Conference,y20i7:l-4. 关键词: 激光光刻…

摩登3平台首页_Vishay推出在高温应用下提高设计灵活性、节省电路板空间的铝电容器

宾夕法尼亚、MALVERN — 2020年11月30日 — 日前,Vishay Intertechnology, Inc.推出新系列低阻抗、汽车级小型铝电解电容器—190 RTL系列电容器。其纹波电流高达3.36 A,可在+125 °C高温下工作,125 °C条件下使用寿命长达6,000小时。 Vishay BCcomponents 190 RTL系列电容器阻抗低于上一代解决方案,纹波电流提高10 %至15 %,设计人员可使用更少的元器件,从而提高设计灵活性并节省电路板空间。此外,器件符合AEC-Q200标准,从10 mm x 12 mm到18 mm x 35 mm,提供各种小型外形尺寸封装。 190 RTL系列电容器采用径向引线,圆柱形铝外壳与减压装置之间用蓝色套筒绝缘,额定电压高达50 V,容量为100 µF至6800 µF,最大阻抗低至0.017 W。电容器具有防充放电功能。 本系列器件为极化铝电解电容器,采用非固态电解液,符合RoHS标准,适合开关电源和DC/DC转换器的平滑、滤波和缓冲,适用于工业、汽车、通信、医疗和国防的各种高温应用。 器件规格表: 190 RTL系列电容器现可提供样品并已实现量产,供货周期为六周。

摩登3登录_罗姆发布车载电源树参考设计白皮书

前言 近年来,随着汽车事故预防措施和自动驾驶技术的发展,对支持高等级安全要求(ASIL)的高级驾驶辅助系统(ADAS)的需求也与日俱增。自动驾驶是指由搭载于汽车中的单元代替驾驶员执行人类驾驶汽车的四个要素(通过耳朵和眼睛进行“认知”,通过大脑进行“预测”和“判断”,通过方向盘和油门进行“操作”)的驾驶。要想实现安全的自动驾驶,需要准确的感应和及时的显示和控制。因此,硬件中摄像头和传感器的使用数量呈增加趋势,并且为了能够准确地告知情况,对信息娱乐系统也提出了多功能化要求。 在这种情况下,用于实现安全功能的单元还需要监控内部运行状态,并注意因单元故障而导致的功能丧失情况。这也需要电子电路来监控每个单元内部的运行状态,这将使电子电路变得更复杂,使单元和系统设计需要投入的时间变得更长。 市场所需的参考设计 随着车载单元数量的增加以及必须通过电子电路实现的功能的增加,ADAS/信息娱乐系统外围单元的电子电路需要进行以下复杂的设计: · 随着摄像头和传感器数量的增加,需要安装的电子元器件数量也在增加,需要供给的电源轨也变得越来越复杂,因此需要在成本、尺寸和特性方面进行优化组合。 · 由于不能牺牲续航里程,因此就需要高效率的电源系统。 · 由于除了功能设计之外还存在其他设计元素(例如CISPR25 Class5的噪声标准),因此不仅需要设计产品本身,还需要设计整个车载单元。 · 要改进单元和系统的安全功能,就需要能够监控电源轨、检测电子电路故障并将相应信息传输给CPU的功能。 为了满足此类市场需求,ROHM开发了满足单元设计所需设计元素的参考设计,并开始公开设计数据。 参考设计“REFRPT001”的概要 此次介绍的参考设计“REFRPT001”的概要如下: · 配备8个系统的电源功能,涵盖ADAS/信息娱乐功能所需的电源轨。 · 一次(*1)DC/DC转换器IC采用“BD9P系列”,即使输入电压低于设定的输出电压(例如电池启动时),也可以稳定地供电。 · 二次(*1)DC/DC转换器IC采用“BD9S系列”,该系列产品具有超小型和超高效的特点。 · 电源监控IC采用“BD39040MUF-C”,可以监控全部8个系统的输出电压,并具备IC自我诊断功能,有助于提高功能安全等级。 · 已完成系统级验证 – 已完成标准电气特性测试 – 已完成EMC测试(在没有输入滤波器的条件下,符合CISPR25 Class5要求) – 已完成热测试(分散配置高效率DC/DC转换器IC,可分散热量) · 所使用的IC和分立元器件均符合车载AEC-Q100和AEC-Q101标准。 · 主要IC均支持功能安全“FS supportive(*2)”。 参考设计“REFRPT001”的参考板“REFRPT001-EVK-001”的外观图(图1)和框图(图2)如下。假定条件:从2个系统的一次DC/DC转换器“ BD9P系列”分别分支出4个系统输出,并为SoC、MCU和CAN设备供电。另外,由于8个系统的输出电源轨均由电源监控IC负责监控,因此有助于提高功能安全系统的等级。 图1. 参考板“REFRPT001-EVK-001”的外观图 图2. 参考设计“REFRPT001”的框图 接下来是作为评估数据而公开的EMC测试结果。从测试结果可以看出,即使让整个参考板运行,在没有输入滤波器的情况下,EMC辐射噪声(天线垂直)(图3)、辐射噪声(天线水平)(图4)和传导噪声(图5)均符合CISPR25 Class5标准。在PCB上还预先预备了用于增加噪声特性余量的输入滤波器安装图案,因此还可以针对会对整个单元的改进工作具有重大影响的EMC问题采取增加输入滤波器的措施。 图3. 辐射噪声(天线垂直) 图4.辐射噪声(天线水平) 图5.传导噪声 全力支持客户设计的内容和工具 针对参考设计“REFRPT001”,已经在ROHM官网上公开了以下数据作为支持客户设计的开发工具(内容和工具)。 · 参考框图 / 参考电路图 / 零部件清单(BOM) · PCB信息 / Gerber数据 · 测试报告(电气特性、EMC特性、热特性) · 免费的在线仿真工具(参考设计的部分电路) · 所搭载产品的SPICE模型 · 所搭载产品的CAD工具用符号&引脚焊盘 · 所搭载产品的热仿真用热模型 另外,如上所述,还可以使用ROHM Solution Simulator(*3)对本参考设计的部分电路进行仿真。ROHM Solution Simulator是一款免费的在线仿真工具,由于还提供包括外围电路在内的标准电路,因此无需准备仿真电路和模型就可以轻松地进行仿真。接下来介绍一个仿真示例。 图6是2个系统电源树的仿真示例,该电源树为电池供电,一次DC/DC转换器IC“BD9P105”后段配备有二次DC/DC转换器IC“BD9S201”和LDO“BD00IA5M”。(请点击这里查看仿真电路。需要注册“我的罗姆”。) 图6. 2个系统电源树的仿真电路(1) 图7是3个系统电源树的仿真示例,该电源树为电池供电,一次DC/DC转换器IC“BD9P205”后段配备有各种二次DC/DC转换器IC。(请点击这里查看仿真电路。需要注册“我的罗姆”。) 图7. 3个系统电源树的仿真电路(2) 将这些参考设计的开发工具和仿真用于ADAS/信息娱乐系统外围单元的设计,可以节省部件选型的麻烦并可切实靠地进行电路验证,从而可以大大减少单元设计的工时。 融入先进技术的产品,成就ROHM特色参考设计 这次的特色参考设计由凝聚了先进技术和功能的产品打造而成。 · BD9P系列(采用Nano Pulse Control™技术的产品(*4)) – 42V耐压、车载一次DC/DC转换器IC系列(表1) – 具有出色的高速响应性能,可在电池启动后立即稳定供电 – 具有展频功能,低EMI(低噪声) – 支持功能安全“FS supportive” 表1.一次DC/DC转换器IC“BD9P系列”产品阵容 · BD9S系列 – 车载二次DC/DC转换器IC系列(表2) – 搭载有助于提高系统可靠性的输出电压监控功能,并且可以设置软启动时间 – 超高效运行 – 开关频率2.2MHz(typ.),不会干扰AM频段 – 支持功能安全“FS supportive” 表2. 二次DC/DC转换器IC“BD9S系列”产品阵容 · BD39040MUF-C – 内置自我诊断功能(BIST)且支持功能安全的电源监控IC(图8)…

摩登3注册平台官网_Melexis 全集成 LIN 电机驱动器降低汽车行业机电一体化应用的材料成本

2020 年 12 月 2 日,比利时泰森德洛 – 全球微电子工程公司 Melexis 宣布推出面向汽车行业机电一体化应用(包括电机控制的翼板和阀门以及小型风扇和泵)的第三代 LIN 驱动器—MLX 81330和MLX 81332,适用于功率最高为 10 W 的小型电机。 第三代智能 LIN 驱动器 MLX 81330(0.5 A 电机驱动)和 MLX 81332(1.0 A 电机驱动)基于高压 SOI(绝缘体上硅)技术,具有高水平的稳定性和功能密集性,同时结合模拟电路和数字电路,提供真正完全符合行业标准 LIN 2.x/SAE J2602 和 ISO 17987-4 LIN 从机节点规范的单芯片解决方案。 除了集成电机驱动器外,新一代产品还扩充了 I/O 能力,并采用双微控制器架构,一个内核专门用于通信,另一个微控制器用于运行应用软件。 MLX 81330 和 MLX 81332 采用“全集成”LIN 从机设计方法,可降低物料清单 (BOM) 成本、减小 PCB 尺寸、简化生产设计、加快组装速度。MLX 81332 直接与 ECU 对接,最多可驱动一个电机的四个相位,每个相位最大电流为 1 A,或者驱动两个相位,最大电流为 1.4 A。这意味着它可以利用磁场定向控制 (FOC) 算法(带传感器或无传感器)驱动 2 相直流电机、3 相 BLDC 电机或 4 相双极性步进电机。 智能 LIN 驱动器包含 5 个 16 位 PWM 定时器、2 个 16 位定时器和一个 10 位 ADC 以及差分电流传感放大器和温度传感器。此外,还集成了过电流、过电压及过温检测/保护功能。除了支持模拟 I/O 外,还能使用汽车应用的常用协议(例如 SPI 和 SENT)与标准外部传感器对接。 集成的多个处理内核共用一个片上存储器架构。应用内核 (MLX16-FX) 可以访问 32 KB 闪存(带 ECC)、10 KB 的 ROM、2 KB 的 RAM 以及 512 字节的 EEPROM(带 ECC)。通信处理器 (MLX4) 可以访问 6 KB 的 ROM 和 512 字节的 RAM。嵌入式电机控制器 IC 用于实现符合 ASIL-B…

摩登3平台开户_1000倍提升!未来芯片、计算、编程将这样发展

出品 21ic中国电子网 付斌 网站:21ic.com “未来早已到来,只是分布不均。” ——William Gibson 如何让算力在低功耗的情况下提升1000倍?乍一听似乎有些荒唐,但实际上利用量子叠加和量子纠缠概念的量子计算早已步入所有人的视线之中,看似遥远而又科幻的目标其实离现实越来越近。   英特尔作为一家围绕数据为中心的企业,目前正在逐步强化异构计算方面对算力和功耗的优化。实际上,英特尔未来的目标是让每个人都能获得百亿亿级次计算,英特尔研究院正在实现这一目标。   英特尔这家公司对“5”这个数字似乎情有独钟,不仅从5年前就开始布局xPU+oneAPI的软硬件生态超异构计算,还在近期展示了5年后的CPU路线图。但事实上,英特尔还规划了5年、十几年甚至更久才能达成的超前沿技术项目,充分释放数据的价值。   在近期的英特尔研究院开放日上,英特尔“秀”出其超前沿的技术,目标是追求1000倍以上的提升。英特尔实现1000倍提升主要是聚焦在集成光电、神经拟态计算、量子计算、保密计算和机器编程五大领域。   需要注意的是,虽然英特尔在明码数字上标注的是追求1000倍提升,但实际上神经拟态计算早已超过千倍提升,机器编程的提升更是从0到无穷大。   本次展示新技术既是一种布局,也是一种互补,将与现行的异构计算相辅相成,最终实现新技术架构和传统架构依据不同应用实施。   尺寸小1000倍 集成光电 英特尔首先展示的1000倍提升的技术是集成光电,主要目的是将光科学与大规模芯片生产的成本效益相结合,这也是业界首次被提出来的概念。利用光互连I/O直接集成到服务器和封装中,可以对数据中心进行革新,实现1000倍提升,同时降低成本。   根据英特尔的介绍,虽然英特尔研究院经过几代的改进,从单链路多I/O协议架构演进为Thunderbolt和USB Type-C电气I/O,性能性能有了显著提升,但电气性能扩展速度较慢仍然较慢,因此英特尔探索是否通过光互连解决这一挑战。   英特尔认为现在是从电气I/O迁移到光互连I/O的重要拐点,究其原因是电气性能正在快速逼近物理极限,另外电气性能扩展的速度跟不上带宽需求的三年翻一番的需求,这就会产生I/O功耗墙,I/O功耗会逐渐高于所有现有插接电源导致无法计算。   光互连技术主要涉及五个技术要素,包括光产生、光放大、光检测、光调制、CMOS 接口电路和封装集成,而英特尔近期在几大技术构建模块上实现重大创新,并展示了集成光子学原型。   1、光调制: 传统硅调制器体积巨大,占据空间过多,因此IC封装成本很高。英特尔开发了微型微射线调制器,其体积缩小1000倍,因此在服务器封装上可以放置几百个这种器件。   2、光探测: 几十年来,业界一直认为硅几乎不具备光探测能力,但英特尔证明事实并非如此。英特尔开发了全硅光电探测器,这项技术可以降低成本。   3、光放大: 如若想要降低总功耗,集成半导体光学放大器是不可或缺的技术,在此方面英特尔推出了集成半导体光学放大器。   4、协同集成: 集成非常重要,不仅可以降低成本还可以优化功耗,也是集成光电最核心的工艺。英特尔主要利用3D堆叠CMOS电路与光子直连,这主要凭借的是英特尔强大的封装集成技术。     根据英特尔的介绍,目前还没有其他公司展示过将集成激光器、半导体光学放大器、全硅光电探测器和微型环调制器集成在一个与CMOS硅紧密集成的单个技术平台上的解决方案。   实际上,这得益于英特尔在硅光子上的长久研发,早在2016年,英特尔就推出了一款全新的硅光子产品“100G PSM4”能够在独立的硅芯片上实现近乎光速的数据传输,目前英特尔已经为客户提供超过400万个100G的硅光子产品。   笔者认为,行业已经意识到“以光代电”的重要性,行业对于光的高带宽、抗干扰特性有了越来越深的理解。英特尔展示的这一整套方案,最为重要的便是集成,也是最大的突破。   英特尔中国研究院院长宋继强表示,集成光电主要突破和进展就是把很多原来分离的尺寸比较大的模块,用新的技术集成到一起了。值得一提的是,这种技术目前已经开始应用了,已有客户板内开始利用这种设计。   速度功耗提升1000倍 新型计算 英特尔在高效计算方面追求1000倍提升主要依托三种前沿计算技术,分别是神经拟态计算、量子计算和保密计算,这三种方式分别拥有不同的专长:   01 神经拟态计算:计算和内存混合的全新架构 神经拟态计算灵感来源于大脑,英特尔用无人机和玄凤鹦鹉进行举例说明:无人机板载处理器要消耗18W的电力,利用最先进的AI技术,无人机只能勉强以步行速度通过预先编程在几扇门间自主飞行。反观玄凤鹦鹉,大脑仅仅2克重,能耗相当于50mW,体重比无人机轻20倍,能耗低350倍,但却可以顺利完成飞行、觅食甚至学习人类语言的能力。     英特尔方面则在2015年开始以现代神经科学理解作为灵感开发了一种新型架构,这种架构可以利用标准计算+并行计算+神经拟态计算的方式进行不同计算的分工。   神经拟态计算相比传统计算机架构来说,完全模糊了内存和处理之间的界限,处理就发生在信息达到之时,如同大脑中的神经元一样。换言之,就是把计算和内存混合在一起的一种全新架构模式。   2017年,英特尔发布了首款神经拟态芯片“Loihi”,这款芯片没有片外内存接口,通过二进制脉冲信息和低精度信号直接在芯片上计算,另外这款芯片还具有片上学习功能,远超目前所有芯片。2020年初发布,英特尔发布Pohoiki Springs 系统,该系统采用768个Loihi芯片,并包含1亿个神经元。   之后,英特尔成立英特尔神经拟态研究社区(INRC),目前已吸纳超过100个团体,拥有十几家500强企业成员,如埃森哲、空中客车、通用电气等。   根据本次会议上报告显示,INRC已经发表了40 多篇经过同行评审的论文,其中许多论文中都记录了量化结果,证明这项技术能够带来有效的性能提升。   部分机器人工作负载显示,Loihi的功耗比传统解决方案低40-100倍;大规模PohoikiSprings系统上相比CPU实施方法,功耗降低45倍,运行速度快100多倍;Loihi还可以解决较难的优化问题,如约束满足和图形搜索,运行速度比CPU快100倍,但功耗比CPU低1000多倍。   值得一提的是,虽然英特尔研究院开放日的主题是围绕1000倍提升展开,但实际上对于神经拟态计算研究1000倍已经一个很低的标准了,某些情况下英特尔的能效和计算速度是超过千倍的。   宋继强强调,神经拟态计算的应用最适合的是在边缘,因为这项技术可以以很高的能效比去完成以前高功耗的GPU模型算法才能做的事。     另外,英特尔宣布联想、罗技、梅赛德斯-奔驰和机器视觉传感器公司Prophesee加入英特尔神经拟态研究社区,共同探索神经拟态计算在商业用例上的价值。同时将在2021年第一季度,发布下一代“Lava”软件开发框架的开源版本,服务更多软件开发人员。   02 量子计算:自旋量子技术、低温控制技术、全栈创新   量子计算作为全新的计算模式已经逐渐成为许多企业和国家的发展重点,这一词语已经时常刷屏,但具体该怎么理解呢?   英特尔用硬币对这个概念进行了解释:传统的数字计算需要把数据编码为二进制数字,只有0或1两种状态,就像硬币的正面和反面。而量子计算使用量子位,可以同时处于多个状态,就像一枚旋转中的硬币,可以同时是正面和反面。   2个纠缠的量子位就可以表示同时混合的4种状态,而n个量子位就可以代表2的n次方种状态——50个纠缠的量子位所获得的状态数量就将超过任何超级计算机。如果有300个纠缠的量子位,那能够同时表示的状态就比宇宙中原子的数量还要多。     英特尔此前一直强调的都是量子的实用性上,这是因为量子位非常脆弱,目前仅仅有几百或数千量子位是没有办法造出一台商用级量子计算机。英特尔的量子计算拥有自旋量子技术、低温控制技术、全栈创新的特点,为构建商用量子计算机提供了坚实的基础。   另外,英特尔推出了第二代低温控制芯片Horse Ridge II,这款芯片是相比2019年推出的第一代产品拥有更高的集成度,支持操纵和读取量子位态的能力,支持多个量子位纠缠所需的多个栅极电位的控制能力。   03 保密计算:联邦学习、完全同态加密让安全更进一步   在保密计算上英特尔主要依靠联邦学习和完全同态加密实现1000倍提升。既然算力被神经拟态计算和量子计算提升数千倍,背后隐含的是庞大的安全问题。英特尔认为,保密计算需要提供数据数据保密性、执行完整性和认证功能,防止机密泄露、防止计算篡改、验证软硬件真实性。   所谓联邦学习,主要是保护分属不同所有者的多个系统和数据。 英特尔表示,在零售、制造、医疗、金融服务等许多行业,最大的数据集往往都被限制在多方手里的数据孤岛中。这阻碍了使用机器学习工具从数据中获得洞察。通过联邦学习,英特尔将计算进行了拆分,这样就可以用各方本地的数据训练本地的算法,然后将获取的信息发送至中央聚合站点,数据不共享,价值仍释放。   完全同态加密则是一种全新的加密系统,它允许应用在不暴露数据的情况下,直接对加密数据执行计算操作。 该技术已逐渐成为委托计算中用于保护数据隐私的主要方法。   根据宋继强的介绍,具体的原理就是,原本明文的算法模型用同台加密的方法处理后,变成了一个1000倍大的数据流,将数据流训练后再返还为训练好的模型。很多情况下,这一数据流最好扩大到万倍以上才拥有实用性。   但与此同时,内存存储、计算量、网络通讯都被放大了很多倍,这会导致开销增加,因此这一技术尚未广泛应用,未来新一代的硬件支持便可实用化。另外,英特尔希望普及这项技术,目前正在研究新的软硬件方法,并与生态系统和标准机构开展合作。   从0到无穷大倍的提升 机器编程 除了在硬件上的1000倍提升,英特尔还着重提出在机器编程效率上的提升。诚然,强悍的硬件必然能够获得出色的表现,但编码效率提升意味着更快的上市速度和更少的成本。而这种提升就不仅仅是用1000这种数字进行量化了,实际对于未来业界的帮助是无穷大的。   英特尔为此提出了机器编程的概念,AI的诞生使得各行各业都变得越来越自动化,而未来机器本身也将会为自己构筑程序。机器编程与机器学习的不同之处就是计算机可以自动编写软件的软件。   “机器编程”这一词在英特尔研究院和麻省理工学院联合发布的《机器编程的三大支柱》论文中首次提出,论文中认为机器编程的三大支柱是意图(Intention)、创造(Invention)和适应(Adaptation),开发机器编程的主要目的在于通过自动化工具提升开发效率。…

摩登3登录_21张思维导图,小林肝了半个月的「后端技术学习路线」长啥样?

话不多说,直接上刚画完的「后端技术学习路线」思维导图框架: 图中的每一个节点都可以点开,我都做了细分,在后面章节逐个展开介绍。 计算机基础 不管是后端开发还是前端开发,说到底我们所有的软件开发都是在计算上编写程序,虽然对于大部分人来说,真正开始写代码的时候很少会让你去解决计算机底层的问题,不接触不代表不重要,计算机基础是最重要的。 后端开发工作中经常用到 Java、C++、Python、Golang 这些语言称为高级编程语言,称为高级是它们接近我们日常交流的自然语言,离计算机底层远,但所有的高级语言最终都会转化成汇编->计算机指令->控制流操控计算机硬件,所以学习计算机构成和工作原理、操作系统这些基础知识,能够加深我们队高级语言的理解。 那我们一直说的计算机基础到时是什么?计算机科学技术 CS(Computer Science)作为一门专业课程,就和其他工科课程一样有自己的理论体系,如果你是计算机专业的同学不用我来教该学什么,计算机专业大学四年学校教的那些就是基础,别小看你在学校学的那些看起来没啥用的课程。我这有一份中中科大的计算机技术本科主要课程结构安排。 一流大学的计算机专业要学什么可以对照着看下,从学科数学理论基础、计算机体系结构、软件工程方法等等维度展开。 那如果你不是计算机相关专业的想转行,也不要被吓到了,毕竟这是人家四年时间的学习内容,本科的培养目标不仅仅是培养出一个软件工程师,本科学习还是面向硕士博士的基础培养,注意是计算机科学专业,名字里有个词叫「科学」,我这篇文章要说的 BAT 公司后台软件开发,可以认为是「工学」方向,更多的是服务于工程开发。 如果只是面向后台开发和工作面试,或者你是非计算机专业想转行,社畜没有太多时间去学习大学那些理论课程,那帮我把计算机基础的范围缩小到下面这 4 门专业课:计算机组成原理、计算机网路、操作系统、数据结构。 计算机组成原理 这门课程让你了解计算机的组成和工作原理,要学习的内容包括: 数据在计算机中的表示和运算(计算机不识数,只认得高低电平,所以数据在计算机内部都用二进制的0和1表示) 存储系统(数据和程序指令都要存储下来,学习计算机的存储层次,内存、外存、高速缓存、虚拟存储技术) 指令系统(写的代码最终都要被翻译成计算机指令,指令格式和寻址方式有多种,控制器来控制指令执行) 中央处理器(也就是 CPU 计算机的大脑,主要构成是运算器和控制器) 总线(计算机的血管动脉,连接计算机各功能组件,用来传输数据、地址信号、控制信号) 输入输出系统(Input/Output 也叫 IO 系统,连接和管理各种外部设备比如键盘、显示器等等) 计算机网络 世界上第一台通用计算机「ENIAC」于 1946 被发明出来,如其名字一样仅仅是用于计算,在后来计算机越来越多,如果没有网络每台计算机都将成为一个孤岛,也不会有现在互联网的繁荣,「计算机网络」这门课程的学习路线非常清晰,就是围绕着如何让地理位置上不同的计算机连接起来,并高效可靠的交换数据信息,实现人在家中做,天下事尽知。 计算机网络有分层次,根据各层属性和特点,分为: 物理层 数据链路层 网络层 传输层 应用层 这个层次划分从上到下就是一个网络数据包的接收路径,反之就是发送路径。既然要交换信息肯定得商量一套通用的协议,就像我们和老外交流,要么他们学中文要么我们学英文,反正得统一出一个标准语言出来,这在计算机网络中称之为「通信协议」。如上述的网络分层,每层都有各自适配的协议,所以计算机网络的学习基本就是围绕着分层协议的学习。 操作系统 操作系统也是一种软件。你熟悉的微软 Windos 操作系统,后台开发熟悉的各种发行版的 Linux 系统,都是通过软件的形式安装在计算机上。 只不过这个软件和我们平常接触的应用程序软件不同,它比较特殊,因为它向下和计算机硬件(就是我们在计算机组成原理中学习的那些硬件)打交道,向上给其他应用程序和用户提供通用的交互的接口,说白了操作系统就是个中介和管家的角色。它帮我们做了下面这些事情: 进程管理(你写的程序运行起来才能干活,运行起来的程序称为进程,进程是资源的最小单位) 内存管理(计算机内存又贵又少,动不动又要来个高并发,内存管理大有学问) 文件管理(计算机中的资料和信息需要通过文件系统来保存、管理) 输入输出管理(各种外部设备如何接入计算机和接入之后又如何管理) 数据结构 数据结构大家最熟悉,即使毫无计算机基础或是想转行计算机,第一个遇到的就是数据结构,因为面试刷的算法题本质上就是对各种数据结构的运用。所以单纯对面试功利的角度来说,数据结构也是必须要掌握的计算机基础,数据结构要学到: 线性表(链表、数组、循环链表) 栈和队列 树和各种二叉树(二叉排序树、平衡二叉树、哈夫曼树、B树、B+树、Trie树) 图(图的存储结构、BFS、DFS、最短路径、最小生成树、拓扑排序、关键路径) 查找算法(二分查找、B树查找、HASH表、KMP字符串模式匹配) 排序算法(插入排序、冒泡排序、归并排序、基数排序、堆排序) 贪心算法 位运算 分治算法 动态规划 好了,计算机基础四大专业课已经大概过了一遍,当然这是我给没有计算机基础同学的实用主义建议,等你学完这四门课程也只能够说入门计算机了,不过这已经比很多人厉害了。如果想真正的了解计算机这门学科,可以等学完了这 4 门基础课程之后,再花写时间挑一些上面培养方案中的课程去学习,做一个知识体系完备的计算机软件后端开发工程师。 Linux 在后台开发领域,你所能接触到的后端服务不敢说 100%,至少也有 90% 以上是运行在 Linux 系统之上,因为它开源、便利、功能强大,需要学习以下技术点:  Linux系统使用 所以如果你想走后端开发这条路线,我建议你趁早使用 Linux ,越早越好。可以是在个人 PC 上装 Linux 虚拟机,或者装个双系统,我在大学就是这么玩的,那时候云服务器还没现在这么普及,现在我觉得买个 Linux 云服务器最方便,如果是学生还有教育优惠也不贵。 有了Linux系统之后干嘛呢?把它作为你的常用系统,经常登录进去对照着「鸟哥的 Linux 私房菜」从头到尾操作一遍,ok,Linux的基础操作你就掌握了。 Linux 高级编程 Linux「高级编程」的意思是比上面的 Linux 基础操作更深入一个层次。 学会了 Linux 的使用还不算是一个真正的开发人员,使用系统是成为开发者最基本要求,会操作Linux 就像使用 Windows 系统一样,只不过是学习成本的问题,如果这个世界没有 Window 系统,你女朋友花点时间也能掌握 Linux 系统基本操作。 要想进阶成为后端开发人员,就要懂得如何使用 Linux 系统提供的各种系统API(系统调用接口)进行编程开发,程序员用你写的代码来控制系统,普通用户只会用鼠标操纵。这个阶段需要学习: Unix 系统实现 Linux、基本系统数据类型 文件操作函数: open 、read close write dup fcntl ioctl stat chmodaccess chdir … 系统编程接口的基本特性和高级特性 Linux进程环境、如何创建进程、线程,程序的存储空间分配、环境变量 进程组、会话以及任务控制、进程优先级和调度 动态库和静态库 进程间通信:管道和FIFO、消息队列、信号量、共享内存、内存映射 套接字和网络编程 总之,这一阶段需要学习的是在 Linux 环境下的高级编程技巧,通过对这些内容的学习也能让你更深入的理解 Linux 系统是如何工作和运行的,并且真正的踏入…

摩登3测速登录地址_斑马技术助力澳洲布勒山滑雪度假村提升游客体验

斑马技术今日宣布澳洲布勒山(Mt. Buller)滑雪度假村部署了斑马技术的XSLATE B10坚固型平板电脑,以提高其票务验证流程的效率和准确性。 斑马技术XSLATE B10坚固型平板电脑 布勒山拥有长达 80 公里的滑道,占地面积超过 300 公顷,是澳大利亚最受欢迎、交通最便捷的滑雪胜地之一。布勒山每年接待游客超过40万人,因此需要一个强大的系统来验证每位游客的通行证。 布勒滑雪缆车(Buller Ski Lifts)公司是布勒山滑雪度假村的缆车所有者,运营着布勒山大规模的滑雪缆车网络。其采用了RFID通行证——“B-TAG”来简化滑雪缆车的搭乘。滑雪缆车网络遍布超过300公顷的布勒山,且整个滑雪区有多个搭乘点,对于验证每位游客每次搭乘滑雪缆车的通行证而言是一大挑战。 布勒滑雪缆车(Buller Ski Lifts)公司的IT经理Jonathan Cotterill表示:“我们需要坚固耐用的平板电脑来完善我们当前基于RFID的缆车搭乘流程。当游客进入闸门时,其口袋中的B-TAG就会被检测到,并且持票人的身份信息会实时显示在平板电脑上,便于工作人员进行验证。由于检票口在室外,因此我们采用的解决方案必须能够承受布勒山的极端高山条件,包括雨、雪、冰雹和强烈的紫外线照射。我们很高兴斑马技术的XSLATE B10坚固型平板电脑满足了所有这些严苛的要求,并大大减少了我们在行政管理事务上所花费的时间。” 斑马技术澳大利亚和新西兰区域总监Tom Christodoulou表示:“我们很高兴看到像布勒山这样顶级的滑雪胜地通过采用合适的技术来增强其业务运营。事实上,Buller Ski Lifts公司已计划增加布勒山滑雪缆车的数量,我们期待未来依然能够通过斑马技术的解决方案,为这一滑雪胜地提供支持。”

摩登3测速登录地址_家电行业必备-焓差实验室功率测试方案

摘要:焓差室是测定空调机制冷、制热能力、工作效率等指标的专用实验室。实验过程中需对功率、能耗、温度等参数进行采集并记录,想要做到快捷与精准的数据获取?试试这两款设备吧。 焓差实验室 焓差室(空气焓差法试验室)是以空气焓差法为原理建造的测定空调机制冷、制热能力的试验室。焓差实验是衡量制冷制热设备性能的关键一环,目前已广泛应用于多个行业,成为空调厂家的必测实验。焓差实验室在实验过程中需要采集并记录温度、湿度、电压等参数。那么该如何高效准确的获取这些参数?本文将从电参数测试与波形记录两方面进行介绍。 图1 焓差实验原理图 电参数测试 焓差实验的核心测试为电功率的消耗量以及温度的变化,从而判断用电器的制热制冷能力,所以电参数测试是焓差实验的核心测试内容之一。 由于压缩机是三相供电,所以需要功率计也是对应三相功率,且压缩机本质是电机,是由控制器输出的PWM波供电,所以需要高带宽、高精度测试设备来保证实验的准确性。 PA333H功率计采用了双分流器技术,它无需使用外部传感器便可以直接测量高达1000V的电压、50A的电流,可轻松满足大功率测试需求。同时带宽覆盖DC,0.1Hz-300kHz,精度高达0.1%。可测试电压、电流、功率、效率、能耗、谐波等多种电参数,满足IEC61000-4-7标准。广泛应用于焓差实验。 图2 PA333H功率计压缩机测试图 焓差实验通常需要测试样品在高温、低温等多种不同状态下的性能,测试时间一般需要持续一天左右,除了电功率外,还需要记录温度等环境参数。在实验中若发现压缩机有异常工作状态,则需要分析三相电压电流波形来排查问题。普通示波器通道数少,且存储深度低,无法长时间进行波形记录。 ZDL6000示波记录仪共有8个卡槽,可自由选配温度卡,高速模拟量采样卡,轻松满足三相电压电流以及多路温度的同时测试。此外,ZDL6000示波记录仪可选配最高2T硬盘,记录时长最高可达500天,支持多种格式数据导出以及回读分析。 图3 ZDL6000示波记录仪多通道测试