同步干扰算法
1. 求高手翻译英文
查了一下,这是《Fundamentals of Wireless Sensor Networks: Theory and Practice》中介绍的一段,介绍Julius Degesys在07年的文章“DESYNC: SelfOrganizing Desynchronization and TDMA on
Wireless Sensor Networks”的工作,粗略浏览了一下,主要思想挺直观,是通过在时间轴上不断调整到邻居(时域上的邻居)周期差异的中点,来做到去同步,并最终在时间轴上均布时隙,然后这样就可以消除信息冲突,提高整体吞吐。以下是具体翻译:
在一个无线传感网中,“激发”就是指一个结点广播一个“激发消息”。结点i监听并记录下紧邻着它自己“激发”的之前和之后的两次其它结点的“激发”。这时,在时间域上, 前后这两个结点就被看做结点i的“时相上的邻居”。当运用在TDMA情景下时,结点i的TDMA的时隙边界是:起于它和前一个时相邻居的激发时间中点,终于它和后一个时相邻居的激发时间中点,这两个计算都是根据上一轮的数据。这样的话,结点的“激发”就不会超出自己的时隙(也就是不越界,不会给其它信息传输造成干扰)。这个算法由此构造出一个在周期T上的不重叠的时隙集合,每个结点发送信息因此都不会出现冲突,甚至在打散同步的(收敛)过程中,也不会出现冲突。一旦去同步完成,各个时隙就收敛到完全相等,均分了一个周期(建议你看一下书中或者论文中的那个环的图示)。
DESYNC-TDMA(去同步化TDMA)可以保证带宽是全部利用的(因为整个周期是完全被分割的)。当一个结点离开时,去同步化过程会自动进行,确保(单跳内)所有结点时隙再次呈现等分整个周期;当一个新结点加入的时候,它先发送一串要求中断的消息,然后就开始自己的“激发”运程。这些中断信息会首先被占有当时时隙的结点收到,并由此知道将有新结点加入,所以暂停自己的发送,以免冲突。
总的来说,DESYNC-TDMA是一个自适应的TDMA协议。但它不需要显式的调度或同步信息。它提供了无冲突的通信,甚至在去同步的过程中也如此。进一步,它可以达到高吞吐,同时保证可预测的时延和公平性。在有结点离开或新结点加入时,DESYNC-TDMA可以自动地调整以重新均分时隙。但是,公平性往往并不是无线传感网最关切的问题,还有,总是保持均等的时隙可能会导致带宽利用不充分,也即,一些被占有但并不发消息的时隙就被浪费了。类似的,如果一个结点有远超过一个时隙的数据需要发送,它就要等很多轮,那它的时延就大大增加。
2. 什么是同频异步干扰
所谓同频异步干扰就是频段与被干扰信号一致,但是不是按照同步模式来进行干扰。
干扰,指打扰,妨碍;使混乱。潜心做一件事情的时候,不能受到任何干扰。否则就会前功尽弃。甚至擦枪走火,得到错误的方法和结果。
3. 如何解决TD-SCDMA中同频干扰问题
TD网络同频干扰解决方法1.通过网络规划改善同频干扰网络规划应该是最有效改善同频干扰的方法,通过网络的整体频率规划,可以尽量避免邻区出现同频现象。尤其现在TD-SCDMA的工作频段已在B频段(2010MHz-2025MHz)基础上,扩展了A频段(1880MHz-1900MHz)。工作频段资源的扩展,为网络规划有效解决邻区的业务信道同频干扰带来好处,但对系统设备及终端的实现提出了更高的要求。可能需要系统及终端在双频段都能工作,并且增加了设备双频段的互操作开销。现在提出的A+B频段TD网络规划方案有很多种,但具体的实现方案需要综合考虑网络的覆盖环境、容量等要求,并尽可能降低实现的技术复杂度。例如:以B频段做主频点,而A、B频点作为辅频点实现N频点组网。这种方式就要求系统设备在同一小区内即支持A频段又支持B频段,也保证了现网终端的正确驻留,主频点可用数量的增加提升了公共信道的覆盖质量,从而提升网络质量。在TD网络规划时,也应该通过调整天线倾角等尽量减小邻区的越区覆盖,从而减小邻区之间的互干扰。 2.TFFR算法TFFR(TD-SCDMA Flexible Frequency Reuse,TD软频率复用)是在N频点有限的载频资源时,为减小邻区之间的同频干扰,通过网络侧的载频调配算法使小区内的不同区域终端选择不同的载波驻留。TFFR技术仍然保持N频点组网中公共信道仅配置在主载波上的特点。小区覆盖呈一个同心圆,内圆为主载波覆盖,外圆用辅载波覆盖,见图所示。网络侧可以根据终端的测量报告,动态调整不同位置终端的工作载频,是处于小区交界处的终端尽量改正在主载波上,处在小区中心区的终端尽量工作在辅载波上。由于相邻小区主载波都是异频配置,所以在交界带驻留的终端大部分工作在异频状态,降低了同频干扰。并且在小区内设置切换带,即主载波和辅载波之间的切换带。TFFR通过网络侧RRM算法在相邻小区交界带通过对终端驻留载波的动态调整,从而尽量构建一个异频带。这样保证邻小区间切换大部分为异频切换,提高了切换成功率,降低了掉话率。TFFR算法还考虑到不同载波的负荷均匀问题,即防止为了达到抑制同频干扰而导致个别载波负荷较大,该载波业务质量下降的情况出现。为同时达到同频干扰抑制及各载波负荷均匀的目的,又提出了“软覆盖算法”,即当主载波负荷较高时,终端向交界带移动时不再把终端切换到主载波,而是保持业务到交界带时,直接将其切换到邻区。
4. 自动频率扫荡共振和同步干扰抑制技术电池修复仪怎么使用
你好亲,希望可以帮到你。
具体使用方法可以在网络上查询。
祝愿亲新年快乐。顺利解决问题
5. 什么是计算机干扰器
计算机屏幕在工作过程中会产生电磁泄漏,如不加防护则存在信息泄漏的隐患,从而造成秘密的泄漏。
天大清源微机视频信息干扰器
计算机视频信息干扰器针对CRT、LCD、LED等多种类型的显示终端在信息相关干扰算法、宽带调制放大等关键技术上取得重大突破,采用绿色干扰技术,在较低发射功率下具有较强的抗侦收能力,能有效防止计算机视频信息被窃收还原,且对显示效果无任何影响,从而达到了保护秘密的目的。
点击查看详细产品信息>>>
6. 为什么lte中有model3干扰
因为pci的模3后是作为pss的zdoffchu算法的输入,如果相同的话会对手机和基站的同步有影响
7. 谁能讲一下关于显示器的知识
一台出色的显示器可以说是表现一台电脑整体水平的最佳媒介,无论你拥有什么样先进的配置,开机以后,我们的眼睛只停留在显示器上,通过显示器所表现出的绚丽色彩和动感画面我们能体会到你的机器是什么料。一台劣质显示器,不但会让你的电脑很没有"面子",更会使视力急剧下降。确实,显示器的确是电脑中最不应该省钱的设备之一。如果你现在觉得使用的还是14寸的小显示器或者画面抖动不稳定,那么最好还是把它换掉。但无论在杂志还是在网上能够指导消费者购买适合自己的显示器的文章实在不多,常在电脑市场听见有人"15寸"、"17寸"这么喊,没有型号甚至也没有牌子。遇到黑心的商人白花了钱却没有得到和价格相称性能的显示器,好冤枉啊。所以觉得大家有必要了解一下显示器的有关知识。
目前在市场上销售的显示器,说明书上无一例外地给出点节距、行频、场频及带宽等技术指标。例如,PHILIPS105A15英寸显示器的点节距为0.28mm、行频(水平扫描频率)为30~70KHz、场频(垂直扫描频率)为55~120Hz、带宽为108MHz;三星500p15英寸显示器点节距为0.28mm、行频为30~69KHz、场频为50~160Hz、带宽为110MHz,这些参数反映了显示器的内在质量。了解这些参数所代表的意义,弄清它们相互之间的关系,对我们掌握显示器的特性很有帮助,也能使我们对言过其实的广告有一个清醒的认识。
屏幕可视区域:平常我们所说的17寸、15寸实际上指显像管的尺寸。而实际可视区域(就是屏幕)远远到不了这个尺寸。14寸的显示器可视范围往往只有12寸;15寸显示器的可视范围在13.8寸左右;17寸显示器的可视区域大多在15-16寸之间。购买显示器时挑那些可视范围大的自然合算。
屏幕的类型:14寸的显像管多为球面显像管,屏幕中间呈球形,图像在边角上有些变形,已经被淘汰。现在大部分15、17寸显示器采用平面直角显像管(FST),使得图像更加逼真。另有少量显示器用到了柱面显像管(如索尼的特丽珑Trinitron和三菱钻石Diamondtron)。这种显示屏幕表面呈柱面,图像看起来更具立体感,可视面积较大。再到以SONY特丽珑(为代表的柱面显像管,弧度已经越来越小,特丽珑显像管已实现了垂直方向的零弧度。但实际上依旧没有达到完完全全的平面,一眼就能看出画面的边缘有变形和扭曲。最近采用更新技术的显示器不断涌现,如LG的未来窗等,CRT显示器即将步入"纯平面"时代,无论在物理上还是在视觉上的显示器将成为新的选购标准。
逐行/隔行显示:显示管的电子枪扫描可分为隔行(Interlace)和逐行(non-Interlace)两种。逐行显示是顺序显示每一行。隔行显示器在低分辨率下其实也是逐行显示的,只有在分辨率增高到一定程度才改为隔行显示。在相同的刷新频率下,隔行显示的图像会比逐行显示闪烁和抖动的更为厉害。不过如今生产的显示器几乎已没有隔行的了。
点距:点距是同一像素中两个颜色相近的磷光粉象素间的距离。点距越小,显示图行越清晰细腻,分辨率和图像质量也就越高。如今家用显示器大多采用0.28mm点距,采用0.25mm有SONY的特丽珑和三菱的钻石珑,0.26mm(明基和部分飞利浦)和0.27mm的也不少,采用0.22mm的高档显示器就属于专业应用了。屏幕越大,点距对视觉效果影响也越大。
画面刷新率:即屏幕刷新的速度。画面刷新率也叫做垂直扫瞄频率(RefreshRate),之所以叫做垂直是因为它的扫瞄方式是从画面上方第一条线一直扫到最下面一条线,由于方向是由上到下,所以叫做垂直扫瞄.这个数字代表一秒钟更新几次画面,单位是赫兹(Hz),例如75Hz表示一秒钟更新整个画面75次.为什么人们经常拿75Hz为例呢?因为在VESA的规格里就明文规定显示卡必须支援至少75Hz的频率才可以提供较稳定不闪烁的画面,不过目前VESA的规范又更严格了,它把最低频率增加到了85Hz,因为85Hz才是比较实用的规格.刷新频率越低,图像闪烁和抖动的就越厉害,眼睛疲劳得就越快。采用70Hz以上的刷新频率时才能基本消除闪烁,显示器最好稳定工作在允许的最高频率下,一般是85Hz。
水平扫瞄频率:画面上所有水平线的扫瞄次数就是水平扫瞄频率,其计算方法是将分辨率的后面的数字乘上RefreshRate,然后再乘以1.07,这个算法应该不难理解,就一个800*60075Hz的画面来说,它拥有600条水平线,每条线每秒钟扫瞄75次,所以就是600*75,至于最后还要乘上1.07是因为800*60075Hz是指眼睛看得到的部份,但是在这个部份的四周还有一圈眼睛没看到的部份称为Blank区域(没看到是因为它是黑色的),这个部份虽然看不到,但是显示晶片仍然要做扫瞄的工作,这块区域的左边和右边部份加起来(因为现在只考虑它的水平部份,所以只有左边和右边,这两边统称做水平空白区域)大约是整个可视范围的7%那么大,7%只是一个大略值而已,不同的分辨率或不同的RefreshRate都会造成不同的结果,所以这个算法也只能算一个大概,并不是100%准确的。
显示频宽:是画面上所有的点的扫瞄频率,也就是整个画面一秒钟需要扫瞄多少点,计算方法是将分辨率的两个数字相乘然后再乘上RefreshRate,同样地也要把Blank的部份算进去,所以要再乘上大约1.15,例如使用800*60085Hz的模式,其频宽就是大约44.75MHz(单位MHz,每秒钟百万次),请先把这个数字记牢。这个Blank区域其实是很容易理解的,现在的萤幕都可以显示出目前所使用的垂直及水平频率各是多少,例如我现在打字所使用的模式是800*60085Hz,而我的萤幕显示出它所接收的讯号分别是垂直86Hz以及水平54KHz两个数字,600*86=51,600,单位是Hz,但是这么大一个数字不容易做计算,所以通常会把它除以1024以换算成每秒钟几千次,也就是50.39KHz,但是我的萤幕却说水平频率是54KHz,那就表示多出来的3.61KHz是HorizontalBlank的部份,3.61/50.39就是0.07,表示水平空白区域的部份占了整个可视范围的7%.水平扫瞄频率还有一个最重要的功能就是用来估计显示卡和萤幕之间在频率的搭配上有没有问题,当使用者在看一台萤幕的规格好坏时,应该是先看它的水平频率,因为这个频率是萤幕规格里最容易遇到规格上限的.例如使用800*600120Hz这个模式,它需要大约75KHz的水平频率,绝大多数的萤幕都可以支援120HzRefreshRate,但是却只有较高级的萤幕才可以支援75KHz以上的水平频率,所以要看一台萤幕的好坏就要先看它的水平频率高不高.
带宽:这是显示器非常重要的一个参数,能够决定显示器性能的好坏。所谓带宽是显示器视频放大器通频带宽度的简称,一个电路的带宽实际上是反映该电路对输入信号的响应速度。带宽越宽,惯性越小,响应速度越快,允许通过的信号频率越高,信号失真越小,它反映了显示器的解像能力。
凡电子电路都存在一个固有的通频带,这是因为电子电路无一例外地引入了电感、电容等储能元件,即便没有采用现成的电感线圈或电容器,导线本身就是电感,导线与导线之间、导线与地之间便组成电容,这就是通常所说的杂散电容或分布电容,它们对信号起着阻滞和傍路的作用,消耗信号的能量。交流信号的频率越高,它们的作用越明显,若频率为某一值的正弦波信号通过电路时其能量被消耗一半,则这个频率便是此电路的带宽。另外,由频谱分析知,矩形脉冲信号可分解成一个基波和若干个高次谐波的正弦波信号,脉冲宽度越窄,基波的频率越高,高次谐波越丰富,并且谐波的幅度也越大,要求电路通频带也越宽,否则高次谐波无法通过,造成波形严重失真。滤波器理论告诉我们,减少信号损失的办法是增加带宽或者通频带的频谱特性与信号的频谱特性相匹配。
一个有理想通频带宽的滤波器是非常复杂的,它与工作信号的波形、宽度、频率等许多参数有关,工程上往往采用简化的方法,对于常用的几种分辨率,计算结果列于上附表中,这里带宽上下限分别取常数1.37和0.72而得。带宽低于下限,则信号失真太大,带宽高于上限,会造成不必要的浪费。这是因为带宽达到一定值后若再增加,对某一频率的信号来说其波形的改善十分有限,而为增加带宽所付的代价却非常昂贵,所以要折衷考虑。
如果不知道信号的脉冲宽度或频率,这种计算方法就感到比较麻烦,这里我们给出一个简单实用的计算公式,根据显示器所要求的最高分辨率,算出该显示器视频放大器的带宽B。
B=FV×(NL÷0.93)×(DH÷0.8)
DH:每条水平扫描线上的像素个数
NL:显示的扫描线数
括号里的数值分别代表每场的视在行数和每行的视在像素数。例如对分辨率为1024×768、场频为60Hz的显示器,我们可以算出要求的带宽为
B=60×(768÷0.93)×(1024÷0.8)=63.4MHz
这一值恰好介于表中所示带宽的中间。
通过以上讨论,我们就可以根据显示器给出的技术参数,计算出该显示器的最高分辨率了。
显示器工作频率范围在电路设计时就已定死了,主要由高频放大部分元件的特性决定,但高频电路的设计相对困难,成本也高且会产生辐射。高频处理能力越好,带宽能处理的频率越高,图像也更好。而每种分辨率都对应着一个最小可接受的带宽。但如果带宽小于该分辨率的可接受数值,显示出来的图像会因损失和失真而模糊不清。所以在理论上,可接受带宽的一般公式也可以这样计算:
可接受带宽=水平像素(行数)×垂直像素(列数)×刷新频率/过扫描系数(一般为0.6-0.7)。例如,分辨率1024x768、刷新频率85Hz的画面,所需要带宽=1024x768x85/0.7约为97MHz,也就是说,一台合格的17寸显示器应该有100MHz的带宽。明白带宽的重要了吧。
行频和场频:行频指水平扫描频率(HorizontalScanFrequency),一般在50-90KHz左右;场频指垂直扫描速度(VerticalScanRate),即刷新频率,一般在60-100Hz左右。这两者都是越高越快越好。
显像管电子枪发射的电子束在行偏转磁场的作用下从荧屏左上角开始,向右作水平扫描(称为行扫描正程),扫完一行后迅速又回扫到左边(称为行扫描逆程)。由于场偏转磁场的作用,在离第一行稍低处开始第二行扫描,如此逐次扫描直至屏幕的右下角,便完成了整个屏幕一帧(即一幅画面)的显示,之后,电子束重又回扫到左上角开始新一帧的扫描。完成一行水平扫描的时间,确切地说应是从第一行开始至第二行开始的间隔时间(行扫描正程时间+行扫描逆程时间)称行周期,其倒数即为行频FH。同样,完成整个屏幕扫描的时间(场扫描正程时间+场扫描逆程时间)称场周期,其倒数即为场频FV。
早期的显示器是采用隔行扫描方式,即先扫描奇数行1、3、5……直至终了(奇场),再扫偶数行2、4、6……(偶场),奇场与偶场合在一起才组成完整的一帧图像,帧频(刷新率)是场频的一半。现在绝大多数的电视机仍采用这种扫描方式,它的优点是节省频带,缺点是刷新率低,图像有闪烁感,近距观看尤其明显,易使眼睛疲劳,因此计算机显示器现在已经不采用这种扫描方式,代之以逐行顺序扫描。一场结束,也就是一帧图像再现,场频与帧频已经统一。早期显示器的场频通常与电网频率一致,即50Hz或60Hz(即每秒显示50幅或60幅图像),这是因为当时的电源及滤波技术限制,可能因滤波不良造成异步干扰,这种干扰表现为屏幕上滚动的黑色横条,其滚动频率为电网频率与场频之间的差拍。现在这个问题已经解决,场频不必与电网频率同步,一般取60~70Hz之间,高的达100多Hz,85Hz是VESA标准的刷新速率,用85Hz以上的刷新率显示图像才无闪烁感。
行频、场频与显示分辨率的关系:行频及场频与显示分辨率有关,在给定场频的条件下,显示分辨率越高,要求的行频也越高,它们之间的关系为
FH=FV×NL÷0.93
NL:电子束水平扫描线数。
NL÷0.93的原因是因为电子束扫到屏幕的最后一行后并不能立即回到原点,需要将电路中存储的能量泄放掉,这段时间称回扫期或者叫恢复期,大约占整个场扫周期的(4~8)%,计算中取7%是合适的。
这一公式表明行频分别与场频、分辨率成正比,场频越高或者水平线数越多,要求的行频也越高。反过来说,行频越高,则允许显示器分辨率可变范围越大,场频也越高,显示器越好,当然价格也越贵。近几年制造技术的进步,扫描频率自动跟踪技术已普及使用,使显示器摆脱单一固定的行频及场频,扫描频率允许在一定的范围内变化,能根据显示卡的信号频率进行自适应调整。
分辨率:分辨率就是构成图象的像素和。分辨率越高画面越细,字体也越小。辐射和环保:显示器在工作时产生的辐射对人体有不良影响。在环保越来越重视的今天,各类标准相继出台。EMI、MPRII、能源之星以及TCO,一个比一个严格。瑞典专家联盟(TCO)提出的TCO系列标准,逐渐演变成了现在通用的世界性标准,它不仅包括辐射和环保的多项指标,还对舒适、美观等多方面提出严格的要求。通过了TCO‘95标准的显示器已经不少了,飞利浦、明基、优派等多家公司的最新机型甚至满足了TCO‘99极其严格的要求。
调节方式:调节方式从早期的模拟式到现在的数码式调节可以说是越来越方便,功能也越来越强大了。数码式调节与模拟式调节相比,对图像的控制更加精确,操作更加简便,界面也友好得多。另外可以让你存储多个应用程序的屏幕参数也是十分体贴用户的设计。因此它已经取代了模拟式调节而成为调节方式的主流。数码式调节按调节界面分主要有三种:普通数码式、屏幕菜单式和飞梭单键式。各有特色,用户可根据自己的喜好来选择。
RAMDAC的频宽:使用者经常可以在厂商的规格中看到多少MHz的RAMDAC,这个数字指的是该RAMDAC的转换速率,如230MHz表示一秒钟可以转换230百万个点到萤幕上。假设使用者进入1600*1200100HzRefreshRate模式下,那么这个模式每秒钟需要大约211MHz的转换速率(算式为1600*1200*100*1.15/1024/1024)。
对于非专业级的用户来讲,色彩的真实和准确很难区别也并不是最重要,但是否清晰则非常关键。其实测试方法很简单,常用的就是根据字体来判断。在Windows桌面上,将屏幕的分辨率设在合适的状态(15寸显示器800×600,17寸1024×768),注意不要用大字体,背景图案最好没有,绿色的底色配合白色的字体效果最好。观察屏幕四个角如左上角"我的电脑"图标下相应的文字,看看它们的笔划是否清晰以及像素是否稳定,然后将同一个图标拖放到屏幕中心,观察其清晰度是否变化。显示屏的中心肯定比边缘要清楚些,但不应超过一定限度。质量好的显示器在角落里依然可以清楚辨别文字,如SONY的显示器在中心点距0.25,在四周0.27;相反有些显示器几乎完全看不清(绝对不夸张,尤其在17寸时更明显),对比非常强烈。如果出现后面的情况,一是看看显示器和主板的接口是否插好,二是换几台同样的显示器试试,如果毛病依然存在就马上去换一种吧。
最后我们来简单看看显示器的线性如何。说白了就是看看线条直不直,尤其是竖线。仔细观察屏幕左右两侧的边缘线,如果发觉不直就需要进行手工调节。若经过调节后两侧边缘线依然无法同时达到竖直,就说明此台显示器的线性不佳,显示器本身设计存在一定的问题。最后我们测试显示器的色彩均匀程度。最方便的就是全屏打开word,在白底黑字的状态下观测屏幕的白色是否"纯",特别注意屏幕中部左右两侧。一般来讲,纯粹的白是很难实现的,或多或少会有泛黄变色的小块,分布的位置也不固定,甚至还有可能在几个不同区域呈现出不同的颜色倾向。这类现象多发生在17、19寸上,如果变色过于明显,那肯定不是一款好显示器。
了解了以上几项基本的指标后,我想各位对如何选择显示器大致有个底了。再看看厂商的产品说明书就可以简单比较比较了。但挑选显示器光靠枯燥的数据对比肯定不行,主观的感受更加重要。以上所介绍的东西有两个共同的特色:一个是那些数字会因为不同的分辨率和不同的RefreshRate而有不同的结果,另一个则是那些数字只是单纯计算分辨率和频率之间的关系而已,还没有把颜色的部份考虑进去。
其实说来说去,每一款显示器都有各自的特色。飞力浦、SONY、美格、三菱、三星等大厂的产品都不错,除了用途、投资、性能的综合考虑外,个人的偏爱往往更起作用。不过相信看了以上的介绍和心得,各位在挑选显示器时会更加理性和实际,不为商家自吹自擂的广告所动。
8. 有关无线传感器网络中时间同步机制有哪些方法和策略
1 时间同步技术的重要性
传感器节点的时钟并不完美,会在时间上发生漂移,所以观察到的时间对于网络中的节点来说是不同的。但很多网络协议的应用,都需要一个共同的时间以使得网路中的节点全部或部分在瞬间是同步的。
第一,传感器节点需要彼此之间并行操作和协作去完成复杂的传感任务。如果在收集信息过程中,传感器节点缺乏统一的时间戳(即没有同步),估计将是不准确的。
第二,许多节能方案是利用时间同步来实现的。例如,传感器可以在适当的时候休眠(通过关闭传感器和收发器进入节能模式),在需要的时候再唤醒。在应用这种节能模式的时候,节点应该在同等的时间休眠和唤醒,也就是说当数据到来时,节点的接收器可以接收,这个需要传感器节点间精确的定时。
2 时间同步技术所关注的主要性能参数
时间同步技术的根本目的是为网络中节点的本地时钟提供共同的时间戳。对无线传感器
网络WSN(Wireless Sensor Networks)[1]
的时间同步应主要应考虑以下几个方面的问题:
(1)能量效率。同步的时间越长,消耗的能量越多,效率就越低。设计WSN的时间同步算法需以考虑传感器节点有效的能量资源为前提。
(2) 可扩展性和健壮性。时间同步机制应该支持网络中节点的数目或者密度的有效扩展,并保障一旦有节点失效时,余下网络有效且功能健全。
(3)精确度。针对不同的应用和目的,精确度的需求有所不用。
(4)同步期限。节点需要保持时间同步的时间长度可以是瞬时的,也可以和网络的寿命一样长。
(5)有效同步范围。可以给网络内所有节点提供时间,也可以给局部区域的节点提供时间。
(6)成本和尺寸。同步可能需要特定的硬件,另外,体积的大小也影响同步机制的实现。 (7)最大误差。一组传感器节点之间的最大时间差,或相对外部标准时间的最大差。 3 现有主要时间同步方法研究
时间同步技术是研究WSN的重要问题,许多具体应用都需要传感器节点本地时钟的同步,要求各种程度的同步精度。WSN具有自组织性、多跳性、动态拓扑性和资源受限性,尤其是节点的能量资源、计算能力、通信带宽、存储容量有限等特点,使时间同步方案有其特
殊的需求,也使得传统的时间同步算法不适合于这些网络[2]
。因此越来越多的研究集中在设
计适合WSN的时间同步算法[3]
。针对WSN,目前已经从不同角度提出了许多新的时间同步算法[4]
。
3.1 成对(pair-wise)同步的双向同步模式
代表算法是传感器网络时间同步协议TPSN(Timing-Sync Protocol for Sensor
Networks)[5~6]
。目的是提供WSN整个网络范围内节点间的时间同步。
该算法分两步:分级和同步。第一步的目的是建立分级的拓扑网络,每个节点有个级别。只有一个节点与外界通信获取外界时间,将其定为零级,叫做根节点,作为整个网络系统的时间源。在第二步,每个i级节点与i-1(上一级)级节点同步,最终所有的节点都与根节点同步,从而达到整个网络的时间同步。详细的时间同步过程如图 1 所示。
图1 TPSN 同步过程
设R为上层节点,S为下层节点,传播时间为d,两节点的时间偏差为θ。同步过程由节点R广播开始同步信息,节点S接收到信息以后,就开始准备时间同步过程。在T1时刻,节点S发送同步信息包,包含信息(T1),节点R在T2接收到同步信息,并记录下接收时间T2,这里满足关系:21TTd
节点R在T3时刻发送回复信息包,包含信息(T1,T2,T3)。在T4时刻S接收到同步信息包,满足关系:43TTd
最后,节点S利用上述2个时间表达式可计算出的值:(21)(43)2
TTTT
TPSN由于采用了在MAC层给同步包标记时间戳的方式,降低了发送端的不确定性,消除了访问时间带来的时间同步误差,使得同步效果更加有效。并且,TPSN算法对任意节点的同步误差取决于它距离根节点的跳数,而与网络中节点总数无关,使TPSN同步精度不会随节点数目增加而降级,从而使TPSN具有较好的扩展性。TPSN算法的缺点是一旦根节点失效,就要重新选择根节点,并重新进行分级和同步阶段的处理,增加了计算和能量开销,并随着跳数的增加,同步误差呈线性增长,准确性较低。另外,TPSN算法没有对时钟的频差进行估计,这使得它需要频繁同步,完成一次同步能量消耗较大。
3.2 接收方-接收方(Receiver-Receiver)模式
代表算法是参考广播时间同步协议RBS(Reference Broadcast Synchronization)[7]
。RBS是典型的基于接收方-接收方的同步算法,是Elson等人以“第三节点”实现同步的思想而提出的。该算法中,利用无线数据链路层的广播信道特性,基本思想为:节点(作为发
送者)通过物理层广播周期性地向其邻居节点(作为接收者)发送信标消息[10]
,邻居节点记录下广播信标达到的时间,并把这个时间作为参考点与时钟的读数相比较。为了计算时钟偏移,要交换对等邻居节点间的时间戳,确定它们之间的时间偏移量,然后其中一个根据接收
到的时间差值来修改其本地的时间,从而实现时间同步[11]
。
假如该算法在网络中有n个接收节点m个参考广播包,则任意一个节点接收到m个参考包后,会拿这些参考包到达的时间与其它n-1个接收节点接收到的参考包到达的时间进行比较,然后进行信息交换。图2为RBS算法的关键路径示意图。
网络接口卡
关键路径
接收者1
发送者
接收者2
图2 RBS算法的关键路径示意图
其计算公式如下:
,,1
1,:[,]()m
jkikkinjnoffsetijTTm
其中n表示接收者的数量,m表示参考包的数量,,rbT表示接收节点r接收到参考包b时的时钟。
此算法并不是同步发送者和接收者,而是使接收者彼此同步,有效避免了发送访问时间对同步的影响,将发送方延迟的不确定性从关键路径中排除,误差的来源主要是传输时间和接收时间的不确定性,从而获得了比利用节点间双向信息交换实现同步的方法更高的精确度。这种方法的最大弊端是信息的交换次数太多,发送节点和接收节点之间、接收节点彼此之间,都要经过消息交换后才能达到同步。计算复杂度较高,网络流量开销和能耗太大,不适合能量供应有限的场合。
3.3 发送方-接收方(Sender-Receiver)模式
基于发送方-接收方机制的时间同步算法的基本原理是:发送节点发送包含本地时间戳的时间同步消息,接收节点记录本地接收时间,并将其与同步消息中的时间戳进行比较,调整本地时钟。基于这种方法提出的时间同步算法有以下两种。
3.3.1 FTSP 算法[8]
泛洪时间同步协议FTSP(Flooding Time Synchronization Protocol)由Vanderbilt大学Branislav Kusy等提出,目标是实现整个网络的时间同步且误差控制在微秒级。该算法用单个广播消息实现发送节点与接收节点之间的时间同步。
其特点为:(1)通过对收发过程的分析,把时延细分为发送中断处理时延、编码时延、传播时延、解码时延、字节对齐时延、接收中断处理时延,进一步降低时延的不确定度;(2)通过发射多个信令包,使得接收节点可以利用最小方差线性拟合技术估算自己和发送节点的频率差和初相位差;(3)设计一套根节点选举机制,针对节点失效、新节点加入、拓扑变化
等情况进行优化,适合于恶劣环境[12]
。
FTSP算法对时钟漂移进行了线性回归分析。此算法考虑到在特定时间范围内节点时钟晶振频率是稳定的,因此节点间时钟偏移量与时间成线性关系,通过发送节点周期性广播时间同步消息,接收节点取得多个数据对,构造最佳拟合直线,通过回归直线,在误差允许的时间间隔内,节点可直接通过它来计算某一时间节点间的时钟偏移量而不必发送时间同步消息进行计算,从而减少了消息的发送次数并降低了系统能量开销。
FTSP结合TPSN和RBS的优点,不仅排除了发送方延迟的影响,而且对报文传输中接收方的不确定延迟(如中断处理时间、字节对齐时间、硬件编解码时间等)做了有效的估计。多跳的FTSP协议采用层次结构,根节点为同步源,可以适应大量传感器节点,对网络拓扑结构的变化和根节点的失效有健壮性,精确度较好。该算法通过采用MAC层时间戳和线性回归偏差补偿弥补相关的错误源,通过对一个数据包打多个时戳,进而取平均和滤除抖动较大的时戳,大大降低了中断和解码时间的影响。FTSP 采用洪泛的方式向远方节点传递时间基准节点的时间信息,洪泛的时间信息可由中转节点生成,因此误差累积不可避免。另外,FTSP的功耗和带宽的开销巨大。
3.3.2 DMTS 算法[9]
延迟测量时间同步DMTS (delay measurement time synchronization) 算法的同步机制是基于发送方-接收方的同步机制。DMTS 算法的实现策略是牺牲部分时间同步精度换取较低的计算复杂度和能耗,是一种能量消耗轻的时间同步算法。
DMTS算法的基本原理为:选择一个节点作为时间主节点广播同步时间,所有接收节点通过精确地测量从发送节点到接收节点的单向时间广播消息的延迟并结合发送节点时间戳,计算出时间调整值,接收节点设置它的时间为接收到消息携带的时间加上广播消息的传输延迟,调整自己的逻辑时钟值以和基准点达成同步,这样所有得到广播消息的节点都与主节点进行时间同步。发送节点和接收节点的时间延迟dt可由21()dtnttt得出。其中,nt为发送前导码和起始字符所需的时间,n为发送的信息位个数,t为发送一位所需时间;1t为接收节点在消息到达时的本地时间;2t为接收节点在调整自己的时钟之前的那一时刻记录的本地时间,21()tt是接收处理延迟。
DMTS 算法的优点是结合链路层打时间戳和时延估计等技术,消除了发送时延和访问时延的影响,算法简单,通信开销小。但DMTS算法没有估计时钟的频率偏差,时钟保持同步的时间较短,没有对位偏移产生的时间延迟进行估计,也没有消除时钟计时精度对同步精度的影响,因此其同步精度比FTSP略有下降,不适用于定位等要求高精度同步的应用。
基于发送方-接收方单向同步机制的算法在上述三类方法中需要发送的时间同步消息数目最少。发送节点只要发送一次同步消息,因而具有较低的网络流量开销和复杂度,减少了系统能耗。
4 结论
文章介绍了WSN时间同步算法的类型以及各自具有代表性的算法,分析了各算法的设计原理和优缺点。这些协议解决了WSN中时间同步所遇到的主要问题,但对于大型网络,已有的方法或多或少存在着一些问题:扩展性差、稳定性不高、收敛速度变慢、网络通信冲突、能耗增大。今后的研究热点将集中在节能和时间同步的安全性方面。这将对算法的容错性、有效范围和可扩展性提出更高的要求。