基于红外多目标图像序列的自动判读技术

2011-10-14 12:32:56来源: 互联网 关键字:自动判读  自动变步长搜索  脱靶量  图像处理
0 引 言
    视频记录与判读系统是靶场红外测量设备的重要组成部分,用来实时记录目标视频图像并完成对测量目标的定位和判读。在靶场测量中,准确地提取图像中弱小多目标的脱靶量对于交汇计算目标的弹道和落点等信息起决定作用。随着现代科技的进步,对靶场数据处理的效率提出了更高要求,数据量更大,处理速度更快,测量更精确。对于大数据量的红外多目标图像序列,运用合适的方法在图像序列中自动快速找到含有目标的图像序列段并对其进行判读是重点和难点。因此,研究红外图像多目标段序列的自动判读技术具有重大意义。在此,研究的目的是实现对目标序列段的准确定位以及测量结果的自动判读,对于红外弱小多目标的检测,单帧检测很难实现,必须基于目标灰度与邻域的差异为出发点,充分利用多帧图像序列的相关信息,比如运动轨迹的连续性、一致性等。根据实际要求,先提出目标序列段自动变步长搜索方法,在大量图像数据中自动搜索有用目标段,然后对目标序列段进行判读。实验结果表明,该技术在很大程度上了提高判读的精度和实时性。


1 基本原理
1.1 目标序列段自动变步长搜索
    由于图像采集时探测器为凝视状态,在天空背景下云层的移动是缓变的,而目标的运动速度比较快,相对于高速记录的图像可以视为静止,因此在目标出现前后可以认为背景是静止不动的。将含有目标图像与背景图像相减即可将背景去除,累加目标进入视场前的相连M帧图像f(x,y),再求算术平均值。设包含目标的红外场景图像f’(x,y)为:

   
其中B(x,y)为背景图像;f(x,y)为目标图像;N(x,y)为噪声图像。
    对目标进入视场前有f(x,y)=0,即:

    
    累加目标进入视场前的相连M帧图像f’(x,y),再求算术平均值,即得到平均背景g(x,y)。

   
    这样可使噪声方差由原来的σ2降为1/Mσ2,均方差降为原来的剩下的图像只含有目标和能量减少后的噪声,其信息量为目标和噪声所占的像元数目。统计图像序列的信息量,发现目标开始进入视场时,信号量明显增加,离开视场时明显减少,目标在视场内时信号量起伏不大。由此现象,可以通过计算相邻步长帧之间信息量增量来判断并确定目标进入和离开视场的时刻,从而搜索到有用目标序列段。


为第n+k帧统计的信号量。搜索步长为k(k≤设定的目标个数),则:△In=In+k一In为前后两幅图像信号增量。取阈值Vth=O.4α+Lβ,式中L为权值,与图像的噪声情况相关,一般取值0.3~0.5。α,β分别为噪声的信号量和目标的信号量,α为设定的目标个数乘以理论计算的目标所占像元,β为连续10帧噪声图像的信号量的均值。则当|△In|≥Vth令第n帧为有用的信息图像序列的起始帧;当|△In|精确定位目标起始帧和结束帧。

[1] [2] [3] [4]

关键字:自动判读  自动变步长搜索  脱靶量  图像处理

编辑:什么鱼 引用地址:http://www.eeworld.com.cn/Test_and_measurement/2011/1014/article_3713.html
本网站转载的所有的文章、图片、音频视频文件等资料的版权归版权所有人所有,本站采用的非本站原创文章及图片等内容无法一一联系确认版权者。如果本网所选内容的文章作者及编辑认为其作品不宜公开自由传播,或不应无偿使用,请及时通过电子邮件或电话通知我们,以迅速采取适当措施,避免给双方造成不必要的经济损失。

上一篇:简化DisplayPort一致性测试的完整解决方案
下一篇:红外热像测温技术及其应用研究

关注eeworld公众号 快捷获取更多信息
关注eeworld公众号
快捷获取更多信息
关注eeworld服务号 享受更多官方福利
关注eeworld服务号
享受更多官方福利
推荐阅读
全部
自动判读
自动变步长搜索
脱靶量
图像处理

小广播

独家专题更多

TI车载信息娱乐系统的音视频解决方案
TI车载信息娱乐系统的音视频解决方案
汇总了TI汽车信息娱乐系统方案、优质音频解决方案、汽车娱乐系统和仪表盘参考设计相关的文档、视频等资源
迎接创新的黄金时代 无创想,不奇迹
迎接创新的黄金时代 无创想,不奇迹
​TE工程师帮助将不可能变成可能,通过技术突破,使世界更加清洁、安全和美好。
TTI携TE传感器样片与你相见,一起传感未来
TTI携TE传感器样片与你相见,一起传感未来
TTI携TE传感器样片与你相见,一起传感未来
电子工程世界版权所有 京ICP证060456号 京ICP备10001474号 电信业务审批[2006]字第258号函 京公海网安备110108001534 Copyright © 2005-2017 EEWORLD.com.cn, Inc. All rights reserved