在线客服

数据处理方法论文

引论:我们为您整理了1篇数据处理方法论文范文,供您借鉴以丰富您的创作。它们是您写作时的宝贵资源,期望它们能够激发您的创作灵感,让您的文章更具深度。

数据处理方法论文

数据处理方法论文:对高中物理实验数据处理方法的几点研究

论文关键词:高中 实验 数据处理方法

论文摘要:物理实验测得的数据,必须经过科学的分析和处理,才能揭示出各物理最之间的关系。就高中物理实验常用数据的处理方法进行分析,以期对物理实验教学有所帮助。

实验是物的重要组成部分,是物理教学不可缺少的环节。但学生在实际操作与处理中。往往容易在实验数据上出现错误,究其原因是学生没有牢固掌握数据处理的方法,不求甚解,一知半解,更不用说触类旁通了。根据我的教学经验,提出几种处理方法。(下面提出几种数据处理方法,供大家参考)

一、平均法

平均法是指对待测物理量进行很多次的测量,把测量的值相加再除以测量次数,或把每一次的测量值用固定的算式分别进行计算再求出结果,再把结果相加除以测量次数,取其平均值。这种方法就叫做平均法。

1.平均法的使用原理:每一次的测量因为多方面的因素都会不一样,测量值偏大或偏小,但其偏大或偏小的机会与程度往往均等,所以需要进行多次测量,再求其平均值,这样的测量值才会更真实、科学,有说服性。

2.数据的处理

(1)如果所求的结果是经过直接测量所得,应使用平均法。如“测定金属电阻率”的实验,在测定金属丝的直径d时,用“螺旋测微器”在金属丝的三个不同点上分别进行测量,然后取三次的测量结果,其平均值就是的直径。

(2)如果所求的结果不能经过直接测量得出,则要依据其实验的原理多次进行计算待测物理量的值,最终结果要把多次测量的物理量的值相加得出平均值。“用单摆测重力加速度”是个很典型的实验,求单摆周期的步骤如下:把单摆往一个方向拉开一个小角度,让小球顺利摆动,这时测出单摆完成n(20-30)次全振动的时间t,用公式T=t/n计算得出小球完成一次全振动的周期,这个步骤重复3次,用公式T=(T1+T2+T1)/3算出平均值,即求出单摆的振动周期。

二、描迹法

描迹法是指通过若干次描点、频闪照相、用打点计时器打点等记录形式,直观形象地显现实验结果的方法。如,在进行“平抛物体的运动”这个实验时,可以用频闪照相的方式记录小球的运动轨迹;在进行“匀变速直线运动”实验时,用打点计时器记录运动情况。在使用描迹法时,以下几个方面要高度注意:

1.在结果出来之前,应仔细观察、分析结果,去掉误差太大的数值。若中间出现个别的点偏离正常位置很远,有可能是偶然因素导致,应舍弃该点再重复进行实验,分析记录结果。如,在“匀变速直线运动”的实验中进行纸带选取的时候,首先多打出几条纸带,选择打点最清楚的一条进行研究分析,分析时一般去掉前面相对密集的点,在后面找出一个点作为开始的点。

2.若要根据记录的点进行描线,则应描平滑的实线,并尽可能让更多的记录点通过平滑线或靠滑线,而且这些记录点要在平滑线的两侧均匀分布,不能在描线的过程中出现折线。

3.为了使描述的结果比较,实验中记录的点不能太少,并且要在所描范围内合理、均匀分布。

三、图像法

图像法因其直观、形象、容易操作的特点被广泛应用于物理实验中,又被称为作图法,顾名思义是指在坐标纸上把实验数据之间的对应关系连成图线,由图线得出相应物理量之间的关系,并由此进一步得出实验结果。用图像法处理实验数据的步骤如下:

1.将测量的数据列表归类整理。

2.在坐标纸上以相应的物理量为横轴、纵轴建立坐标系,并定出标度。

3.描点。

4.连线:连线要遵循三个原则,一条直线上要描上尽可能多的点;其余的点要均匀分布两侧;离描线太远的点直接去掉。遵循这种连线原则处理数据,与多次测量取平均值殊途同归(但由于去掉偶然误差过大的数据点。使得结果比平均值法更加些)。

5.注明图像的名称、制图时间及其他说明:中学物理实验运用图像法,一般情况下会得出y=kx+b形式的一次函数关系,即结果是一条直线(一次函数拟合),图线画出后,可以用图线与坐标轴上的截距求出相应的物理量,也可以用图线的斜率或者用图线围成的面积求出相应物理量,还可以用图线反应一定的物理规律。如果描出的数据点连成了一条曲线。则应变换物理量,最终要得到一条直线(一次函数)。如,在验证“牛顿第二定律”的实验中,在研究“外力一定时物体的加速度和物质的质量之间的关系”时,假若a为纵坐标,m为横坐标,连接各数据点后得到一条曲线,实验结论就不会;但若以1/m为横坐标轴,连接各数据点则基本上可以画出一条过原点的直线,即得出正确的结论:外力一定时,物体的加速度a与物体的质量m成反比,即物体的加速度a与物体的质量m的倒数成正比。通过变换,完成了化曲线为直线,更直观、快捷地得出实验结果。

四、直接比较法

在做一些物理实验时。物理量之间的关系只需要定性地去确定,或把实验结果与标准值进行比较则可求出实验结论,都可以采用直接比较法。如,在“互成角度的两个共点力的合成”实验中,可将实验中测得的合力与根据实验画出的平行四边形对角线两矢量的大小与方向进行直接比较,就可以确定验证平行四边形定则的目的是否已经达到了。

五、辅助处理数据

信息技术已被广泛运用到物理教学课堂上,也被广大师生所接收,中学生的计算机水平日益提高,已能熟练运用计算机记录与处理数据,对数据的图像进行分析等。计算机中的Excel软件功能非常强大,能够进行大量的数据记录与处理,还能画出物理实验中比较实用的x-y散点图,能够进行一次函数、幂函数以及拟合,求出相应的函数系数,从而得出物理量的值。

总之,在高中物理实验教学中引导学生学会合理使用数据处理方法。这样可以尽可能地减少学生在实验中的系统误差和过失误差,学生运用正确的分析方法,同时使其学会对实验结果的正确评估和描述。

数据处理方法论文:北京地铁沉降监测方法及数据处理

摘要:北京是轨道交通工程在建项目最多的城市,沉降监测对地铁工程的安全施工有着重要意义,同时监测数据能够直接用来评价地铁施工对地表环境的影响。本文重点论述了北京地铁沉降监测的方法与技术要求,介绍了所用仪器数据文件的格式,详述了数据处理和统计分析。,文章给出了变形预报分析的数学方法,并说明了其现实意义。

关键词:沉降监测;数字水准仪;数据处理

1 引言

北京是一个国际化的大都市,人口与车辆的增多给北京城带来了很严重的交通问题。随着2008年奥运会的日趋临近,解决这个问题就显得越来越紧迫。轨道交通是解决日益恶化的城市交通问题的一个主要手段。然而,在人口密集、建筑设施密布的城市中进行轨道工程施工,由于岩土开挖不可避免地产生对岩土体的扰动并引起洞室周围地表发生位移和变形,当位移和变形超过一定的限度时,势必危及周围地面建筑设施、道路葙地下管线的安全。因此,研究城市轨道工程开挖过程中地表沉降的有效控制问题,对于地表环境保护及轨道工程的安全施工都具有十分重要的意义。

2 沉降基准点和沉降监测点的布设与观测

从2005年3月开始,我们开始对北京地铁四号线某标段(车站)的沉降监测工作,预计该标段的土建施工工作和监测工作将于2006年底结束。监测仪器使用trimbledini12数字水准仪,监测内容包括建筑物沉降监测和地表沉降监测。沉降监测控制网采用地铁四号线的高程控制网。水准基点与工作基点的联测采用一等水准观测,起初开始观测时,一个月复测一次,三个月以后每三月观测一次。遇跨雨季等特殊情况增加观测次数,以判定工作基点的稳定性。工作基点均位于沉降影响范围外的已稳定的长期性建筑物上。

2·1 监测点布设主要要点

1)监测点布设的范围为地铁结构外沿30m内,但在车站主体结构施工地段,地铁结构外沿50m范围内的重点建(构)筑物也应监测。

2)地表沉降监测应尽量和施工单位监测同点量测,同时要注意和施工单位量测的时间也应一致(同天量测),以进行监测数据的比对和校核。

3)由于此地铁属于盖挖车站,原则上沿线路走向上每40m布设一个地表沉降测点,布设3排;车站中线一排,区间线路延长线各一排。

4)建筑物沉降监测点一般布设在3层以上(含3层)的长期建筑物上,但对于3层以下的重要建筑物(如具文物性质的建筑物)也应布设沉降监测点。沉降测点要布设在建(构)筑物主体结构的角点、中点和承重墙上,(如图1,2所示)。

2·2 监测技术要求及观测方法

沉降观测精度等级的确定,根据各监测内容的

定精度(式中ms———沉降量s的观测中误差;mδs———沉降差δs的观测中误差;qh———网中最弱观测点高程h的权倒数;qh———网中待求观测点间高差h的权倒数),参考国际测量工作者协会(fig)于1981年第16届大会提出的常用取值方法,即:为实用目的,观测值中误差不应超过变形允许值的1/26~1/10。结合《地下铁道、轻轨交通工程测量规范》,本次沉降监测网采用国家二等水准测量方法,即: 相邻基准点的高程中误差≤0.5mm,观侧点的高程中误差≤1.0mm。

各项观测限差为:

1)附合或环线闭合差≤0.5(mm)(n为测站数)

2)视线长度≤5m、前后视距差≤1.0m、前后视距累积差≤3.0m。

观测顺序和方法如下:

1)往测时,奇数站照准标尺为后前前后(bffb),偶数站照准标尺为前后后前(fbbf)。

2)返测时,奇、偶数站照准标尺的顺序分别与往测偶、奇数站相同。

3)分别利用两工作基点起算,采用闭合水准路线观测监测点。

盖挖法施工车站监测频率表:(×标段×站)

3 沉降观测的数据处理

3·1 trimbledini12的数据格式

trimbledini12使用两种记录数据模式,一种模式记录测量原始数据(rm),另一种模式记录计算数据(rmc)。同时,dini12有两种数据格式(与记录模式不是同一个概念),一种是rece(m5),另一种是rec500,rece(m5)和rec500格式都可用于记录和传输数据,但recs00记录的信息量少。rm模式下的数据仅记录了测量读数的标准差,这样情况下不可以进行线路平差,作业时应避免这种情况,表1为m5格式说明表。

rece(m5)数据格式:

rece(m5)格式的数据行包含121个字符,总的数据以这个数据乘以地址行数而存在项目文件中。字符119为空格,接下来的字符120、121为回车符(cr)、换行符(lf)。空格字符在rece(m5)格式中是重要的,不能被删除。

3·2 监测成果与变化分析

可以统计出每次监测点的沉隆量,microsoftexcel提供了丰富的统计函数功能,再结合自编的程序,可以轻松制作出沉降量周报报表(见表2)。

2)沉隆量曲线图

图表具有较好的视觉效果,可方便用户查看数据的差异、图案和预测趋势。在沉降量曲线图中,可以直接查看到最小沉降点和较大沉降点,当沉降趋势较明显时,可引起用户的注意。我们利用microsoftexcel的图表功能自动生成沉降量曲线图,在excel中,图表是和数据表相链接的。横坐标以观测时间为单位,纵坐标以沉降量为单位,坐标刻度以2mm为主要刻度,这样足以反映出大于2mm的沉降量(见图3)。

3)变形预报和安全判断

1)沉降量报表

北京地铁四号线第三方监测在主体结构施工阶段是一周一次,根据各次变形监测点的高程数据, 可以统计出每次监测点的沉隆量,microsoftexcel提供了丰富的统计函数功能,再结合自编的程序,可以轻松制作出沉降量周报报表(见表2)。

在考虑施工进度(主要是隧道开挖进度)和监测点沉降量统计分析的基础上,采用数值分析中的线性内插法来推算时域外的变形值。因为外推预报值时使用最近的两次监测值,对于连续下沉的监测点有简单实用的优点。

yi+1=yi-1+(yi-yi-1)·(ti+1-ti-1)/(ti-ti-1)

式中:y—沉降量;t—时间。

沉降观测数据为地铁安全施工提供一个重要依据,因而具有十分重要意义。监测项目中建(构)筑物沉降、裂缝,地表沉降,直接用来评价地铁施工对周边环境的影响程度。从我们前期的监测数据显示来看,车站1#风道采用暗挖法,设置在地铁车站1#风道附近的监测点和地面上的监测点整体沉降量较大,这与施工进度相关,同时也说明了我们的作业方法良好。根据设计单位要求,建筑物点的累积沉降限值为±20mm,地面点的累积沉降限值为±25mm,当沉降量接近限值时,则及时向业主及相关部门汇报情况,并同施工单位共同分析原因,以便采取处理措施。每次监测点沉降量大于2mm的,要在报告中加以说明并进行回归分析,对变形趋势进行预测预报。

4 结束语

1)监测仪器操作简单,精度高,读数客观,能对同一测站两次高差之差超限发出警告,测量数据全部存储在pcmcia卡,便于计算机处理。

2)变形预报采用线性内插法的变换形式来外推预报值,在短期内较回归分析更具现实意义,从数学方法上来说,短期内的一元线性回归方程与线性内插公式的变换形式基本等效。

3)沉降量曲线图能较沉降量报表直观地反映监测点的变化情况,可以预测监测点变化趋势,以便及时将信息反馈至监测管理单位。此外,每月要对施工地段巡察至少一次,确保沉降影响范围内的建筑物及地面没有异常情况,没有出现裂缝、裂纹。

数据处理方法论文:数据处理方法在数学建模中的应用

一、数据处理方法的内涵

随着信息技术的普及,传统的演算式的数据处理方法已经逐渐地退出历史舞台,现今社会数据处理方法指的是以计算机为载体、利用互联网技术对数字信息进行整理分析的方法。现行的数据处理方法以表格和图示最为常见,一般的对近几年来的数据趋势进行分析时,往往将数据整理起来绘制折线统计图,以直观的显示数据走势。而统计每一部分数据所占整体的百分比时,一般都是用扇形图,明确地反映出数据比例。传统的图形绘制一般都是利用纸和笔进行的,而现今软件技术的发展为数据模型的抽象化和数字化提供了可能。将数据录入到电脑系统中,通过电脑软件绘制图表,在一定程度上大大增加了数据处理的性,提高了数据处理的效率。

二、数据处理方法

在数学建模竞赛中的应用在数学建模的初级阶段,数据处理方法可以帮助分析出模型内部各元素和数据量之间的关系,使得参赛者对自身的数学建模工作有一个基本认知。其中一小部分的数学模型可以借助数据统计的方法在大量的数据中提取有效数据,建立模型,还有人可以利用模型的理论知识与实际知识的差异度分析建模时的问题所在。可见,数据处理是数学建模竞赛中最为关键的环节之一,数据处理方法在数学建模竞赛中的应用对建模结果有着直接的影响作用。

(一)建模数据的基本分析

一般来说,建模过程中涉及的数据往往是以电子表格的形式储存在计算机中的,电子表格可以对数据进行排序、筛选、求和和公式运算等一系列处理。除此之外,其他的计算机软件如文档等,还可以利用其中的绘图功能将数据绘制成更利于观察和研究的直方图、散点图等图像。对建模数据的基本分析是数据处理方法在数学建模竞赛过程中的及时步,也是其他方法的基础。

(二)数据插值

数据插值的理论含义是在已有的数据基础上,将其他数据按照某种公式或规律插入的行为。一般情况下,只有在已有的数据量不足以支撑建模完成时才使用数据插值的处理方法,基本的数据插值往往是固定在两点之间的。当然,数据插值的方法需要遵循理论公式才可以进行,理论公式能够保障后插入的数据的性,绘制真实的图表。不同的理论公式,最终形成的插值效果图也就不同,因此在选择插值需要遵循的公式时,需要认真的考量。美国1998年的比赛中就用到了三维插值的方法,取得了巨大的成功。

(三)数据模拟和综合分析

数据模拟主要分为数学模拟和计算机模拟,数学模拟是建立在数学学科公式的基础上的,而计算机模拟则主要是借助计算机技术来实现的。现行的数据处理方法中以计算机模拟的方式居多,利用计算机技术,改变模拟模型的不合理结构和错误参数,为最终的模型塑造样本。数据的综合分析是建模竞赛中数据处理的一步,主要是对前几个步骤的整理和总结,并对其中的数据进行采样实证。根据抽样的数据分析,检验数据与模型之间的对应关系是否合理、模型的最终版本是否有着足够的数据支撑,为建模过程守好一道关卡。

三、结论

传统的数据处理方法已经逐渐的被社会淘汰,新兴的数据处理在建模竞赛中得到了广泛的应用。科学有效的数据处理对建模过程中出现的错误有着很好的检验功能,能够确保模型数据性,促进模型的顺利构建,获得数学建模竞赛的最终胜利,对青少年创新能力的发挥有着重要的影响意义。本文对数据处理方法进行了简要概述,对于融入了信息元素的数据处理方法在数学建模竞赛中的应用进行了整理和分析,挖掘数据处理方法的重要作用,为我国青少年积极踊跃的参加建模竞赛奠定了理论基础。

作者:陈曦 单位:辽宁科技大学

数据处理方法论文:大学物理实验数据处理方法

大学物理实验课是理工科学生低年级必修的一门独立设置的实验课,它不仅可以加深对物理规律的理解,更重要的是培养学生实践动手能力、创新设计能力、独立分析问题及解决问题的能力,为后续课程学习打下良好的基础,在培养学生实验素养、兴趣等方面都有无可替代的重要作用.实验数据处理可以定量的分析变量之间的关系,以便于进一步分析实验现象,得出规律;实验数据处理可以判断实验结果的正确与否以及实验结果的程度;严格的实验处理还可以培养学生严谨的科学态度和良好的科学素养.物理实验数据处理的常用方法有列表法、逐差法、图解法、线性回归、最小二乘法等,在数据计算中常采用计算器处理以及坐标纸手工绘图,是一项及其繁杂的工作,所需时间较长且中间过程出现计算上的操作错误不易查找.绥化学院电气工程学院始建于1978年绥化师专物理系,2004年更名为物理与电子信息系,2009年更名为电子工程系,2012年3月更名为绥化学院电气工程学院.学院注重学生应用能力培养,强化学生实践能力,近几年大学物理实验教师在大学物理实验课程教学改革方面做了大量积极探索.在作为信息时代标志的计算机普及的今天,MicrosoftOffice已成为每个大学生都应掌握的办公软件,Excel作为Office套装中的一款电子表格软件,为工程、统计、数据库等领域提供了大量的专用函数,能够用于各种专业的数据计算、分析和科学研究.本文结合我校低年级的大学物理实验课程数据处理方法的改革实践,探讨Excel软件进行数据处理的常用方法的可行性.

1Excel软件数据处理常用方法

1.1绘制平滑线散点图

将实验数据输入Excel电子表格,在图表向导中选择图表类型,选择平滑线散点图或折线散点图,进行图形绘制.在光电源电压分别为4v、6v、8v时,光敏电阻在不同光照度下的光电流实验数据如下表1所示,相应平滑线散点图如图1所示.

1.2添加趋势线进行曲线拟合

将实验数据输入Excel电子表格,在图表向导中选择图表类型,选择散点图,进行图形绘制.选择数据点,右键,选择添加趋势线,在选项栏目中勾选显示公式.不同光照度下的光敏电阻伏安特性曲线实验数据如表2所示,相应拟合直线及直线方程如图2所示,拟合直线斜率即为光敏电阻阻值,即在750lux、412lux、225lux光照度下,光敏电阻的阻值分别为为2.848kΩ、1.226kΩ、0.690kΩ.

2Excel软件在大学物理实验数据处理中应用的优势分析

2.1可行性高

MATLAB软件及Origin软件等其它软件亦可以用于实验数据处理,但是Excel软件进行数据处理无需编程、易学易用、对计算机要求不高,对大一学生来说,稍加介绍就能掌握.实践证明,利用原已熟悉的Excel软件进行大学物理实验的数据处理,可行性较高.

2.2效率高

利用软件进行数据处理时数据处理时间节省一半以上,将学生从繁复的数据处理中解脱出来,并可在实验室快速、定量地检验出实验数据的优劣;有助于学生把更多的精力投入到对实验内容、实验现象的讨论及设计性实验的综合设计上;输入数据直观,计算流程可见,便于错误查找,避免计算失误.

2.3学习热情高

在学期初的两个实验中,我们要求学生用原始的数据处理方法,经过两轮计算器数据处理和坐标纸绘图,学生们学到了基本数据处理方法,也体会到了这种方法进行数据处理的繁复.因此,两个实验后,学生们对Excel软件数据处理学习的热情空前高涨,带动了对大学物理实验课程的学习热情,同时也使学生的实验数据处理能力得到多方位的提高.

2.4时代性强

大数据时代,与计算机接轨已成为应用性的标志之一.用软件进行数据处理打开了理论分析、实验操作与信息时代的接口,开启了数据思维和数据分析的新里程.利用软件进行数据处理,可提高物理实验教学的现代化水平,培养低年级学生的各学科知识的综合能力,提高学生素质.

3大学物理实验数据处理方法实践的几点思考

3.1利用软件进行数据处理不利于对数据处理过程及数据处理意义的理解

利用软件进行数据处理,使数据处理简单化的同时也走入流程化.如坐标轴上分度值的选取、坐标原点选取、曲线拟合原则、拟合直线斜率计算等均由计算机自动完成,容易在部分学生中滋生不求甚解的学习习惯.

3.2在学生科学态度培养上,传统数据处理方法的作用不容忽视

传统数据处理方法更能够培养学生孜孜以求、百折不挠、持之以恒的科学态度.坐标纸绘图原则、坐标轴上分度值精度的选取、用计算器进行不确定度的计算等这些基本数据处理原则及方法的掌握,对学生科学素养的培养不容忽视.提倡传统数据处理方法与利用软件进行数据处理相结合,循序渐进,因材施教为加深理解,我们明确要求最初的两个实验必须采取传统数据处理.当学生具备一定的数据处理能力、基本掌握简单的传统数据处理方法后,才可采用Excel软件进行数据处理.几个实验过后,有能力的同学可以尝试用Matlab和Origin软件进行较为复杂的实验数据处理.

4结束语

本文举例介绍了用Excel软件进行数据处理的常用方法,并对用Excel软件处理大学物理实验数据的可行性进行了分析.实践表明,计算机进行软件处理方法和传统数据处理方法相结合应用于低年级实验数据处理是行之有效的.

作者:张弘强 单位:电气工程学院

数据处理方法论文:地理数据处理方法探讨

1众源地理数据的特点

众源地理数据具有以下10个特点:1)现势性高。众源地理数据具有明显的实时更新特点,现势性高。例如,堵在路上的行车者往往会将道路拥堵信息于Twitter、微博、Wikiloc、GPSies等网站。2)传播快。众源地理数据大多来自于互联网,借助社交网站和当地新闻等传媒系统的传播能力,进行快速传播和扩散。例如,美国加州2009年5月的Jesusita火灾期间,通过建立地图式火灾监视网站,迅速整合、了来自各种VGI和当地官方的实时火灾信息[7]。3)信息丰富。众源地理数据与人类活动及社会发展紧密相关,具有丰富的社会化属性、语义信息和时序信息。其参与创建的广泛性又使得众源地理数据能从更多角度,更多方面对地理要素进行描述。4)成本低。众源地理数据大多来自网民自发或无意采集的地理数据,其采集和处理的成本很低,极大地降低了地理信息获取和使用的成本,将更有效地促进地理信息技术的推广应用。5)数据量大。众源地理数据大多来自互联网用户有意或无意提交的地理数据,互联网用户群的迅速发展带来了众源地理数据的激增。无论是像OSM这样的共享网站,还是具体的众源地理数据使用者,均需面对海量众源地理数据的高效存储以及网络共享中的快速传输等问题。6)质量各异。众源地理数据主要由民众提供,其提供过程非常自由,参与人群非常广泛,所采用的数据采集设备精度不一,创建编辑过程中所用比例尺、采样精度不一,使得众源地理数据质量存在较大差异,甚至混杂着错误或恶意扭曲的成分。7)冗余而又不完整。众源地理数据主要由非专业人员创建,缺乏数据完整性,难以满足一些专业的地理数据要求,同时经过多人多次提交或多次编辑的众源地理数据存在着大量冗余。8)覆盖不均匀。众源地理数据虽然来源广泛,但是区域覆盖极其不均匀。例如OSM数据在英国伦敦的数据覆盖率明显高于中国湖北省的覆盖率。9)缺少统一规范。众源地理数据来源广泛,数据格式各异,不同数据的内容不同,数据组织和存储方式也千差万别。10)隐私与安全难以控制。自由创建和分享的众源地理数据有时会对他人及一些组织的隐私和安全问题产生影响。

2众源地理数据的来源与获取方法

2.1众源地理数据的来源

众源地理数据的来源主要包括:1)公共版权数据。这一类数据多由政府部门、企业、公益组织以网站或网络服务的形式,例如GoogleMap网站提供的正射影像,OpenStreetMap网站提供的交通路网等。也有一些部门和企业免费赠送的地理数据,例如Open-StreetMap上部分国家的主干交通数据由汽车导航数据公司AND(AutomotiveNavigationData)赠送[13]。2)GPS接收机数据。主要包括三类:①应某些组织和项目请求而特意收集GPS数据的志愿者;②共享自己拥有的有价值的GPS数据的普通人或组织;③相对被动、无意识上传GPS数据的网民,如“街旁网”用户的手机“签到”会上传GPS定位数据。3)网民自发创建的地理数据。OpenStreet-Map、Wikimapia等网站向用户提供了创建地理对象的功能。部分网民出于自我满足、利他主义、兴趣或是描述周围环境等目的[14],主动地在这些网站上创建、编辑、描述各种地理对象。GoogleEarth甚至允许用户对感兴趣的地物进行三维建模。4)Web2.0催生的其他地理数据。Web2.0简化了客户交互过程,出于信息共享和社交目的,部分民众积极地将自己的信息到网上,这些信息可能包含了地理数据。例如Flickr提供了上传照片并在地图上关联实际地理位置的功能。类似的数据源使得众源地理数据的种类更多样化、更完整。

2.2众源地理数据的获取方法

众源地理数据的获取一般包括以下环节:1)下载初始化设置。包括设定下载API和登录信息,选定数据范围(包括空间范围和时间范围等)。根据研究目标,指定行政区划或区域边界坐标,或指定用户某时间段所的数据等,作为待获取数据的区域或范围。2)数据获取。利用开放的众源地理数据网站所提供的API接口,如GoogleMapAPI,GoogleEarthAPI,街旁OpenAPI,FacebookAPI等,在网站所提供权限范围内,实现所选区域数据的直接读取。也可以利用网络爬虫技术设计专用的网页分析算法,从互联网上搜索并下载GPS路线数据、矢量地图数据等。3)数据规范化分析与转换。众源地理数据具有多源异构性,其存储格式多样、时间版本不一、坐标体系相异。合理有效地利用众源地理数据需要对其数据格式进行分析,利用文本解析、空间数据引擎等技术将众源地理数据转换为在统一存储格式、坐标体系及概念体系下表达的空间数据,并建立相应的众源地理数据表达规范。4)数据入库。将众源地理数据按统一规范转换后,将其导入到空间数据库中进行存储和管理。

3众源地理数据处理与分析的关键技术

3.1众源地理数据的质量评价方法

众源地理数据一般由缺乏足够地理信息知识和专业训练的非专业人员提供,因此存在数据质量问题,使用时需考虑其冗余性,有效性,完整性和性等。如何对众源地理数据的质量进行分析和评价是需要研究的首要问题[4,15]。众源地理数据的质量是影响众源地理数据广泛应用的重要因素。Oort(2006)总结了空间数据质量需要考虑的11个指标:数据来源、空间精度、时间精度、属性精度、逻辑连贯性、数据完整性、语义率、元数据质量、分辨率、数据使用目的和质量变化等。众源地理数据的质量分析在用以上全部或部分指标作为评价标准的同时,还应加入对数据提供者的质量评价,充分考虑人为因素对数据质量的影响,建立更加有效的质量分析和评价模型,从而保障众源地理数据的有效性和可用性。影响众源地理数据质量的因素主要包括三个方面:①数据的采集或地图的绘制由非专业人员提供,可能存在一定的人为误差;②数据可能来自不同的数据源,具有不同等级的精度;③不同采集者使用不同精度的GPS,采集的数据精度存在差异。众源地理数据的精度不能依靠常规的地图精度评定方法评估,需要选择合适的质量要素建立质量分析模型,依据质量分析模型与精度更高的数据进行分析对比来评估其数据质量。目前,国外专家已经对欧洲地区的OSM数据质量问题进行了研究。如对英国地区的OSM数据质量进行分析,从定位精度和数据完整度两个方面建立OSM数据的质量评估模型;在评估希腊首都雅典的OSM数据质量时,将数据质量评估模型扩展到长度完整度、名称完整度、类型精度、名称精度和定位精度等方面。从OSM数据的完整度、专题精度、定位精度三个方面对OSM数据质量进行了分析研究[16-18]。数据提供者的非专业性是众源地理数据质量不确定性的重要原因,Grira等人指出众源地理数据的使用者和提供者在众源数据上下文中具有认知区别[19],有必要建立针对数据提供者的评价模型。Exel等人提出在众源地理数据的质量控制指标中增加用户指标[20],如用户的数据上传次数、修改次数、反馈意见等,从而建立用户质量测度模型,实现众源地理数据的质量控制。

3.2众源地理数据的信息提取与更新方法

众源地理数据的信息提取与更新是以众源地理数据作为数据源,以其低成本和高时效的优势实现地理信息的快速提取和及时更新。它是传统地理信息更新方法的重要补充,在特定情况下可以发挥不可替代的作用。如Goodchild指出,在面对印度洋海啸等严重自然灾害时,从传统的遥感影像上获取道路因影像有云或浓烟遮蔽受限制时,利用当地众源用户在GoogleEarth上及时标识的地物信息来补充数据库就更加高效[4]。近年来国内外开展了一些利用众源数据进行地理信息提取和更新的方法和应用研究。在灾害快速响应方面,众源地理数据发挥了重大作用。美国圣巴巴拉市的4次大型火灾案例研究表明,尽快建立新的道路数据库可以提供有效的逃生路线[7]。海地大地震后,大众在OpenStreetMap上协作完成道路、房屋和其他地物的重新编辑以建立震后地理数据库,利用常规测绘方式需花费上万英镑,同时耗时几年,而利用众源地理数据仅用了三个星期[8]。众源地理数据用于城市道路设计能较大提高人们的满意度,Seeger指出众源地理数据在良好引导和补充城市规划道路数据库更新和重构中将发挥积极作用[15]。Steffen在Geo-Wiki项目中利用众源用户对数据库中地物属性信息进行补充和修改[6],能明显提高效率及性。众源地理数据提供的纹理和三维信息,被O-ver等结合DEM经综合生成了三维可视化数据库模型[21]。Zhang等利用众源GPS轨迹数据,在行进方向的法线上进行模糊C-均值聚类,将相邻车道分开,建立了几何精度较好的道路数据库,可用于数据库更新[22]。Mondzech与Sester指出众源地理数据应用于行人导航比现存地形图数据库更有优势,因为它更新快且提供了大量真实的快捷路径,众源地理数据可对传统数据库进行很好的补充[23]。众源地理数据为建立和更新地理数据库提供了一种不同于传统测绘方式的新途径。它不仅能有效地提取道路等地物和标注属性信息,而且能用于导航数据库的更新。但是由于众源地理数据来源众多且缺少统一规范,存在不足,目前尚未能广泛应用于大区域范围内高精度的数据库更新中。综合以上分析,众源地理数据信息提取与更新的研究思路为:以建立众源数据的质量模型和多源数据配准和变化检测为核心,研究众源地理数据的信息提取与更新的协作机制和方法。主要研究方向包括:①研究实现众源地理数据的高覆盖率和高完整性。众源地理数据虽然来源广泛,但是在单一的某个平台上部分区域的覆盖率存在较大的局限性。需要从现有的众源地理数据平台(Wikimapia、BingMap、GoogleMap等)中获取尽可能多的数据以提高区域覆盖率和属性信息完整性。同时应研究将不同区域的更多用户参与到众源地理数据的协作机制。②建立规范合理的质量模型。为来源广泛、质量各异的众源地理数据建立有效的综合取舍和聚类机制,以及快速处理算法。需要研究数据量和来源控制的范围,从而最有效地得到能满足数据库更新这一应用的数据覆盖率、完整性和几何精度。③提高众源地理数据库的几何精度。可结合高分辨率遥感影像、全景影像、Lidar数据等对初始建立的数据库的几何位置进行精纠正,对不同数据的配准和修正位置精度的算法进行研究。④基于众源地理数据建立地理数据库并进行更新。研究两种不同规范的数据库的配准,对不同时间数据库的几何与属性信息进行比较,发现减少或新增部分,并用判别规则合并两套数据库的信息以实现数据库更新。

3.3众源地理数据的分析与挖掘方法

众源地理数据作为一种由大众采集并向大众提供的开放地理数据,蕴含着丰富的空间信息和规律性知识。利用空间数据分析与挖掘方法可以从中提取信息、挖掘知识,从而为具体应用提供服务。1)众源地理数据拓扑分析。大部分众源地理数据的描述采用的是一种包含拓扑性质的数据结构。如OSM数据中的点、线、面等几何要素及其关系是通过顶点、路线和关系等来描述的。通过对某区域内的要素进行拓扑分析,能发现点、线、面的分布规律,挖掘该区域的空间结构和模式。例如,利用瑞典的OSM数据进行自然道路网络的提取与拓扑分析,发现自然道路网络存在无标度特性[24];利用香港的街道网络数据和年度平均的每天交通流量数据,通过街道网络的拓扑表示和分析,从而进行交通流量预测[25]。进行拓扑分析时经常用到平均度、平均路径长度和聚类系数等统计指标,结合空间统计方法可以探索地理要素的分布结构和模式。在利用众源地理数据进行网络拓扑分析时,可考虑与其他地理数据源集成和综合分析。2)利用众源数据探索地理空间的无标度特性。无标度从数学意义上讲就是某种现象的大小分布服从幂律分布。传统的地理学研究认为地理空间存在高斯分布的特性,而最近基于大量的地理数据的实证研究发现地理空间存在无标度的特性。例如,利用美国的OSM数据进行自然城市的提取与统计分析,发现美国的城市大小(无论是人口还是道路节点的个数)满足齐普夫定律[26];利用欧洲三个国家(英国,德国和法国)的OSM数据进行街区多边形提取与统计分析,发现所有这些街区大小服从Lognormal分布[27];利用TeleAtlasMultiNet地理数据库对德国20个城市的道路网进行统计分析,发现所有道路上的行车时间服从幂律分布,也就是具有无标度特性[28]。3)利用众源地理数据进行导航分析,为人们出行提供帮助。例如,综合应用OSM地图与航空影像研制协作导航系统,结合A*算法和用户评价在交通网络上进行路线计算和搜索,为行动不便以及有个人偏好的行人提供路线设计[29];对OSM的一些城市道路网络数据进行分析,计算转弯最少、路径最短的导航路线[30]。4)众源交通数据挖掘。众源交通数据中隐含着规律性的交通知识。利用空间数据挖掘方法可以挖掘出对交通管理和大众出行具有指导意义的规律性知识。例如,利用伦敦个人摩托车的GPS移动路线研究人们选择路线的偏好,发现路线选择时更多考虑的是角距离而非街区距离,即人们在出行时往往会选择转弯较少的方案[11];利用OSM的大范围道路数据对人们的出行进行模拟研究,认为人们的出行模式主要受路网结构的影响,由此为出行行为和路径优化研究提供了新的视角[31];对基于用户轨迹挖掘的智能位置服务进行研究,探讨了基于个人历史轨迹、多人轨迹数据的大众旅游推荐、个性化朋友和地点推荐等[32]。利用志愿者采集的GPS数据,基于历史位置对用户出行的相似性进行分析和挖掘,有助于探测用户之间的关系以及地理位置的相关性[33];利用志愿者采集的GPS数据研究志愿者的空间移动规律特性,指出该出行距离具有较强的Levy移动特点,并通过基于的模型进行了验证,有助于人类动力学的实证与机制研究[34]。综合以上分析,众源地理数据分析与挖掘的研究思路为:利用网络拓扑分析、空间数据统计建模、地理模拟、时空数据挖掘、统计物理学等方法对众源地理数据进行分析和挖掘,从中提取空间信息,挖掘空间知识。主要研究方向包括:①众源地理数据的拓扑分析。利用拓扑分析方法研究并构建众源地理数据的网络拓扑关系。②地理空间的无标度分析。利用空间数据统计建模方法研究地理现象的幂律分布。③导航分析:通过众源地理数据的交通流量分析和路径分析,为人们的出行提供导航服务。④众源地理数据统计建模:对众源地理数据的统计特性进行探索性分析,构建统计模型并分析其统计规律。⑤出行行为规律分析:利用空间聚类、频繁模式挖掘等空间数据挖掘方法从众源地理数据中挖掘出规律性知识,分析人们的出行规律,从而为大众旅游推荐、个性化朋友和地点推荐等提供基础。⑥人类动力学研究:利用统计物理学方法和地理模拟方法,研究出行距离分布,构建动力学模型,为交通规划设计、传染病控制和无线网络协议设计等提供支持。

4总结与展望

众源地理数据处理与分析是近年来国际地理信息学科研究和应用的新热点。众源地理数据是一种有别于传统测绘的新型地理数据源,将深刻影响现有地理信息科学的发展方向和产业化模式。众源地理数据可以应用于应急制图、早期预警、地图更新、犯罪分析、疾病传播等地理信息服务领域。众源地理数据处理与分析的研究才刚刚开始。随着地理信息科学与Web2.0技术的进一步发展,作为专业测绘领域有效补充的众源地理数据的处理、分析、应用和服务是未来发展的重要趋势。众源地理数据处理与分析需要完备的技术体系、深厚的理论方法为其提供支撑,需要对众源地理数据源及其特点进行分析和研究,需要研究众源地理数据的质量分析与评价方法、众源地理数据的信息提取与更新方法、众源地理数据的分析与挖掘方法等关键技术,并研究众源地理数据在相关领域的应用,不断扩大其应用领域,从而促进众源地理数据处理、分析与应用服务这一新兴研究方向的发展。

作者:单杰 秦昆 黄长青 胡翔云 余洋 胡庆武 林志勇 陈江平 贾涛 单位:武汉大学遥感信息工程学院 普度大学土木工程学院

数据处理方法论文:关于区域可持续发展评价过程数据处理方法研究

摘要:实现可持续发展是21世纪全球面临的一个重要研究课题,可持续发展评价则是实现可持续发展的基础。区域可持续发展评价是一个多因素、非线性的问题,不仅评价过程复杂,而且数据处理和评价方法也很多。

关键词:区域;可持续发展;评价;方法

一、评价指标筛选与权重确定的方法

(一)评价指标筛选的方法

评价指标的选取是评价可持续发展的基础,为避免人为因素的干扰,筛选指标筛选的方法一般有:频度分析法、主成分分析法及其他方法[1]。

1.频度分析法。对目前可持续发展的报告、论文进行频度分析,选择那些使用频率较高、被普遍认可的因素作指标。

2.主成分分析法。主成分分析法是一种数学变换的方法,它把给定的一组相关变量通过线性变换转成另一组不相关的变量,这些新的变量按照方差依次递减的顺序排列。

(二)评价指标权重的计算方法

评价指标权重的计算方法很多,但通用层次分析法和模糊综合评判法或两者种相结合来指标权重。

1.层次分析法(AHP)。层次分析法是美国著名的运筹学专家匹兹堡大学Saaty教授于20世纪70年代提出的定性与定量相结合的多目标系统分析方法,具有系统、简洁、灵活等特点,主要对相互联系、相互制约的多因素复杂事物进行分析,通过划分有序层次使之条理化,并根据客观情况对每一层次的相对重要性给予定量表示[2]。

2.模糊综合评判法。模糊综合评判法是基于评价过程的非线性特点而提出的,它是利用模糊数学中的模糊运算法则,对非线性的评价论域进行量化综合,从而得到可比的量化评价结果的过程。[3]

二、评价指标属性值标准化的计算方法―隶属函数法

评价指标属性值标准化的计算也就是指标数据的无量纲化。区域可持续发展评价系统设计了大量相互关系、相互影响、相互制约的评价指标,各指标均具有不同的量纲,缺乏统一的衡量性。为此,必须将各指标统一进行无量纲化处理,以便于考核评价工作在一致化的状态下进行。

(一)发展类指标的归一化函数:

(1)

表示i指标归一化后的数据, 表示当年度该指标的原始数据, 和 分别表示该区域i指标的最小值和规划目标值。

(二)制约类指标的归一化函数:

(2)

表示i指标归一化后的数据, 表示当年度该指标的原始数据, 和 分别表示该区域i指标的下限值和规划上限值。

三、评价指数的计算方法―加权平均法[4]

(一)中层评价指数的计算。中间层评价指数是根据所属各指标的权值,通过对所属各指标值线性加权来计算,即:(3)

式中: 为指标标准化值; 为中层评价指数; 为第i项指标权值;n为中层指标所包含的指标数。

(二)高层评价指数的计算。高层评价指数是对中间层评价指数进一步线性加权计算得到,即: (4)

式中: 为高层评价指数; 为中层指标权值; 为高层指标所属的中间层指标数。

(三)综合评价指数的计算。综合评价指数是对高层评价指数再一次综合,即:(5)

式中: 为高层评价指数; 为高层指标权值: 为高层指标数。

四、结论

区域可持续发展评价研究方兴未艾,本文通过区域可持续评价过程中数据处理方法详细探讨,因为数据处理方法的优劣直接影响了评价结果的与否,因此重点分析了指标的筛选、权重的确定、指标数据标准化和评价指数等整个评价过程的数据处理方法,给读者起着一个抛砖引玉的效果。

数据处理方法论文:牛顿环测透镜曲率半径数据处理方法的分析

摘 要:详细介绍用逐差法、线性回归法、加权平均法处理牛顿环测透镜曲率半径数据的方法和过程。比较三种实验数据处理方法的优缺点,其中加权平均法既考虑了如何克服实验的系统误差,又能按照处理原则去对待非等精度测量,且建立在数理统计理论基础上。该方法主要是比较相应的权,进而求出加权平均值,利用Matlab软件进行处理,得出加权平均法为牛顿环实验数据处理的方法。

关键词:牛顿环; 逐差法; 线性回归法; 加权平均法

0 引 言

“牛顿环”是牛顿在1675年制作天文望远镜时,偶然把一个望远镜的物镜放在平板玻璃上发现的。牛顿环属于用分振幅法产生干涉现象,亦是典型的等厚干涉条纹。它为光的波动提供了重要的实验证据。光的干涉现象广泛地应用于科学研究、工业生产和检验技术中,如利用光的干涉法进行薄膜等厚、微小角度、曲面的曲率半径等几何量的精密测量,也普遍应用检测加工工件表面的光洁度和平整度及机械零件的内力分布等。

为了获得真实的数据,需要对实验的全过程进行误差控制。如果实验原理、方法和采用的实验装置不同,实验结果的精度也不同,这是因为采用了不同的物理模型和实验条件[1]。即使当实验原理、方法和采用的实验装置相同,如果采用不同的数据处理方法(如最小二乘法、逐差法等),也会带来精度不同的结果,这是因为采用了不同的数学模型。甚至对同一组实验数据采用同一种数据处理方法,如果处理方式不同,其精度也会有很大的不同,这是因为采用了不同的算法。因此,如何利用有限的测量数据,发挥其较大效用,选择适当的数据处理方法和算法,有效地减少误差,在实验结果的分析中就显得非常重要。

牛顿环属于用分振幅法产生干涉现象,它是典型的等厚干涉条纹。下面以牛顿环干涉实验为例,对实验数据分别用逐差法、线性回归法、加权平均法三种方法进行分析,然后比较三种方法的优劣,并对结果进行讨论。

1 实验部分

1.1 实验原理

最常见的牛顿环干涉结构如图1所示\,把一块曲率半径相当大的平凸镜放在一块平板玻璃片上,在单色光的垂直照射下,用读数显微镜可观察到以接触点为中心的一系列干涉圆环。其中亮暗环纹交替出现,随着半径增大而由稀变密,直至模糊一片。

(1) 逐差法主要是围绕如何克服实验的系统误差来进行的,是建立在算术计算的基础上,但并不满足非等精度测量实验数据处理的条件,而牛顿环干涉实验是非等精度测量,故逐差法对于牛顿环实验来说并不是一种理想的数据处理方法。

(2) 线性回归法主要是为了避免非等精度测量的困难,但未考虑该次实验中的系统误差,所以线性回归法对于牛顿环实验来说也不是理想的数据处理方法。

(3) 加权平均法既考虑了如何克服实验的系统误差,又能按照处理原则去对待非等精度测量,且建立在数理统计理论基础上,所以加权平均法是处理牛顿环实验数据的方法。

2 结 语

本文对牛顿环实验数据分别采用逐差法、线性回归法和加权平均法进行分析。逐差法在牛顿环干涉实验中是一种常用的实验处理方法,其原理简单且便于理解,对它的实验原理不用再做过多的叙述,但由于逐差法不满足非等精度测量实验数据的条件,而牛顿环干涉实验就是一种非等精度测量,故该方法对于牛顿环干涉实验并不是一种理想的实验处理方法;线性回归法先利用数值插值法对实验数据进行处理,再利用最小二乘法将实验数据拟合成一条直线函数,用Matlab软件计算出线性拟合系数B及相关系数r,进而算出凸透镜的曲率半径R和测量的相对不确定度;加权平均值法主要是比较相应的权,进而求出加权平均值,利用Matlab软件处理较为方便,在优化模型中应用较广。经过分析与讨论可知应用加权平均值法为牛顿环实验数据处理的方法。

数据处理方法论文:一种钢丝绳局部截面损失识别的信息融合数据处理方法

摘要:钢丝绳的局部金属截面损失是判断钢丝绳能否安全工作的重要依据,该文提出一种基于信息融合的钢丝绳的局部金属截面损失识别算法。将其断丝根数和断口间距总和作为CMAC(Cerebellar Model Articulation Controllers)神经网络融合模型的输入,钢丝绳局部金属面积损失作为输出,训练CMAC神经网络模型;通过现场检测数据和已训练的识别模型可计算钢丝绳的局部金属截面损失;,应用仿真实例证明了利用CMAC神经网络判别金属截面损失的性。

关键词:信息融合;局部金属截面损失;故障诊断;模式识别

钢丝绳作为一种在国民经济各部门广泛使用的柔性构件,所处工作环境复杂恶劣,其安全性能的高低直接关系到设备能否正常运转、操作人员的人身安全能否得到保障。因此,实时的监测钢丝绳的安全状况具有十分重大的意义。

钢丝绳缺陷主要分为:1) 局部缺陷LF(Localized Fault)指钢丝绳局部位置上产生的损伤,主要包括内外部断丝、局部形状异常、锈蚀斑点等;2) 金属截面积损失LMA(Loss of Metallic cross-sectional Area)指钢丝绳的钢丝由于疲劳磨损、腐蚀、挤压等原因造成钢丝金属截面积减小,主要包括锈蚀、磨损、钢丝绳绳径缩细等。

LMA的变化直接体现了钢丝绳所有钢丝的破断拉力总和的变化[1],大部分的钢丝绳检测仪都可以检测LMA。LF以断丝为主,其定量指标比较模糊。而且钢丝绳是一种串联的柔性部件,最薄弱的局部较短的一小段决定了整根钢丝绳的破断强度。在实际应用中,经常是由于断丝、锈蚀等局部范围内的缺陷造成钢丝绳的报废。仔细分析LF本质,LF可以视为沿钢丝绳轴向长度较短的金属截面损失,即局部LMA[2]。因此,本文以LF即局部LMA为目标判断钢丝绳的安全状况。

1 钢丝绳局部金属截面积损失的CMAC融合算法

目前,钢丝绳无损检测普遍采用电磁法检测存在缺陷的钢丝绳的漏磁通[3-4]。由于钢丝绳信号较为复杂,而大多数检测方法的数据处理是采用单传感器信号进行损伤识别,如文献[5-6]的小波信号处理方法,文献[7]的人工神经网络模式识别方法等,使得在实际应用中地检测和识别钢丝绳损伤仍然具有较大困难。

局部缺陷LF会使钢丝绳周围形成高密度磁场,在检测曲线上表现为波峰的出现。因此,建立漏磁信号和局部LMA之间的关系很有必要。而利用神经网络来建立这种关系更易实现。由于CMAC神经网络是一种典型的局部逼近神经网络,具有速度快、精度高、算法简单等特点,用它来分析各种局部缺陷的复杂波峰是一种较为有效的方法。

本文提出一种基于信息融合的钢丝绳的局部金属截面损失识别算法,利用信息融合的多维信息处理优势来提高钢丝绳局部金属面积损失识别的度。即:将钢丝绳断丝根数和断间距总和作为CMAC神经网络融合模型的输入,钢丝绳局部金属截面损失作为输出,训练CMAC神经网络模型,通过现场检测到的数据和经过训练的模型即可得出钢丝绳的局部金属截面损失。

1.1 基于CMAC信息融合的钢丝绳局部金属截面积损失识别算法

由于钢丝绳工作环境恶劣且其局部缺陷信号比较复杂,为了较大限度的发挥CMAC的信息处理能力,本模型选取仪器测取的原始漏磁信号作为输入,即:1)断丝根数;2)断口间距总和;选取对应长度的局部金属截面积损失作为输出。不同的缺陷产生的漏磁信号差别很微小,因此若从漏磁信号中选取某些特征值作为输入,将会丢失一些其他信息,另外还会增加计算环节。

图1为CMAC信息融合的钢丝绳局部金属截面积损失识别模型。从检测仪器测取的数据中,选取一定数量的样本,将样本的断丝根数、断口间距总和作为CMAC的输入,训练神经网络。再将测取的全部数据输入CMAC神经网络,得到输出结果。

1.2 CMAC神经网络模型

CMAC神经网络 [8-9]是模仿小脑功能的建成的一种局部逼近神经网络。具有算法简单、学习速度快、局部泛化能力、神经元的输入输出呈线性关系等特点。

CMAC结构如图2所示,图中S表示输入状态空间,A表示存储区,y为输出响应矢量。输入空间的Si同时激活A中的NL个元素,使其取值为1,其余取值为0。NL反应网络泛化能力的大小,称为泛化参数。一般来说,实际应用中输入向量的各分量来自不同的传感器,其值多为模拟量,而A中的每个元素为二元变量。为使S空间中的点映射为A空间的离散点,必须先将模拟量Si量化,使其成为输入状态空间的离散点。

CMAC的基本思想如图3所示:将学习的数据(知识)存储在交叠的存储单元(记忆空间)中,其输出为相应激活单元数据的累加和[10]。算法的实现主要包括两方面运算:一是结果的计算输出及误差生成;二是权值的学习调整。

在结果输出阶段,A中NL个被激活单元的对应权值的累加和即为网络输出 yi,即

(1)

其中,wj为第j个存储单元的权值。

在权值调整阶段,常规的CMAC算法将误差平均分配到所有被激活的存储单元中,其更新wj(t+1)的算法为:

(2)

其中,ys(t)表示第t个训练点所对应的期望输出,α为学习常数,NL被激活的存储单元的个数。

1.3 地址函数设计

对CMAC神经网络存储单元的激活规则,本文采用文献[11]的方法:所需存储单元的标志通过地址函数产生。该方法十分简便,且有效避免了数据碰撞的发生。

以三维CMAC为例[12],设CMAC的级数为m,每级包含的块数为nb,则每维的等分块数等于m*(nb-1)+1。本例中,(m*(nb-1)+1)3状态仅需N=m*nb3个存储单元。考虑状态s(x1,x2,x3) ,激活m个存储单元,各激活存储单元的地址函数为s(j), j=1,…,m,则s(j)=F(x1,x2,x3,j),定义:

① If j=1, 则i=0, 其他i=m-j+1;

② ax=int((x1+i)/m);

③ ay=int((x2+i)/m);

④ az=int((x3+i)/m);

s(j)=F(x1,x2,x3,j)=ax+ay+az*nb2+(j-1)*nb3+1

2 仿真实例

为了验证所提算法的识别性,此处以文献[13]的实验数据为基础,比较CMAC信息融合识别方法与实际测试结果的吻合程度。表1为利用MTC-B型钢丝绳检测仪测试的“断丝数”、“断丝间距总和”、 “LMA”的数值。训练样本取自φ28钢丝绳受力为2KN工况下的数据,钢丝绳为6×19φ28交互捻W型钢丝绳,钢丝直径为1.8mm,股距30mm,钢丝绳的公称截面积为289.55mm2。钢丝绳经过较长时间的弯曲疲劳试验,断丝原因是弯曲断丝,共29处断丝,分布在不同的绳股上。每根断丝根数最少1根,最多4根。

选取19个训练样本,对应表1的序号为:1,2,3,6,7,8,9,12,13, 15,16,19,20,24,25,26,27,28,29,每个样本长度等于1个股距长。将所选样本的断丝根数与断口间距总和作为CMAC的输入,LMA作为输出,训练神经网络。

本例中,取级数m=4,每级包含nb=8块,存储单元总数为m*nb2=256。CMAC网络训练完成后,用所建立的模型对仪器检测数据进行判别。

其中,表2为所选取19个训练样本的CMAC神经网络融合输出值与仪器测量值与的比较,表3为其他10个非训练样本的网络融合输出值与仪器测量值的比较。

表2的数据表明,训练过的19个样本CMAC融合输出值与测量值一致。表3的数据表明,未训练过的10组数据中,其中4处CMAC融合输出值非常,其他数据存在一定的误差,误差范围在8.54%-62.15%。

选取较多的训练样本可以解决钢丝绳缺陷信号相容性、遍历性较为复杂的问题,达到提高精度降低误差的结果。进行仿真证明,当选取29个训练样本时,全部样本CMAC融合输出值与测量值一致。

3 结束语

本文论述了CMAC神经网络的理论基础,讨论了钢丝绳缺陷的定量分析问题,提出了一种基于CMAC神经网络的钢丝绳局部缺陷逼近方法,提高了钢丝绳局部缺陷检测的率。通过实例检验了该方法的正确性和有效性。

数据处理方法论文:山区高填方机场沉降监测数据处理方法探讨

【摘要】通过恰当的方法进行山区机场沉降监测数据的处理来提高内业工作的效率,从而也能在某种程度上有着加快机场建设进程的作用。本文针对常用的几种变形监测数据处理方法进行分析探讨,其结果对山区高填方机场实际工程的应用具有一定的借鉴意义。

【关键词】高填方机场,沉降监测,数据处理

0 引言

山区高填方机场建设区域地形地势条件、水文地质条件复杂,变形问题不可避免的存在。机场的变形轻则影响机场道面的功能性要求,严重的会导致机场道面结构性损坏,威胁着乘客的人生安全。因此,对于山区高填方机场的建设不仅仅要求建设质量,由于其建设环境的特殊性,需要对建设区域进行实时变形监测,通过对变形区域采集数据计算,及时分析变形体是否处于稳定安全状态。本文通过对常用变形监测数据处理方法进行总结,分析出适用于山区高填方机场沉降监测数据处理的方法。

1 沉降监测数据处理基本方法

传统沉降监测数据基本采用人工或者半人工计算的方式来进行处理。而在诸如机场建设等一些较大型的沉降监测项目中,数据处理多为自动化方式,借助于一系列的大型数据处理软件进行自动化处理计算,将计算结果自动成图,分析预测沉降趋势,便于有效掌握变形体的沉降变形情况,及时解决变形问题。

以下对常用监测网平差方法进行总结和分析,选择适于山区高填方机场变形监测网数据处理的方法。

监测网经典平差

监测网经典平差是基于网中拥有足够的稳定点作为平差时的起算点,并以这些数据作为基准,确定网中其余未知点的坐标。此类监测网由于其图形复杂,且含有较多的多余观测,常用间接平差法。

作为经典网平差有如下两个问题:

1、网中可能存在多个稳定点,选择不同的稳定点作为起算点时,其平差结果肯定不同,选择平差解就成为了需要重新考虑的问题。

2、对于变形网中的网点,一般很难预先确定出哪些点是不动的,也就是说基准的选择较困难[3]。

秩亏自由网平差

所谓秩亏是指没有足够的起算数据,没有固定的起算点。秩亏自由网可以不预先假定固定点,所有网点等同看待,即是将所有网点坐标都视为带定量,这时秩亏自由网平差可以结算出变形量,其核心是最终的平差结果和所选基准(平差时的约束条件)无关。秩亏自由网平差与经典平差一般情况下所求得的坐标是不同的,但求得的单位权方差相同[1]。

采用秩亏自由网平差发现变形的能力比采用经典平差强的多,因此其在目前变形监测数据处理中显得非常重要,尤其是针对区域变形监测,非线性大地网秩亏平差的应用较为广泛。

自由网拟稳平差

自由网拟稳平差是由我国周文江教授于1980年针对变形观测网中存在相对稳定点情况而提出的一种合适解法。此平差法是以网中的相对稳定点组的重心参考系作为网配置的基准。自由网拟稳平差的结果满足最小二乘原则,其所求改正数与经典平差和秩亏平差结果相同,但由于参考系的不同,测量值的平差结果及测量值协方差阵亦不同。

根据以上几种数据处理基本方法的总结,针对山区高填方机场建设沉降变形监测网的特点,由于有些沉降变形监测点可能处于地质条件不好,受力变化比较大的地方,各网点移动的可能性不同。并且,在某些时候,对于沉降监测网点的稳定性并不能预先得知,而经过数据处理后可以知道某些点的移动情况[2]。以上所述均常见于山区高填方机场沉降监测变形网数据处理中,如果采用经典平差或秩亏自由网平差显然都是不合理的,所以在机场沉降变形数据处理时优先选择自由网拟稳平差方法较为适宜。

2 沉降变形预测基本方法

随着技术的发展以及对工程质量及建设安全的保障,不仅在对变形体进行沉降监测时所使用的仪器观测精度要求提高,数据处理成果的性及对后期变形情况预测的有效性要求也随之提高。一般沉降变形预测的做法是根据已有相关变形监测数据,采用数学模型来逼近、模拟和揭示变形体的变形规律和动态特征,为工程设计和灾害防治提供一定的科学依据,现将几种常用沉降预测方法总结如下:

回归分析法:

随着对变形体沉降变形进行多期观测,获得大量的观测数据,这些数据由于其包含着变形体本身发生、发展的变形规律以及外界环境对变形的作用因素。我们需要从获取的数据中,通过数据处理的方法得到变形体变形的定量规律或者与外界影响因素之间的定量关系。

采用回归分析的方法可以将对数据的认识提升到定量的层面,该方法属于研究变量之间相关关系的统计方法,适合于变形体与其他因素相关的变形预测,以大量监测数据为基础,找出变量之间的内部规律,即统计上的回归关系[4]。

时间序列分析法:

相对于回归分析法,时间序列分析法可以应用于监测数据是统计相关的情况,因为无论是按时间序列排列的观测数据还是按空间位置顺序排列的观测数据,数据之间都或多或少的存在着统计自相关的现象。

时间序列分析法是一种动态的数据处理方法,分析观测资料考虑到时间顺序时,由于观测值的非独立性,未来观测值可由已有的观测数据预测得到,可利用观测值之间的自相关性建立相应的数学模型来描述变形体的动态变形特征[1]。

灰色系统预测法

针对短数据序列而言,由于其具有变形信息量少、规律性不强等特点,使得诸如回归分析预测等方法存在较大的预测难度。

对此,由我国邓聚龙教授提出的灰色系统理论衍生的预测方法,对变形监测的短数据序列建模方面有一定的优越性,使用数据生成的方法,将原本杂乱的原始数据整理成规律性强的生成数列,即从原始数据中去发现、寻找数据潜藏的内在规律,然后对生成数列再做研究[5]。

模糊人工神经网络法:

针对传统方法中处理非线性问题时采用分段线性化的方法这一缺陷,神经网络在处理非线性问题上,具有一定的优越性,为非线性系统建模、识别和预测提供了一个有效的解决途径。其基本思想是先用神经网络建立变形影响参数与变形之间的非线性关系,再将待测点的实测影响变形的参数输入到已建好的网络中,即可预测变形量。

根据以上对几种预测方法的总结分析,结合山区高填方机场沉降监测的特点,综合考虑沉降变形所受内部因素较多,而回归分析法主要针对变形由外部因素引起的变形预测分析。时间序列常常受到长期趋势、周期波动及不规则变动等影响,且其只注重监测数据的拟合,不注重变形数据变化规律的发现,所以对山区高填方机场沉降进行预测选用这两种方法都不是很适宜。灰色系统预测法与模糊人工神经网络法的结合使用比较适合于山区高填方机场沉降变形监测数据处理,在沉降监测初期,由于获取的监测数据有限,使用灰色系统预测法进行数据生成,一方面进行初步沉降预测,另一方面后期监测数据也能验证其正确性。在沉降监测的中后期,考虑到变形是变形体受多种内、外部因素共同作用的结果,其监测数据往往具有复杂的非线性特征,因此选择人工神经网络的方法来对变形体直接建模具有较好的预测效果。

3 总结

本文针对沉降变形监测数据处理基本方法及其预测方法的总结分析,提出适用于山区高填方机场数据处理和预测的方法,由于目前只在于理论层面的探讨,后期还需要根据已有数据对所选择处理方法进行实践应用,才能验证其可行性。

数据处理方法论文:航测数据处理中的空间插值方法比较

【摘要】随着航测数据处理要求的不断提高,研究其中的空间插值方法比较有着关键价值。本文首先对航测数据处理相关内容做了概述,分析了插值流程及插值检验,并结合相关实践经验,从多方面就空间插值方法的比较进行了研究,提出了个人观点。

【关键词】航测数据;处理;空间插值方法;比较

一、前言

作为航测数据处理中的重要工作,其中空间插值方法的比较在近期得到了有关广泛关注。该项课题的研究,将会更好地提升空间插值方法的应用实践水平,从而有效优化航测数据处理工作的整体效果。本文从概述相关内容着手本课题的研究。

二、概述

本文研究数字高程模型的内插方法,并不是要去研究出新的更适合的内插算法,也不是说明如何探索待插值数据的各种特征以更好的进行内插,也不单单是分析更适用于某一个区域数据的内插模型,而是通过同一种插值方法对不同采样数据的插值以及同一个采样数据使用不同的插值方法进行插值,对其结果进行分析比较,得出各种插值方法在不同环境下的精度以及其适应性。

从本质上说,插值问题,包括数字高程模型内插,是人们利用已知信息的规律所做出的对未知数据的一种猜测。这种猜测并不可能与真实情况一致,肯定存在一定的误差偏移。既然误差是不可避免的,那该如何在生产中减少这种误差?能否根据已知的数据情况选择出一种适合该插值领域的内插方法?各种内插模型的插值结果又有多大的区别?同一种内插模型在不同采样数据情况下,插值结果又会如何?本论文在对数字高程模型内插问题中各种内插方法的精度与适应性的对比,因此文中会通过自编程序运算大量的采样数据,用几种插值方法对同一组数据进行插值和对不同采样间隔的数据进行插值,还会对两种地形的采样数据使用不同插值方法进行插值,然后将它们的插值结果进行对比和分析,得出有意义的结论。

三、航测数据生产流程及关键技术

1.资料准备

航摄资料如航摄底片、控制点资料、相关的地形图、航摄机鉴定表、航摄验收报告等应收集齐全;对影像质量、飞行质量和控制点质量应进行分析,检查航摄仪参数是否完整等。

2.影像扫描

根据航摄底片的具体情况,设置与调整扫描参数,使反差适中、色调饱满、框标清晰,灰度直方图基本呈正态分布,扫描范围应在保障影像完整(包括框标影像)的前提下尽可能地小,以减少数据量。影像扫描分辨率根据下面公式确定:影像扫描分辨率R=地面分辨率/航摄比例尺分母。

3.定向建模

自动搜寻框标点,放大切准框标点进行内定向,对定向可由计算机自动完成,人机交互完成定向如不符合要求,需重新定向,直至符合限差要求。检查定向精度,需满足要求;相,完成定向后需检查坐标残差。

4.数据采集

(一)立测判读采集,需严格切准目标点,要求按中心点、中心线采集的要素,其位置必须,点状要素采集其定位点,线状要素上点的密度以几何形状不失真为原则,密度应随着曲率的增大而增加。每个像对的数据必须接边,自动生成的匹配点、等视差曲线或大格网点、内插的小格网点均需漫游检查,保障其性,为提高DEM精度,需人工加测地形特征点、线和水域等边界线。

(二)采集的数据应分层,进行图形和属性编辑,矢量数据线条要光滑,关系合理,拓扑关系正确,属性项、属性值正确;利用DEM数据,采用微分纠正法对影像重采样获得DOM数据。

(三)DEM和DOM数据需进行单模型数据拼接,检查拼接处接边差是否符合要求。

5.元数据制作

可由相应的专业软件进行计算输入各属性项中,无法自动输入的内容由人工输入

四、插值流程及插值检验

实验采用的插值流程为:及时步先从研究区域30948个样本点中随机选取30%(9285个)样本点作为误差检验点(先假设误差检验点的值未知),对剩下70%(20663个)样本点进行插值,每种插值方法都采用遍历法,逐个调整参数进行插值计算得出插值预测值,并利用30%样本点与所得到的预测值进行验证,得出各插值统计分析结果;第二步选取每一种插值模型的参数设置;最终将所有插值方法的结果组合进行综合评价与分析,通过采用验证方法及插值分析,从中选择的插值方法。

插值检验的方法主要有交叉验证和验证方法,即预留一个或多个数据样点,然后对该数据点做出预测,然后计算所有估计值与实测值的误差,以此来判断估值方法的优劣。交叉验证首先使用全部数据评价自相关模型,然后逐一删除每个数据点,并预测该点的值。验证方法首先删除部分数据(称作检测数据集),然后使用剩余的数据(称作训练数据集)研究趋势及预测的自相关模型。

五、对空间插值方法比较的几点思考

1.双线性插值法

在地形平坦的地区,该方法能够得到不错的插值结果,但是在地形起伏变化大的地区,由于该方法仅采用4个格网点来进行计算,所以会存在忽略了格网内部地形的突变这一种特殊情况。

2.反距离加权插值法

该方法在复杂地形的插值精度要远远不如在平坦区域时的插值精度。反距离加权法一般不会直接运用在内插运算上,往往是用来定权去求解复杂的方程组。

3.二次曲面法与三次曲面法

在丘陵和山地地区,使用二次曲面移动面拟合插值法和三次曲面移动面拟合插值法是好的,二者之间不相伯仲,鉴于偶然误差和选取参与运算的采样点个数不同,虽然表中二次曲面法的插值结果中误差比三次曲面法的要小,但实际上三次曲面更能体现出复杂地区的地形特征。

在经过上面的理论基础研究和实验,本人还得出了如下的理解:

(一)从反距离加权插值法的性质可以看出,空间上距离越靠近的点,它们之间的相关性就越大,而距离越远的点,它们之间的相关性就无限趋近于零,这是空间数据插值的理论假设基础,正因为如此,才形成了各式各样的插值算法。

(二)一般情况下,采样点数量越多,那么插值结果就越。可是当其达到一个界限值时,采样点数量对插值精度的提升效果会大大减少,并且会加大计算量和采样数据的容量,为操作人员处理数据带来了一定的困难。所以一般参与运算的采样点数量为解算某插值算法参数所必要的点数的1~2倍。

(三)在选择采样点时,在点间距离不大的情况下,应该优先选择分布均匀的采样点,而不是盲目地选择距离插值点最近的采样点。这样才能提高插值结果的精度,否则会难以反映待插点在整个区域的空间分布特征或者使插值结果产生严重的错误。

(四)在如今的数字高程模型内插研究中,并不存在一种能适应任何情况的“好”的插值方法,每一种插值方法都有它适用的范围。上述数据也只能体现出这些内插算法对于该地表区域的插值结果精度,并不能代表不同的地表都能得出上述一模一样的结论。如何选择当前插值区域中好的插值算法,就要依靠操作人员的实际经验,针对插值区域的特征,以及通过大量的实验对比,才能找到的算法。

六、结束语

通过对航测数据处理中空间插值方法比较的相关研究,我们可以发现,该项工作的顺利开展,有赖于对其多项影响环节与因素的充分掌控,有关人员应该从航测数据处理的客观实际要求出发,研究制定最为符合实际的空间插值方法应用方案。

数据处理方法论文:误差分析与数据处理课程教学方法探索

摘 要 “误差分析与数据处理”课程是目前大多数工科院校都开设的一门测量基础课 ,本文针对“误差分析与数据处理” 课程的特点及教学经验,分析了以往教学中存在的问题,有针对性地提出了相应的教改措施,并在教学实践中取得了良好的效果。

关键词 误差分析与数据处理 教学改革 教学方法

“科学始于测量”,但是由于实验方法和实验设备的不完善,周围环境的影响,以及受到人们认识能力的限制,测量所得数据和被测量真值之间,不可避免地存在差异,这在数值上即表现为误差。在人类认识自然改造自然的过程中,测量无处不在,所以,误差也随之存在于每一次的测量过程中。虽然随着科技发展,可以将误差控制得越来越小,但是终究不能消除误差。为了充分认识和减小或者消除误差,国内的工科院校大部分仪器仪表类学科普遍开设了关于误差分析与数据处理的课程,虽然课程名称略有不同,但旨在培养对测试系统存在的误差具有一定分析处理能力的工程技术人员。

误差分析与数据处理课程是我校测控技术与仪器专业的一门专业基础课。本文针对测控技术未来几年的发展趋势和人才培养目标,结合目前误差分析与数据处理课程的特点及教学情况,对该门课程的教学方法进行了分析研究。

1 课程特点

误差分析与数据处理是一门以数学为基础的课程,以高等数学、概率论以及线性代数等数学课程作为先修课程,所学内容是传感器原理及测试理论与技术等课程实验数据处理的基础,并且也是将来工程测量过程中必须掌握的数据处理理论之一。该课程讲授各种物理量的静态测量和动态测量的误差分析与数据处理方法。通过该课程的学习,使学生掌握测试数据的分析与处理方法,获得最接近真值的测量结果,结合测量实际,能够选择合理有效的测量仪器,并制定科学的测量方案。

2 教学现状及存在的问题

2.1 理论与实践脱节

由于误差分析与数据处理课程涉及到很多数学知识,并且大部分的相关教材都是理论的,在实际应用方面偏弱,在教学中很多同学误以为这是一门数学课,而忘了理论学习的初衷是对测量系统的误差进行处理。由于实践环节的缺失,对误差来源的分析也只停留在理论上。这些理论和实践的脱节导致学生不知道如何学习这门课,学了有什么用,从而导致学习兴趣的缺失,教学效果不理想。

2.2 教学方法需改进

目前,数据误差分析与数据处理课程的教学方法还停留在传统的课堂“填鸭式”教学模式中。对于这样一门理论性、实践性和逻辑性都很强的课程,简单的多媒体一页一页讲授的方式,在学生的脑海里很难留下深刻的印象。同时,大量的数据处理工作都是通过手算的方式,没有与专业的计算软件之间建立联系,导致学生对如何运用所学方法对批量数据进行处理产生了困惑,影响了学生的学习热情。

3 教学改革措施

在教学改革过程中,要强调的是误差分析与数据处理的过程不是一个简单的对测量数据处理的过程,而是对测量过程的分析与掌握。

3.1 改革教学内容

一方面,加强教学内容的整合,使基本原理学习更具条理性。首先,经过对测量过程的分析,明确测量数据中的误差类型。其次,根据误差类型和分布的不同,选取不同的处理方法。,按照误差性质不同,对粗大误差进行剔除,确定系统误差大小并进行补偿,对随机误差进行界限的估计。由于实际测量过程中误差性质界面不是十分明显,会有系统误差和随机误差的相互转化。因此,必须对测量的各个环节进行的分析,包括测量环境、所使用的仪器状况、测量方法是否得当等等,从而才能选择合适的数据处理方法,做到对测量误差客观、合理、的估计。

其次,以教材为基础,以测量设计为根本,扩展教学内容。大部分的误差分析与处理教材只强调测量后数据列的处理原理,并没有对测量过程进行任何分析。实际的误差分析与处理过程并不是一个针对测量数据列的计算过程,而是针对测量过程中的任何可能出现的误差估计与综合。所以,在教学过程中一定要给学生明确这一观点,要对测量过程有深刻的认识。同时结合测控专业的特点,任何一个测量过程都离不开传感器、信号处理以及数据采集,可以从这三个方面分析误差的来源。

,引入科学计算软件,将理论推导转化为测量精度的实际计算。在教学过程中,无论是静态数据误差处理还是动态误差分析,都需要根据理论进行大量的数据计算,耗时耗力。在教学过程中将数据处理方法演示给学生,直观地让学生知道如何对实际测量的数据进行处理。Matlab软件的计算功能涵盖了误差分析中所有的数据处理要求。同时,还可以用Matlab中的GUI进行图形可视化界面设计,将对数据进行处理的设计在可视化窗口中,导入数据分析即可从窗口中获得误差信息。如图1所示为电压-电流测量实验的误差分析与数据处理GUI界面。

图1 实验数据误差分析GUI界面

3.2 改革教学方法

将传统教学的板书与现代教学的多媒体相结合。教学过程中,原理的推导过程晦涩繁琐,都写在板书上占用了大量的教学时间,可以直接做成多媒体形式,增加适当的放映动画效果,既吸引了学生的注意力,又节约了有限的教学时间。但是,的多媒体教学会让学生感觉一页一页的多媒体课件翻过去后,一节课的主要知识点不明确,没有深刻的印象。所以,将教学过程中的主要结论及知识点,或者数据处理过程以板书的形式写出来,加深同学对这部分知识的印象,有效避免了的多媒体教学给学生带来的空洞感。教师要合理安排多媒体与板书内容,做到二者衔接,引起学生对误差分析与数据处理课程的学习兴趣。

采用启发式教学,引导学生思考。老子说“授人以鱼,不如授之以渔”,大学教学过程中一定要引导学生思考,让学生在学习专业理论同时,学会学习。在合理利用了板书和多媒体讲解的同时,引导学生思考,使学生的疑问在教学过程中得以解决,引发听课兴趣。

将理论与实践联系起来,学以致用。误差分析与数据处理教材上的内容偏向于对测量数据进行误差计算处理,基本的模式是“分析测试误差(误差分类)――误差处理方法(针对不同性质误差选择不同的处理方法)――误差计算与精度估计”。但是,在实际应用过程中,误差分析与处理是针对测量系统的分析,是在给定测量系统精度要求前提下,选择所需要的测量仪器,组成测试系统,然后根据测量的实际条件及测量过程中可能产生误差的因素分析,综合评定可能产生的误差大小的过程。通过分析得到的误差大小看是否在给定精度允许范围内,如果满足要求则根据所选仪器确定最终的测试系统及测量方案;否则,继续重复仪器选型及测量实际分析过程,从而确定的测量系统。确定了测量系统及测量方案后,对被测量进行测量,进而计算在具体实际测量过程中的误差大小,给测量结果客观的精度估计。因此,可以在教学过程中,与传感器实验课程相结合,给定精度要求,利用实验室的教学资源,让学生自己设计测量系统及测量方案,分析测量过程中产生的误差,通过不同的测量仪器和测量方法的对比,确定测量方案,以达到学以致用的目的。

3.3 完善考核方式

在对知识掌握情况考试时,主要进行两方面的考核,一是通过试卷考核学生对基础理论的掌握情况。要求题目灵活,注重原理结论的灵活应用,尽量避免繁杂的理论推导。二是适当增加实践环节的考核比重。通过安排测量方案设计作业,使学生在掌握理论的同时,应用于实验测量分析当中,通过软件对测量数据进行误差分析处理,将理论与实践结合起来。

4 结论

误差分析与数据处理是一门理论性和实践性很强的课程,是测控技术与仪器专业学生必须掌握的专业基础知识,是从事测量工作的基础。笔者在过去的教学过程中不断地积累经验,也不断地探索着有效的教学改革方法以提高教学质量。同时不断地整合丰富教学内容,合理安排教学学时,在有限的教学时间兼顾传统教学和学生讨论,将科技前沿融入教学,丰富学生的专业知识。希望通过不断的改革与创新,提高学生对误差分析与数据处理课程的学习主动性和应用能力。

数据处理方法论文:带常值偏差的机动目标跟踪数据处理方法

摘 要:机动目标跟踪中的系统误差是影响跟踪精度的关键因素之一。为了抑制系统误差带来的影响,本文提出了基于UKF的常值偏差估计的机动目标跟踪处理方法,通过对状态变量的扩维处理,不仅能有效抑制动力学模型非线性和观测模型非线性带来的模型误差,还能对观测模型中产生的系统误差进行估计,从而提高机动目标跟踪精度。仿真实验表明,在测距和测速跟踪模式下,测距系统误差能有效估计出来,常值偏差不会对跟踪精度产生影响。

关键词:机动目标跟踪 UKF 常值偏差

目标跟踪是根据测控设备对目标运动状态的测量信息,实时快速确定目标运行轨迹的过程。目标跟踪的应用领域非常广泛,例如:机场进出场飞机的检测、机动车辆的跟踪预测、非人工接触的目标轨迹测量等。机动目标跟踪技术涉及到三个因素:一是目标的状态模型,用于表征目标的动力学特征;二是目标的观测模型,用于表征目标的运动现实;三是估计算法,使得运动轨迹在某种准则下达到。在现实应用中,目标观测模型是最能直接影响跟踪精度的关键因素。为了抑制系统误差的影响,最常用的方法有两种:一是通过设备标校,从硬件上校准误差;二是通过数学手段,估计和补偿系统误差。较及时种方式而言,数学估计方法简单、费用低廉,本文采用及时种方法进行系统误差补偿计算。同时,为了抑制机动目标的非线性模型效应,本文采用UKF方法对非线性问题进行求解。和传统扩展卡尔曼滤波而言,该方法不需要求解雅克比矩阵,可以模块化处理,易于工程实现。为此,本文设计了扩展维度的UKF机动目标跟踪预测方法,不仅能有效抑制非线性状态模型引起的截断误差,还可以估计观测模型中的系统误差。算法简单,能模块化处理,该方法可为机动目标跟踪提供新的思路。

1 状态模型和跟踪模型

机动目标跟踪状态模型可写为如下形式:.

其中,为目标的状态向量;为目标状态模型噪声;为目标运动的状态方程,当目标动力学方程明确时,该方程表示微分方程;当目标动力学方程不明确时,该方程可以用数学拟合方程表示。

机动目标测量模型可以表示为如下形式:.

其中,为传感器跟踪模型,用来表示跟踪数据和目标状态的关系表达式。本文假设是距离和速度跟踪。W是与跟踪模型相关的其他参数,如测站信息、测量大气信息等。

2 非线性滤波的UKF跟踪算法

2.1 UT变换

UKF方法是递归式Bayes估计方法,其核心和基础是计算非线性传递的随机向量的UT变换。UT变换的主要过程如下。

过程1:构造状态量的Sigma点。根据当前时刻状态变量的统计量和,按照UT变换采样策略,得到Sigma点集,以及对应的权值和。为采样策略的Sigma点个数,为均值加权所用权值,为协方差加权所用权值。对称采样策略中。

对应的权值为:

其中,为比例参数,其主要作用是调节Sigma点和状态统计量的距离,比例参数仅影响二阶之后的高阶矩带来的影响。对于高斯分布,的有效取值为;为的平方根矩阵的第行或列;为第个Sigma点的权值;

过程2:根据状态方程和测量方程进行Sigma变换。对Sigma点集中的每个采样点进行非线性变换,得到变换后的Sigma点集。

过程3:求解的均值和方差。对变换后的Sigma点集进行加权求和,从而得到输出变量的统计量和的近似值。

从UT变换可以看出,UT变换利用少量通过确定性方法选择的样本点描述经非线性系统变化后随机变量的统计特性,避免了传统EKF方法的线性化求解,从而避免了截断误差,根据UT变换,可以得到UKF滤波。

2.2 常值偏差估计的UKF非线性滤波算法

在机动目标跟踪的状态向量中,增加一项观测方程的常值系统偏差估计量。则,目标的运动状态描述为:

将扩维的状态变量仍记为

表示目标的新的状态向量。则滤波算法描述为以下几个方面。

过程1:机动目标当前状态采样[6]。

输入当前时刻的目标状态,选择一种UT变换的采样策略构造Sigma点和权重。

过程2:目标状态预测。

对每组Sigma点进行状态方程变换,获得k+1时刻的Sigma点集,求得k+1时刻的状态以及协方差矩阵。

值得注意的是,对于常值偏差的状态预测,只需要按照权值相加即可。

过程3:测量数据计算。

按照测量方程计算的测量Sigma点,并求得 k+1时刻的测量预测量和测量协方差矩阵,以及状态向量和测量向量的协方差矩阵。

过程4:增益计算。

过程5:状态更新。

如果有测量输入,则计算增益矩阵,并按下式更新状态向量和协方差矩阵向量,而如果没有测量量输入则转向过程1。

3 仿真实验

3.1 目标状态模型

目标状态模型可以有的微分方程描述,也可以没有的方程模型,本文假设有状态模型描述,采用如下目标运动方程进行设计:.

其中,为目标飞行轨迹在惯性空间坐标系的位置坐标。

3.2 雷达测量模型

设目标飞行时的观测设备由1台雷达完成,测量数据包括测站坐标系下的目标相对测站的距离和速度,假设由于设备标校的问题,测距数据产生一组常值偏差0.21 cm。另外,假设测量随机误差包括距离测量误差1 mm,速度测量误差1 mm/s。

3.3 试验结果

利用本文提出的常值偏差估计的机动目标轨迹确定方法,同时估计目标状态维数和测量数据的系统偏差,得到目标的飞行轨迹。试验结果如图1所示。

结果分析,从图2的目标轨迹可以看出,目标飞行轨迹是明显的非线性特征,同时,目标测量模型存在较大系统误差,模型截断误差和测量系统误差耦合在一起,从而引起目标滤波很难收敛。应用本文提出的常值偏差估计方法,可以看出两类误差抑制的非常好,系统误差估计度达到95%以上。

4 结论

本文设计了扩展维度的UKF机动目标跟踪预测方法,不仅能有效抑制非线性状态模型引起的截断误差,还可以估计观测模型中的系统误差。算法简单,能模块化处理,该方法可为机动目标跟踪提供新的思路。