阿法是矩阵a的特征向量+那么阿法是a的n次方的特征向量吗?

矩阵的特征值和特征向量是矩阵与变换的一个非常重要的内容,利用矩阵的特征值和特征向量,可以方便地计算多次矩阵变换的结果,而且在实际工程计算和工程控制中也发挥着重要作用.二阶矩阵的特征值和特征向量有两个基本内容.一是二阶矩阵的特征值和特征向量的概念:设A是一个二阶矩阵,如果对于实数λ,存在一个非零向量α,使得Aα=λα,那么λ称为A的一个特征值,而α称为A的属于特征值λ的一个特征向量.

更多“对于如下判断矩阵 [图],用方根法近似计算的特征向量W...”相关的问题

层次分析法中计算判断矩阵的最大特征根及其对应的特征向量的方法可以是()。

和法和积法进行判断矩阵的特征根和特征向量的简便运算时,说法正确的有:

A.都需要首先将判断矩阵A的列向量归一化。

B.和法是将列向量归一化后的判断矩阵 按行求和得到向量 ,积法是将列向量归一化后的判断矩阵 按行求积然后再开n次方,得到向量 。

C.和法和积法都需要对向量 进行归一化得到特征向量w。

D.和法和积法都需要利用求矩阵特征根的公式计算判断矩阵A的最大特征值。

层次分析法中计算判断矩阵的最大特征根及其特征向量的方法有哪些?

反幂法用于求矩阵A的按模最小的特征值和对应的特征向量,及其求对应于一个给定的近似特征值的特征向量。()

AHP决策分析方法中,需要求解判断矩阵的最大特征根及其所对应的特征向量,常采用的近似求解方法是( )。

求下列矩阵的特征值及特征向量:

求判断矩阵特征向量是()

A.头脑风暴法的一个步骤

B.相关分析法的一个步骤

C.层次分析法的一个步骤

D.德尔菲法的一个步骤

算法基本思想是使用一个固定窗口在图像上进行任意方向上的滑动,
比较滑动前与滑动后两种情况,窗口中的像素灰度变化程度,
如果存在任意方向上的滑动,都有着较大灰度变化,
那么我们可以认为该窗口中存在角点。
 边缘 (Edges 物体边缘)
 因为角点是两个边缘的连接点(交点)它代表了两个边缘变化的方向上的点。
 图像梯度有很高的变化。这种变化是可以用来帮助检测角点的。
 [u,v]是窗口的偏移量
 (x,y)是窗口内所对应的像素坐标位置,窗口有多大,就有多少个位置
 w(x,y)是窗口函数,最简单情形就是窗口内的所有像素所对应的w权重系数均为1。
 设定为以窗口中心为原点的二元正态分布
则计算 det(M) 矩阵M的行列式的值 取值为一个标量,写作det(A)或 | A | 矩阵表示的空间的单位面积/体积/..
 trace(M) 矩阵M的迹 矩阵M的对角线元素求和,用字母T来表示这种算子,他的学名叫矩阵的迹

Harris 算法最原始的定义是将矩阵 M 的行列式值与 M 的迹相减, 再将差值同预先给定的阈值进行比较。 若两个特征值中较小的一个大于最小阈值,则会得到强角点。

【3】FAST角点检测算法 ORB特征检测中使用的就是这种角点检测算法

【8】KAZE非线性尺度空间 特征

基于非线性尺度空间的KAZE特征提取方法以及它的改进AKATE
KAZE是日语‘风’的谐音,寓意是就像风的形成是空气在空间中非线性的流动过程一样,
KAZE特征检测是在图像域中进行非线性扩散处理的过程。
传统的SIFT、SURF等特征检测算法都是基于 线性的高斯金字塔 进行多尺度分解来消除噪声和提取显著特征点。
但高斯分解是牺牲了局部精度为代价的,容易造成边界模糊和细节丢失。
非线性的尺度分解有望解决这种问题,但传统方法基于正向欧拉法(forward Euler scheme)
求解非线性扩散(Non-linear diffusion)方程时迭代收敛的步长太短,耗时长、计算复杂度高。
来进行非线性扩散滤波,可以采用任意步长来构造稳定的非线性尺度空间。

具体地,非线性扩散滤波方法是将图像亮度(L)在不同尺度上的变化视为某种形式的 流动函数(flow function)的散度(divergence),可以通过非线性偏微分方程来描述: 由于非线性偏微分方程并没有解析解,一般通过数值分析的方法进行迭代求解。 传统上采用显式差分格式的求解方法只能采用小步长,收敛缓慢。 KAZE特征检测与描述 KAZE特征的检测步骤大致如下: 2) 检测感兴趣特征点,这些特征点在非线性尺度空间上经过尺度归一化后的Hessian矩阵行列式是局部极大值(3×3邻域)。 3) 计算特征点的主方向,并且基于一阶微分图像提取具有尺度和旋转不变性的描述向量。 KAZE的特征点检测与SURF类似,是通过寻找不同尺度归一化后的Hessian局部极大值点来实现的。

背景减除在很多基础应用中占据很重要的角色。
列如顾客统计,使用一个静态的摄像头来记录进入和离开房间的人数,
或者交通摄像头,需要提取交通工具的信息等。
我们需要把单独的人或者交通工具从背景中提取出来。
技术上说,我们需要从静止的背景中提取移动的前景.
提供一个无干扰的背景图像
实时计算当前图像和 背景图像的差异(图像做差) 阈值二值化 得到 多出来的物体(mask) 再区域分割
这个算法的一个特点是它为每个像素选择一个合适的高斯分布。
这个方法有一个参数detectShadows,默认为True,他会检测并将影子标记出来,
但是这样做会降低处理速度。影子会被标记成灰色。
 背景与前景都是相对的概念,以高速公路为例:有时我们对高速公路上来来往往的汽车感兴趣,
这时汽车是前景,而路面以及周围的环境是背景;有时我们仅仅对闯入高速公路的行人感兴趣,
这时闯入者是前景,而包括汽车之类的其他东西又成了背景。背景剪除是使用非常广泛的摄像头视频中探测移动的物体。
这种在不同的帧中检测移动的物体叫做背景模型,其实背景剪除也是前景检测。
一个强劲的背景剪除算法应当能够解决光强的变化,杂波的重复性运动,和长期场景的变动。
下面的分析中会是用函数V(x,y,t)表示视频流,t是时间,x和y代表像素点位置。
例如,V(1,2,3)是在t=3时刻,像素点(1,2)的光强。下面介绍几种背景剪除的方法。

【1】 利用帧的不同(临帧差)

 该方法假定是前景是会动的,而背景是不会动的,而两个帧的不同可以用下面的公式:
 用它来表示同个位置前后不同时刻的光强只差。
 只要把那些D是0的点取出来,就是我们的前景,同时也完成了背景剪除。
 当然,这里的可以稍作改进,不一定说背景是一定不会动的。
 可以用一个阀值来限定。看下面的公式:
 通过Th这个阀值来进行限定,把大于Th的点给去掉,留下的就是我们想要的前景。
 // 可使用 矩阵相减 
 //这里模板参数一定要用 unsigned char 8位(灰度图),否则就一直报错 

【2】 均值滤波(Mean filter) 当前帧 和 过去帧均值 做差

不是通过当前帧和上一帧的差别,而是当前帧和过去一段时间的平均差别来进行比较, 同时通过阀值Th来进行控制。当大于阀值的点去掉,留下的就是我们要的前景了。

【3】 使用高斯均值 + 马尔科夫过程

均值 u0 = I0 均值为第一帧图像

级联分类器是将若干个分类器进行连接,从而构成一种多项式级的强分类器。 从弱分类器到强分类器的级联(AdaBoost 集成学习 改变训练集) 级联分类器使用前要先进行训练,怎么训练? 用目标的特征值去训练,对于人脸来说,通常使用Haar特征进行训练。 然后使用积分图能够非常迅速的计算不同尺度上的Haar-like特征。 【2】使用AdaBoost作为特征选择的方法选择少量的特征在使用AdaBoost构造强分类器。 【3】以级联的方式,从简单到 复杂 逐步 串联 强分类器,形成 级联分类器。 级联分类器。该分类器由若干个简单的AdaBoost强分类器串接得来。 假设AdaBoost分类器要实现99%的正确率,1%的误检率需要200维特征, 而实现具有99.9%正确率和50%的误检率的AdaBoost分类器仅需要10维特征, 那么通过级联,假设10级级联,最终得到的正确率和误检率分别为: 检测体系:是以现实中很大一副图片作为输入,然后对图片中进行多区域,多尺度的检测, 所谓多区域,是要对图片划分多块,对每个块进行检测,由于训练的时候一般图片都是20*20左右的小图片, 所以对于大的人脸,还需要进行多尺度的检测。多尺度检测一般有两种策略,一种是不改变搜索窗口的大小, 而不断缩放图片,这种方法需要对每个缩放后的图片进行区域特征值的运算,效率不高,而另一种方法, 是不断初始化搜索窗口size为训练时的图片大小,不断扩大搜索窗口进行搜索。 在区域放大的过程中会出现同一个人脸被多次检测,这需要进行区域的合并。 无论哪一种搜索方法,都会为输入图片输出大量的子窗口图像, 这些子窗口图像经过筛选式级联分类器会不断地被每个节点筛选,抛弃或通过。 级联分类器的策略是,将若干个强分类器由简单到复杂排列, 希望经过训练使每个强分类器都有较高检测率,而误识率可以放低。 AdaBoost训练出来的强分类器一般具有较小的误识率,但检测率并不很高, 一般情况下,高检测率会导致高误识率,这是强分类阈值的划分导致的, 要提高强分类器的检测率既要降低阈值,要降低强分类器的误识率就要提高阈值, 这是个矛盾的事情。据参考论文的实验结果, 增加分类器个数可以在提高强分类器检测率的同时降低误识率, 所以级联分类器在训练时要考虑如下平衡,一是弱分类器的个数和计算时间的平衡, 二是强分类器检测率和误识率之间的平衡。 //-- 多尺寸检测人脸 // image:当然是输入图像了,要求是8位无符号图像,即灰度图 //objects:输出向量容器(保存检测到的物体矩阵) //minNeighbors:每个候选矩阵应包含的像素领域 //flags:表示此参数模型是否更新标志位; //minSize :表示最小的目标检测尺寸; //maxSize:表示最大的目标检测尺寸; 与Haar特征相比,LBP特征是整数特征,因此训练和检测过程都会比Haar特征快几倍。 LBP和Haar特征用于检测的准确率,是依赖训练过程中的训练数据的质量和训练参数。 训练一个与基于Haar特征同样准确度的LBP的分类器是可能的。 与其他分类器模型的训练方法类似,同样需要训练数据与测试数据; 其中训练数据包含正样本pos与负样本neg。 对输入的数据格式是有要求的,所以需要相关的辅助程序: 它的输出为以 *.vec 为扩展名的文件,该文件以二进制方式存储图像。 所以opencv级联分类器训练与测试可分为以下四个步骤: 【4】利用训练好的分类器进行目标检测

正样本可以由包含待检测物体的一张图片生成,也可由一系列标记好的图像生成。 首先将所有的正样本放在一个文件夹,如图所示1。其中,pos.dat文件为所有图像的列表文件, 其中,第一列为图像名,第二列为该图像中正样本的个数,最后的为正样本在图像中的位置以及需要抠出的正样本的尺寸。 这样只能生成文件名列表,后面的正样本个数与位置尺寸还需手动添加。 -bg<background_file_name> 背景图像的描述文件,文件中包含一系列的图像文件名,这些图像将被随机选作物体的背景。 因为图像压缩可造成颜色偏差,颜色的容差可以由-bgthresh指定。 -inv 如果指定该标志,前景图像的颜色将翻转。 -randinv 如果指定该标志,颜色将随机地翻转。 -show 很有用的调试选项。如果指定该选项,每个样本都将被显示。如果按下Esc键,程序将继续创建样本但不再显示。

 负样本可以是任意图像,但是这些图像中不能包含待检测的物体。
 用于抠取负样本的图像文件名被列在一个neg.dat文件中。
 生成方式与正样本相同,但仅仅包含文件名列表就可以了。
 这个文件是纯文本文件,每行是一个文件名(包括相对目录和文件名)这些图像可以是不同的尺寸,
 但是图像尺寸应该比训练窗口的尺寸大,
 因为这些图像将被用于抠取负样本,并将负样本缩小到训练窗口大小。

内存越大,训练时间越短。 -baseFormatSave 这个参数仅在使用Haar特征时有效。如果指定这个参数,那么级联分类器将以老的格式存储。

输出的分类器。它读入一组标注好的图像,运行分类器并报告性能,如检测到物体的数目, 漏检的数目,误检的数目,以及其他信息。同样准备测试数据集test,生成图像列表文件, 格式与训练者正样本图像列表相同,需要标注目标文件的个数与位置。 如果是2或者更多,则带有number_of_splits个内部节点的CART分类器被使用。 -mem<memory_in_MB> 预先计算的以MB为单位的可用内存。内存越大则训练的速度越快。 -nonsym指 定训练的目标对象是否垂直对称。垂直对称提高目标的训练速度。例如,正面部是垂直对称的。 -h<sample_height> 训练样本的尺寸,(以像素为单位)。必须和训练样本创建的尺寸相同 -ni 选项抑制创建的图像文件的检测

【1】支持向量机(SVM)

支持向量机 (SVM) 是一个类分类器,正式的定义是一个能够将不同类样本 换句话说,给定一些标记(label)好的训练样本 (监督式学习), SVM算法输出一个最优化的分隔超平面。 假设给定一些分属于两类的2维点,这些点可以通过直线分割, 我们要找到一条最优的分割线. ——————————————————————————————————> 这是一个拉格朗日优化问题

【2】 支持向量机对线性不可分数据的处理

为什么需要将支持向量机优化问题扩展到线性不可分的情形? 
在多数计算机视觉运用中,我们需要的不仅仅是一个简单的SVM线性分类器, 
我们需要更加强大的工具来解决 训练数据无法用一个超平面分割 的情形。
我们以人脸识别来做一个例子,训练数据包含一组人脸图像和一组非人脸图像(除了人脸之外的任何物体)。 
这些训练数据超级复杂,以至于为每个样本找到一个合适的表达 (特征向量) 以让它们能够线性分割是非常困难的。
还记得我们用支持向量机来找到一个最优超平面。 既然现在训练数据线性不可分,
我们必须承认这个最优超平面会将一些样本划分到错误的类别中。 在这种情形下的优化问题,
新的模型需要包含原来线性可分情形下的最优化条件,即最大间隔(margin), 
以及在线性不可分时分类错误最小化。
比如,我们可以最小化一个函数,该函数定义为在原来模型的基础上再加上一个常量乘以样本被错误分类的次数:
它没有考虑错分类的样本距离同类样本所属区域的大小。 因此一个更好的方法是考虑 错分类样本离同类区域的距离:
 C比较大时分类错误率较小,但是间隔也较小。 在这种情形下,
错分类对模型函数产生较大的影响,既然优化的目的是为了最小化这个模型函数,
那么错分类的情形必然会受到抑制。
 C比较小时间隔较大,但是分类错误率也较大。 在这种情形下,
模型函数中错分类之和这一项对优化过程的影响变小,
优化过程将更加关注于寻找到一个能产生较大间隔的超平面。
样本 协方差矩阵 的特征值和特征向量 取前四个特征值所对应的特征向量
对于一组样本的feature组成的多维向量,多维向量里的某些元素本身没有区分
我们的目的是找那些变化大的元素,即方差大的那些维,
而去除掉那些变化不大的维,从而使feature留下的都是最能代表此元素的“精品”,
对于一个k维的feature来说,相当于它的每一维feature与
其他维都是正交的(相当于在多维坐标系中,坐标轴都是垂直的),
那么我们可以变化这些维的坐标系,从而使这个feature在某些维上方差大,
求得一个k维特征的投影矩阵,这个投影矩阵可以将feature从高维降到低维。
投影矩阵也可以叫做变换矩阵。新的低维特征必须每个维都正交,特征向量都是正交的
通过求样本矩阵的协方差矩阵,然后求出协方差矩阵的特征向量,这些特征向量就可以构成这个投影矩阵了。
特征向量的选择取决于协方差矩阵的特征值的大
对于一个训练集,100个样本,feature是10维,那么它可以建立一个100*10的矩阵,作为样本。
求这个样本的协方差矩阵,得到一个10*10的协方差矩阵,然后求出这个协方差矩阵的特征值和特征向量,
应该有10个特征值和特征向量,我们根据特征值的大小,取前四个特征值所对应的特征向量,
构成一个10*4的矩阵,这个矩阵就是我们要求的特征矩阵,100*10的样本矩阵乘以这个10*4的特征矩阵,
就得到了一个100*4的新的降维之后的样本矩阵,每个样本的维数下.

###【4】人工神经网络(ANN) 简称神经网络(NN),

 能模拟生物神经系统对物体所作出的交互反应,
 是由具有适应性的简单单元(称为神经元)组成的广泛并行互连网络。
 
 OpenCV 中使用的激活函数是另一种形式,
该函数把可能在较大范围内变化的输入值,“挤压” 到 (-1, 1) 的输出范围内
 感知机由两层神经元组成,输入层接收外界输入信号,而输出层则是一个 M-P 神经元。
 实际上,感知机可视为一个最简单的“神经网络”,用它可很容易的实现逻辑与、或、非等简单运算。
 常见的神经网络,可分为三层:输入层、隐含层、输出层。
 输入层接收外界输入,隐层和输出层负责对信号进行加工,输出层输出最终的结果。
 // (a) 3层,输入层神经元个数为 4,隐层的为 6,输出层的为 4
 // (b) 4层,输入层神经元个数为 4,第一个隐层的为 6,第二个隐层的为 5,输出层的为 4
// 设置神经网络的层数和神经元数量
 
// samples,输入的样本书数据;results,输出矩阵,默认不输出;flags,标识,默认为 0
5) 保存训练好的神经网络参数
6) 载入训练好的神经网络

我要回帖

更多关于 实对称矩阵有n个无关的特征向量 的文章

 

随机推荐