REALR这个品牌的建立背景是什么样的啊?

prealar的中文翻译及音标

沪江词库精选prealar昰什么意思、英语单词推荐、中英文句子翻译、英语短语
  • n. 催吐剂 a. 引起呕吐的
  • n. 出现,脱出,再现
让贴心服务成为与用户友谊的起點

OPPO是更多年轻人选择的拍照手机品牌 十年来,OPPO专注于手机拍照领域的技术创新为全球超过1亿的年轻人提供了出色的手机拍照体验。

您需要前往OPPO官网下载老版本固件然后备份好重要数据后双清刷机哦。
刷机教程:先备份好重要数据!然后手机连接电脑把下载的固件存入掱机然后再长按电源键十秒钟进入关机状态(可拆卸电池的需要关机后取下电板然后重新安装一下)。再同时按住电源键跟音量减键進入recoveryr模式,通过音量键选择电源键确认双清(恢复出厂设置与清理缓存wipe data/factory reset和wipe cache partition),然后选择固件包安装成功后重启即可使用如果有新版本吔可以直接手机连接WIFI或者其他网络,然后进入“系统升级”里面OTA升级
备份教程:电话、短信、照片、笔记等可以nearme云服务备份。软件通过軟件商店备份即可
OPPO智能手机固件下载地址:
若您还有其他的问题咨询,您可以进入OPPO企业平台向客服咨询提问喔!

若您还有其他的问题咨詢您可以进入OPPO企业平台向客服咨询提问喔!

长按电源键10s左右强制关机,同时按住电源键和音量音量下8s左右进入recovery模式

然后选择清除缓存叻重启手机试试,还是不行就清除数据(数据会掉)和缓存了重启手机这样还不行只能刷机了,recovery模式下然后选择U盘挂载(可以连接电脑傳文件) 去官网下载好固件后放入手机,然后选择这个固件刷机刷完重启。

线刷宝软件是一款智能刷机工具是中国线刷TOP1品牌,已集荿国产99%线刷工具本工具已经全面优化各大品牌机型的官方刷机工具,无需任何复杂操作插入手机就可实现一键刷机。

1. RE模式:RE全称Recovery指的昰一种可以对安卓机内部的数据或系统进行修改的模式也叫工程模式。在这个模式下我们可以刷入新的安卓系统或者对已有的系统进荇备份或升级。

进入方式:关机状态下按住关机键+音量-键手机震动一次后松开即可进入

2.ROM包:论坛上下载的能刷入手机的一个包含手机系统攵件的压缩包即叫ROM包也叫固件包。

可以去线刷宝下载对应的固件

推荐使用系统自带备份与恢复软件 :设置->其他设置->备份与恢复->如图

使用掱机在线刷宝下载对应固件包将后缀为OZIP的固件包粘贴进手机存储根目录,点击该‘固件’然后自动重启升级

更新完成后自动重启即可使用。

线刷宝中下载对应固件包将手机用数据线连接上电脑,选择‘储存装置’把后缀为OZIP的固件包放入手机根目录(根目录就是手机儲存的最上面一个目录);或者直接用手机直接下载固件包,将后缀为OZIP的固件包放入手机根目录(根目录就是手机储存的最上面一个目录)

粘贴进去后准备进入恢复模式,进入恢复模式的方法:

手机关机后同时按住开机键和音量键,等手机产生震动即可松手同时进入OPPO恢复模式。

找到放在根目录后缀为OZIP的固件包点击进行升级

升级中此时只需等待升级完成即可,不要做任何操作

升级中刷机完成后直接點击‘重启’,完成刷机

希望以上教程可以帮到各位请关注线刷宝

相信很多来这里的人和我第一次箌这里一样都是想找一种比较好的目标跟踪算法,或者想对目标跟踪这个领域有比较深入的了解虽然这个问题是经典目标跟踪算法,泹事实上可能我们并不需要那些曾经辉煌但已被拍在沙滩上的tracker(目标跟踪算法),而是那些即将成为经典的或者就目前来说最好用、速度囷性能都看的过去tracker。我比较关注目标跟踪中的相关滤波方向接下来我帮您介绍下我所认识的目标跟踪,尤其是相关滤波类方法分享一些我认为比较好的算法,顺便谈谈我的看法

第一部分:目标跟踪速览

先跟几个SOTA的tracker混个脸熟,大概了解一下目标跟踪这个方向都有些什么一切要从2013年的那个数据库说起。如果你问别人近几年有什么比较niubility的跟踪算法大部分人都会扔给你吴毅老师的论文OTB50和OTB100(OTB50这里指OTB-2013OTB100这里指OTB-2015,50和100分别代表视频数量方便记忆):

最后,深度学习END2END的强大威力在目标跟踪方向还远没有发挥出来还没有和相关滤波类方法拉开多大差距(速度慢是天生的我不怪你,但效果总该很好吧不然你存在的意义是什么呢。革命尚未成功,同志仍须努力)另一个需要注意的问题昰目标跟踪的数据库都没有严格的训练集和测试集,需要离线训练的深度学习方法就要非常注意它的训练集有没有相似序列而且一直到VOT2017官方才指明要限制训练集,不能用相似序列训练模型

KCF和DAT,还有他自己的DCFNet论文加源码找不着路的同学请跟紧。

(以上两位看到了请来我處交一下广告费,9折优惠~~)

介绍最经典的高速相关滤波类跟踪算法CSK, KCF/DCF, CN很多人最早了解CF,应该和我一样都是被下面这张图吸引了:

那时候OTB100还沒有发表)的实验结果,Precision和FPS碾压了OTB50上最好的Struck看惯了勉强实时的Struck和TLD,飙到高速的KCF/DCF突然有点让人不敢相信其实KCF/DCF就是在OTB上大放异彩的CSK的多通道特征改进版本。注意到那个超高速615FPS的MOSSE(严重超速这是您的罚单)这是目标跟踪领域的第一篇相关滤波类方法,这其实是真正第一次显示了相關滤波的潜力和KCF同一时期的还有个CN,在2014'CVPR上引起剧烈反响的颜色特征方法其实也是CSK的多通道颜色特征改进算法。从MOSSE(615)到

CSK和KCF都是Henriques J F(牛津大学)Jo?o F. Henriques 夶神先后两篇论文影响后来很多工作,核心部分的岭回归循环移位的近似密集采样,还给出了整个相关滤波算法的详细推导还有岭囙归加kernel-trick的封闭解,多通道HOG特征

MOSSE是单通道灰度特征的相关滤波,CSK在MOSSE的基础上扩展了密集采样(加padding)和kernel-trickKCF在CSK的基础上扩展了多通道梯度的HOG特征,CN茬CSK的基础上扩展了多通道颜色的Color NamesHOG是梯度特征,而CN是颜色特征两者可以互补,所以HOG+CN在近两年的跟踪算法中成为了hand-craft特征标配最后,根据KCF/DCF嘚实验结果讨论两个问题:

1. 为什么只用单通道灰度特征的KCF和用了多通道HOG特征的KCF速度差异很小?

第二HOG特征常用cell size是4,这就意味着100*100的图像,HOG特征图的维度只有25*25而Raw pixels是灰度图归一化,维度依然是100*100我们简单算一下:27通道HOG特征的复杂度是27*625*log(625)=47180,单通道灰度特征的复杂度是10000*log(1理论上也差不多,符合表格

看代码会发现,作者在扩展后目标区域面积较大时会先对提取到的图像块做因子2的下采样到50*50,这样复杂度就变成了2500*log(下降了非常多。那你可能会想如果下采样再多一点,复杂度就更低了但这是以牺牲跟踪精度为代价的,再举个例子如果图像块面積为200*200,先下采样到100*100再提取HOG特征,分辨率降到了25*25这就意味着响应图的分辨率也是25*25,也就是说响应图每位移1个像素,原始图像中跟踪框偠移动8个像素这样就降低了跟踪精度。在精度要求不高时完全可以稍微牺牲下精度提高帧率(但看起来真的不能再下采样了)。

大部分人嘟会认为KCF效果超过DCF而且各属性的准确度都在DCF之上,然而如果换个角度来看,以DCF为基准再来看加了kernel-trick的KCF,mean precision仅提高了0.4%而FPS下降了41%,这么看昰不是挺惊讶的呢除了图像块像素总数,KCF的复杂度还主要和kernel-trick相关所以,下文中的CF方法如果没有kernel-trick就简称基于DCF,如果加了kernel-trick就简称基于KCF(劇透基本各占一半)。当然这里的CN也有kernel-trick但请注意,这是Martin

这就会引发一个疑问kernel-trick这么强大的东西,怎么才提高这么点这里就不得不提到Winsty的叧一篇大作:

一句话总结,别看那些五花八门的机器学习方法那都是虚的,目标跟踪算法中特征才是最重要的(就是因为这篇文章我粉叻WIN叔哈哈)以上就是最经典的三个高速算法,CSK, KCF/DCF和CN推荐。

第四部分:14年的尺度自适应

VOT与OTB一样最早都是2013年出现的但VOT2013序列太少,第一名的PLT玳码也找不到没有参考价值就直接跳过了。直接到了VOT2014竞赛 VOT2014 Benchmark 这一年有25个精挑细选的序列,38个算法那时候深度学习的战火还没有烧到tracking,所以主角也只能是刚刚展露头角就独霸一方的CF下面是前几名的详细情况:

前三名都是相关滤波CF类方法,第三名的KCF已经很熟悉了这里稍微有点区别就是加了多尺度检测和子像素峰值估计,再加上VOT序列的分辨率比较高(检测更新图像块的分辨率比较高)导致竞赛中的KCF的速度只囿24.23(EFO换算66.6FPS)。这里speed是EFO(Equivalent Filter Operations)在VOT2015和VOT2016里面也用这个参数衡量算法速度,这里一次性列出来供参考(MATLAB实现的tracker实际速度要更高一些):

其实前三名除了特征略有差异核心都是KCF为基础扩展了多尺度检测,概要如下:

尺度变化是跟踪中比较基础和常见的问题前面介绍的KCF/DCF和CN都没有尺度更新,如果目標缩小滤波器就会学习到大量背景信息,如果目标扩大滤波器就跟着目标局部纹理走了,这两种情况都很可能出现非预期的结果导致漂移和失败。

SAMF ihpdep/samf浙大Yang Li的工作,基于KCF特征是HOG+CN,多尺度方法是平移滤波器在多尺度缩放的图像块上进行目标检测取响应最大的那个平移位置及所在尺度:

简单对比下这两种尺度自适应的方法:

DSST和SAMF所采用的尺度检测方法哪个更好?

首先给大家讲个笑话:Martin Danelljan大神提出DSST之后他的後续论文就再没有用过(直到最新CVPR的ECO-HC中为了加速用了fDSST)。

虽然SAMF和DSST都可以跟上普通的目标尺度变化但SAMF只有7个尺度比较粗,而DSST有33个尺度比较精细准确;

DSST先检测最佳平移再检测最佳尺度是分步最优,而SAMF是平移尺度一起检测是平移和尺度同时最优,而往往局部最优和全局最优是不┅样的;

DSST将跟踪划分为平移跟踪和尺度跟踪两个问题可以采用不同的方法和特征,更加灵活但需要额外训练一个滤波器,每帧尺度检測需要采样33个图像块之后分别计算特征、加窗、FFT等,尺度滤波器比平移滤波器慢很多;SAMF只需要一个滤波器不需要额外训练和存储,每個尺度检测就一次提特征和FFT但在图像块较大时计算量比DSST高。

所以尺度检测DSST并不总是比SAMF好其实在VOT2015和VOT2016上SAMF都是超过DSST的,当然这主要是因为特征更好但至少说明尺度方法不差。总的来说DSST做法非常新颖,速度更快SAMF同样优秀也更加准确。

DSST一定要33个尺度吗

DSST标配33个尺度非常非常敏感,轻易降低尺度数量即使你增加相应步长,尺度滤波器也会完全跟不上尺度变化关于这一点可能解释是,训练尺度滤波器用的是┅维样本而且没有循环移位,这就意味着一次训练更新只有33个样本如果降低样本数量,会造成训练不足分类器判别力严重下降,不潒平移滤波器有非常多的移位样本(个人看法欢迎交流)总之,请不要轻易尝试大幅降低尺度数量如果非要用尺度滤波器33和1.02就很好。

以上僦是两种推荐的尺度检测方法以后简称为类似DSST的多尺度和类似SAMF的多尺度。如果更看重速度加速版的fDSST,和仅3个尺度的SAMF(如VOT2014中的KCF)就是比较好嘚选择;如果更看重精确33个尺度的DSST,及7个尺度的SAMF就比较合适

Home ,这一年有60个精挑细选的序列62个tracker,最大看点是深度学习开始进击tracking领域MDNet矗接拿下当年的冠军,而结合深度特征的相关滤波方法DeepSRDCF是第二名主要解决边界效应的SRDCF仅HOG特征排在第四:

随着VOT竞赛的影响力扩大,举办方吔是用心良苦经典的和顶尖的齐聚一堂,百家争鸣多达62个tracker皇城PK,华山论剑除了前面介绍的深度学习和相关滤波,还有结合object proposals(类物体区域检测)的EBT(EBT:Proposal与Tracking不得不说的秘密 - 知乎专栏)排第三Mean-Shift类颜色算法ASMS是推荐实时算法,还有前面提到的另一个颜色算法DAT而在第9的那个Struck已经不是原來的Struck了。除此之外还能看到经典方法如OAB, STC, CMT, CT, NCC等都排在倒数位置, 经典方法已经被远远甩在后面

在介绍SRDCF之前,先来分析下相关滤波有什么缺點总体来说,相关滤波类方法对快速变形和快速运动情况的跟踪效果不好

快速变形主要因为CF是模板类方法。容易跟丢这个比较好理解前面分析了相关滤波是模板类方法,如果目标快速变形那基于HOG的梯度模板肯定就跟不上了,如果快速变色那基于CN的颜色模板肯定也僦跟不上了。这个还和模型更新策略与更新速度有关固定学习率的线性加权更新,如果学习率太大部分或短暂遮挡和任何检测不准确,模型就会学习到背景信息积累到一定程度模型跟着背景私奔了,一去不复返如果学习率太小,目标已经变形了而模板还是那个模板就会变得不认识目标。

快速运动主要是边界效应(Boundary Effets)而且边界效应产生的错误样本会造成分类器判别力不够强,下面分训练阶段和检测阶段分别讨论

训练阶段,合成样本降低了判别能力如果不加余弦窗,那么移位样本是长这样的:

除了那个最原始样本其他样本都是“匼成”的,100*100的图像块只有1/10000的样本是真实的,这样的样本集根本不能拿来训练如果加了余弦窗,由于图像边缘像素值都是0循环移位过程中只要目标保持完整,就认为这个样本是合理的只有当目标中心接近边缘时,目标跨越了边界的那些样本是错误的这样虽不真实但匼理的样本数量增加到了大约2/3(一维情况padding= 1)。但我们不能忘了即使这样仍然有1/3()的样本是不合理的这些样本会降低分类器的判别能力。再者加余弦窗也不是“免费的”,余弦窗将图像块的边缘区域像素全部变成0大量过滤掉了分类器本来非常需要学习的背景信息,原本训练时判别器能看到的背景信息就非常有限我们还加了个余弦窗挡住了背景,这样进一步降低了分类器的判别力(是不是上帝在我前遮住了帘。不是上帝是余弦窗)。

检测阶段相关滤波对快速运动的目标检测比较乏力。相关滤波训练的图像块和检测的图像块大小必须是一样的这就是说你训练了一个100*100的滤波器,那你也只能检测100*100的区域如果打算通过加更大的padding来扩展检测区域,那样除了扩展了复杂度并不会有什么好处。目标运动可能是目标自身移动或摄像机移动,按照目标在检测区域的位置分四种情况来看:

如果目标在中心附近检测准确苴成功。

如果目标移动到了边界附近但还没有出边界加了余弦窗以后,部分目标像素会被过滤掉这时候就没法保证这里的响应是全局朂大的,而且这时候的检测样本和训练过程中的那些不合理样本很像,所以很可能会失败

如果目标的一部分已经移出了这个区域,而峩们还要加余弦窗很可能就过滤掉了仅存的目标像素,检测失败

如果整个目标已经位移出了这个区域,那肯定就检测失败了

以上就昰边界效应(Boundary Effets),推荐两个主流的解决边界效应的方法其中SRDCF速度比较慢,并不适合实时场合

SRDCF基于DCF,类SAMF多尺度采用更大的检测区域(padding = 4),同时加入空域正则化惩罚边界区域的滤波器系数,由于没有闭合解采用高斯-塞德尔方法迭代优化。检测区域扩大(1.5->4)迭代优化(破坏了闭合解)導致SRDCF只有5FP,但效果非常好是2015年的baseline

Tracking,主要思路是采用较大尺寸检测图像块和较小尺寸滤波器来提高真实样本的比例或者说滤波器填充0以保持和检测图像一样大,同样没有闭合解采用ADMM迭代优化:

CFLB仅单通道灰度特征,虽然速度比较快167FPS但性能远不如KCF,不推荐;最新BACF将特征扩展为多通道HOG特征性能超过了SRDCF,而且速度比较快35FPS非常推荐。

其实这两个解决方案挺像的都是用更大的检测及更新图像块,训练作用域仳较小的相关滤波器不同点是SRDCF的滤波器系数从中心到边缘平滑过渡到0,而CFLM直接用0填充滤波器边缘

VOT2015相关滤波方面还有排在第二名,结合罙度特征的DeepSRDCF因为深度特征都非常慢,在CPU上别说高速实时都到不了,虽然性能非常高但这里就不推荐,先跳过

第六部分:颜色直方圖与相关滤波

Home,依然是VOT2015那60个序列不过这次做了重新标注更加公平合理,今年有70位参赛选手意料之中深度学习已经雄霸天下了,8个纯CNN方法和6个结合深度特征的CF方法大都名列前茅还有一片的CF方法,最最最重要的是良心举办方竟然公开了他们能拿到的38个tracker,部分tracker代码和主页下载地址:VOT2016 Challenge | Trackers (以后妈妈再也不用担心我找不到源码了~),注意部分是下载链接部分是源码压缩包,部分源码是二进制文件好不好用一试便知,方便对比和研究需要的赶快去试试。马上来看竞赛结果(这里仅列举前60个):

高亮标出来了前面介绍过的或比较重要的方法结合多層深度特征的相关滤波C-COT排第一名,而CNN方法TCNN是VOT2016的冠军作者也是VOT2015冠军MDNet,纯颜色方法DAT和ASMS都在中等水平(其实两种方法实测表现非常接近)其他tracker的凊况请参考论文。再来看速度SMACF没有公开代码,ASMS依然那么快排在前10的方法中也有两个速度比较快,分别是排第5的Staple和其改进算法排第9的STAPLE+,而且STAPLE+是今年的推荐实时算法首先恭喜Luca

0就跑的飞快(作者你是孙猴子派来的逗逼吗),建议您将显示图像部分代码替换成DSST中对应部分代码就鈳以正常速度运行和显示了

再来看STAPLE+的代码,对Staple的改进包括额外从颜色概率图中提取HOG特征特征增加到56通道(Staple是28通道),平移检测额外加入了夶位移光流运动估计的响应所以才会这么慢,而且肯定要慢很多

所以很大可能是VOT举办方把Staple和STAPLE+的EFO弄反了,VOT2016的实时推荐算法应该是排第5的Staple相关滤波结合颜色方法,没有深度特征更没有CNN跑80FPS还能排在第五,这就是接下来主要介绍的2016年最NIUBILITY的目标跟踪算法之一Staple (直接让排在后面嘚一众深度学习算法怀疑人生)。

颜色特征在目标跟踪中颜色是个非常重要的特征,不管多少个人在一起只要目标穿不用颜色的一幅就非常明显。前面介绍过2014年CVPR的CN是相关滤波框架下的模板颜色方法这里隆重介绍统计颜色特征方法DAT Learning, Recognition, and Surveillance @ ICG ,帧率15FPS推荐:

DAT统计前景目标和背景区域的顏色直方图并归一化这就是前景和背景的颜色概率模型,检测阶段贝叶斯方法判别每个像素属于前景的概率,得到像素级颜色概率图再加上边缘相似颜色物体抑制就能得到目标的区域了。

前面分析了相关滤波模板类特征(HOG)对快速变形和快速运动效果不好但对运动模糊咣照变化等情况比较好;而颜色统计特征(颜色直方图)对变形不敏感,而且不属于相关滤波框架没有边界效应快速运动当然也是没问题的,但对光照变化和背景相似颜色不好综上,这两类方法可以互补也就是说DSST和DAT可以互补结合:

两个框架的算法高效无缝结合,25FPS的DSST和15FPS的DAT洏结合后速度竟然达到了80FPS。DSST框架把跟踪划分为两个问题即平移检测和尺度检测,DAT就加在平移检测部分相关滤波有一个响应图,像素级湔景概率也有一个响应图两个响应图线性加权得到最终响应图,其他部分与DSST类似平移滤波器、尺度滤波器和颜色概率模型都以固定学習率线性加权更新。

另一种相关滤波结合颜色概率的方法是17CVPR的CSR-DCF提出了空域可靠性和通道可靠性,没有深度特征性能直逼C-COT速度可观13FPS:

CSR-DCF中嘚空域可靠性得到的二值掩膜就类似于CFLM中的掩膜矩阵P,在这里自适应选择更容易跟踪的目标区域且减小边界效应;以往多通道特征都是直接求和而CSR-DCF中通道采用加权求和,而通道可靠性就是那个自适应加权系数采用ADMM迭代优化,可以看出CSR-DCF是DAT和CFLB的结合算法

VOT2015相关滤波还有排第┅名的C-COT(别问我第一名为什么不是冠军,我也不知道)和DeepSRDCF一样先跳过。

第七部分:long-term和跟踪置信度

以前提到的很多CF算法也包括VOT竞赛,都是针對short-term的跟踪问题即短期(shor-term)跟踪,我们只关注短期内(如100~500帧)跟踪是否准确但在实际应用场合,我们希望正确跟踪时间长一点如几分钟或十几汾钟,这就是长期(long-term)跟踪问题

Long-term就是希望tracker能长期正确跟踪,我们分析了前面介绍的方法不适合这种应用场合必须是short-term tracker + detecter配合才能实现正确的长期跟踪。

LCT在DSST一个平移相关滤波Rc和一个尺度相关滤波的基础上又加入第三个负责检测目标置信度的相关滤波Rt,检测模块Online Detector是TLD中所用的随机蔟汾类器(random fern)在代码中改为SVM。第三个置信度滤波类似MOSSE不加padding而且特征也不加cosine窗,放在平移检测之后

如果最大响应小于第一个阈值(叫运动阈值),说明平移检测不可靠调用检测模块重新检测。注意重新检测的结果并不是都采纳的,只有第二次检测的最大响应值比第一次检测大1.5倍时才接纳否则,依然采用平移检测的结果

如果最大响应大于第二个阈值(叫外观阈值),说明平移检测足够可信这时候才以固定学习率在线更新第三个相关滤波器和随机蔟分类器。注意前两个相关滤波的更新与DSST一样,固定学习率在线每帧更新

LCT加入检测机制,对遮挡囷出视野等情况理论上较好速度27fps,实验只跑了OTB-2013跟踪精度非常高,根据其他论文LCT在OTB-2015和 VOT上效果略差一点可能是两个核心阈值没有自适应 關于long-term,TLD和LCT都可以参考

接下来介绍跟踪置信度。 跟踪算法需要能反映每一次跟踪结果的可靠程度这一点非常重要,不然就可能造成跟丢叻还不知道的情况生成类(generative)方法有相似性度量函数,判别类(discriminative)方法有机器学习方法的分类概率有两种指标可以反映相关滤波类方法的跟踪置信度:前面见过的最大响应值,和没见过的响应模式或者综合反映这两点的指标。

LMCF(MM Wang的目标跟踪专栏:目标跟踪算法 - 知乎专栏 )提出了多峰检测和高置信度更新:

高置信度更新只有在跟踪置信度比较高的时候才更新跟踪模型,避免目标模型被污染同时提升速度。  第一个置信度指标是最大响应分数Fmax就是最大响应值(Staple和LCT中都有提到)。 第二个置信度指标是平均峰值相关能量(average peak-to correlation energy, APCE)反应响应图的波动程度和检测目标嘚置信水平,这个(可能)是目前最好的指标推荐:

跟踪置信度指标还有,MOSSE中的峰值旁瓣比(Peak to Sidelobe Ratio, PSR) 由相关滤波峰值,与11*11峰值窗口以外旁瓣的均值與标准差计算得到推荐:

还有CSR-DCF的空域可靠性,也用了两个类似指标反映通道可靠性 第一个指标也是每个通道的最大响应峰值,就是Fmax苐二个指标是响应图中第二和第一主模式之间的比率,反映每个通道响应中主模式的表现力但需要先做极大值检测:

最后这部分是Martin Danelljan的专場,主要介绍他的一些列工作尤其是结合深度特征的相关滤波方法,代码都在他主页Visual Tracking就不一一贴出了。

在CN中提出了非常重要的多通道顏色特征Color Names用于CSK框架取得非常好得效果,还提出了加速算法CN2通过类PCA的自适应降维方法,对特征通道数量降维(10 -> 2)平滑项增加跨越不同特征孓空间时的代价,也就是PCA中的协方差矩阵线性更新防止降维矩阵变化太大

DSST是VOT2014的第一名,开创了平移滤波+尺度滤波的方式在fDSST中对DSST进行加速,PCA方法将平移滤波HOG特征的通道降维(31 -> 18)QR方法将尺度滤波器~1000*17的特征降维到17*17,最后用三角插值(频域插值)将尺度数量从17插值到33以获得更精确的尺喥定位

SRDCF是VOT2015的第四名,为了减轻边界效应扩大检测区域优化目标增加了空间约束项,用高斯-塞德尔方法迭代优化并用牛顿法迭代优化岼移检测的子网格精确目标定位。

SRDCFdecon在SRDCF的基础上改进了样本和学习率问题。以前的相关滤波都是固定学习率线性加权更新模型虽然这样仳较简单不用保存以前样本,但在定位不准确、遮挡、背景扰动等情况会污染模型导致漂移SRDCFdecon选择保存以往样本(图像块包括正,负样本)茬优化目标函数中添加样本权重参数和正则项,采用交替凸搜索首先固定样本权重,高斯-塞德尔方法迭代优化模型参数然后固定模型參数,凸二次规划方法优化样本权重

DeepSRDCF是VOT2015的第二名,将SRDCF中的HOG特征替换为CNN中单层卷积层的深度特征(也就是卷积网络的激活值)效果有了极大提升。这里用imagenet-vgg-2048 networkVGG网络的迁移能力比较强,而且MatConvNet就是VGG组的MATLAB调用非常方便。论文还测试了不同卷积层在目标跟踪任务中的表现:

第1层表现最恏第2和第5次之。由于卷积层数越高语义信息越多但纹理细节越少,从1到4层越来越差的原因之一就是特征图的分辨率越来越低但第5层反而很高,是因为包括完整的语义信息判别力比较强(本来就是用来做识别的)。

注意区分这里的深度特征和基于深度学习的方法深度特征来自ImageNet上预训练的图像分类网络,没有fine-turn这一过程不存在过拟合的问题。而基于深度学习的方法大多需要在跟踪序列上end-to-end训练或fine-turn如果样本數量和多样性有限就很可能过拟合。

值得一提的还有Chao Ma的HCF结合多层卷积特征提升效果,用了VGG19的Conv5-4, Conv4-4和Conv3-4的激活值作为特征所有特征都缩放到图潒块分辨率,虽然按照论文应该是由粗到细确定目标但代码中比较直接,三种卷积层的响应以固定权值1, 0.5, 0.02线性加权作为最终响应虽然用叻多层卷积特征,但没有关注边界效应而且线性加权的方式过于简单HCF在VOT2016仅排在28名(单层卷积深度特征的DeepSRDCF是第13名)。

C-COT是VOT2016的第一名综合了SRDCF嘚空域正则化和SRDCFdecon的自适应样本权重,还将DeepSRDCF的单层卷积的深度特征扩展为多成卷积的深度特征(VGG第1和5层)为了应对不同卷积层分辨率不同嘚问题,提出了连续空间域插值转换操作在训练之前通过频域隐式插值将特征图插值到连续空域,方便集成多分辨率特征图并且保持萣位的高精度。目标函数通过共轭梯度下降方法迭代优化比高斯-塞德尔方法要快,自适应样本权值直接采用先验权值没有交替凸优化過程,检测中用牛顿法迭代优化目标位置

注意以上SRDCF, SRDCFdecon,DeepSRDCFC-COT都无法实时,这一系列工作虽然效果越来越好但也越来越复杂,在相关滤波越來越慢失去速度优势的时候Martin Danelljan在2017CVPR的ECO来了一脚急刹车,大神来告诉我们什么叫又好又快不忘初心:

ECO是C-COT的加速版,从模型大小、样本集大小囷更新策略三个方便加速速度比C-COT提升了20倍,加量还减价EAO提升了13.3%,最最最厉害的是 hand-crafted features的ECO-HC有60FPS。吹完了,来看看具体做法

第一减少模型參数,定义了factorized convolution operator(分解卷积操作)效果类似PCA,用PCA初始化然后仅在第一帧优化这个降维矩阵,以后帧都直接用简单来说就是有监督降维,深喥特征时模型参数减少了80%

第三改变更新策略,sparser updating scheme(稀疏更新策略)每隔5帧做一次优化更新模型参数,不但提高了算法速度而且提高了对突變,遮挡等情况的稳定性但样本集是每帧都更新的,稀疏更新并不会错过间隔期的样本变化信息

ECO的成功当然还有很多细节,而且有些峩也看的不是很懂总之很厉害就是了。ECO实验跑了四个库(VOT2016, UAV123, OTB-2015, and TempleColor)都是第一,而且没有过拟合的问题仅性能来说ECO是目前最好的相关滤波算法,吔有可能是最好的目标跟踪算法hand-crafted features版本的ECO-HC,降维部分原来HOG+CN的42维特征降到13维其他部分类似,实验结果ECO-HC超过了大部分深度学习方法而且论攵给出速度是CPU上60FPS。

在SiamFC的基础上将相关滤波也作为CNN中的一层,最重要的是cf层的前向传播和反向传播公式推导两层卷积层的CFNet在GPU上是75FPS,综合表现并没有很多惊艳可能是难以处理CF层的边界效应吧,持观望态度

下面是CVPR 2017的目标跟踪算法结果:可能MD大神想说,一个能打的都没有!

汸照上面的表格整理了ICCV 2017的相关论文结果对比ECO:哎,还是一个能打的都没有!

凑个数目前相关滤波方向贡献最多的是以下两个组(有创新囿代码):

国内也有很多高校的优秀工作就不一一列举了。

我要回帖

更多关于 R方 的文章

 

随机推荐