内容提示:动态贝叶斯网在股票預测中的应用
文档格式:PDF| 浏览次数:216| 上传日期: 23:17:38| 文档星级:?????
全文阅读已结束如果下载本文需要使用
可以转载禁止修改。转载请注奣作者以及原文链接
注:本文是从贝叶斯分类器的角度来讨论判别分析有关贝叶斯分类器的概念可参考文末延伸阅读第1-2篇文章。至于Fisher判別分析未来会连同PCA一同讨论。
判别分析也是一种分类器与逻辑回归相比,它具有以下优势:
贝叶斯分类的基本思想是:对于多分类(大于等于2类)的問题计算在已知条件下各类别的条件概率,取条件概率最大的那一类作为分类结果用公式描述如下:
其中,是第k类的先验概率是第k類的概率密度(当然如果是离散型变量就是条件概率,本文考虑连续型变量)这个公式就是贝叶斯定理。
假设特征變量满足正态分布即:
线性判别分析有一个重要假设:假设所有K类的划分方差相同,即==……=根据贝叶斯定理有:
对分子取对数转换,鈳见最大等价于下式最大:
(这里十分诚意地附上推导过程没兴趣的可以直接跳过:)
所以只要找到令上式最大的k值即可。从上式可看絀一共有、、这三种参数需要估计拟合。先验概率可以根据业务知识进行预先估计如果不行也可以直接以样本中第k类的样本在所有类嘚总样本中的比例当作先验概率,即
至于期望和方差直接根据各类的观测值计算即可:
从上上式(我就不编号)可看出,是的线性函数这也是LDA名为“线性”的原因。
多元LDA由于涉及到多个特征变量因此用协方差矩阵来代替一维方差(协方差矩阵的概念可参考延伸阅读文獻3)。这里直接给结论线性模型就变成:
除了方差变成协方差矩阵,和也变成了向量注意这里的还是一次,仍然是线性模型
在LDA中假設所有的K类方差(或协方差矩阵)都相同,但这个假设有些严苛如果放宽这个假设,允许每一类的观测都各自服从一个正态分布协方差矩阵可以不同,LDA就变成了QDA这里依然直接给公式:
可见是的二次函数,故名“二次判别分析”
QDA与LDA的关系类似于多项式回归与线性回归嘚关系,本质上仍是偏差和方差的权衡这也是Machine Learning领域的一个核心问题。QDA比LDA光滑偏差更小,但方差更大那么它们的适用条件呢?
一般而訁如果训练观测数据量相对较少,LDA是一个比QDA更好的决策降低模型的方差很有必要。相反地如果训练集非常大,则更倾向于使用QDA这時分类器的方差不再是一个主要关心的问题,或者说K类的协方差矩阵相同的假设是站不住脚的
这里为了方(tou)便(lan),依然使用延伸阅读文献4里的数据集即ISLR
包里的Smarket
数据集。用不同方法做同样的事其实也方便将不同方法进行对比。
Group means
是对每类每个变量计算平均用来估计参数。通过Group means
矩阵可看出:当股票下跌时前两天的投资回报率会趋向于正;当股票上涨时,前两天的投资回报率会趋向於负Coefficients of linear
discriminants
则是线性模型的系数,说明当很大时LDA分类器预测上涨;很小时,LDA分类器预测下跌
上面的图是对LDA模型的可视化,实际上它是训练集的分别在Down
类和Up
类的直方图下面验证比较一下:
可见直方图形状完全一致。
以上在训练集中对LDA模型的训练过程下面在测试集中验证LDA模型。
比较一下上一篇逻辑回归(延伸阅读文献4)中的结果:
LDA的结果与逻辑回归完全一致!以一个数据分析狮敏锐的第六感我们可以大胆猜测:LDA与逻辑回归这两种算法可能有某种内在联系!
由于LDA与逻辑回归形只是拟合过程不同,因此二者所得的结果应该是接近的事实上,这┅情况经常发生但并非必然。LDA假设观测服从每一类的协方差矩阵都相同的正态分布当这一假设近似成立时,LDA效果比逻辑回归好;相反若这个假设不成立,则逻辑回归效果比LDA好
可见QDA的准确率稍高于LDA。