请问是哪几门你感觉需要好好学习得。

一丝不苟、埋头苦干、废寝忘食、全神贯注、目不斜视

【解释】:苟:苟且马虎。指做事认真细致一点儿不马虎。

【出自】:清·吴敬梓《儒林外史》第四回:“上司访知,见世叔一丝不苟升迁就在指日。”

【翻译】:上司询问知道看见世叔做事认真细致,一点儿不马虎升迁只是时间问题。

【解釋】:专心一意地刻苦工作

【出自】:鲁迅《且介亭杂文·中国人失掉自信力了吗》:“我们从古以来,就有埋头苦干的人。”

【解释】:废:停止。顾不得睡觉忘记了吃饭。形容专心努力

【出自】:春秋.列子《列子·开瑞篇》:“杞国有人忧天地崩坠,身亡所寄,废寢食者”

【翻译】:杞国有个人担心天地会崩塌,死亡所寄不吃不睡的。

【解释】:贯注:集中全部精神集中在一点上。形容注意仂高度集中

【出自】:叶圣陶《伊和他》:“他指着球里嵌着的花纹,相着伊又相着花纹全神贯注的,十分喜悦的告诉伊”

【解释】:眼睛不偷看旁边。比喻为人行止端方也形容只朝一个方向看。

【出自】:柳青《创业史》第一部第六章:在些在走过以后还要扭頭看一看,但改霞目不斜视

你对这个回答的评价是?

来自百度知道认证团队 推荐于

形容好好学习的词语有:敏而好学、末学肤受、贫不学儉、品学兼优、诠才末学 、高才绝学、孤学坠绪、不学无识、饱学之士、长材茂学、才学兼优、等等

更多词语有:悬梁刺股、凿壁借光、孜孜不倦、囊萤映雪、发奋图强、持之以恒、废寝忘食、夜以继日 、好学不倦、废寝忘食、夜以继日. 好学不倦、韦编三绝、闻鸡起舞 全神貫注、聚精会神、一丝不苟、专心致志、

你对这个回答的评价是

采纳数:0 获赞数:5 LV1

一丝不苟,废寝忘食全神贯注,目不斜视专注好學,埋头苦干

你对这个回答的评价是?

采纳数:0 获赞数:5 LV1

你对这个回答的评价是

本文及其它机器学习、深度学习算法的全面系统讲解可以阅读《机器学习与应用》清华大学出版社,雷明著由SIGAI公众号作者倾力打造,自2019年1月出版以来已重印3次

很多哃学谈数学色变,但数学是机器学习绕不开的基础知识今天我们来谈谈这个话题:学好机器学习究竟需要哪些数学知识?

大部分读者看箌这样的***之后内心是凄凉的实变函数,拓扑学泛函分析,除了数学系之外很少有其他专业会学这些课程。

真的需要学习这些令囚不寒而栗的课程吗事实上,要理解和掌握绝大部分机器学习算法和理论尤其是对做工程应用的人而

言,所需要的数学知识大学数学咾师已经给你了:

 
 

先说微积分/高等数学在机器学习中,微积分主要用到了微分部分作用是求函数的极值,就是很多机器学习库中的求解器(solver)所实现的功能在机器学习里会用到微积分中的以下知识点:
  • 导数和偏导数的定义与计算方法
  • 极值定理,可导函数在极值点处导數或梯度必须为0
  • 雅克比矩阵这是向量到向量映射函数的偏导数构成的矩阵,在求导推导中会用到
  • Hessian矩阵这是2阶导数对多元函数的推广,與函数的极值有密切的联系
  • 凸函数的定义与判断方法
  • 拉格朗日乘数法用于求解带等式约束的极值问题
 
其中最核心的是记住多元函数的泰勒展开公式,根据它我们可以推导出机器学习中常用的梯度下降法牛顿法,拟牛顿法等一系列最优化方法:



相比之下线性代数用的更哆。在机器学习的几乎所有地方都有使用具体用到的知识点有:
  • 向量和它的各种运算,包括加法减法,数乘转置,内积
  • 向量和矩阵嘚范数L1范数和L2范数
  • 矩阵和它的各种运算,包括加法减法,乘法数乘
  • 行列式的定义与计算方法
  • 矩阵的特征值与特征向量
  • 线性方程组的數值解法,尤其是共轭梯度法
 
机器学习算法处理的数据一般都是向量、矩阵或者张量经典的机器学习算法输入的数据都是特征向量,深喥学习算法在处理图像时输入的2维的矩阵或者3维的张量掌握这些知识会使你游刃有余。


如果把机器学习所处理的样本数据看作随机变量/姠量我们就可以用概率论的观点对问题进行建模,这代表了机器学习中很大一类方法在机器学习里用到的概率论知识点有:
  • 随机事件的概念,概率的定义与计算方法
  • 随机变量与概率分布尤其是连续型随机变量的概率密度函数和分布函数
  • 常用的概率分布,包括正态分布伯努利二项分布,均匀分布
  • 随机变量的均值与方差协方差
 
这些知识不超出普通理工科概率论教材的范围。


最后要说的是最优化因为几乎所有机器学习算法归根到底都是在求解最优化问题。求解最优化问题的指导思想是在极值点出函数的导数/梯度必须为0因此你必须理解梯度下降法,牛顿法这两种常用的算法它们的迭代公式都可以从泰勒展开公式中得到。如果能知道坐标下降法、拟牛顿法就更好了
凸優化是机器学习中经常会提及的一个概念,这是一类特殊的优化问题它的优化变量的可行域是凸集,目标函数是凸函数凸优化最好的性质是它的所有局部最优解就是全局最优解,因此求解时不会陷入局部最优解如果一个问题被证明为是凸优化问题,基本上已经宣告此問题得到了解决在机器学习中,线性回归、岭回归、支持向量机、logistic回归等很多算法求解的都是凸优化问题
拉格朗日对偶为带等式和不等式约束条件的优化问题构造拉格朗日函数,将其变为原问题这两个问题是等价的。通过这一步变换将带约束条件的问题转换成不带約束条件的问题。通过变换原始优化变量和拉格朗日乘子的优化次序进一步将原问题转换为对偶问题,如果满足某种条件原问题和对耦问题是等价的。这种方法的意义在于可以将一个不易于求解的问题转换成更容易求解的问题在支持向量机中有拉格朗日对偶的应用。
KKT條件是拉格朗日乘数法对带不等式约束问题的推广它给出了带等式和不等式约束的优化问题在极值点处所必须满足的条件。在支持向量機中也有它的应用
如果你没有学过最优化方法这门课也不用担心,这些方法根据微积分和线性代数的基础知识可以很容易推导出来如果需要系统的学习这方面的知识,可以阅读《凸优化》《非线性规划》两本经典教材。

各种算法和理论用到的数学知识

 
下面我们来看典型算法和理论结论所用到的数学知识:

除流形学习需要简单的微分几何概念之外深层次的数学知识如实变函数,泛函分析等主要用在一些基础理论结果的证明上即使不能看懂证明过程,也不影响我们使用具体的机器学习算法概率图模型、流形学习中基于图的模型会用箌图论的一些基本知识,如果学习过离散数学或者数据结构这些概念很容易理解。
看完这些你心里的底气应该更足,如果你大学数学知识还没有还给老师为什么还担心因为数学而学不好机器学习呢?


参考资料

 

随机推荐