bootstrap统计算法应用,哪些算法提供bootstrap在机器学习中, 有一种叫做“没有免费的午餐”的定理 。 简而言之, 它指出没有任何一种算法能够适用每一个问题, 而且它对于监督式学习(即预测性建模)尤其重要 。
例如, 你不能说神经网络总是比决策树好, 反之亦然 。 有很多因素在起作用, 比如数据集的大小和结构 。
因此, 你应该为你的问题尝试许多不同的算法, 同时使用数据的“测试集”来评估性能并选择胜出者 。
当然, 你尝试的算法必须适合你的问题, 这就是选择正确的机器学习任务的地方 。 打一个比方, 如果你需要清理你的房子, 你可以使用真空吸尘器、扫帚或拖把, 但是你不会用一个铲子来挖掘 。
大的原则
然而, 有一个共同的原则, 即所有监督机器学习算法预测建模的基础 。
机器学习算法被描述为学习一个目标函数, 将输入变量(X)最佳映射到输出变量(Y)的目标函数(f):Y = f(X)
这是一个通用的学习任务, 我们希望在未来(Y)给出预测输入变量(X)的新例子 。 我们不知道函数(f)是什么样子或是它的形式 。 如果这样做, 我们会直接使用它, 不需要使用机器学习算法从数据中学习它 。
最常见的机器学习类型是学习映射Y = f(X)来预测新的X 。 这被称为预测建模或预测分析, 我们的目标是使最准确的预测成为可能 。
对于渴望了解机器学习基础知识的机器学习新手, 请浏览数据科学家使用的前10位的机器学习算法 。
线性回归可能是统计学和机器学习中最知名和最易理解的算法之一 。
线性回归的表示是一个方程, 通过找到称为系数(B)的输入变量的特定权重来描述最适合输入变量(x)和输出变量(y)之间关系的线 。
【bootstrap统计算法应用,哪些算法提供bootstrap】例如:y = B0 + B1 * x
给定输入x, 我们将预测y, 线性回归学习算法的目标是找到系数B0和B1的值 。
可以使用不同的技术从数据中学习线性回归模型, 例如用于普通最小二乘和梯度下降优化的线性代数解 。
线性回归已经存在了200多年, 并且已经被广泛研究 。 如果可能的话, 使用这种技术的一些经验法则是去除非常相似的变量(相关), 并从数据中去除噪声 。 这是一个快速和简单的技术, 也是一个好的算法 。
逻辑回归是机器学习从统计领域借鉴的另一种技术 。 这是二进制分类问题的首选方法(有两个类值的问题) 。
逻辑回归就像线性回归, 因为目标是找出加权每个输入变量的系数值 。 与线性回归不同, 输出的预测使用称为逻辑函数的非线性函数进行变换 。
逻辑函数看起来像一个大S, 并将任何值转换为0到1的范围 。 这是有用的, 因为我们可以将规则应用到逻辑函数的输出, 将值捕设为0和1(例如, IF小于0.5, 则输出1)并预测一个类别值 。
由于模型的学习方式, 逻辑回归的预测也可以作为一个给定数据实例的概率, 属于第0类或第1类 。 这对于需要为预测提供更多理由的问题很有用 。
像线性回归一样, 逻辑回归在删除与输出变量无关的属性以及非常相似(相关)的属性时效果更好 。 对于二元分类问题, 这是一个快速学习和且有效的二元分类问题的模型 。
Logistic回归是传统上仅限于两类分类问题的分类算法 。 如果你有两个以上的类, 那么, 线性判别分析算法是首选的线性分类技术 。
LDA的表示非常简单 。 它由你的数据统计属性组成, 为每个类别计算 。 对于单个输入变量, 这包括:
- 淘宝上月销量怎样统计?月销量如何提升?
- 预产期计算公式
- 一般什么年龄容易得高血压?
- 企业统计数据的存储形式主要有哪些
- 经济统计学专业就业前景如何 前途好不好
- 幼儿园没事统计家长的工作单位做什么?
- 春秋时期有哪几个国家
- 亚马逊Condor算法是什么?有什么用?
- 统计专业很热门吗 好不好就业
- 统计学专业五大就业方向 统计学毕业找什么工作好
特别声明:本站内容均来自网友提供或互联网,仅供参考,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。
