Machine Learning的笔记(8)

>我来写笔记

按有用程度 按页码先后 最新笔记

  • 长脸方

    长脸方 (移动你的脚步)

    The inductive learning hypothesis. Any hypothesis found to approximate the target function well over a sufficiently large set of training examples will also approximate the target function well over other unobserved examples这与之前机器学习的假设有些相似,或许就是在说一件事,训练样本的分布与测试样本的是大致相同的。强调一点,数据必须足够多。We shall see that most current theory of machine learnin...

    2013-11-15 10:08   1人喜欢

  • hipresario

    hipresario (Jianmin)

    Approximation: what are the approximation abilities of function classes commonly ued for machine learning? how do we design appropriate representations? How many functions are there in the class? Universal approximators? how to improve approximation? Estimation: how much data is required for traning? how do we use data appropriately to learn? overfitting and generalization. What are the problem...

    2017-04-30 09:33

  • Ms.蔬菜

    Ms.蔬菜 (新的开始)

    This chapter answers two questions: 1. Under what conditions is successful learning possible and impossible? 2. Under what conditions is a particular learning algorithm assured of learning successfully? This explains why and when ML works? Hypothesis Class: We can partiton the data. Test: Sampe errors erros: 30%, compare with the true (population) 45% 30% + epsilo...

    2015-02-13 12:26

  • 长脸方

    长脸方 (移动你的脚步)

    对于假设h而言,在样本集S定义了样本错误(Sample Error):/公式内容已省略/在数据概率分布上定义了真实错误(True Error),其实也可以想象是在一个无穷大的样本集上定义样本错误:/公式内容已省略/问题在于如何以样本错误来估计真实错误。一个方案是以一个样本错误区间来估计真实错误,但这必须有两个条件,即样本相互独立且独立于假设,样本数大于30,在这...

    2014-05-19 22:27

  • 长脸方

    长脸方 (移动你的脚步)

    近邻法,k-Nearest Neighbor Algorithm,KNN /公式内容已省略/ 相较于其它方法,近邻法几乎没有什么学习和训练的过程,只在判断新数据时才会开始寻找最近的数据点,并进行分类或预测。因此使用近邻法最大的顾虑有两点: 一、数据是否充足?这与数据所提供的属性展开的数据特征空间有关,如果一个数据有20个属性,相当于一个长度为20的向量所表示的点。如果数据不够充足,那么就有可能陷入维...

    2014-05-07 10:57

  • 长脸方

    长脸方 (移动你的脚步)

    人工神经网络的一些特点: 1. 样本的特征是属性值组成的向量; 2. 目标函数的输出可以是离散的,连续或离散和连续组成的; 3. 训练样本可能包含错误;ANN对于训练样本中的噪音不敏感且鲁棒。 4. 训练的时间可能很长; 5. 目标函数需要被快速地评价; 6. 学习训练得到的目标函数不能被很好地解释。 sigmoid unit, thresholded perceptron:/公式内容已省略/ linearn unit, unthresholde...

    2014-05-03 20:55

  • 长脸方

    长脸方 (移动你的脚步)

    贝叶斯公式,/公式内容已省略/是模型,/公式内容已省略/是数据: /公式内容已省略/ Bayesian方法的应用难点主要有两个,一是众多变量的初始分布;通常由背景知识和假设得出。二是贝叶斯方法的最优化求解需要非常大的计算量。但在某一特定应用场景下,计算量可显著减小。 贝叶斯推断非常依赖于先验分布 一般来说..   (4回应)

    2014-04-21 11:42

  • 长脸方

    长脸方 (移动你的脚步)

    这一章的内容应该取名为C4.5是如何练成的,这章虽然主要是讲如何使用决策树,包括基本的算法和改进经验,但很多经验是共同的,看完有如醍醐灌顶!大师先提出决策树这种算法,再自然而然告诉你如何不断改进,并且指明相应的论文。比起介绍ID3后直接给C4.5算法,甩了一条大街! 这里关于ID3算法的一个改进就是使用信息增益比(Gain Ratio)来代替信息增益。 /公式内容已省略/ 主要的原因..

    2014-04-19 20:51

笔记是你写在书页留白边上的内容;是你阅读中的批注、摘抄及随感。

笔记必须是自己所写,不欢迎转载。摘抄原文的部分应该进行特殊标明。

Machine Learning

>Machine Learning