机器学习的笔记(30)

>我来写笔记

按有用程度 按页码先后 最新笔记

  • D小姐

    D小姐 (Abide in Him)

    既然分析的方法提出逻辑论证的假设,而归纳方法提供统计论证的假设,很容易看出为什么可以将两者结合起来。逻辑的论证的强度只相当于它们所基于的假定或先验知识。如果先验知识不正确或不可得,逻辑论证是不可信的且无力的。统计论证的强度依赖于它们基于的数据和统计假定。当基准分布不可信或数据稀缺时,统计论证也是不可信且无力的。简而言之,两种方法针对不同的类型的问题时才有效。通过两者的结合,有望开发出更通用的学习方...

    2015-04-20 11:17   1人喜欢

  • talon

    talon (试着定义自己)

    考虑贝叶斯公式:P(B|A)=P(A|B)*P(B)/P(A),公式从本质上解释了,一个已有的经验的概率,在遇到新的证据时,概率变化的情况。 比如我们通过统计得到一个概率说,正常人得癌症的概率是0.08,这就是P(B),一个已有的经验,那因为这个经验的范围太广,所以我们发明一种测试,对于得了癌症的人,有97%的概率返回正信号,对于没有得癌症的人,有98%的概率返回负信号,这个属于一个新的证据,那么如果有一个人,通过这个测试,测出是正..

    2015-03-31 16:58   1人喜欢

  • talon

    talon (试着定义自己)

    考虑我们如何确定一个算法的错误率,由于算法是在样本集合(随机抽样)进行错误率估算的,而样本集合和真实分布的所有数据集合是有偏差的,所以样本错误率和真实错误率是不同的,而我们要做的就是利用样本错误率去估算真实错误率。 考虑样本错误率和真实错误率的关系,由于样本是真实数据的随机抽样,多次进行K次抽样,错误率其实是一个二项分布。随机抽取一条样本,真实被误识别的概率为P,抽取N个样本,错误R个的分布,当N趋于..

    2015-03-27 11:35   1人喜欢

  • 水月痴人

    水月痴人

    BP算法得执行过程,先是feedforward,然后backforward.   (1回应)

    2013-04-10 11:45   1人喜欢

  • 二妞

    二妞

    计算机科学家们真的很可爱,愣是能把生物学上的定律照搬到计算机算法上。一边读一遍笑,佩服他们的联想能力。确实很厉害!

    2018-08-09 17:30

  • 水如歌

    水如歌 (A muggle.)

    Proof: (i) If /公式内容已省略/, then /公式内容已省略/, /公式内容已省略/ or /公式内容已省略/ And since /公式内容已省略/, we have /公式内容已省略/ and /公式内容已省略/

    2017-01-26 12:51

  • 水如歌

    水如歌 (A muggle.)

    Another equivalent, but more intuitive, definitions of /公式内容已省略/ and /公式内容已省略/ are: /公式内容已省略/ /公式内容已省略/ Or say, /公式内容已省略/

    2017-01-26 12:43

  • 水如歌

    水如歌 (A muggle.)

    1 /公式内容已省略/ Indeed, consider the case when /公式内容已省略/. 2 And, if /公式内容已省略/ (recall /公式内容已省略/ is non-negative), then /公式内容已省略/ While notice the boundary values of /公式..

    2017-01-26 12:36

  • talon

    talon (试着定义自己)

    通常监督的机器学习的算法的训练和测试数据集并不大,甚至很小(小的只有几百不到一千条),那么下面几个问题就变得比较重要:1、一个算法在测试数据集上观察到的精度,多大程度上代表了它在全部数据集上的精度;2、一个算法在某个数据集上精度优于另外一个算法,那么这个算法是否更优?3、如何利用有限的训练测试数据集,更高效的得到更好的假设。 之所以有这些问题,是因为我们在抽样样本上观察到的算法的错误率,和在真实全部..

    2015-03-26 11:41

  • talon

    talon (试着定义自己)

    BP神经网络的几个有意思的特性: 1、类似随机梯度下降法,算法很容易困在局部最小值中,但是在实际应用中,这种情况发生的并不多,可能的原因是当网络的权(参数)很多时,很难出现所有的权都同时在局部最小值。 2、任意的函数都可以被一个三层的网络以任意精度逼近(2个隐藏层和1个输出层),隐藏层使用sigmoid函数,输出层使用线性函数。 3、网络的隐藏层有时能发现十分有用的表示,当隐藏层越多时,隐藏层输出的特征越复杂,...

    2015-03-23 18:39

<前页 1 2 3 后页>

笔记是你写在书页留白边上的内容;是你阅读中的批注、摘抄及随感。

笔记必须是自己所写,不欢迎转载。摘抄原文的部分应该进行特殊标明。

机器学习

>机器学习