Pattern Recognition and Machine Learning的笔记(75)

>我来写笔记

按有用程度 按页码先后 最新笔记

  • lijiankou

    lijiankou (推荐系统 机器学习 复杂网络)

    马氏距离表示数据的协方差距离,是一种有效的计算相似度的方法,定义如下 /公式内容已省略/ ,其中/公式内容已省略/是x、y的协方差矩阵。 如果协方差矩阵为单位矩阵,那么马氏距离就简化为欧式距离,如果协方差矩阵为对角阵,则其也可称为正规化的欧氏距离'。一般情况下,/公式内容已省略/总是可逆的,通过相似变换得到一个对...   (2回应)

    2013-06-10 15:18   4人喜欢

  • 孔明

    孔明 (Lifelong Learning)

    从公式2.61的第二行到第三行: 考虑 /公式内容已省略/时,先只考虑积分号中的项: /公式内容已省略/ 如果分别对/公式内容已省略//公式内容已省略/积分(还需要考虑/公式内容已省略/是否等于/公式内容已省略/..   (3回应)

    2015-12-17 15:54   3人喜欢

  • 宁雨

    宁雨

    prml p83页2.53的推导 由2.51 /公式内容已省略/ 2.52 /公式内容已省略/ 展开可得: \/公式内容已省略/{bmatrix} =\/公式内容已省略/{bmatrix} \/公式内容已省略/{bmatrix} 对$y_j (j=1...D) /公式内容已省略/

    2015-03-22 15:21   2人喜欢

  • 黑山老妖

    黑山老妖 (死宅法师)

    标题:PCA对数据的假设 看了Probabilistic PCA,对PCA有点疑惑:从这节来看,PPCA对数据x是做高斯假设,而之前也有在网上看到说PCA对数据是高斯假设,但是没有看到正式的证明或者解释,都是一句带过,也没多在意。 最近又注意到这个事,发现自己对“XX模型对数据是XX假设”这句话根本不了解。事实上现在也谈不上理解透。也请教了一些同学和老师,就PCA写写感想吧。 观点:PCA对数据的假设并不是高斯,而是高度线性相关——..   (6回应)

    2012-11-09 19:52   2人喜欢

  • Chrysolite

    Chrysolite (四处野鸭和菱藕,秋收满畈稻谷香)

    第二次看这个书感觉作者英文水平很牛啊... 各种句型切换666...

    2018-07-25 20:42   1人喜欢

  • 宁雨

    宁雨

    从马氏距离的角度看椭圆,可以帮助理解图2.7 椭圆的一般方程为: /公式内容已省略/ 上诉方程可以表示成如下形式: /公式内容已省略/ 从上面可以看出,椭圆方程可以表示成马氏距离,其中特征值是/公式内容已省略//公式内容已省略/,同时椭圆的长短半径是

    2015-03-22 14:48   1人喜欢

  • Qingcheng

    Qingcheng (Give me some sunshine!!!)

    Clearly, there are many possible probabilistic structures that can be constructed according to the needs of particular applications. Graphical models provide a general technique for motivating, describing, and analysing such structures, and variational methods provide a powerful framework for performing inference in those models for which exact solution is intractable. 这小节介绍了标准HMM的一些...

    2014-01-09 14:07   1人喜欢

  • Qingcheng

    Qingcheng (Give me some sunshine!!!)

    我们关心更多的是给出新的输入 /公式内容已省略/ 后,进行目标值/公式内容已省略/的预测,需要估计的预测分布: \/公式内容已省略/{gather} 积分项是两个高斯分布相乘,则可以得到下面: \/公式内容已省略/{gather} 第一项代表观察数据中的噪声,第二项则反映了与参数

    2013-09-02 19:07   1人喜欢

  • lijiankou

    lijiankou (推荐系统 机器学习 复杂网络)

    公式2.213推导: 由2.212得/公式内容已省略/ 所以/公式内容已省略/ 两边加1,得 /公式内容已省略/ 所以/公式内容已省略/ 所以/公式内容已省略/   (1回应)

    2013-08-16 20:06   1人喜欢

  • 黑山老妖

    黑山老妖 (死宅法师)

    标题:为什么这章的名字不是PCA或者降维? 不知刚看这章的同学有没有和我一样疑惑为什么这章名字叫continuous latent variable,一开始有些朦胧的理解,不是特别清楚,后来对pPCA的解的唯一性颇为不解,在南理的PRML读书会的群(46967865)里,和夏睿老师讨论一番,夏老师提到pPCA是无限个高斯叠加,忽然让我明白了怎么回事,这种叠加不正是GMM吗?之前也有类似的直观想象,但是听别人说一遍还真是别有启发。这个读书会好像没有...   (2回应)

    2013-01-14 18:19   1人喜欢

<前页 1 2 3 4 5 6 7 8 后页>

笔记是你写在书页留白边上的内容;是你阅读中的批注、摘抄及随感。

笔记必须是自己所写,不欢迎转载。摘抄原文的部分应该进行特殊标明。

Pattern Recognition and Machine Learning

>Pattern Recognition and Machine Learning