第 42 页
5+0 (然而我已经没有小狗了。)
在读 统计学习方法 (第2版)
定理 2.1 (Novikoff) 设训练数据集 T={(𝑥₁,𝑦₁), (𝑥₂,𝑦₂), ..., (𝑥_N, 𝑦_N)} 是线性可分的, 其中 𝑥ᵢ∈𝒳=ℝⁿ, 𝑦ᵢ∈𝒴={-1,+1}, i=1,2,...,N, 则 (1) 存在满足条件 ||{\hat w}_{opt}||=1 的超平面 {\hat w}_{opt} \dot \hat x = w_opt \dot x + b_{opt} = 0 将数据集完全分开; 且存在 γ>0, 对所有 i=1,2,...,N ... 引自 第一篇 监督学习 \hat x 是什么? 如果只是 X 下的自由变量的话, 大可以用 x 而不是 \hat x
483人阅读
说明 · · · · · ·
表示其中内容是对原文的摘抄