豆瓣
扫码直接下载
在读 深度学习入门
def AND(x1, x2): x = np.array([x1, x2]) w = np.array([0.5, 0.5]) b = -0.7 tmp = np.sum(w*x) + b if tmp <= 0: return 0 else: return 1 这里把−θ命名为偏置b,但是请注意,偏置和权重w1、 w2的作用是不 一样的。具体地说, w1和w2是控制输入信号的重要性的参数,而偏置是调 整神经元被激活的容易程度(输出信号为1的程度)的参数。比如,若b为 −0.1,则只要输入信号的加权总和超过0.1,神经元就会被激活。但是如果b 为−20.0,则输入信号的加权总和必须超过20.0,神经元才会被激活。像这样, 偏置的值决定了神经元被激活的容易程度。另外,这里我们将w1和w2称为权重, 将b称为偏置,但是根据上下文,有时也会将b、 w1、 w2这些参数统称为权重。 引自第27页
> 的所有笔记(1111篇)
表示其中内容是对原文的摘抄