这是我在学习coursera上课后,自己做的课后笔记,加强自己的理解,如果能对他人有用,那也是万分庆幸的
这里就不讲一些基础的概念了
第一课 Neural Networks and Deep Learning
逻辑回归在神经网络中的应用
如果有一些基础的同学应该知道SVM(支持向量机),这是做分类的一个算法。 其中的方法也是逻辑回归,即分类问题。 分类问题最简单的就是二元分类。二元分类如何放入神经网络呢,最简单的例如二层神经网络
X 是输入层, 有几个,代表着有多少个特征值
第二层是隐藏层, 第三层是输出层
我们定义是几层神经网络时是不计输入层的,所以上图是两层神经网络,你看到圆圈里的 Z|A 这代表一个神经元有两次计算, 第一次是Z = WX + b,第二次是 A = g(Z), 这里g()是激励函数(activation function)。
(常见的激励函数有 Relu, tanh, sigmoid等)
由于这是一个二元问题所以一个输出层就足够了,(1,0)分两类