开发者

Python深度学习神经网络基本原理

开发者 https://www.devze.com 2022-12-03 11:11 出处:网络 作者: GSAU-深蓝工作室
目录神经网络梯度下降法神经网络 梯度下降法 在详细了解梯度www.cppcns.com下降的算法之前,我们先看看相关的一些概念。
目录
  • 神经网络
  • 梯度下降法

神经网络

Python深度学习神经网络基本原理

Python深度学习神经网络基本原理

Python深度学习神经网络基本原理

Python深度学习神经网络基本原理

梯度下降法

在详细了解梯度www.cppcns.com下降的算法之前,我们先看看相关的一些概念。

    1. 步长(Learning rate):步长决定了在梯度下降迭代的过程中,每一步沿梯度负方向前进的长度。用上面下山的例子,步长就是在当前这一步所在位置沿着最陡峭最易下山的位置走的那一步的长度。

    2.特www.cppcns.com征(feature):指的是样本中输入部分,比如2个单特征的样本(x(0),y(0)),(x(1),y(1))(x(0),y(0)编程客栈),(x(1),y(1)),则第一个样本特征为x(0)x(0),第一个样本输出为y(0www.cppcns.com)y(0)。

    3. 假设函数(hypothesis function):在监督学习中,为了拟合输入样本,而使用的假设函数,记为h(x)h(x)。比如对于单个特征的m个样本(x(i),y(i))(i=1,2,...m)(x(i),y(i))(i=1,2,...m),可以采用拟合函数如下: h(x)=0+1xh(x)=0+1x。

    4. 损失函数(loss function):为了评估模型拟合的好坏,通常用损失函数来度量拟合的程度。损失函数极小化,意味着拟合程度最好,对应的模型参数即为GzVajETI最优参数。在线性回归中,损失函数通常为样本输出和假设函数的差取平方。比如对于m个样本(xi,yi)(i=1,2,...m)(xi,yi)(i=1,2,...m),采用线性回归,损失函数为:

J(0,1)=∑i=1m(h(xi)−yi)2J(0,1)=∑i=1m(h(xi)−yi)2

其中xixi表示第i个样本特征,yiyi表示第i个样本对应的输出,h(xi)h(xi)为假设函数。

Python深度学习神经网络基本原理

Python深度学习神经网络基本原理

Python深度学习神经网络基本原理

Python深度学习神经网络基本原理

分享人:张娇娟

到此这篇关于python深度学习神经网络基本原理的文章就介绍到这了,更多相关Python 神经网络内容请搜索我们以前的文章或继续浏览下面的相关文章希望大家以后多多支持我们!

0

精彩评论

暂无评论...
验证码 换一张
取 消

关注公众号