人工神经网络的每一层由大量的节点(神经元)组成,层与层之间有大量的连接,但是层内部的神经元一般相互独立。深度学习的目的就是利用已知的数据学习一套模型,使系统在遇见未知的数据时也能够做出预测。这个过程中神经元具备以下两个特性:

1,激活函数,这个函数一般是非线性的函数,也就是每个神经元通过这个函数将原有的来自其他神经元的输入做一个非线性的变化,输出给下一层神经元,激活函数实现的非线性能力是前向传播的很重要的一部分。

2,成本函数,用来定量评估在特定输入的值下,计算出来的输出结果距离这个输入值的真实值有多远,然后不断地调整每一层的权重参数,使最后的损失值最小,这就是完成了一次反向传播,损失值越小,结果就越可靠。

神经网络算法的核心就是计算、连接、评估、纠错和训练,而深度学习的深度就在于通过不断增加中间的隐藏层数和神经元的数量,让神经网络变得又宽又深,让系统运行大量数据,训练它

 

 

 

 

 

 

 

 

 

 

 

Logo

脑启社区是一个专注类脑智能领域的开发者社区。欢迎加入社区,共建类脑智能生态。社区为开发者提供了丰富的开源类脑工具软件、类脑算法模型及数据集、类脑知识库、类脑技术培训课程以及类脑应用案例等资源。

更多推荐