-->
人工神经网络-抖音百科
人工神经网络(Artificial Neural Network,ANN),是一种应用类似于大脑神经突触连接结构进行信息处理的 数学模型 ,是在人类对自身大脑组织和思维机制的认识理解基础之上模拟出来的。 [3] 并由大量节点通过连接构成,每个节点代表一种特定的输出函数,每两个节点间的连接都代表一个对于通过该连接信号的加权值。网络的输出取决于连接方式、权重值和激励函数。它从信息处理角度抽象人脑 神经元 网络,建立简单模型,按不同连接方式组成不同网络。神经网络是一种运算模型,神经网络通常是对自然界某种算法或函数的逼近,也可能是对一种逻辑策略的表达。人工神经网络根植于 神经科学 、数学、 统计学 、物理学、 计算机科学 以及 工程科学 的技术。 [3] 人工神经网络的发展始于20世纪40年代,心理学家Frank Rosenblatt首次提出了 感知机 模型,它是二分类的线性判别模型,意在模拟人类视觉系统的神经网络结构,但由于其能力有限,无法处理复杂的 模式识别 问题,因此并未得到广泛应用。 [1] 最早的神经网络Perceptron诞生于1960年代,1969年, 麻省理工学院 的 马文·明斯基 (Marvin Minsky)和西摩·帕尔特(Seymour Papert)发表了著作《Perceptrons》,用数学的方法证明这种网络只能实现最基本的功能。 [4] 1982年,霍普菲尔德提出了Hopfield神经网络 (HNN)并于1984年设计出该网络的电子线路,为模型的 可用性 提供了物理证明,辛顿在1986 年发现了BP网络。 [4] 人工神经网络开始被广泛应用,并发展出了多种神经网络模型。这些模型在处理复杂的模式识别问题上表现优秀,被广泛应用于图像识别、语音识别和自然语言处理等领域。进入20世纪90年代,人工神经网络的应用更加广泛,出现了大规模的神经网络模型。这些模型具备深层次的网络结构和复杂的算法,能够处理更复杂的模式识别问题,并取得了显著的成果。 [5] 2024年10月8日, 瑞典皇家科学院 宣布,将2024年 诺贝尔物理学奖 授予美国 普林斯顿大学 的 约翰·霍普菲尔德 (John J. Hopfield)和 加拿大多伦多大学 的 杰弗里·辛顿 (Geoffrey E. Hinton),以表彰他们“为推动利用人工神经网络进行机器学习作出的基础性发现和发明”(for foundational discoveries and inventions that enable machine learning with artificial neural networks)。 [6] [7] 神经网络是模拟人脑联接智能的实现方式,采用互联结构和有效学习机制,是 人工智能 发展的重要方法,也是类脑智能研究的工具。随着深度学习技术的发展,神经网络的应用范围越来越广,包括图像识别、语音识别、自然语言处理、机器翻译、智能推荐等。自编码器是一种无监督特征学习网络,广泛应用于数据降维、去噪、聚类等。 [5]
概念