当前位置: 首页 > article >正文

关于hopfield 网络和受限玻尔兹曼机,其如何为现代深度学习奠基?

0 感知机、hopfield网络、受限玻尔兹曼机、mlp之间的历史关系近几年入门深度学习的大多数学习者可能已经很少听说hopfield网络、受限玻尔兹曼机了很多书籍和博客在讲解深度学习基础的时候也只会讲到感知机和mlp这种结构而提及hopfield网络、受限玻尔兹曼机的文章则占少数但这两者对深度学习的发展也具有重大意义以此溯源对认识深度学习的发展路径、核心思路来说有很大的帮助或许也能为当下的科研带来相当的启发和教育意义。为了更清晰地了解这两者的历史定位和提出动机我们首先从这几项工作的历史关系出发进行详细论述与总结0.1 感知机Perceptron——神经网络的起点提出时间1957年Frank Rosenblatt 提出了感知机是最早的人工神经网络模型之一。主要特点感知机是一种二分类器输入多个特征通过一个线性方程和一个激活函数通常是阶跃函数来决定输出类别。它可以看作是一个简单的单层神经元模型。应用场景感知机擅长解决线性可分问题但无法处理更复杂的、非线性的数据。0.1.1 感知机的局限性XOR 问题1969年Marvin Minsky 和 Seymour Papert 在他们的著作《Perceptrons》中指出单层感知机无法解决像 XOR 这样的非线性可分问题。这暴露了感知机的局限性并导致了随后几年神经网络研究的停滞即所谓的“AI 冬天”。0.2 多层感知机MLP——突破线性局限发展背景为了解决感知机无法处理非线性问题的局限多层感知机MLP在 1980 年代得到了发展。MLP 在感知机的基础上引入了多个隐藏层每层包含多个神经元并使用非线性激活函数如 Sigmoid 或 ReLU。主要特点MLP 是一种前馈神经网络通过多个层次的特征转换可以处理复杂的非线性任务。它使用反向传播算法Backpropagation来调整网络权重这是由 Geoffrey Hinton、David Rumelhart 和 Ronald J. Williams 等人在 1986 年提出的这一算法解决了多层神经网络的训练问题。意义MLP 的出现及其训练方法反向传播的突破使得神经网络重新成为人工智能研究的热点。MLP 成为现代深度学习网络的基石并扩展到 CNN、RNN 等更复杂的架构。时代局限性在 20 世纪 80 年代及之前计算资源非常有限。MLP 的多层结构和大量参数需要大量计算能力来进行训练和优化而当时的硬件无法支持这种大规模计算。同时模型的表现也受限于浅层网络无法展示其在更大、更复杂任务上的潜力。MLP 在使用反向传播算法训练时尤其是对于具有 Sigmoid 或 Tanh 激活函数的深层网络容易出现梯度消失问题。随着层数增加反向传播时梯度会逐渐减小导致靠近输入层的权重几乎无法更新从而影响了网络的学习能力。这种问题在 20 世纪 80 和 90 年代的研究中非常普遍限制了 MLP 的训练深度和效果。0.3 Hopfield 网络——联想记忆与能量最小化提出时间1982年John Hopfield 提出了 Hopfield 网络是一种递归神经网络。主要特点Hopfield 网络受物理学中自旋玻璃模型的启发利用能量最小化的原理来进行联想记忆。它的网络结构是对称的即每个神经元与其他神经元都有双向连接。Hopfield 网络通过调整状态使得能量降低从而达到稳定状态。应用场景Hopfield 网络适合用来实现联想记忆和模式恢复当输入一个带有噪声的模式时网络会调整到最接近的已存储模式。然而它的容量有限并且容易陷入局部最小值。历史地位Hopfield 网络在 1980 年代神经网络复兴中起到了重要作用为后来神经网络的记忆机制和递归结构提供了基础。同时Hopfield 网络的能量最小化思想影响了后来的玻尔兹曼机。0.4 玻尔兹曼机Boltzmann Machine与受限玻尔兹曼机RBM提出时间1985年Geoffrey Hinton 和 Terry Sejnowski 提出了玻尔兹曼机Boltzmann Machine是一种基于概率模型的生成网络。主要特点玻尔兹曼机基于能量最小化和概率分布的思想类似于 Hopfield 网络但引入了随机性通过马尔科夫链蒙特卡洛方法。玻尔兹曼机的目标是通过学习数据分布的概率模型来生成数据但其训练过程非常复杂和计算密集。受限玻尔兹曼机RBM1986年Geoffrey Hinton 等人提出了 RBM作为玻尔兹曼机的简化版。RBM 通过限制隐藏层和可见层之间的连接可见层和隐藏层之间的双向连接但同层单元之间无连接大大简化了训练过程。RBM 可以被用于无监督特征学习和降维。历史贡献RBM 的提出推动了无监督学习和深度学习的早期研究。它是深度信念网络DBN的基础单元并在 Hinton 等人的研究中得到了广泛应用。RBM 提供了一种堆叠多层网络并进行无监督预训练的方法这是现代深度学习中的一个重要思想。0.5 这些模型之间的关系和历史演变模型时间核心思想主要应用对后续研究的影响感知机Perceptron1957单层、线性模型二分类任务揭示了单层网络的局限性导致 AI 冬天多层感知机MLP1980s多层非线性结构、反向传播复杂任务的分类和回归解决非线性问题成为深度学习的基础Hopfield 网络1982能量最小化、联想记忆模式恢复、联想记忆影响递归网络和能量模型玻尔兹曼机Boltzmann Machine1985概率模型、生成建模特征学习、生成模型启发了概率神经网络的研究受限玻尔兹曼机RBM1986简化的玻尔兹曼机无监督特征学习、降维深度信念网络的构建基础推动无监督学习0.6 对现代深度学习的启发多层与非线性处理从感知机到 MLP再到更复杂的深度网络这一演变体现了处理非线性任务的重要性。MLP 和反向传播的突破使得多层网络成为可能并推动了深度学习的发展。能量最小化与记忆机制Hopfield 网络和玻尔兹曼机特别是 RBM引入的能量最小化和概率建模思想在现代生成对抗网络GAN、变分自动编码器VAE以及自监督学习中都有应用。无监督预训练RBM 和 Hopfield 网络都在特征学习和预训练方面提供了早期的探索特别是 RBM 的无监督特征学习方法影响了深度信念网络DBN以及后续的自监督和半监督学习方法。0.7 总结Hopfield 网络、RBM、MLP 和感知机在神经网络发展史上形成了一个递进和演变的过程 -感知机作为起点为神经网络模型奠定了基础。 -MLP解决了非线性可分问题并通过反向传播成为现代深度学习的基石。 -Hopfield 网络引入了记忆和能量最小化的概念对后来的递归结构和生成模型有重要影响。 -RBM和玻尔兹曼机引导了无监督学习和深度模型的预训练为现代深度学习的发展奠定了理论和实践基础。这些模型在历史上的相互影响和发展形成了深度学习和现代神经网络的理论基石推动了今天人工智能的快速发展。1 hopfield 网络1974年hopfield发表了一篇生物领域的论文将DNA 合成、tRNA 充电即将氨基酸与其特定的 tRNA 连接以及蛋白质组装这三种截然不同的化学过程的反应方案描述为结合简单统一原理的不同方式。论文的内容本身和之后的hopfield网络并无关联但是Hopfield认为1974 年的论文对于我解决生物学问题非常重要因为它让我思考生物学中反应网络结构的功能而不是分子本身结构的功能。网络可以“解决问题”或具有超出单个分子和线性路径能力的功能。六年后我在思考神经元网络而不是单个神经元的属性时概括了这一观点。这或许启发了Hopfield network的萌芽因为下面我们可以看到Hopfield network一个重要的特性就是神经网络能超越与涌现出超越个体神经元的力量达到111…1 N 的效果。好网络很好那么hopfield将要提出的网络他是用于什么任务、解决什么问题的呢简言之是做状态存储和联想记忆。什么意思呢hopfield想让这个网络像人脑一样存储一些信息作为记忆。如何用网络表示或记录这些信息呢可以用网络中每个神经元的0、1取值状态来表示一个记忆嘛是这样是可以用网络来表示状态了但我们还要做联想记忆呢比如说我们这个网络里存储了对应于单词 artificial 的状态和对应于单词 intelligence 的状态那我们希望向这个网络输入一个aritif__cial他能通过联想自动返回对应 artificial 的网络状态。怎么处理这个输入怎么实现这个返回呢这时候在1970年代短暂流行的元细胞自动机Cellular automaton以及物理学中一个非常著名的模型伊辛模型Ising Model给了Hopfield一定启发。这两者有着极其相似的思想元细胞自动机Cellular Automata, CA和伊辛模型Ising Model在思想上有一些相似之处主要体现在以下两个方面局部相互作用元细胞自动机CA中的每个细胞的状态由其相邻细胞的状态决定即它们只与局部的邻居进行相互作用。例如在经典的“生命游戏”中每个细胞的生死状态仅取决于周围8个相邻细胞的状态。伊辛模型伊辛模型中每个自旋spin的状态1 或 -1也仅受邻近自旋的影响。自旋之间的相互作用能量取决于其与最近邻自旋的排列同向或反向从而使得系统的整体状态通过局部相互作用来演化。全局行为由局部规则决定元细胞自动机整个系统的演化是通过简单的局部规则驱动的。尽管规则看似简单但整个系统会展示出复杂的全局行为。例如“生命游戏”中的复杂结构如“滑翔机”或“振荡器”都是基于简单的细胞规则形成的。伊辛模型同样伊辛模型的整体状态如磁化状态是通过自旋之间的简单相互作用规则例如“同向自旋倾向于降低能量”逐渐演化而来的。通过这种局部相互作用可以形成如铁磁有序状态或反铁磁有序状态的全局行为。以下是元细胞自动机和伊辛模型的具体例子 1. 元细胞自动机康威的生命游戏 康威的生命游戏Conways Game of Life是元细胞自动机的一个经典例子。我们可以定义一个 10 \times 10 的网格其中每个细胞的状态要么为1活着要么为0死了。生命游戏的规则如下 如果一个细胞活着1且它周围有2或3个活细胞则它在下一轮依然存活。 如果一个细胞死了0且它周围有3个活细胞则它在下一轮复活。 其他情况下细胞在下一轮会死亡或继续保持死亡。 具体例子 初始状态如下 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 这一初始配置叫做“闪烁器”blinker它会在下一轮变成 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1 1 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 然后它会再一次变回原来的状态形成一个周期性的振荡现象。 这种振荡器的行为类似于伊辛模型中自旋之间通过相互作用形成稳定模式的情况。 2. 伊辛模型二维伊辛模型 二维伊辛模型定义在一个 10 \times 10 的网格上每个格点上的自旋可以取1向上或-1向下。我们设定邻近自旋的耦合常数 J 1 并且设置温度 T 来控制系统的热涨落。伊辛模型的哈密顿量 H 表示系统的能量 其中 S_i 和 S_j 是相邻格点的自旋。 具体例子 假设初始状态下的网格是如下随机分布 1 -1 1 -1 1 -1 1 -1 1 -1 -1 1 -1 1 -1 1 -1 1 -1 1 1 -1 1 -1 1 -1 1 -1 1 -1 -1 1 -1 1 -1 1 -1 1 -1 1 1 -1 1 -1 1 -1 1 -1 1 -1 -1 1 -1 1 -1 1 -1 1 -1 1 1 -1 1 -1 1 -1 1 -1 1 -1 -1 1 -1 1 -1 1 -1 1 -1 1 1 -1 1 -1 1 -1 1 -1 1 -1 -1 1 -1 1 -1 1 -1 1 -1 1 如果温度 T 很低例如 T 0.5J 自旋会逐渐趋于一致例如演化到一个铁磁态 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 这个演化过程展示了局部相互作用如何逐渐形成全局有序的结构与元细胞自动机中通过局部规则产生全局模式的思想相似。 总结 在元细胞自动机中我们看到了一个简单的“闪烁器”在局部规则作用下周期性变化的具体例子。 在伊辛模型中我们展示了一个初始随机状态如何在低温条件下演化为全局有序的铁磁态。 这两个例子都通过具体数值和状态展示了如何通过简单的局部相互作用邻居细胞或自旋的状态产生复杂的全局行为体现了元细胞自动机和伊辛模型在思想上的相似性。Hopfield网络由 个神经元组成每个神经元的状态用 表示其取值为 或 类似于物理学中的自旋状态向上或向下。每两个神经元之间都有一个权值连接 。这个网络的核心在于通过这些神经元之间的连接来存储和检索信息并实现联想记忆功能。1.1 状态初始化与状态更新网络初始化根据输入值初始化网络中每个神经元的状态。假设一个初始状态向量 表示网络中每个神经元的初始状态。状态更新规则每个神经元的状态根据它与其他神经元的连接权重和邻近神经元的当前状态来更新。具体来说神经元 的状态 在时间 时刻的更新规则如下其中 - 为符号函数即当括号内的值大于0时输出1当值小于0时输出-1。 - 是神经元 的阈值通常可以设为0。 - 是神经元 的输入值它根据其连接的神经元的状态和连接权重 计算得出。这个规则的核心思想是神经元的状态由邻居的状态和连接权重共同决定这与伊辛模型和元细胞自动机中的“局部相互作用决定全局行为”的思想相一致。1.2 能量函数与稳定状态为了让网络演化到一个稳定的状态即全局最优或局部最优Hopfield引入了一个类似物理系统中的能量函数 。这个能量函数用于描述网络的“能量”或“成本”网络通过不断降低这个能量来找到最优状态。Hopfield网络的能量函数定义为其中 - 是网络的总能量 - 是神经元 和 之间的连接权重 - 和 是神经元 和 的状态 - 是神经元 的阈值。在每次迭代中根据上面的状态更新规则网络的能量 会不断减小或保持不变。这意味着网络总是朝着能量最低的方向演化最终会达到一个局部最小值。这个局部最小值对应于网络的一个稳定状态也称为吸引子。1.3 吸引子与联想记忆Hopfield网络的一个核心任务是实现联想记忆功能。网络通过定义多个吸引子即能量最低的状态来存储信息。当网络接收到一个输入模式时即使这个输入模式存在一定程度的噪声或缺失网络也会逐渐演化到与最接近的吸引子状态。这种能力类似于人类的联想记忆即便记忆不完整或模糊大脑仍能“猜出”正确的答案。为了实现这种存储和联想记忆的功能Hopfield网络使用Hebb学习规则来训练权重矩阵 。具体而言如果我们希望网络存储 个模式每个模式为 则权重 的设置为这个规则确保了每个模式都是网络的一个稳定状态。当我们向网络输入一个初始状态 如果这个初始状态与存储的某个模式接近网络会逐渐收敛到这个模式对应的吸引子。1.4 具体例子联想记忆的实现假设我们有一个简单的Hopfield网络包含4个神经元用来存储两个模式 - -通过Hebb规则计算得到的权重矩阵 为现在我们给网络一个初始状态 这个状态与 相近。根据更新规则神经元状态逐渐演化为 即网络恢复了 的状态完成了联想记忆的过程。2 受限玻尔兹曼机 (Restricted Boltzmann Machine)2.1 背景和起源在第二次神经网络低谷期间Geoffrey Hinton 并没有放弃对神经网络的研究而是转向了一个新的方向热力学统计模型。Hinton 基于玻尔兹曼统计的知识结合马尔科夫随机场和图学习理论为神经网络引入了一个新的模型玻尔兹曼机Boltzmann Machine, BM。他用能量函数来描述神经网络的特性以期望能够获得更多的统计学支持。不久之后Hinton 发现多层神经网络可以被视为玻尔兹曼机的一种特例这就是受限玻尔兹曼机RBM。他在 2017 年的一次采访中称 RBM 为他做过的“最美的工作”。2.2 玻尔兹曼分布与神经网络的联系在统计力学中玻尔兹曼分布或称吉布斯分布用于描述系统状态的概率分布其形式为其中表示系统状态 - 为该状态的能量 - 为该状态出现的概率 - 是玻尔兹曼常数 是系统温度。在具体问题中可以简化为 表达式简化为即这实际上就是softmax函数的形式这个公式在统计力学中的自然出现进一步说明了为什么 LeCun 曾建议学习物理的重要性。为了进一步简化定义 则2.3 RBM 的能量函数构建Hinton 将神经网络的结构分为可见层输入层和隐含层中间层并假设每个神经元有两种状态激活1和未激活0。系统的状态即为可见层 和隐含层 神经元的状态组合记作 。因此状态的概率可以表示为接着Hinton 采用了物理学中的易辛模型Ising model作为参考。这个模型描述了晶格系统中的相变解释了铁磁性问题的物理现象。Hinton 将神经元的偏置可见层记作 隐含层记作 视为外场将神经网络的权重 作为耦合系数形成了 RBM 的能量函数这种表达方式将神经网络的偏置和权重自然地融入到物理系统的能量模型中实现了最简化且符合直觉的网络描述。2.4 条件概率和激活函数的推导将某个神经元 关联的能量分离出来可以得到其中是与其他神经元无关的部分 - 是与 相关的权重。基于此状态的条件概率 可以推导为这就是sigmoid函数的形式即隐含层神经元激活的条件概率。这一推导展示了在玻尔兹曼分布下sigmoid 函数具有自然的统计学解释。2.5 优化目标与自由能RBM 优化的目标是极大化似然估计即最大化这里Hinton 将其与热力学中的自由能关联起来定义自由能为这样RBM 的优化目标就转化为找到使样本自由能最低的一组参数使得样本与参数间通过能量实现联系。这种处理方式在物理学和统计学中有着深刻的理论基础。2.6 对比散度Contrastive Divergence, CD算法RBM 的优化过程复杂尤其是配分函数 的求解这在一般情况下是一个#P-Hard问题极难求解。Hinton 通过逐层训练网络来降低算法复杂度而不是整体优化。为训练每层 RBM他发展了对比散度CD算法这是一个基于 Gibbs 采样的近似算法。虽然 CD 算法的收敛速度很慢但 Hinton 通过进一步的近似固定采样步数 形成了CD_k 算法。他惊讶地发现即使使用极粗糙的近似如 算法的表现依然良好。2.7 RBM 在无监督学习中的应用RBM 的概率建模特性使其特别适合于无监督学习。即使没有标签数据网络也可以学习到有意义的表示。例如RBM 可以从 MNIST 数据集中学到表示手写数字的特征这些特征可以用来生成新样本或作为分类器的输入。Hinton 还发现用 RBM 的算法进行网络的无监督预处理后再加上标签使用反向传播训练可以高效地训练深层神经网络。这种方法成为“深度学习”兴起的重要基础。受限玻尔兹曼机RBM在深度学习的历史中起到了非常重要的作用它不仅帮助奠定了深度学习的理论基础还在多个方向上推动了这一领域的发展。下面我将详细解释 RBM 如何开创了深度学习的各个先河。2.8 RBM在深度学习领域中开创的先河2.8.1 用统计物理构建机器学习模型RBM 的核心思想源于统计物理学尤其是基于玻尔兹曼分布和能量函数的概念。Hinton 利用了这些物理学工具将其应用于神经网络的建模中。这种方法具有以下创新点能量函数RBM 通过定义一个能量函数 来描述整个系统的状态这与物理学中的系统状态能量相对应。系统的概率分布可以通过玻尔兹曼分布来表示 这种方法将机器学习模型转化为能量最小化问题使得模型训练可以借鉴物理学中的优化方法。马尔科夫随机场和无向图RBM 也是马尔科夫随机场Markov Random Field, MRF的一种特例利用无向图来表示神经元之间的关系。这种图模型的设计结合了物理学中相互作用系统的思想使得模型不仅具备了概率解释还可以通过采样和推断来学习复杂的数据分布。通过将统计物理的能量模型和概率分布直接应用到神经网络中RBM 为机器学习领域开辟了一个新的建模思路。这种跨学科的应用展示了物理学和机器学习的深度关联也为后来各种能量模型和生成模型奠定了基础。2.8.2 深度神经网络的高效训练在深度学习初期训练深层神经网络一直是个难题尤其是由于梯度消失问题深层网络的训练效率和效果非常差。RBM 的引入带来了逐层预训练的方法这在当时是一个极具突破性的策略逐层训练RBM 可以堆叠成深度信念网络DBN每一层都是一个 RBM。通过逐层训练每层 RBM 只需处理自身的输入数据和输出特征这大大简化了训练过程。每层独立训练完成后再将它们组合起来进行整体微调finetuning从而解决了深度网络整体训练难的问题。对比散度算法Contrastive Divergence, CDHinton 提出的 CD 算法大大提高了 RBM 的训练效率。这种基于 Gibbs 采样的近似优化方法允许每一层快速收敛从而逐层训练深层网络的每一部分为深度学习提供了一种高效训练方法。RBM 的逐层训练和优化策略是后来深度神经网络高效训练的先驱并为后续的 CNN、RNN 等深度模型的优化提供了启示。2.8.3 生成模型Generative Model通过生成数据去理解数据的想法RBM 本质上是一个生成模型。它通过学习数据的概率分布能够生成与训练数据相似的新样本。这种生成思路开创了通过生成数据来理解数据的先河概率建模RBM 通过构建一个可见层输入和隐藏层特征的概率分布来学习数据的内在结构。训练完成后模型可以根据这个分布生成新的数据样本。比如在 MNIST 数据集上训练的 RBM 可以生成新的手写数字图像这些图像与真实数据非常相似。理解数据结构通过生成模型RBM 可以揭示数据的内在规律。例如通过对自然图像的 RBM 训练可以发现模型学会了图像的基本特征如边缘和纹理。这种生成方法不仅是对数据分布的模拟还揭示了数据的内在结构使模型能够在没有标签的情况下自动获取有意义的特征。RBM 的生成能力影响了后来许多深度学习模型的发展如变分自动编码器VAE和生成对抗网络GAN它们也通过类似的方法生成和理解数据。2.8.4 预训练Pretraining在 RBM 提出之前深度神经网络的训练效率很低。RBM 引入了一种预训练的方式来有效地训练深度网络。Hinton 发现先使用 RBM 进行无监督预训练再使用有标签数据进行微调finetuning可以显著提高网络的性能和稳定性逐层无监督预训练先使用 RBM 在大量无标签数据上逐层训练网络从输入层到隐藏层依次学习每一层的特征表示。这样网络在初始阶段就已经形成了较好的特征结构。有监督微调在预训练完成后再使用有标签数据对整个网络进行监督微调。这种方式避免了网络从随机初始化开始学习的困难使得深层神经网络更易于训练。这种预训练方法在深度学习的发展中非常关键因为它为深层神经网络的训练提供了一个切实可行的路径。在计算能力和数据资源有限的时代这种方法极大地提升了网络的性能和可用性也为现代深度学习中预训练和迁移学习的概念奠定了基础。2.8.5 无监督学习RBM 是一种无监督学习模型它不依赖于数据的标签信息而是通过学习输入数据的分布来提取特征无标签特征提取RBM 通过输入层和隐藏层的相互作用自动学习输入数据的特征表示。例如在手写数字图像上RBM 可以自动识别图像中的基本特征如边缘、角等而不需要任何标签信息。在大规模数据上的应用由于无监督学习不需要大量标注数据RBM 可以广泛应用于大规模数据集上从中学习有意义的特征。这一方法在当时为解决数据标注困难的问题提供了一个非常有效的解决方案。RBM 的无监督学习能力为深度学习的发展带来了极大的启发。它不仅推动了后续自监督学习和半监督学习的研究还展示了如何在没有标签的情况下进行高效训练。2.8.6 表征学习Representation LearningRBM 通过其隐藏层的特征提取能力展示了如何从数据中学习有意义的表示。它不仅仅是简单地分类或回归而是从输入数据中提取更高级、更抽象的特征这就是表征学习逐层特征提取RBM 可以看作是特征提取器的一个层级每一层都从上一层学习到的特征中提取更高阶的信息。通过堆叠多个 RBM形成深度信念网络DBN可以学习到更加抽象的特征层次。这种逐层的特征提取为深度学习网络的表征学习奠定了基础。数据本身的高级特征表示RBM 在训练过程中不仅能够识别数据的低层次特征如边缘或形状还能学习到数据的更高层次表示如面部特征或复杂模式。通过这种特征提取方法RBM 让网络逐渐从学习数据本身转向学习数据的高级表征。表征学习的思想在现代深度学习中广泛应用比如在卷积神经网络CNN中学习图像的特征层次、在自然语言处理中使用嵌入来表示词语和句子的语义关系等。2.8.7 神经网络特征的可解释性RBM 的特征学习方法不仅可以帮助理解数据还可以生成新的数据样本从而揭示网络中学到的特征。Hinton 提到可以通过生成样本的方式来解释隐藏层的特征这就是神经网络特征的可解释性生成图像解释特征RBM 可以通过隐藏层的激活状态生成图像这些生成的图像反映了网络在隐含层中学到的特征表示。例如在 MNIST 数据集上训练的 RBM 可以生成与原始手写数字相似的图像这些图像展示了网络如何将输入的图像特征进行组合。非线性特征的解释通过观察 RBM 的输出可以推测出哪些特征在网络中被学习和组合。这使得我们能够从生成的样本中理解网络在处理数据时捕捉到的非线性关系。RBM 的这种特征解释方法为神经网络的可解释性研究提供了新的方向也为后续解释深度学习特征的方法如可视化卷积层提供了启发。3 为什么 MLP 重新崛起并在现代深度学习中更为通用3.1 计算能力的提升随着 21 世纪初期计算硬件特别是 GPU 和分布式计算的快速发展大规模并行计算成为可能这极大地提高了训练深度神经网络如 MLP的效率。强大的计算资源使得训练深层 MLP 成为可能不再受限于计算瓶颈。更复杂、更大规模的 MLP 可以在合理的时间内完成训练并展示其强大的性能。3.2 现代优化算法的引入反向传播算法在原始版本中容易出现梯度消失问题但后来研究人员引入了一些改进技术例如 ReLU 激活函数避免梯度消失、批量归一化Batch Normalization和高级优化器如 Adam、RMSprop 等使得训练深层网络更加稳定和高效。这些改进极大地提升了 MLP 训练的可行性和效果使得深层 MLP 成为许多任务的首选架构。3.3 大数据和标注数据集的可用性随着互联网的普及和大数据的发展越来越多的标注数据集变得可用如 ImageNet 等这为深度神经网络的监督训练提供了大量数据支持。MLP 这种需要大量数据进行监督学习的模型在这个环境下表现出色。与早期的 RBM 不同MLP 通过大数据和大规模监督学习能够比 RBM 学到更精细和强大的特征表示并在复杂任务如图像识别、语音识别、自然语言处理中表现出更好的性能。3.4 深度学习架构的扩展和创新现代的许多神经网络架构如卷积神经网络 CNN、循环神经网络 RNN、以及 Transformer 等都是在 MLP 的基础上进行扩展和改进的。这些架构结合了 MLP 的多层结构并针对不同数据类型如图像、序列数据进行了专门优化。MLP 的灵活性和扩展性使得它能够很好地适应各种任务和数据类型从而成为现代深度学习的核心基础架构。Hopfield 网络和 RBM 为神经网络的发展打下了重要基础但它们的适用范围和扩展性、能力上限不如 MLP因此在现代深度学习的背景下以MLP为代表的以反向传播梯度更新为基础的神经网络更加通用并成为主流。

相关文章:

关于hopfield 网络和受限玻尔兹曼机,其如何为现代深度学习奠基?

0 感知机、hopfield网络、受限玻尔兹曼机、mlp之间的历史关系 近几年入门深度学习的大多数学习者,可能已经很少听说hopfield网络、受限玻尔兹曼机了,很多书籍和博客在讲解深度学习基础的时候也只会讲到感知机和mlp这种结构,而提及hopfield网…...

SON自动添加邻站功能

该功能主要依赖于ANR自动添加邻区。在邻区添加完成后,源基站会从邻区的CGI信息中解析出目标基站的eNB ID,然后向核心网(MME)发送一条eNB Configuration Transfer消息,用于请求该eNB ID对应的X2接口传输层地址。若核心网…...

普通机床改造成键槽铣床

普通机床在机械加工领域应用广泛,但功能相对单一,若想拓展其加工范围,将其改造成键槽铣床是个不错的选择。改造的核心在于通过加装特定部件,让机床具备铣削键槽的能力。普通机床原本的直线运动和旋转运动基础,为改造提…...

如何高效阅读c语言函数(形成线思维和面思维)

最近,我在阅读linux内核源码,由于代码量太大了,有成百个源文件,源文件中有成千上万的函数,我本来的计划是对每一个源文件中的函数自上而下粗略读一遍(不会跳转到子函数中去看子函数是如何实现的&#xff09…...

机器学习40讲-10:特征预处理

分享一个大牛的人工智能教程。零基础!通俗易懂!风趣幽默!希望你也加入到人工智能的队伍中来!请轻击人工智能教程​​​https://www.captainai.net/troubleshooter 华盛顿大学教授、《终极算法》(The Master Algorithm)的作者佩德罗多明戈斯曾在Communications of The ACM…...

探讨CSS复合属性的实际应用与交互设计

在CSS中,我们经常使用到的一些复合属性包括:font(字体)、border(边框)、background(背景)、padding(内边距)以及margin(外边距)等。接…...

常用代码知识

一、算法题常用 1.1 CSTL中哈希表(std::unordered_map和std::unordered_multimap) unordered_map和unordered_multimap区别在与mult的值可以重复。 方法insert、erase、size、count(统计出现次数) 其他操作: unorder…...

当AI写小说——一个被严重低估的工程化战场

当AI写小说——一个被严重低估的工程化战场本文收录于《工程化AI人机协同方法论》系列专栏,对应系列第54篇核心文章 核心结论前置:AI写小说从来不是「一句prompt生成全文」的创意魔法,而是一套涵盖设定治理、记忆管理、文风校准、节奏管控、合…...

3401黄大年茶思屋榜文保姆级全落地解法「34期 1题」全系统可编程安全易用高效统一架构重构与原约束双路径落地解法

华夏之光永存・开源:黄大年茶思屋榜文保姆级全落地解法「34期 1题」 小标题:全系统可编程安全易用高效统一架构重构与原约束双路径落地解法 一、摘要 全系统可编程赛道当下全球现代工程技术已触达绝对性能天花板,现有eBPF、Wasm分立方案、传统内核可编程框架、常规工具链…...

3分钟搞定!终极游戏模组管理器XXMI-Launcher完整使用指南

3分钟搞定!终极游戏模组管理器XXMI-Launcher完整使用指南 【免费下载链接】XXMI-Launcher Modding platform for GI, HSR, WW and ZZZ 项目地址: https://gitcode.com/gh_mirrors/xx/XXMI-Launcher XXMI-Launcher是一款专业的游戏模组启动器,专为…...

VAP模型:视频生成技术的语义控制革新

1. 项目概述:视频生成技术的范式革新去年在做一个短视频特效项目时,我遇到了一个棘手问题:客户想要一段"夕阳下穿红裙的舞者在沙漠中旋转"的视频素材,但实拍成本太高,而用传统AI视频生成工具要么人物动作不连…...

V-REX框架:评估视觉推理模型的渐进式问题链方法

1. 项目背景与核心价值去年在开发一个跨模态问答系统时,我深刻体会到现有评估方法对复杂视觉推理任务的局限性。传统benchmark往往只关注最终答案的正确性,却忽视了模型在推理过程中的思维链条。这正是V-REX框架试图解决的关键问题——它像一位严格的考官…...

V-REX框架:多步视觉推理评估的创新解决方案

1. 项目概述V-REX是一个专注于多步探索式视觉推理的评估框架,它通过创新的Chain-of-Questions方法,为视觉推理任务提供了系统化的评估解决方案。这个框架的核心价值在于解决了传统视觉问答系统在复杂推理场景下的评估难题。在实际应用中,我们…...

视频预测与深度估计的联合优化方法解析

1. 项目概述视频预测与深度估计是计算机视觉领域的两大基础任务,前者要求模型根据历史帧预测未来画面,后者需要从2D图像推断3D场景结构。传统方法通常将这两个任务分开处理,忽视了它们之间天然的互补关系。我们提出的"概率结构集成"…...

EDA工具链整合与硬件仿真平台如何重塑芯片验证流程

1. 行业动态速览:从GSA奖项到EDA工具链整合又到了每周梳理半导体与电子设计自动化领域动态的时候。这周的新闻看似零散,但串联起来,恰好勾勒出行业几个清晰的脉络:对行业先驱的致敬、先进验证工具在复杂设计中的落地、开发环境的持…...

QOwnNotes:基于Markdown文件与脚本的本地知识管理方案解析

1. 项目概述:一个为Markdown而生的本地笔记应用如果你和我一样,是一个重度依赖Markdown来组织知识、记录灵感和管理项目的用户,那么你一定经历过这样的困境:市面上很多笔记应用要么过于臃肿,要么云同步功能让你对数据隐…...

TC3xx汽车以太网实战:手把手教你用MCAL配置RGMII接口与125MHz时钟(避坑GETH初始化失败)

TC3xx汽车以太网实战:手把手教你用MCAL配置RGMII接口与125MHz时钟(避坑GETH初始化失败) 在车载以太网开发中,TC3xx系列芯片的GETH模块配置一直是工程师们面临的棘手问题。特别是当项目进度紧迫,而GETH初始化却频频失败…...

Cursr:多屏多设备无缝交互的鼠标门户工具配置指南

1. 项目概述:Cursr,一个重新定义多屏与多设备交互的鼠标门户工具如果你和我一样,日常需要在两块、三块甚至更多显示器之间来回穿梭,或者桌面上摆着不止一台电脑(比如一台Windows主力机加一台MacBook)&#…...

海思HI3516 MIPI屏幕时序参数详解:如何用计算器搞定HBP、VFP与像素时钟

海思HI3516 MIPI屏幕时序参数实战解析:从理论到精准调试 当一块MIPI屏幕在海思HI3516平台上首次点亮时,那种成就感往往很快会被随之而来的显示异常打破——图像边缘撕裂、周期性闪烁、色彩断层,这些看似简单的现象背后,往往隐藏着…...

ARM7TDMI调试接口架构与实战技巧

1. ARM7TDMI调试接口架构解析ARM7TDMI处理器作为经典嵌入式内核,其调试系统采用独特的双模式设计。调试接口的核心是EmbeddedICE-RT(Embedded In-Circuit Emulator Real-Time)逻辑模块,这个硬件单元直接集成在处理器内部&#xff…...

嵌入式RTOS实战:从OpenFelix内核解析到物联网数据采集系统设计

1. 项目概述:一个为嵌入式与物联网而生的开源实时操作系统如果你正在寻找一个轻量、高效且完全开源的实时操作系统(RTOS)来驱动你的下一个嵌入式或物联网项目,那么fspecii/openfelix绝对值得你花时间深入研究。这个项目并非又一个…...

Cortex-A720性能监控与嵌入式跟踪技术解析

1. Cortex-A720性能监控架构解析Cortex-A720作为Armv9架构中的中端CPU核心,其性能监控单元(PMU)设计体现了现代处理器性能分析的典型架构。PMU本质上是一个硬件事件采集系统,通过专用计数器记录微架构层面的各类事件,为开发者提供底层硬件行为…...

cursorrules:自动生成AI编码规范,提升开发效率

1. 项目概述:为你的AI编码伙伴制定专属“家规”如果你和我一样,已经深度依赖Cursor、GitHub Copilot这类AI编码助手来提升日常开发效率,那你肯定也经历过这样的时刻:AI生成的代码乍一看能用,但仔细一瞧,要么…...

ARM TechCon演讲提案撰写指南:从技术实践到成功分享

1. 从“投稿通知”到“技术分享”:如何打造一份能征服ARM TechCon的演讲提案看到ARM TechCon又在征集演讲提案了,这让我想起了几年前自己第一次尝试投稿时的情景。当时,我像很多工程师一样,手里有个自认为挺酷的项目,觉…...

洛谷刷题自动化提效工具:用户脚本与本地服务集成实践

1. 项目概述:一个提升洛谷刷题效率的“提交技巧”工具如果你是一名经常在洛谷(Luogu)上刷题的算法竞赛选手或编程学习者,那么你一定对“提交”这个动作再熟悉不过了。从本地写好代码,到复制、粘贴、选择语言、点击提交…...

【深度解析】自主机器学习工程师 Neo:从 Agent 工作流到聊天内容审核 Pipeline 落地

摘要: 本文解析 Neo 这类自主机器学习工程师的核心机制,并以聊天内容审核为例,演示如何用大模型生成数据、训练分类器、封装 API,完成端到端 AI 工程闭环。背景介绍:为什么 AI/ML Agent 不只是“会写代码” 在真实 AI …...

AI图像内容安全:NSFW检测模型冷启动问题与轻量级热身技能实践

1. 项目概述:一个为AI图像内容安全“热身”的技能最近在折腾AI图像生成和内容审核相关的东西,发现一个挺有意思的项目,叫huangji6693-max/x-nsfw-warmup-skill。光看这个标题,可能有点摸不着头脑,但如果你也在这个领域…...

深度学习模型冷启动优化:从原理到生产级预热实践

1. 项目概述与核心价值最近在部署一些涉及内容审核或图像识别的AI应用时,我遇到了一个非常典型且棘手的问题:模型冷启动。简单来说,就是当你第一次加载一个训练好的深度学习模型(尤其是像NSFW检测这类需要处理复杂视觉特征的模型&…...

绕过Cursor风控限制:go-cursor-help工具原理与实战指南

1. 项目概述与核心问题定位 如果你是一名开发者,最近在尝试使用 Cursor 这款备受瞩目的 AI 编程工具时,大概率会遇到一些令人头疼的弹窗提示。比如,当你正沉浸在与 AI 结对编程的流畅体验中,突然屏幕上跳出“Your request has bee…...

DRAFT开源项目解析:基于Python的文档自动化生成与智能排版实践

1. 项目概述与核心价值 最近在GitHub上看到一个挺有意思的项目,叫“quchangle1/DRAFT”。光看这个名字,可能有点摸不着头脑,DRAFT是啥?草稿?初稿?其实,这是一个专注于 文档自动生成与智能排版…...