当前位置: 首页 > article >正文

辛顿 | 我习惯了房间里只有我一个人是对的

注本文为 “辛顿 | 智者历程” 相关合辑。略作重排如有内容异常请看原文。X 热点30 年冷板凳诺贝尔物理学奖得主 Hinton 的 AI 往事原创 Rika 适道 2024 年 10 月 9 日 11:13 北京作者Rika编辑狮刀上世纪 80 年代Hinton 看《终结者》时没有被影片中的 AI 毁灭世界困扰。相反他很高兴看到神经网络技术被描绘得如此有前途。数十年来Hinton 设计了很多新点子来训练神经网络。他招募了很多研究生让大家相信神经网络不是一条死胡同。他认为自己参与的项目会在 100 年后也就是在他死后才能取得成果。他的昆虫学家父亲曾说“如果你比我努力两倍当你年纪是我两倍大时或许才能达到我一半的成就。”在剑桥大学Hinton 尝试了多个领域。但令他沮丧的是在任何一门课程中他都不是班上最聪明的学生。在夏天的岛屿上Hinton 偶尔会捉蛇并放进一个玻璃缸观察它们的行为。他的一生都在思考如何“自下而上”地理解思维因此对非人类的心智有独到的洞察力。在蛹里毛毛虫被溶解成汤状物质——然后你从“这锅汤”中构建出一只蝴蝶。毛毛虫代表了用于训练现代神经网络的数据而蝴蝶则象征从这些数据中诞生的 AI。而深度学习——Hinton 开创的技术——促成了这种蜕变。Hinton 坚信 AI 拥有情感。他认为情感的本质就是对无法拥有之物的渴求。Geoffrey E. Hinton 大概没想到诺贝尔物理学奖颁给了自己。收到消息后他被迫取消了预约好的核磁共振。2024 年诺贝尔物理学奖揭晓。机器学习专家 John J. Hopfield、AI 教父 Geoffrey E. Hinton 荣获此奖以表彰他们“基于人工神经网络实现机器学习的基础性发现和发明”。回顾 Hinton 近两年的变化可以用“戏剧化”形容。曾经他是 AI 教父毕生致力于教会计算机深度学习。如今他是 AI 安全斗士担心 AI 是否已经超越了人类大脑的能力认为 AI 最终会和人类争夺控制权。为何 Hioton 出现了这样的变化他眼中的 AI 将成长为何种“怪物”《纽约时报》的一篇长文从 Hioton 的经历和神经网络技术讲起带我们了解这位深度学习巨擘的 AI 往事。下面是全文翻译适道进行了部分删减和调整。enjoy为何 AI 教父惧怕自己创造的技术“如果能获得更多控制权它几乎能实现一切目标”Hinton 谈及 AI 时说道“研究的核心问题是你如何防止 AI 掌控一切然而目前没有人知道答案。”Geoffrey Hinton这位被称为“AI 教父”的计算机科学家递给了我一根手杖。“你可能会用到这个”他说着便沿着小径朝湖边走去。那条小径穿过一个绿荫掩映的空地绕过几间小屋接着顺着石阶通向一个小码头。我们站在安大略省乔治亚湾的一块岩石上往西望去延伸至休伦湖。水面上星罗棋布的岛屿点缀其中。2013 年65 岁的 Hinton 买下了这座岛屿。彼时他刚刚将一个由三人组成的创业公司以 4400 万美元的价格卖给了 Google。30 年神经网络“冷板凳”**在此之前Hinton 在多伦多大学担任了 30 余年的计算机科学教授专攻一种名为神经网络的“冷门”领域。神经网络是受人脑神经元连接方式的启发。在你的大脑中神经元组成了大大小小的网络。每一次行动、思考网络都会随之变化神经元要么被纳入要么被删除而它们之间的连接则会加强或减弱。这个过程无时无刻不在发生——就像现在当你阅读这些文字时。其规模之大难以想象。你的大脑中大约有 800 亿个神经元彼此间共享超过 100 万亿个连接。你的颅骨里仿佛藏着一个星系其恒星总在不停移动。新的知识以微调的形式融入你现有的神经网络中。有时它们是短暂的比如你在派对上认识一个陌生人他的名字可能只会在你的记忆网络中留下短暂的痕迹。但有时记忆却会伴随你一生比如当那个陌生人成了你的伴侣。新知识与旧知识相互交织你的旧知识会影响你未来的学习。比如当派对上有人提到他去阿姆斯特丹旅行的经历。第二天如果你走进博物馆时你的神经网络可能会轻轻地将你推向荷兰画家维米尔的作品。正是通过这种细微的变化才可能成就深刻的转变。一开始人工神经网络不怎么奏效——无论是图像分类、语音识别还是其他应用——大多数研究者认为该领域就是浪费时间。“我们的神经网络当时甚至连一个小孩都比不上”Hinton 回忆道。上世纪 80 年代当他看《终结者》时并没有被影片中的 AI 毁灭世界困扰。相反他很高兴看到神经网络技术被描绘得如此有前途。数十年来Hinton 不断尝试构建更大、更复杂的神经网络。他设计出很多新点子训练神经网络不断提升性能。他招募了很多研究生让大家相信神经网络不是一条死胡同。他认为自己参与的项目会在 100 年后也就是在他死后才能取得成果。与此同时他成了鳏夫独自抚养两个年幼的孩子。在一段特别艰难的日子家庭和研究的双重压力让他几乎濒临崩溃。他曾以为自己在 46 岁时就彻底放弃了。谁也没预料到大约十年前神经网络技术开始突飞猛进。随着计算机速度提升神经网络能够借助互联网上的海量数据开始转录语音、玩游戏、翻译语言甚至实现自动驾驶。就在 Hinton 公司被收购前后人工智能迅速崛起催生了 OpenAI 的 ChatGPT 和 Google 的 Bard 等系统许多人相信这些技术正以不可预知的方式改变世界。AI 会变成“异形”吗每当我们学习时我们的大脑神经网络都会发生变化——具体是如何发生的呢像 Hinton 这样的研究者通过计算机试图找到神经网络的“学习算法”即一种通过调整人工神经元之间连接的统计“权重”来吸纳新知识的程序。1949 年心理学家 Donald Hebb 提出了一个人类学习过程的简单规则——同步激活的神经元将会连接在一起。即当你大脑中的一组神经元被同步激活它们就更有可能再次激活。简单来讲当你第二次做一道菜时会比第一次容易得多。但很快人们就发现对于计算机神经网络而言这一方法解决不了复杂问题。上世纪 60、70 年代青年研究者 Hinton 常常在笔记本中画出神经网络并想象新知识如何到达它们的边界。他思索着一个由几百个人工神经元组成的网络如何存储一个概念如果这个概念被证实是错误的它又将如何进行修正Hinton 的父亲是一位著名的昆虫学家。孩提时代他和父亲在车库里养了一坑的毒蛇、乌龟、青蛙、蟾蜍和蜥蜴。如今Hinton 每年夏季都会待在岛上偶尔还会捉到蛇并带进屋里放进一个玻璃缸借此观察它们的行为。他的一生都在思考如何“自下而上”地理解思维因此对非人类的心智有独到的洞察力。今年早些时候2023 年 5 月Hinton 离开了 Google。他开始担忧潜在的 AI 威胁并在采访中谈论 AI 对人类种族构成的“生存威胁”。他越是使用 ChatGPT心中的不安就越强烈。某天Fox News 的一名记者联系他要求就 AI 问题进行采访。Hinton 喜欢用尖刻的单句回复电子邮件。比如在收到一封来自加拿大情报局的冗长来信后他回复了一句“斯诺登是我的英雄”。这次他的回复依然玩了一把幽默“Fox News is an oxy moron.自相矛盾”。出于好奇Hinton 问 ChatGPT 能否解释他的笑话。ChatGPT这句话暗示 Fox News 是假新闻。当 Hinton 强调“moron”前的空格时ChatGPT 进一步解释这意味着 Fox News 像止痛药 OxyContin 一样让人上瘾。Hinton 对此感到震惊这种理解力似乎预示着 AI 进入了一个全新时代。虽然大家对 AI 崛起有许多担忧的理由——被抢工作等等。然而Hinton 与许多知名的科技人士站在了一起比如 OpenAI 首席执行官 Sam Altman他们警告称 AI 可能会开始自主思考甚至试图接管或消灭人类文明。当你听到一位如此重量级的 AI 研究者发出如此惊人的观点令人震撼。“很多人说LLM 就是一个很高级的自动补全功能。”Hinton 对我说“现在让我们来分析一下。假设你想成为预测下一个单词的高手。如果你想成为真正的高手就必须理解别人在说什么。”“这是唯一的办法。因此通过训练让某个东西真正擅长预测下一个单词实际上就是强迫它去理解。是的这是确实只是‘自动补全’——-但你并没有想清楚拥有一个极其优秀的‘自动补全’意味着什么”。Hinton 认为像 GPT 这样的 LLM 确实能理解词语和概念的含义。那些怀疑我们高估 AI 能力的人指出——人类思维与神经网络之间有很大的差距。首先神经网络的学习方式与我们不同人类是通过实际经验理解现实世界与自我的关系自然地获取知识而神经网络则是通过处理大量信息库中的数据以抽象的方式学习一个它不能真正生活的世界。然而 Hinton 认为AI 展现出的智慧已超越了其人工的起源。他说“当你吃东西时你会摄入食物然后把它分解成微小的各个部分。但如果你说——我身体里的部分物质由其他动物的部分物质组成。这是不可能的。”Hinton 认为通过分析人类的写作像 GPT 这样的 LLM 能够了解世界是如何运转的从而诞生一个具备思维能力的系统。而写作只是这个系统功能的一部分。他继续说道“这就类似于毛毛虫变蝴蝶的过程。在蛹里毛毛虫被溶解成汤状物质——然后你从这锅汤中构建出一只蝴蝶。”“蜻蜓的幼虫是生活在水下的怪物就像电影《异形》中一样蜻蜓从怪物的背部爬出。幼虫在这个阶段变成了一锅‘汤’然后蜻蜓从‘汤’中诞生了。”在 Hinton 的比喻中幼虫代表了用于训练现代神经网络的数据而蜻蜓则象征从这些数据中诞生的 AI。而深度学习——Hinton 开创的技术——促成了这种蜕变。他轻声说道“你明白了其中的道理。它开始是一种状态最终变成了另一种不同的状态。”显赫家族出了个“不聪明”的小辈当年Google 收购 Hinton 创业公司一部分原因是他的团队知道如何利用神经网络大幅提高图像识别能力。而现在屏幕上铺满了 Hinton 的家谱。Hinton 出生在一个特殊的英国科学世家在政治上激进在科学上探索。叔祖父 Sebastian Hinton 是攀爬架的发明者他的堂姐 Joan Hinton 是参与曼哈顿计划的物理学家Lucy Everest首位当选为英国皇家化学研究所成员的女性。Charles Howard Hinton一位数学家提出了四维空间概念。19 世纪中叶Hinton 曾曾祖父、英国数学家 George Boole 发明了二进制推理系统即现在的布尔代数是所有计算的基础。Boole 的妻子 Mary Everest 是一位数学家和作家。Yann LeCun 的评价是Geoff Hinton 天生就是搞科学的料。虽然学生时代的 Hinton 喜欢自然科学。但出于意识形态他的昆虫学家父亲 Howard Everest Hinton 禁止他学习生物学。他记得父亲曾说“如果你比我努力两倍当你年纪是我两倍大时或许才能达到我一半的成就。”在剑桥大学Hinton 尝试了多个领域。但令他沮丧的是在任何一门课程中他都不是班上最聪明的学生。他曾一度辍学跑去“读一些令人 emo 的小说”并在伦敦打零工然后又回到学校尝试学习建筑学但仅坚持了一天。最后在探索了物理、化学、生理学和哲学后他选择了实验心理学专业。他“潜伏”在道德哲学家 Bernard Williams 的办公室里而后者对计算机与心智的兴趣引发了 Hinton 的深思。某天 Williams 指出我们的不同思想一定反映了大脑内部不同的物理排列而这与计算机内部的情况截然不同——计算机的软件与硬件是相互独立的。Hinton 被这个观点深深吸引。他回忆起高中时一个朋友曾告诉他记忆可能以“全息”的方式储存在大脑中——记忆是分散的但通过任何一个部分都可以访问整体。这正是他后续研究的“连接主义”概念。这种方法结合了神经科学、数学、哲学和编程探讨神经元如何协同工作以“思考”。连接主义的一个目标是创造一个在计算机中模拟大脑的系统。这个领域已经有了一些进展1950 年代心理学家和连接主义先锋 Frank Rosenblatt 建造了一台 Perceptron感知机使用简单的计算机硬件模拟了数百个神经元的网络。当连接到光感器时Perceptron 可以通过追踪不同光线模式激活的人工神经元来识别字母和形状。而 Hinton 在剑桥的起步看似缓慢且略显古怪也有一部分原因是他在探索一个新兴的领域。“神经网络——当时几乎没有顶尖大学研究这个领域” Hinton 说道 “你在麻省理工做不了在伯克利做不了在斯坦福也做不了。”也正因如此Hinton 作为一个新兴技术的开创者。多年来许多最顶尖的头脑都向他靠拢。撬开神经网络“黑盒”而在 1970 年代绝大多数人工智能研究者都是“符号主义者”。在他们看来了解诸如番茄酱这样的事物可能需要涉及多个概念如“食物”、“酱料”、“调味品”、“甜”、“鲜味”、“红色”、“番茄”、“美国”、“薯条”、“蛋黄酱”和“芥末”这些概念结合起来可以构建出一个脚手架用来悬挂新概念如“番茄酱”。一个资金充足的大型人工智能项目 Cyc正是围绕构建一个庞大的知识库展开。科学家们可以使用一种特殊语言将概念、事实和规则以及它们不可避免的例外输入其中。鸟类会飞但企鹅不会受伤的鸟也不会……但是Hinton 对符号人工智能表示怀疑。这种方法似乎过于僵化过于依赖哲学家和语言学家的推理能力。他知道在自然界中许多动物即便没有语言表达也能表现出智能行为。而它们只是通过经验学习来变得聪明。对于 Hinton 来说——学习而不是知识才是智能的核心。人类的高级思维通常似乎通过符号和语言进行。但是Hinton 与他的合作者 James L. McClelland 以及 David Rumelhart 认为大部分的认知活动其实发生在概念层面之下。他们指出“当你学到一个关于某个物体的新知识后你对其他类似物体的预期也会发生变化”。比如当你得知黑猩猩喜欢洋葱时你可能会猜测大猩猩也喜欢。这表明知识可能是以“分布式”的方式在大脑中产生的——由一些可以在相关概念之间共享的小型构建块组成。比如大脑中不会有两个分别代表“黑猩猩”和“大猩猩”的独立神经元网络相反不同的特征比如毛茸茸的、四足的、灵长类的、动物性的、聪明的、野生的等可能会以一种方式激活来代表“黑猩猩”以稍微不同的方式激活来代表“大猩猩”。在这些特征云中可能会加上“喜欢洋葱”这一属性。然而这种由特征构成的思维方式可能会导致混淆和错误如果将特质错误地组合在一起可能会产生一个既不是大猩猩也不是黑猩猩的幻想生物。但如果大脑拥有正确的学习算法它或许能调整神经元之间的权重优先生成合理的组合而不是无意义的拼凑。Hinton 继续探索这些想法先在加州大学圣地亚哥分校做博士后研究然后在剑桥大学从事应用心理学研究最后在卡内基梅隆大学。他于 1982 年成为该校的计算机科学教授。在卡内基梅隆期间他将大部分研究经费用于购买一台足够强大的计算机以运行神经网络。期间Hinton 和 Terrence Sejnowski 合作开发了一个神经网络模型——玻尔兹曼机Boltzmann Machine。1986 年Hinton、Rumelhart 和 Williams 在《自然》杂志上发表了一篇三页的论文展示了一个系统如何在神经网络中工作。他们指出反向传播backprop和玻尔兹曼机Boltzmann Machine一样并不是“大脑学习的一个合理模型”——与计算机不同大脑无法“倒带”来检查其过去的表现。然而反向传播仍然能够实现类似大脑的神经专门化。在真实的大脑中神经元有时会按照解决特定问题的结构排列。例如在视觉系统中不同的神经元“列”可以识别我们所看到的边缘。类似的现象也在反向传播网络中出现。网络的更高层会对较低层施加一种进化压力因此当一个网络被赋予识别手写体的任务时某些层可能会专注于识别线条、曲线或边缘。最终整个系统可以形成“适当的内部表征”。这个网络不仅“知晓”了信息还能加以运用。在 1950 年代和 60 年代感知机Perceptron和其他连接主义connectionism曾短暂兴起又逐渐衰落。反向传播作为其中的一部分也获得了广泛的关注。但构建反向传播网络的实际工作进展缓慢一部分原因是因为计算机的速度太慢。**Hinton 回忆道“进展速度基本取决于计算机一夜之间能学到多少东西。”**而答案往往是“不多”。在概念上神经网络的工作方式则显得神秘。传统编程方式无法直接为其编写代码你不能去手动调整人工神经元之间的权重。而且很难理解这些权重的含义因为它们会通过训练自动适应和改变。在学习过程中错误可能以多种方式发生。例如“过度拟合”会让网络只记住了训练数据而不是从中总结出通用的规律。避免这些陷阱并非易事因为神经网络是自主学习的。研究人员可以尝试通过“集成”技术将弱网络组合成一个强大的网络或“提前停止”让网络学习但不过度学习来应对这些问题。他们还可以通过“预训练”系统即先让玻尔兹曼机学习一些东西再叠加反向传播网络从而使系统在已经掌握了一些基础知识后才开始“监督”训练。然后他们会放任网络继续学习希望它能达到预期目标。新的神经网络架构也应运而生——“循环”网络和“卷积”网络。但这就像研究人员发现了一项陌生的外星技术却不知如何使用。Hinton 说“我始终坚信这不是胡说八道。”这并非出于信仰而是显而易见的大脑通过神经元学习因此通过神经网络进行复杂的学习必然是可能的。为了这一信念他愿意加倍努力并坚持更久。通过反向传播训练网络时网络需要被告知哪里出错了以及错误的程度这要求有大量准确标注的数据这样网络才能区分出手写的“7”和“1”或者区分金毛猎犬和红色雪达犬。然而找到足够大且标注良好的数据集并不容易构建新的数据集更是一项艰苦的工作。LeCun 及其合作者开发了一个包含大量手写数字的数据库后来他们用它来训练一个网络可以读取美国邮政服务提供的样本邮政编码。李飞飞主导了一个庞大的项目——ImageNet其创建过程涉及收集超过 1400 万张图像并手动将它们分为 2 万个类别。随着神经网络的不断扩展Hinton 发明了一种将知识从大型网络传递给较小网络的方法——蒸馏distillation——可以在手机等设备上运行。在蒸馏学习中一个神经网络不仅为另一个神经网络提供正确的答案还能提供一系列可能的答案及其概率这是一种更为丰富的知识传递方式。Hinton 不喜欢反向传播网络。因为与玻尔兹曼机不同“反向传播完全是确定性的。不幸的是它的确效果更好。”随着计算机性能的进步反向传播的威力渐渐变得无可否认。Hinton 做过一个计算。假设在 1985 年他开始不停歇地在一台高速计算机上运行一个程序。如今只需不到一秒钟的时间就可以赶上。进入 2000 年代随着配备强大计算机的多层神经网络开始在大规模数据集上进行训练Hinton、Bengio 和 LeCun 开始讨论“深度学习”的潜力。2012 年这项研究跨过了一个门槛。彼时Hinton、Alex Krizhevsky 和 Ilya Sutskever 推出了 AlexNet这是一个八层神经网络最终能够以人类水平的准确率识别 ImageNet 数据集中的物体。随后三人创办了一家公司并将其出售给了 Google。Hinton 拿这笔钱买下了开篇的那座小岛——“这是我唯一真正的放纵”。他坚信神经网络确实拥有情感2017 年 6 月Hinton、Bengio 和 LeCun 获取了图灵奖相当于计算机科学领域的诺贝尔奖。Hinton 坚信神经网络确实拥有某种情感即对行为倾向的一种描述方式。他在 1973 年见过一个“emo 的人工智能”。当时一台计算机连接着两台电视摄像头和一个简单的机械手臂系统的任务是将散落在桌子上的积木组装成一辆玩具车。“这在 1973 年是相当困难的”他说。“视觉系统可以识别分开的积木但如果你把它们堆在一起它就无法识别。所以它怎么做呢它稍微后退了一点然后砰地一下把积木撒得满桌子都是。**它无法应对当前的状况于是通过暴力改变了局面。**如果是人类这么做你会说他们感到沮丧。那台计算机无法正确地‘看到’积木于是它‘打乱’了积木。”Hinton 认为情感的本质就是对无法拥有之物的渴求。他叹了一口气。“我们不能活在否认之中我们必须面对现实。我们需要思考如何让 AI 对人类的威胁变得不那么可怕。”AI 会变得多么有用多么危险没有人知道。一部分原因是神经网络太神奇了。在 20 世纪许多研究人员想构建模仿人脑的计算机。但尽管像 GPT 这样的神经网络有数十亿个人工神经元在某种意义与人脑相似但它们与生物大脑有着本质上的不同。如今的人工智能存在于云端被安置在庞大数据中心。在某些方面人工智能显得无知而在另一些方面它又如天才般洞悉。它们或许已经通过了图灵测试——由计算机科学先驱 Alan Turing 提出的经典标准如果一台计算机能够在对话中令人信服地模仿人类它就可以被合理地认为在“思考”。然而直觉告诉我们驻留在浏览器标签页中的东西不可能以我们理解的方式真正“思考”。这些系统迫使我们反思人类的思维方式真的是唯一值得认可的思维方式吗担忧来源于凡人计算在谷歌工作的最后几年Hinton 集中精力开发更接近人类大脑思维方式的人工智能使用模拟大脑结构的硬件。在现今的人工智能系统中人工神经元之间的连接权重是以数字形式存储的仿佛大脑在为自己做记录。然而在人类真实的类比大脑中权重直接体现在神经元之间的物理连接中。Hinton 致力于通过专用计算芯片来创建这一系统的人工版本。Hinton 将这种方法称为“凡人计算”。如果能实现那将是极其惊人的。这些芯片能够通过调整它们的“电导”来进行学习。由于权重会被整合到硬件中无法从一台机器复制到另一台机器每个人工智能系统都必须独立学习。但这会使功耗从兆瓦级降低到三十瓦。由此带来的一个好处是鼓励个性化因为人类大脑只需通过消耗燕麦粥等简单食物就能运转世界可以支持数十亿个各不相同的大脑。每个大脑都能够持续学习而不是像当前的人工智能那样在一次训练后被推向世界。Hinton 说在数字智能中如果某台计算机死亡相同的连接权重可以被转移到另一台计算机上。甚至如果所有数字计算机都毁坏了只要你保存了这些连接权重你就可以制造另一台数字计算机并在其上运行相同的权重。成千上万个神经网络可以同时学习成千上万件不同的事物然后共享它们所学的知识。这种永生和可复制性的结合让 Hinton 觉得“我们应当警惕数字智能取代生物智能的可能性”。当前的人工智能技术在物理边界处常常显得笨拙无力。比如 LeCun 表示任何一个青少年都能在大约 20 个小时的练习中学会开车几乎不需要监督任何一只猫都能跳过一连串的家具爬到书架的顶端。今天的人工智能系统在这些方面无一接近完成除了自动驾驶汽车——但它们过度设计要求“将整个城市绘图数百名工程师成千上万小时的训练”。因此解决物理直觉的这些棘手问题将成为未来十年的主要挑战。Hinton 认为对人工智能潜力的怀疑往往源于人类无端的优越感。研究者们抱怨人工智能聊天机器人“幻觉”即在面对无法解答的问题时编造出貌似合理的答案。对此Hinton 不认同“幻觉”一词。他说我们应该说“虚构”。“幻觉”是指你以为有感官输入——听觉幻觉、视觉幻觉、嗅觉幻觉。而只是编造事情那是“虚构”。有趣的是在人类看来编造和说实话之间没有界限。说实话只是正确地编造。从这个角度来看ChatGPT 的编造能力是一个缺陷但也是其类人智能的标志。Hinton 经常被问是否后悔自己所做的工作。他回答并不后悔。毕竟当他开始研究时没人觉得这项技术会成功即使它开始成功也没有人想到它会那么快。正是因为他认为人工智能是真正的智能他期望其将在许多领域做出贡献。虽然他也同样担忧人工智能的未来。两次陷入绝境死磕四十年他一个人扛起 AI1947 年杰弗里·辛顿出生于伦敦他的曾曾祖父是发明布尔代数的人。少年辛顿听说大脑是一个由神经元连接而成的网络记忆存储在神经元之间的连接强度里。大学时发现自己真正想研究的是心智如何从物质中涌现。70 年代初去爱丁堡大学读人工智能博士。导师起初支持神经网络方向但后来转向了符号 AI。符号主义认为智能就是逻辑推理就是规则和符号的操作。神经网络毫无希望。1969 年明斯基用数学证明了简单神经网络无法解决异或问题判了神经网络死刑。找不到工作的辛顿离开英国去了美国继续研究并行分布式处理和连接主义。1982 年物理学家约翰·霍普菲尔德发表了论文把神经网络想象成一个能量系统记忆就是能量最低的那些状态——就像一个球滚入山谷。1983 年辛顿在 Hopfield 网络的基础上发明了玻尔兹曼机让网络自己从数据中学习模式而不是由人类手动编写规则。1986 年辛顿与人一起阐述了反向传播算法你给网络一个任务它做错了然后错误信号从输出层一层一层往回传告诉每个连接你该调大一点还是调小一点。多层神经网络可以学习了。但好景不长——人们很快发现当时的计算机算力太弱数据也太少神经网络在实际应用中表现平平。1987 年之后学术界再次抛弃了神经网络。随后将近二十年辛顿流亡多伦多大学。1989 年辛顿的另一位学生杨立昆在贝尔实验室开发了 LeNet——一个用卷积神经网络识别手写数字的系统。2006 年辛顿发表了一篇关于深度信念网络的论文提出了一种逐层预训练的方法来训练深层网络。2012 年火山爆发。辛顿和他的两个学生用一个叫 AlexNet 的深度卷积神经网络参加 ImageNet 图像识别大赛大获全胜。2014 年辛顿的学生发明了生成对抗网络GAN。AI 从此不仅能识别还能创造。2017 年谷歌大脑团队提出了 Transformer 架构。其根基——注意力机制、梯度优化、大规模参数训练——全都建立在辛顿的地基上。公开警告 AI 可能毁灭人类。他开始恐惧自己的造物。2024 年辛顿在廉价旅馆得知自己获得诺奖。在漫长的一生里辛顿说“我习惯了房间里只有我一个人是对的。”AI 正在毁掉下一个 Hinton原创 发现明日产品的 APPSO 2026 年 3 月 28 日 17:58 广东多年以后面对诺贝尔奖杯Geoffrey Hinton 也许会回想起 1986 年那篇没什么人看好的论文以及几个年轻人愿意陪他一起写代码跑实验的那个下午。今天这样的年轻人正在消失。1986 年Hinton 发表了反向传播算法的关键论文。当时他是一个年轻的认知科学研究者做的方向没什么人看好神经网络在学术界是边缘话题。他有的东西很少一个职位不高的学术岗位、一群愿意跟他一起写代码跑实验的初级研究者以及足够的试错空间。现在这三样东西都在被 AI 吃掉。48 位科学家的答案今年 2 月Nature 采访了 48 位不同学科的研究学者提了一个直接的问题AI 正在威胁哪些科学岗位答案出人意料地一致。正在被替代的是纯认知型任务写代码、跑模型、做数据分析这些曾经是研究生、博士后和初级研究人员的日常工作现在 AI 做得更快更好。MIT 机械工程教授赵宣赫说得直白「这甚至不是未来的事是正在发生的事。」Stanford 计算生物学家 Brian Hie 更绝实验室专门雇来写代码的研究程序员「这个岗位现在已经过时了。」威斯康星大学计算生物学家 Hannah Wayment-Steele 说如果她五年前建实验室一定会招一个研究程序员。但现在「我真的看不到这个必要了。」原因之一当然是预算越来越吃紧但另一个原因也很明确AI。还替代不了的是动手做实验的人、提出原创问题的人、组织协调整个研究项目的人。伦敦大学学院量子物理学家 Jonathan Oppenheim 说AI「没有能力真正提出新颖的想法」。至于 AI 控制实验室「还无法完成很多任务也难以解读实验结果。」这形成了一个奇特的分裂AI 最能够替代的恰恰是科学家职业生涯的起点。这并非科学界独有的现象。过去一年的多项研究都指向同一个结论AI 对劳动力市场的冲击集中在入门级岗位。Revelio Labs 的数据显示自 2023 年以来美国入门级岗位的招聘发布量下降了 35%。Snowflake 与 Omdia 的联合报告发现在所有因 AI 导致的岗位削减中63%发生在入门级别。Stanford 数字经济实验室的研究更具体在 AI 高暴露职业中22 至 25 岁年轻人的就业率自 2022 年以来下降了近 20%。在岗者的失业率没有显著上升但新人的入职率在下降。科学界是这个趋势最清晰也最危险的案例。在大多数行业入门级岗位的消失意味着年轻人少了一个挣钱的机会在科研领域入门级岗位的消失意味着一个学科失去了培养下一代科学家的通道。门票消失了数据分析、写代码、跑模型这些任务听起来是「基础工作」但它们同时是年轻科学家进入学术圈的门票。你不会一上来就成为大牛你得先当研究生帮导师跑数据、写代码、调参数。在这个过程中你学会如何提问、如何设计实验、如何在失败中发现方向。这些才是 AI 做不了的事。但你需要先做那些 AI 能做的事才能学会那些 AI 做不了的事。这就是问题所在。当研究程序员不再必须当研究生名额被压缩当「写代码跑数据」这个入口被 AI 堵死年轻人进入科学共同体的路径就断了。UT Austin 计算生物学家 Claus Wilke 的警告是整篇文章最重的一句话「可能短期内每一块钱的预算可以有更多的产出但代价是人才管道的崩塌和长期衰退。」这句话说得严重点省了一个研究生的工资但可能毁了一个未来的 Hinton。Nature 这篇报道里有一个容易被忽略的细节美国翻译协会科技翻译分会的成员人数在 2.5 年内下降了 26%。曾经翻译临床试验文件的译者 Jaime Russell 现在转行做了医疗口译因为口译需要的实时判断和人际感知AI 还做不到。但她认识的同行里有人已经在送外卖……「很令人难过」她说。这展示了 AI 入局后的两种走向一种是「迁移」你还能找到 AI 够不着的相邻岗位另一种是彻底出局。不过弗吉尼亚大学经济学家 Jerry Qian 对 AlphaFold2 的研究提供了一个更有希望的案例。AlphaFold2 能以接近实验精度预测蛋白质结构成本只是传统方法的零头。Jerry Qian 发现在 AlphaFold 能高置信度预测的蛋白质上人类的实验研究产出下降了 35%。但科学家并没有失业他们转向了 AlphaFold 预测不好的蛋白质专攻 AI 搞不定的难题。「AI 没有让科学家变得无关紧要」人类找到了自己的相对优势。当 AI 跑马圈地在场内的科学家就会迁徙到 AI 边界之外。但关键词是「在场内的」他们有知识、有经验、有判断力知道该往哪迁。AI 正在毁掉下一个 Hinton那下一代还没进场的人呢1986 年的 Hinton 在做什么写代码跑实验调参数。他做的每一件事都是今天 Nature 调查中被列为「正在被替代」的任务。如果他生在今天搞不好连进实验室的机会都没有。尤其是他想做的方向既边缘、又太不确定有没有未来会拿宝贵的资源和预算给到他实属押宝。这个问题的尖锐之处在于**从纯粹经济的角度看这完全理性。**如果 AI 能在两小时内完成一个研究生两周的数据分析工作为什么还要招人经费有限出来混要的是产出不是慈善。Nature 调查中的每一个被砍掉的初级岗位都有充分的局部理由。但当所有局部理性的决策成立时系统性的后果就浮现了整个学科的人才入口在收窄。这是一个经典的集体行动困境**每个个体的最优解加在一起产生了集体的最差解。**短期内论文产量上升长期看科学共同体萎缩。更多的研究更少的研究者。Nature 的调查显示这不是假设它已经在发生。AI 替代的当然不是 HintonAI 替代的是 Hinton 成为 Hinton 之前的那个人。Terence Tao 在 Nature 里说「如果我们适应——我认为我们必须适应——那我们就能存活」。但 Tao 说的是已经在场内的人问题是重点不在于现在的科学家能不能适应而是未来的科学家还有没有机会进场去适应。谁负责培养 AI 做不了的事的人科学究竟靠什么进步有时候就是靠那一点灵光一现靠某个人在某个深夜看着一组异常数据突然想到「等一下如果这不是异常呢」。这种直觉不是从课本上学的是在无数次失败的实验和数据清洗中磨练出来的。2016 年李世石对弈 AlphaGo第 78 手棋超出了 AI 的判断范围被称为神之一手记者捕捉到李世石下场后的笑容. 图片来自news1Hinton 之所以能在神经网络的寒冬中坚持三十年不是因为他有超人的智力而是因为他在早期做过足够多「基础工作」积累了对问题的深层直觉。这些直觉不能被 prompt 出来也不能被 fine-tune 出来。这些支撑起了他在关键时候的一点灵光正如李祀石对战 AlphaGo 时的第 78 手。所以 48 位科学家的答案真正的含义不是「AI 替代不了什么」而是我们正在切断培养「AI 替代不了的人」的唯一路径。人才管道一旦崩塌不是明年的问题是十年后的问题。到那时候AI 也许能写出所有的代码——但谁来告诉它该写什么ReferenceX热点30年冷板凳诺贝尔物理学奖得主Hinton的AI往事https://mp.weixin.qq.com/s/unfM5kXkC7cXp2Z2dgVRxQ两次陷入绝境死磕四十年他一个人扛起AIhttps://mp.weixin.qq.com/s/hvBqiMCCU35F7WX-7nWqBwAI 正在毁掉下一个 Hintonhttps://mp.weixin.qq.com/s/jo8LIamA7NxUIWmAnbCIVg

相关文章:

辛顿 | 我习惯了房间里只有我一个人是对的

注:本文为 “辛顿 | 智者历程” 相关合辑。 略作重排,如有内容异常,请看原文。 X 热点|30 年冷板凳,诺贝尔物理学奖得主 Hinton 的 AI 往事 原创 Rika 适道 2024 年 10 月 9 日 11:13 北京 作者:Rika 编辑…...

数字丝路新基建:HAKUNA MATATA发布OpenClaw智能系统,为中非合作打造双向“数字龙虾“

——非洲驻华使馆专属智能发布系统暨中国企业对非智能决策平台正式上线【中国,北京/杭州,2026年4月12日】 在2024年中非合作论坛北京峰会精神持续深化落实、中非经贸合作迈向"真实亲诚"新时代的背景下,非洲综合服务平台HAKUNA MATA…...

口碑好的不锈钢彩涂板服务商

最近跟一个做钢结构厂房的老哥聊天,他跟我大倒苦水,说去年一个项目用的彩涂板,还没到一年,沿海的盐雾一吹,表面就开始起泡、褪色,甲方天天追着屁股后面要求返工,赔钱不说,信誉都快赔…...

LightOnOCR-2-1B效果对比:vs PaddleOCR、EasyOCR在多语言场景表现

LightOnOCR-2-1B效果对比:vs PaddleOCR、EasyOCR在多语言场景表现 当你需要从图片里提取文字时,是不是经常遇到这样的烦恼:中文识别还行,但一碰到英文、日文或者混合了多种语言的文档,准确率就直线下降?或…...

OpCore Simplify:如何用图形化工具快速完成黑苹果EFI配置?

OpCore Simplify:如何用图形化工具快速完成黑苹果EFI配置? 【免费下载链接】OpCore-Simplify A tool designed to simplify the creation of OpenCore EFI 项目地址: https://gitcode.com/GitHub_Trending/op/OpCore-Simplify 还在为复杂的OpenCo…...

怎么查询MongoDB中数组长度大于N的文档_基于索引的额外长度字段方案

MongoDB中用$expr$size查数组长度大于N的文档虽原生支持,但无法走索引,适合中小集合或配合其他可索引条件使用;而维护tags_length字段并建索引可实现高效范围查询,前提是严格保证写时一致性。用 $expr $size 直接查数组长度大于 …...

3步搞定微信聊天记录完整备份:WeChatExporter终极免费解决方案

3步搞定微信聊天记录完整备份:WeChatExporter终极免费解决方案 【免费下载链接】WeChatExporter 一个可以快速导出、查看你的微信聊天记录的工具 项目地址: https://gitcode.com/gh_mirrors/wec/WeChatExporter 微信聊天记录中保存着珍贵的记忆和重要的工作沟…...

别再只用wx.hideHomeButton了!聊聊微信小程序导航栏控制的那些‘潜规则’与最佳实践

微信小程序导航栏控制的深度解析与实战策略 在小程序开发中,导航栏控制看似简单,实则暗藏玄机。许多开发者习惯性地使用wx.hideHomeButton来隐藏返回按钮,却忽略了微信小程序导航系统的完整逻辑和潜在规则。本文将从小程序导航机制的核心原理…...

软件课题测评报告这样写才专业

一份具备靠谱特性的软件课题测评报告,绝非是简单地去罗列几个功能的通过或者不通过情况,而是成为评判软件“含金量”的那块试金石。今天,我们要结合行业最新动态 ,手把手地教你写出真正具有说服力的测评报告。前几天 ,…...

018、CI/CD流水线设计与GitOps实践:从一次深夜发布事故说起

018、CI/CD流水线设计与GitOps实践:从一次深夜发布事故说起 凌晨两点,手机突然开始疯狂震动。线上服务监控显示某核心接口响应时间从50ms飙升至5秒,自动扩容已经触发到极限实例数。团队紧急回滚到上一个版本,系统才逐渐恢复平静。事后排查发现,是新版本中一段数据库查询代…...

别再乱选工业镜头了!手把手教你根据海康相机靶面、工作距离和畸变选对FA镜头

工业镜头选型实战指南:从靶面尺寸到畸变控制的完整决策框架 第一次接触工业镜头选型时,我被参数表上密密麻麻的数字弄得晕头转向——焦距、光圈、靶面尺寸、工作距离,每个参数看起来都很重要,但组合起来却像一团乱麻。直到在一次P…...

MetaboAnalystR 4.0:代谢组学数据分析的终极R包指南

MetaboAnalystR 4.0:代谢组学数据分析的终极R包指南 【免费下载链接】MetaboAnalystR R package for MetaboAnalyst 项目地址: https://gitcode.com/gh_mirrors/me/MetaboAnalystR MetaboAnalystR 4.0是一个功能强大的R语言代谢组学分析工具包,为…...

LP8 CO₂传感器Arduino库详解:MODBUS-RTU通信与NDIR数据处理

1. LP8 CO₂传感器Arduino库深度解析与工程实践指南1.1 库定位与核心价值LP8 CO₂传感器Arduino库是一个面向嵌入式环境的轻量级、高可靠性MODBUS-RTU通信封装库,专为意法半导体(STMicroelectronics)旗下LP8系列非分散红外(NDIR&a…...

我不是狐狸,我是那Harness Engineering冻

Julia(julialang.org)由Stefan Karpinski、Jeff Bezanson等在2009年创建,目标是融合Python的易用性、C的高性能、R的统计能力、Matlab的科学计算生态。 其核心设计哲学是: 高性能:编译型语言(JIT&#xf…...

【springbot整合拦截器】

springboot 整合拦截器,纯AI查询整理的,供自己查看用,不清晰的自己再搜下其他资料 拦截器的概述 作用:拦截 Controller 请求,在进入 Controller 之前 / 之后 / 渲染页面前后做处理 典型场景:登录校验、日志…...

PyMICAPS:气象工作者的终极Python可视化神器,让你的数据分析效率提升300%

PyMICAPS:气象工作者的终极Python可视化神器,让你的数据分析效率提升300% 【免费下载链接】PyMICAPS 气象数据可视化,用matplotlib和basemap绘制micaps数据 项目地址: https://gitcode.com/gh_mirrors/py/PyMICAPS 还在为复杂的气象数…...

【笔试真题】- 团子-2026.04.11-研发岗

📌 点击直达笔试专栏 👉《大厂笔试突围》 💻 春秋招笔试突围在线OJ 👉 笔试突围在线刷题 bishipass.com 团子-2026.04.11-研发岗 这套 4 月 11 日的美团研发岗整体不算偏难,但题型切得很开。第一题是典型热身,第二题开始考你能不能把局部约束整理成可执行的构造,…...

高光谱成像基础(十二)光谱重建(Spectral Reconstruction)姑

认识Pass层级结构 Pass范围从上到下一共分为5个层级: 模块层级:单个.ll或.bc文件 调用图层级:函数调用的关系。 函数层级:单个函数。 基本块层级:单个代码块。例如C语言中{}括起来的最小代码。 指令层级:单…...

龙芯k - 走马观碑组ST驱动移植该

正文 异步/等待解决了什么问题? 在传统同步I/O操作中(如文件读取或Web API调用),调用线程会被阻塞直到操作完成。这在UI应用中会导致界面冻结,在服务器应用中则造成线程资源的浪费。async/await通过非阻塞的异步操作解…...

BilibiliDown:打造你的个人B站视频库,高效管理离线内容

BilibiliDown:打造你的个人B站视频库,高效管理离线内容 【免费下载链接】BilibiliDown (GUI-多平台支持) B站 哔哩哔哩 视频下载器。支持稍后再看、收藏夹、UP主视频批量下载|Bilibili Video Downloader 😳 项目地址: https://gitcode.com/…...

【笔试真题】- 淘天-2026.04.11-算法岗

📌 点击直达笔试专栏 👉《大厂笔试突围》 💻 春秋招笔试突围在线OJ 👉 笔试突围在线刷题 bishipass.com 淘天-2026.04.11-算法岗 1. 卢小姐的字符轮转表 问题描述 说明:阿里系列近期多条业务线笔试题基本共用同一套公开机试,淘天、阿里云等方向都可参考本场。 …...

STM32 HardFault_Handler:从寄存器解码到源码定位的实战指南

1. 初识HardFault:当你的STM32突然"罢工" 第一次遇到STM32程序跑飞进入HardFault_Handler时,那种感觉就像开车时突然抛锚——仪表盘亮起故障灯,但你完全不知道引擎舱里发生了什么。作为嵌入式开发者,HardFault是我们最常…...

linux——TCP多线程并发服务器

多线程服务器 可以同时处理多个客户端旧版:一次只能接一个客户,客户不走,别人连不进来。新版:来一个客户,创建一个线程专门服务,同时支持 N 个客户端!主函数加了一个while(1)循环pthread_t tid…...

HL1606 LED灯带PWM驱动库:9/12/15位可配置灰度实现

1. HL1606 LED Strip PWM 库深度技术解析HL1606 是一款经典的串行级联LED驱动芯片,广泛应用于早期RGB LED灯带(如Adafruit早期的“NeoPixel前身”方案)。与WS2812B等单线协议芯片不同,HL1606采用标准SPI接口配合独立锁存信号&…...

从编译到实战:用MRtrix3处理你的第一份DWI数据(附macOS Ventura适配指南)

从编译到实战:用MRtrix3处理你的第一份DWI数据(附macOS Ventura适配指南) 第一次打开MRtrix3的命令行界面时,那种面对未知领域的兴奋与忐忑,相信每位神经影像研究者都深有体会。这个开源的弥散磁共振成像处理工具&…...

让开发流程更高效:为 Visual Studio 订阅用户解锁 Syncfusion苟

一、什么是requests? requests 是一个用于发送HTTP请求的 Python 库。 它可以帮助你: 轻松发送GET、POST、PUT、DELETE等请求 处理Cookie、会话等复杂性 自动解压缩内容 处理国际化域名和URL 二、应用场景 requests 广泛应用于以下实际场景: …...

记录复现多模态大模型论文OPERA的一周工作()杖

pagehelper整合 引入依赖com.github.pagehelperpagehelper-spring-boot-starter2.1.0compile编写代码 GetMapping("/list/{pageNo}") public PageInfo findAll(PathVariable int pageNo) {// 设置当前页码和每页显示的条数PageHelper.startPage(pageNo, 10);// 查询数…...

ADS126X高精度Δ-Σ ADC驱动开发与工业应用实战

1. ADS126X高精度Δ-Σ ADC驱动库深度解析:面向工业级嵌入式系统的底层实现与工程实践ADS126X系列是德州仪器(Texas Instruments)推出的24位、超低噪声、高集成度Δ-Σ模数转换器,涵盖ADS1262与ADS1263两款核心型号。该系列专为高…...

别再当‘炼丹’黑盒侠了!用Grad-CAM给你的PyTorch/TensorFlow模型做个‘X光’检查

深度解密Grad-CAM:像外科手术般精准剖析CNN决策逻辑 当你的图像分类模型在测试集上表现优异,却在真实场景中频频出错时,作为开发者的你是否感到困惑?我们常常陷入一个怪圈:模型准确率很高,却不知道它究竟&q…...

Triton + RISC-V忱

. GIF文件结构 相比于 WAV 文件的简单粗暴,GIF 的结构要精密得多,因为它天生是为了网络传输而设计的(包含了压缩机制)。 当我们用二进制视角观察 GIF 时,它是由一个个 数据块(Block) 组成的&…...