这一波人工智能泡沫将会怎么破灭?

[复制链接]
帝国王子 发表于 2023-7-31 01:24:41|来自:北京 | 显示全部楼层 |阅读模式
很明显的,以深度学习为主力的这一波人工智能浪潮,从我高三吹到了我大四毕业,很明显深度学习不可能处理复杂的任务,虽然号称模拟大脑,但是几乎与认知科学的研究隔绝。各大互联网公司都争先投入大量资源,连英伟达都加入战团。

我感觉深度学习致命一点是不能应用在太多普通用户的产品上面,只适合搜索引擎和学术方面,现在主要的产品基本都是为搜索引擎服务的,普通的创业者根本没机会玩,数据不如大公司多,普通用户也没有那个需求。

深度学习既不会像图形操作界面或者互联网那样改变大部分人的生活,也不会像3D打印那样有改变生产方式的趋势,20年之内几乎不会减少白领的工作量。

看来深度学习很精巧,结果很漂亮,实际华而不实。
全部回复5 显示全部楼层
ebchina 发表于 2023-7-31 01:25:09|来自:北京 | 显示全部楼层
我比较担心的是这一波人工智能的传统工科化。
计算机行业发展历史很短,但却非常迅速的一个原因,是在相当长的时期工程师的试验成本是非常低的。90年代以来的很多创业神话,往往是几个人甚至一个人,用电脑就能制造出对世界价值巨大的产品。在这个过程中,人的价值得到了最大化的发挥,而固定成本投入的占比则非常低。
而传统工科的状态呢。做任何事情都有着巨大的固定成本投入。这里就算是比较低的电子工程,想自己做个简单产品的全流程也往往是一个人难以承受的。而机械、化工、生物等领域,想作出个有价值的最小价值产品(MVP)的投入,往往是中产之家也难以承担的。
这一波人工智能就有这非常明显的传统工科特点。无论是大语言模型,还是AI绘画。都需要显存巨大的显卡算力。想要达到最低门槛的玩具级模型的算力需求,也需要数万元。想做入门级的试验则需要投入数百万上千万。这个投入并不是说少花点钱,慢一点可以接受。而是没有足够的一次性投入硬件,这些模型根本就没法载入显存进行计算,是个硬性门槛。
在这一波人工智能热潮中,我也看到了很多传统工科化的顽疾了。人们之间不再比拼自己的算法设计,架构设计,模型设计。而是吹嘘自己拥有了多少显卡算力。工程师和科学家的智慧在整个系统中的重要性在持续降低。这跟传统工科中吹嘘自己拥有多么昂贵的进口设备和工具一样,人变的不重要,在昂贵的设备和工具面前矮化自己。

回到题主的问题,这一波人工智能热潮的传统工科化,高昂的固定投入成本,会导致能参与这波热潮的人变得很少,进而导致技术进化缓慢。在人们逐渐发现了这一波技术的能力边界以后,难以拉上更多的人去推进技术的发展。
以大语言模型为例,只有模型参数量达到了一个足够大的水平,才会出现神器的涌现能力。而要达到这个门槛,最低也要数百万人民币的投入。加上算力迭代速度快,这个投入更可能是每年几百万。估计即便是985大学,也只有一部分能负担的起这个费用。国内的互联网公司,能参与进去这一波热潮的公司,大概率也只有十几家到小几十家。而想要跟OpenAI等公司进行算力上对等的发展,则需要每年数十亿的资金来购置和更新设备。这样的环境会导致人才断层。当一个公司想扩大研发规模时,将无法从大学或其他中小规模公司找到人。
计算机行业在过去几十年来,都是个不问出身,只看产出的环境。我身边的朋友就见过各种不同专业转行来的,学历可以低至中专和体育生。但这些年计算机行业的低门槛,使得钱没有成为限制他们成长的桎梏。而现在的人工智能热潮,则正在把绝大部分人拦在门外,成为一个传统工科。
Prety 发表于 2023-7-31 01:25:27|来自:北京 | 显示全部楼层
大部分的回答都是五年以前了。最近在考CQF,课题就是人工智能的资本量化分析,同时又在做深度学习的底层工作(非对比式自监督学习)。在这里从金融(面向业界)和科学(面向学界)两个角度分别分析,并且综合两者提供面向从业者和投资人的建议。
先上结论。

  • 深度学习的大方向并没有问题,基于梯度的学习算法是一个非常solid的启发式算法,拥有很强的生命力,在现在以及将来都会持续展示其能力。从业者需要继续努力,投资人需要保持信心。
  • 深度学习展现出的黑箱性质使得深度学习快速趋于饱和。即使基于梯度的方法带来了很好的效果,并没有研究(包括梯度提出人Yann LeCun)能够指出深层模型的运作机理,整个行业成为经验行业,缺乏统一性。
  • 由于资本的短期逐利效应,加之深度学习社区的逐渐低龄化、泛学科化,单纯以深度学习的应用作为竞争力的从业者将很快被淘汰,单纯面向深度学习的资本也会很快成为泡沫。
  • 从业者如果希望自己保持竞争力,需要尽量多学习底层数学原理,不要急于求成进行实验。很多数学底子好的从业者因为急功近利,并没有系统地学习底层数学,过早投入学界业界,导致后劲不足,大有“伤仲永”的人在。特别是本科和硕士阶段,要将做项目的时间抽离出来多放到底层原理的学习,这可以帮助从业者形成对于黑箱的原理解读,极大提升从业者能力上限。要提升能力,不要盯着ArXiv、顶会文章一顿读,先去读经典。
  • 投资人不要认为深度学习有什么魔法,有点水平的程序员很轻松就能写出优雅的深度学习代码。不要被深度学习的表象迷惑,要看公司是如何运用深度学习的,是如何将深度学习和实际产业结合的,关键在于可落地性。要深刻意识到深度学习的黑箱性质,尽量把资本投向有深度的公司和项目,而不是刚创业就喊着颠覆业界的upstart们。这种刚创业就自命不凡的团队,大部分都是刚从公司和高校走出来的萌新,完全不懂知识落地的难度。
如果你对哪一点有疑问,请继续读。

<hr/>首先看看金融。“泡沫“是一个资本术语,不是科学术语。谈金融要看业界,不能看学界。“泡沫”表示资本(理性经济人)的投入大于项目短期的经济价值,这种状态一般发生在业界。学界很穷,教授也要靠带横向和公司合作赚点外快,根本没有泡沫之说。这一般只在微观经济学中讨论,目标是快速得到金融实体的自身利益。很好理解,不管是散户还是金融集团,投资肯定是为了赚快钱
注意,这里深度学习公司和资本家是对立的。资本家/散户是为了赚快钱;公司(知识资源的所有者)的最终目标虽然也是赚钱,但是其收支预期变化率比资本(知识资源的支持者)小的多。为了公司的利益,公司会进行多轮面向资本方的项目融资会议,在这个时候会大力宣传项目的知识特色。例如深度学习,现在创业公司基本上都会提,已经到了不提甚至没脸开会的地步。
总结一下,资本这边:资本期望快速回报;泡沫夸大短期价值;公司融资获得启动资金。
再来看看科学。谈科学要看学界,不能看业界,业界比学界慢5-8年。深度学习现在主要的应用就是在CV和NLP,这俩算是应用链里的顶层,性能确实比传统方法优秀不少。但深度学习最大的问题在于,模型具有很强的不可解释性(黑箱性),这导致学界的整体研究方向五花八门,CVPR有八成文章做的模型都没法说明白为什么,剩下来偏规则的图形学和底层机器学习的文章凤毛麟角:一来没有库可以调用,实验慢;一来对数学要求很高,因为底层是可解释的,必须解释清楚,这样就难度大。大家都想着两三个月入门顺便投顶会,很难考虑这些方向。NLP更是露骨,直接出了叫EMNLP(基于经验方法的NLP)的顶会。Transformer这种大模型也是NLP先出来的,到现在也没人清楚性能好的理由,更不用提基于Transformer之上的BERT、GPT-2等大语言模型。更让人不安的是,现在大公司都在进行大语言模型(VLSLM)军备竞赛,因为发现模型在某些任务上的性能已经超越了人类(如PaLM),文章中已经几乎不提模型原理了。
科学上资源的聚集效应带来了不均衡。底层投入少,通用人工智能(AGI)也鲜有发展。关注CV和NLP的同学肯定很苦恼,每天公众号都被小打小闹淹没,看不到知其所以然的任何推理。这导致深度学习的入门门槛越来越浅,下至本科生,甚至高中生都能发表顶会(特别是CV这边,本科就有几篇CVPR的人不在少数)。审稿水平也值得质疑,各种水平不等的论文都能够被接收,而绝大多数都是在缝合模型刷点或者提出并没有太大意义的benchmark,更有甚者为了增加出版量一个模型套几个任务全部中了顶会,却没有一套完整的理论体系进行支持。缺乏深度的研究如果成为了学界主流,这个学科就会出现泡沫。一份出色的科学工作,应当从知识入手,讲清楚模型为什么能够实现这么好的性能;而且解释不能停留在应用层,要下化到神经层。上看网络结构和任务的匹配度,下看网络结构的数学特征,把黑箱一层一层拆开来。今年CVPR 2022的Best Paper就有这种世外桃源的感觉,是一个好的兆头;但是还是那个问题,大方向不对,总体还是走在老路上。
另外,很多其实很有实力的学生,因为过早进入某个深度学习的分支,缺乏对整个深度学习方向的理解,逐渐丧失了对深度学习的想象力,看上去成果颇丰,在真正问一些问题insights的时候却基本答不上来。这种同学非常让人可惜,本质还是在资本的浪潮下随波逐流。如吴恩达所说,深度学习是一门基于经验的学科,高度决定亮度。这里的“经验”不是说一上来就去做很多项目、打怪获得经验——没个三五年基础知识的积淀是没法内化经验的。大部分项目都停留在应用的高度,很多人连聚类都不懂,上来一通神经网络算法,性能不错,但没有本质上能力的提升。一个真正有意义的项目,是在不断的实验中诞生的,能够进行各种算法的比较,例如观察基于梯度的方法和基于隐变量的方法在同一批数据上的不同行为,通过这种不断的实验和比较才能使自己的建模能力和应用能力得到质的提升。这才是吴恩达说的“有深度的深度学习”。注意,黑箱虽然意味着入门门槛浅,但并不意味着每个人对黑箱的理解是一致的。换句话说,黑箱学科确实门槛低,但是不意味着上限低,只能说明入门后的实质提升难,并且由于深入研究困难容易达到学科饱和。事实证明,对于底层理解更透彻的学者更有提升学科上限,并创造性研究的可能。深度学习三大图灵奖得主之一Hinton曾说,启发式算法虽然无法被证明是最好的,但是如果不明白它为什么比另一个规则方法或启发方法好,那么对它的应用是苍白的。梯度方法就是典型的启发式算法之一。
总结一下,科学这边:黑箱浓度太高,学习门槛太低,研究功利心强。
现在大家思考一下为什么科学这边很少有人做原理的探究——因为没有资本。为什么功利心强?因为有资本
根据调查,深度学习这一块学界的主体是硕博。大部分文章都是硕博在做,博后和教授都在当PR。其中,硕士80%奔向产业界,20%深造为博士;博士70%奔向产业界,30%深造为博士后(数据来自实验室教授的统计)。换句话说,整个深度学习社区由于追求快速产出,对领域有深刻认知的巨佬们并不直接参与项目的开发,导致社区低龄化。低龄化社区的最大问题是学术的利益性增强,因为硕博以后是要去业界的,研究方向很大程度上受资本影响。又因为资本的短期逐利性,整个社区的研究方向也会变得短视。资本往对话系统去,大家就去做对话系统;资本往目标检测去,大家就去做目标检测。什么方向好就业,什么方向薪资高,就往什么方向做,想着多几段这个方向的经历总不是坏事。
这种短期逐利行为带来的最大问题就是领域整体的投入不能获得应有的深度。这并不是说领域没有发展,领域确实发展的很好,特别是在应用上。但是精英人才都被用在了学科应用上,几乎无人深入探究梯度方法背后的原理。现在大部分项目都只需要调库,会点PyTorch就可以完成大多数应用。加之Copilot这样的自动写代码软件横空出世,不出几年,整个行业高地就会被几乎不理解底层原理的程序员占领。这就是为什么现在学校里一些杂七杂八专业的本科生,甚至高中生都能够进入这个领域,做项目也能做的风生水起。说的难听点,这些基本上都是缺乏积淀的低水平项目。门槛低已经成为了程序员和深度学习研究领域的代名词,“深度学习缺乏深度”也已经是学界业界公认的事实。加之资本的短期逐利性,整个学界已经呈现出疲态。
因此,在这里,笔者留下对各位深度学习从业者,以及投资人的建议。

  • 深度学习的大方向并没有问题,基于梯度的学习算法是一个非常solid的启发式算法,拥有很强的生命力,在现在以及将来都会持续展示其能力。从业者需要继续努力,投资人需要保持信心。
  • 深度学习展现出的黑箱性质使得深度学习逐渐趋于饱和。即使基于梯度的方法带来了很好的效果,并没有研究(包括梯度提出人Yann LeCun)能够指出深层模型的运作机理,整个行业成为经验行业,缺乏统一性。
  • 由于资本的短期逐利效应,加之深度学习社区的逐渐低龄化、泛学科化,单纯以深度学习的应用作为竞争力的从业者将很快被淘汰,单纯面向深度学习的资本也会很快成为泡沫。
  • 从业者如果希望自己保持竞争力,需要尽量多学习底层数学原理,不要急于求成进行实验。很多数学底子好的从业者因为急功近利,并没有系统地学习底层数学,过早投入学界业界,导致后劲不足,大有“伤仲永”的人在。特别是本科和硕士阶段,要将做项目的时间抽离出来多放到底层原理的学习,这可以帮助从业者形成对于黑箱的原理解读,极大提升从业者能力上限。要提升能力,不要盯着ArXiv、顶会文章一顿读,先去读经典。
  • 投资人不要认为深度学习有什么魔法,有点水平的程序员很轻松就能写出优雅的深度学习代码。不要被深度学习的表象迷惑,要看公司是如何运用深度学习的,是如何将深度学习和实际产业结合的,关键在于可落地性。要深刻意识到深度学习的黑箱性质,尽量把资本投向有深度的公司和项目,而不是刚创业就喊着颠覆业界的upstart们。这种刚创业就自命不凡的团队,大部分都是刚从公司和高校走出来的萌新,完全不懂知识落地的难度。
likeart 发表于 2023-7-31 01:25:35|来自:北京 | 显示全部楼层
很明显深度学习不可能处理复杂的任务
按照二八定律,只要能解决简单的问题,就已经解决了大部分的问题。所以无所谓。
不能应用在太多普通用户的产品上面
即使是最烂、同时也是经典的图像识别任务,网络女主播的自动面孔识别,停车场改善车牌号识别,算不算普通的产品?
你说这话,说明你对身边的科技产物毫无直觉并且习以为常。
看来深度学习很精巧,结果很漂亮,实际华而不实。
都在瞎逼调参、调结构、调学习方法,和生物搬砖一样,精巧个蛋。
似猪非猪 发表于 2023-7-31 01:26:20|来自:北京 | 显示全部楼层
谢邀
泡沫的破灭是商业周期的变化,是人类金融社会机制的正常现象,但泡沫的出现与否都不能掩盖机器智能快速发展的事实。因此,与其关注金融现象,不如多思考如何理解机器智能发展的规律,加以利用,把握先机。
人类对于机器智能的发展,有一个非常大的局限性,就是把人类的思考方式,作为衡量是否智能的标准,导致容易错误地估计机器智能的发展。我们总是认为,只有像人类一样能够流畅地对话和理解彼此,才是真正的智能。很多人喜欢吐槽聊天机器人(或者人工助理等等),经过这么多年的发展,依然不能理解人类语言,只能用作无聊讲笑话的小玩具,并因此否定机器智能的进步。然而,事实是,机器智能的进步,比如对语言的理解,是以另外一种方式飞速前进着。在搜索引擎、机器翻译、推荐系统等各种应用中,都有体现。
如果不想错误地估计机器智能的发展,理解机器智能的进步,我们首先要理解人类与机器的不同。 人类智能与机器智能有很多不同之处,这里只说一点:可复制性。
人类的教育理论发展了这么多年,但是,面对不同的人,哪怕我们施展同样的教学方法,有的人能举一反三,灵活掌握,有的人却是一团浆糊。但机器不同,机器智能的训练方法是可复制的。用同样的训练方式,一定会得到一样的训练结果,这意味一旦训练的方法有了突破,所有的机器智能都能更上一步。
不但训练方法可以复制,训练出来的模型同样可以复制,并大规模的部署。当第一个车牌识别系统被开发出来,立马全世界所有车牌识别的问题都可以解决。这一点人类同样也做不到,拿翻译这个任务来说,我们能做的只能是靠教育系统培养一代一代的学生,既不能保证数量,也不能保证质量。
这样的可复制性还有一个优势,就是可以让机器自己与自己训练提升,不必受制于人类的极限,这意味着只要任务明确,机器就一定会比人类做的好。AlphaGo 在早期靠的是学习人类的棋谱,而后期就开始与自己相互博弈,提升自己。
人类智能的进步依赖天才推进极限,以及良好的教育系统拉高平均值,倘若天才离世,我们会认为这一领域的研究可能倒退,如果战乱导致教育系统停滞,我们会担心下一代的发展。但机器智能的发展,因为这种可复制性,是渐进的,是被广泛应用的,是永远不会后退的,并且是普通人难以察觉的。
无人车的出现就是一种渐进的发展。几十年前人类幻想,有一天车会自己开动,能带我们去任何我们想去的地方,这无异于痴人说梦。但几十年的渐进式的发展,我们有了电动助力转向,有了定速巡航,有了盲点提示,有了自动变道,再加上电子地图的发展,以及图像识别的突飞猛进,无人车的出现一下子变得近在咫尺。机器智能的每一个进步都是微小的,但是组合起来就能最终成为我们期待的智能系统。
无人车的出现会大规模替代司机,而这个模式是一个可以被借鉴的模式。如果我们要创立一个智能系统来替代律师或者医生,我们首先要花费数年为律师和医生打造各类任务明确的智能系统,在不断地服务医生的过程中积累数据,理解医疗过程,最终掌握医疗能力,完成终极系统的搭建。与无人车一样,一定是有无数小的部件需要开发,数据需要积累,在渐进的过程中达到最后系统的搭建。
机器智能的发展不是一蹴而就,立刻成形。如果对于机器智能的理解容易有误,往往也会导致商业模式有误,我在这个答案中也提到,能够真正掌握算法,并且能应用到真实商业环境的人,才是市场最需求的人:2016~20 年硅谷需求量最大的是什么方向的技术人才?
最后,说到大家爱吐槽的聊天机器人,认为机器在理解人类语言上没有进步,这是错误的。Google 的搜索、翻译,Facebook 的信息流,Amazon 的推荐系统,都是建立在大规模的语言理解上的。这些公司能够在每个人身上赚钱越来越多,是因为对于大家的行为和语言理解的越来越准确,但是这种准确是在大规模系统的度量上,不是像人类的对于每个句子精确含义的理解上,这也是机器智能与人类智能的不同,有机会再细说。
话说回来,倘若有一天机器能够完全理解你的语言,这意味着机器可以同时理解世界上所有人的语言,所有种类的语言,甚至人类从发明语言开始横跨几千年的语言。我们在机器面前无法躲藏,所有的语言都会被理解的通通透透。
这样的世界会发生什么呢?我们真的期待这一天早些到来吗?
----
@陈然
zwjnet 发表于 2023-7-31 01:26:37|来自:北京 | 显示全部楼层
细数一下2000年以后的学术浪潮: 2003年LDA topic model刚出来的时候,火的不行,按我师兄的话说,整个实验室都在坑此坑次热火朝天的搞topic model,恨不得每篇文章里面都建一个Graphical model加一些隐变量进去,那时候的盛况我是无缘得见了。。2004年MapReduce论文刚出来,以及后来MapReduce的开源实现Hadoop出现,算是掀起了新的一波数据热,各个领域各种问题都能扯上大数据三个字,一个传统算法只要用MapReduce框架改写一下就可以发篇文章;2010年Spark 出来之后Hadoop在学术界就不怎么能看到了,简单来说是因为Hadoop不能支持在线计算;2010年左右深度学习出来了之后,在很多应用上效果完爆topic model,现在在NLP领域内的会议里topic model的文章已经没有以前那么多了。。
泡沫之所以会破,是因为人们找到了更大更漂亮的泡沫,一样技术被取代也是因为人们发现了比他更牛逼更有前景的技术。但从目前来看,深度学习在语音识别,图像,NLP等很多领域的效果都非常好,训练时间和模型复杂度也还在可接受的范围内,并没有出现其他可以相提并论的技术,所以我觉得深度学习在很长一段时间内都还会在学术界火下去。而通常工业界的普及要比学术界的工作晚个5-10年以上,相信深度学习在未来一段时间里都还会频繁出现在大家的日常生活里。
更新:
最后贴一个最新的Deep Learning创业公司汇总贴,包括Computer Vision, Natural Language, Vertical-Specific等方向,有些公司还蛮有意思的,推荐看看:
Deep Learning Startups, Applications and Acquisitions

快速回帖

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则