马斯克发推讽刺人工智能,称机器学习本质是统计,你对此有哪些评价?

[复制链接]
zke 发表于 2023-8-25 08:42:12|来自:中国 | 显示全部楼层 |阅读模式
特斯拉 CEO 马斯克近日在推特上发布图片,嘲讽当前的人工智能技术。
马斯克发布的图片中指出,在人工智能机器学习面具之下的本质依旧是统计。这条推文引起了大量的关注,浏览量超过3700万,并获得了4.4万转推和35.7万次点赞。
值得一提的是,马斯克一直在关注人工智能产业。他曾是 OpenAI 的联合创始人,而在今年3月,他成立了一家名为X.AI的公司,研发自己的生成式大模型产品。
全部回复5 显示全部楼层
buyilang77 发表于 2023-8-25 08:43:08|来自:中国 | 显示全部楼层
统计学确实是机器学习,或者更高一层的人工智能的学科基础之一(其他的还有哲学、数学、经济学、神经科学、心理学、计算机工程、控制论、语言学……),但是并不能说机器学习的本质就是统计学,不然联结主义的神经网络模型要站出来跳脚了。
就像,物理学的基础是数学,但是也不能说物理学的本质就是数学。
早期的机器学习确实十分依赖于统计学。但统计学仅基于概率空间。你可以从集合论中推导出整个统计学,集合论讨论了如何将数字分组为称为集合的类别,然后对这个集合施加一个度量,以确保所有这些值的总和为1,这就是概率空间。但机器学学并不仅仅基于概率空间。
而且,统计机器学习的风险在2015年陆汝铃教授在给“南瓜书”作序的时候就提到过:
王珏教授认为统计机器学习不会“一路顺风”的判据是: 统计机器学习算法都是基于样本数据独立同分布的假设,但是自然界现象千变万化,“哪有那么多独立同分布?”
可能是两者使用的方法的相似性导致了机器学习本质是统计的说法,可以理解,但未免有点管中窥豹的意味。以线性回归举例,在统计建模和机器学习算法中都常用到。


线性回归是一种统计方法,但我们也可以用线性回归算法进行训练,可以得到与使用统计回归模型以最小化数据点之间的平方误差相同的结果。
在统计建模中,线性回归常用于建模因变量与一个或多个自变量之间的关系。目标是理解和量化这些变量之间的关系,并对数据所代表的总体进行推断。通常会使用统计假设和技巧,如假设检验和置信区间,来评估估计系数的显著性和不确定性。
在这种情况下,重点是理解潜在关系并从数据中得出有意义的结论。模型的可解释性和估计参数的统计显著性是重要的考虑因素
在机器学习中,也可以使用线性回归,但关注点不同。线性回归的目标是构建一个能够根据自变量准确预测因变量值的模型。重点是找到能够最小化预测误差的最佳模型。
在机器学习中,模型的可解释性可能不如预测性能重要。相比于模型的可解释性,机器学习算法更加关注预测的准确性。比如神经网络,可能可以达到很高的预测准确性,但缺乏可解释性,使得理解变量之间具体关系变得困难。
所以啊,虽然统计建模和机器学习都可以用线性回归,但它们的目标和优先级是不同的。统计建模关注于理解关系和推断,而机器学习关注于预测和优化准确性。


总结一下,机器学习和统计学在底层目标、数据和可解释性上有根本区别。
· 底层目标:统计学的目的是基于样本对总体进行推断,以得出关于总体的结论,比如确定变量之间的关系、估计总体参数等。而机器学习的目的是通过在数据中寻找模式来进行可重复的预测,也就是用数据构建模型来进行预测和决策。
· 数据:统计学的目的不是进行预测,建模的目的是为了显示数据和结果变量之间的关系,一般不涉及多个数据子集。而机器学习需要大量的数据才能进行准确的预测。模型是使用训练数据构建的,并使用验证数据集进行微调,最后使用测试数据集进行评估。
· 可解释性:统计模型通常较易于理解,因为它们基于较少的变量,并且关系的准确性由统计显著性检验支持。但机器学习数据集中包含大量的特征和权重,从这些数据中开发的模型既可以极其准确,又几乎无法理解,而且往往会为了预测准确性而牺牲可解释性。
<hr/>传播先进文化、推动社会进步,蒙您欢喜,不要忘记点赞、分享、关注@清华大学出版社 IT专栏
哦~
为爱 发表于 2023-8-25 08:43:21|来自:中国 | 显示全部楼层
Larry Wasserman 在 all of statistics 里就提到了统计学和计算机科学的“一词各表”

将进酒 发表于 2023-8-25 08:43:38|来自:中国 | 显示全部楼层
几年前在南京,给客户介绍机器学习,我说机器学习的本质是统计学,客户哄堂大笑,把我嘲讽了一番。

我不紧不慢的在黑板上把机器学习的起源、定义……给客户讲了一遍,客户从刚开始的嘲笑,到后来的沉默、到认真……

ppt一时间找不到了,因为不准备打工了,很多老文档都被我封存了,也没时间把以前讲的再说一遍。

但是要搞清楚这个事儿也不难,网上搜索一下贝叶斯学派、频率学派等等,传统的机器学习,确实就是统计学。
那时候等说法,比较流行的是:有监督学习、半监督学习、无监督学习……

但是,深度学习就不一样了,神经网络模型和传统的贝叶斯、频率学派……等派别,运行原理不一样。
你要非得说这是统计学,未免也太宏观了。

分类学是特别深的一门学科,在没有官方定义的情况下,咋说都行。
吃瓜没啥问题,但是调参侠还是要把自己专业的事儿做好,不要去纠结这种定义问题。

站在哲学的角度来看,人类大多数决策都是基于经验主义的,虽然休谟说经验论不对,但是在现实生活中,人们并没有特别好的、做决策的工具,所以经验论是大多数人默认的。
经验论,其实就是基于数据的决策,这么看起来,好像人类的历史也逃脱不了:基于数据的决策。这不就是统计学吗?

不要纠结这种定义,没啥意义。
xhymqe 发表于 2023-8-25 08:44:29|来自:中国 | 显示全部楼层
他说的没错,机器学习本质确实是统计学,大家认为,很多时候机器学习的目标并没有感情,只有目标函数最大化。当然,人工智能比机器学习范围更大,还包含软件工程等多方面,但做决策的部分,核心确实是基于统计的。
不过人很多时候的行为决策,不也是利益最大化吗?不也是很多统计原理在背后做支撑吗?
我在很多年前,在知乎开了个专栏,叫「面向人生编程」。因为我发现,人生很多很多方面,和编程,和机器学习是相近的。我甚至还提出了一句口号
奖励函数是系统里的「上帝之手」 ——by 知友「桔了个仔」
出处见之前我写的文章:
奖励函数——生活与系统里的「上帝之手」这个系统,不仅仅是无机的,也包含有机的,例如人类决策的系统。
我们决策时背后的「统计模型」,也许不是精确的,但我们也会把我们决策的能力叫做「智能」。例如开车时,我们决定何时变道,是我们过去的驾驶经验(数据),在我们大脑里「训练」后,得出了变道更安全更快的结论;我们学习一个技能,例如溜冰,不也和强化学习差不多原理吗,我们身体根据外界反馈(例如摔跤或者顺利滑行)来不停调整动作,进而使得奖励最大化(不摔跤,完成一段滑行)。
人工智能的发展,过去离不开,也永远离不开统计学。因为统计学是世界运行的本原,毕竟物质最底层的粒子,都存在「测不准原理」。
不过就马斯克发这个图而言,还真看不出他在讽刺当前的人工智能技术。这类图我也经常到处发,就是讽刺一些技术老旧的公司,用的旧技术,遇到人工智能概念后,把自己过度包装而已。马斯克经常发一些meme,都怀疑他转发完还记得不,所以真不用老盯着他转发的东西去解读。
最后发几个AI meme大家一起笑一下。









李建华 发表于 2023-8-25 08:44:45|来自:中国 | 显示全部楼层
早期的机器学习是的,你会发现机器学习里很多概念 其实是统计学科里面早就已经存在但是换了个名字套上去。但是当大模型和深度学习成为潮流之后,机器学习很大一部分已经和统计“分房睡了”,主要是现有的统计理论很难解释 超大模型的效果 所以已经被逐渐抛弃。但是统计的本质还是在机器学习里面无处不在,比如说生成模型等等。

快速回帖

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则