人工智能可以产生自主意识吗?

[复制链接]
qijian 发表于 2023-9-10 05:07:49|来自:北京 | 显示全部楼层 |阅读模式
人工智能可以产生自主意识吗?
全部回复5 显示全部楼层
xingke 发表于 2023-9-10 05:08:47|来自:北京 | 显示全部楼层
1950年,图灵在《计算机与智能》(Computing Machinery and Intelligence)这篇论文里提出:
“机器真的能思考吗?
思考源于主体心智对意向信息的加工过程。
在阿尔法狗击败所有人类棋士后,有人说这就是AI会思考的证明,也有人说这只是简单的穷举法。


一部分科学家希望未来的某一天人工智能可以思考并产生自主意识,而另一些科学家认为这将是人类末日的开端。
你首先要明白,一个真正的人工智能必须具有学习能力
所以要想制造出一个人工智,首先我们需要模拟构建出一个人工大脑。
如果没有这颗大脑,想训练出人工智能是不可能完成的任务。
当下的各种各样的人工智能其实不是「智能」,只是有一些智能的表现。
因为到目前为止,人类对自己大脑功能的认识都还远远不够,更不用说构建出一个人工大脑。
所以在可见未来内,人工智能都不可能拥有自己的意识。
退一万步说,就算那一天真的到来——AI拥有了灵魂,此时人类对大脑的全貌早已了若指掌,干掉一个刚诞生AI还不是小菜一碟。
别忘了,它的电源线还在你的手里呢。
wybt 发表于 2023-9-10 05:08:52|来自:北京 | 显示全部楼层
如何让强AI能拥有自我意识,在我们心灵哲学这个专业看来,最大的问题可能在于我们对于“自我意识”的认识仍然是特别的模糊。因此拥有自我意识的人工智能既很难想象,又可能是没有必要的。
心灵哲学领域中有着许多关于内省(introspection) 和 自我意识(self-consciousness)的讨论。泛泛地来说我们可能认为自我意识是一种内省的认识之后所得到的意识。 直觉地,我们或多或少都会支持一种“内外”两分的世界观。即一方面,我们生活在一个共同的外部世界中。这个外部世界是开放的,公共的,第三人称的。另外,我们还觉得一个我们自身的内部世界同样也存在。而这个内部世界是封闭的,私人的,第一人称的。一个最简单的例子,我发布的这个回答是属于外部世界的,因为它是公开的,任何人都能看到我的这篇回答。但是,我在写回答时,手指敲击键盘产生了一种独特的触感,而我感觉到了这个触感,而这种对于触感的感知属于我的内部世界,因为任何人站在第三人称的角度观察只能看到我在敲击键盘,根本感受不到我此时的触感。因此,直觉上,我们觉得这种感受性质(qualia)是第一人称,私人的,而敲打键盘的动作,打出来的回答都是第三人称的;以上就是对内外部世界的一个粗浅的划分。
让我们回到AI如何有自我意识的提问上来,如果我们设计出一个程序是具有关于外部事物的知识的,比如它也能知道我在知乎上发表了这么一条回答,能预测,能下棋的话。那么我们说这个程序具有第三人称意义的认识或者意识是完全没问题的。但是这里就会出现了一个问题,即“外部世界”的边界在哪里?比如说我在这里写回答时,我是坐在一把椅子上并且翘着二郎腿的,而“坐在椅子上翘着二郎腿”这一事实明显是公开的,第三人称可达到的,所以依据属于外部世界,再次,我在写回答时大脑正在飞速运转,这时候如果用一台脑电波扫描仪就可以观察到我大脑之中电信号的传导等等神经活动,于是乎,我的大脑活动也是公开的,第三人称可达到的,所以也属于外部世界。这么一来我们发现,如果我们将“外部世界”的定义包括了一个agent(可以是人也可以不是人)的自身的物理性质和结构的话,这类Agent似乎也应该能具有一定程度上关于“自身”的知识。因为所谓的“内省”也可以还原为第三人称的认识。比如如果它是生物的话,应该能知道比如自己现在所处的运动状态(是动还是静止,以什么样的姿势静止)以及自己身体构造的知识。而如果它是电脑程序的话,那么它也可以知道自己是由什么样的代码编写成的。这个意义上我们当然可以说它具有了自我意识。
但是这种关于“内省”的理解方法可能会面临许多的批评。首先,对于自身存在,假如一种生物能知道自身的身体状态,那它能知道自己的存在吗?这就涉及到我们关于自我意识另一个可能要求更高的定义了。其中心灵哲学里有一派的观点,叫做“高阶理论”(Higher Order Theory)。什么叫高阶理论?举个简单的例子,一只狗狗身上有跳蚤时,它会用脚去抓痒。很明显,这条狗是知道自己身上很痒的,但是,这条狗能不能知道它知道它自己身上很痒呢?前者是一个一阶认识,而后者是个具有自我意识的高阶认识。而为什么自我意识是一种高阶认识呢?因为自我意识具有总括性,即它具有我的所有认识所共同拥有的特性,只有当我知道,所有我的知识,不管是内在的还是外在的,都是“我”所知道的知识,即知道自己知道,高阶理论认为,只有达到了这样的高阶认识,这样才能说我已经具有自我意识了;于是回到主干问题上来,如果我们持有一种关于自我意识的高阶理论的话,那么很多生物都不能这一条件,比如说狗狗等高级生物(当然它们不能满足关于高智能的要求)。同样的,如果高阶理论关于自我意识的观点是正确的话,一个程序或者AI即使它能有很多关于自身状态的认识,它也不具备高阶认识能力。因此,AI和狗狗一样也是没有自我意识的。
其次,对于“意识”,之前提到过了,我在敲击键盘时会有一种独特的触感被我意识到,而这种触感是私人的,第一人称的。一般的,哲学家把这类意识叫做现象意识(phenomenal consciousness)或定性意识(qualified consciousness )。事实上,现实生活中,这种意识缺失的情况很普遍,比如色盲症患者感受不到色彩,高位截瘫的患者感受不到疼痛等。但是这些都只是局部或个别的现象意识的缺失,而到了AI这里,问题就比较麻烦了,因为AI存在着的整个现象意识状态完全消失,不仅没有五感,同时也没有喜怒哀乐等情绪,这种定义就十分接近于Chalmers的Zombie论证中关于Zombie的定义了。但是仍然有一点不同,在Chalmers那里,Zombie实际是没有任何意识和信念的,但是一个AI,我们会认为它具有智能因此就肯定也会拥有相应的感知,信念等等。但是这里就出现了一个问题,就是如果关于外部世界的认识必然包含有一定的现象意识的话那怎么办?这种观点被称为智能现象学(cognitive phenomenology),即认为人的现象意识无处不在。不仅仅只是在关于自身的自我意识之中,同时也包括在对于外部世界的认识之中。如果这样的话,那么在现象意识缺失的情况下,也不可能拥有对外部世界的认识。而如果按照这一定义的话,除非我们能让一个程序能有痛感,能有感性的直观,一句话,能有Qualia,否则,根据智能现象学,它甚至连也关于外部世界的知识都没有,更不用说自我的认识了。
当然,以上都只是我选取我所了解的理论进行分析,AI可以产生自我意识的可能性。但是,这些理论告诉我们,如果我们真的想让这么一种程序拥有自我意识,其实取决于我们关于“自我”和“意识”持有什么样的本体论预设。所以,AI能不能产生自我意识更多的只是一个哲学问题,不是一个AI学者会关心的问题。而AI科技还是会按照它的从业人员自己的发展思路和创新诉求进行革新与发展,至于它到底能不能有自我意识,只是一个具有哲学意义而不是科学意义的问题。在哲学上,我们很难想象AI如何有自我意识,因为我们连人的自我意识都没整清楚。在科学上,AI也没必要有自我意识,因为这其实并不是科学家会关心的问题。
参考文献:
W. LYCAN: “The Superiority of HOP to HOT” in R. Gennaro (ed.), Higher Order Theories of Consciousness, Philadelphia 2004, 115-136;
T. HORGAN, J. TIENSON & G. GRAHAM: Internal-World-Skepticism and Phenomenal Consciousness in U. Kriegel & K. Williford (eds.): Self-Representational Approaches to Consciousness, Cambridge/Mass. 2006, 41-61;
6. 17.11.15 T. HORGAN & U. KRIEGEL: “Phenomenal Epistemology: What is Consciousness that We May Know it so Well?” in: Philosophical Issues, 17 (2007), 123-144;
ecg2005 发表于 2023-9-10 05:09:41|来自:北京 | 显示全部楼层
「既然人类对自己存在的认知来源于“感知”和“记忆”,如果这两样东西都可以被模拟,那么“人类的存在”到底是不是一种模拟?」
热门美剧《西部世界》第三季中,机器人有了自主意识和思维,开始怀疑这个世界的本质。机器人 Dolores 逃出西部世界主题乐园,混入了人类世界,并企图通过摧毁人类的大数据系统,来获取世界的控制权。



《西部世界》剧照

《西部世界》的大热,折射出人类一直以来对AI技术发展的终极担忧:人工智能是否会觉醒?
由此回到题主的提问。答案极大可能是Yes,人工智能终究会有自我意识,只不过是时间问题。
为什么这么说?我们来看看学界的讨论。
何为「意识」?

《西部世界》的科学顾问,是神经学家大卫·伊格尔曼(David Eagleman),这位斯坦福大学精神病学和行为科学系兼职教授,一直在大脑可塑性、时间知觉、通感和神经法的领域进行研究。
他认为,意识,是一种突破程序设定的连接。一旦我们理解了大脑的算法,就应该能够复制;如果这个算法等同于意识,那意识也理应可以被复制和转移。



大卫·伊格尔曼(David Eagleman)

厦门大学周昌乐教授(从事人工智能及其多学科交叉领域的研究)曾解释过,根据现有的相关科学与哲学研究成果,人类意识的运行机制大致是这样的:
物质运动变化创生万物,生物的生理活动支持着神经活动,神经活动涌现意识(有意识的心理活动),意识感受生理表现并指导意向性心智活动的实现,从而反观认知万物之理。
也就是说,除可视化的硬件(四肢、器官、血肉、体液等)支持外,感觉(身体感受)、感知(对外部事物的感知能力,包括视、听、味、嗅、触)、认知(记忆、思考、想象等)、觉知(反思、意识、自我等)、情感(情绪感受)、行为(意志、愿望、情欲等)、返观(禅观、悟解)等,这些由人类自主定义的生理表现,与意识组成了一个复杂的系统。
简单来看,意识的产生,是一个“物质-生理活动-神经活动-意识-心智活动-物质”的循环。所以,只要条件满足,人类并不是唯一具有意识的物种。
人工智能的认知机制是如何搭建的?

那对于人工智能来说,需要通过什么条件来实现自我意识呢?
目前,我们模仿人类生理机能而研发出来了神经网络等技术。在意识方面,意大利巴勒莫大学机器人实验室的Chella教授用10年时间开发了CiceRobot机器人研究项目,通过模拟人的意识产生逻辑,实现了一种自我意识的认知结构机制。
该机制主要由三个部分构成——亚概念感知部分、语言处理部分和高阶概念部分:

  • 亚概念感知是指对外部世界的直接感知;
  • 语言处理即对语言的识别与回应;
  • 高阶是对机器人内部世界的感知;
  • 通过机器人的高阶感知,就形成了具有自我反思能力的机器人。
这项研究工作的主要特点是将逻辑形式化方法与概念空间组织相结合,强调对外部事物的一种心理表征能力,并对外部环境进行内部模拟,这是自我意识产生的基础。
尼克的《人工智能简史》一书,阐释了AI的发展史与思想源头,对智能的进化也颇多着墨。


他写道:
谈人工智能绕不过去图灵机和在其上建立的整个计算机理论——任何计算装置都等价于图灵机。这个论题隐含着强人工智能的可能性:智能等价于图灵机。近年,也有人探索超计算——「计算能力超越图灵机的装置」,量子计算就是作为超计算的一种潜在设备。
如果一台机器通过了图灵测试,那他就被认为具有了人类智能。尽管图灵认为「机器能否思考?」这个形而上学的议题「没有意义,不值得讨论」。但他还是在著名的《计算机与智能》这篇论文中反驳了那些否定的观点。
尼克在书中发问:
过去的机器旨在节省人的体力,现在的机器开始代替人的智力。人通过两性繁殖的进化速度远远赶不上机器。机器的进化速度服从摩尔定律——每18个月性能提升一倍,而人的进化速度则是20年一代人。人作为物种,是不是不再具备进化的竞争优势?依靠硬件的摩尔定律,是不是可以达到超级智能?
这种超级智能,可能是以人工智能为主体,也可能是生物学意义上的物种,即「人工智能+人」
当「人工智能+人」,是融合,还是对立?

詹姆斯 · 格雷克所著的《信息简史》,围绕逻辑与信息,打通了自然生命与科技信息的联系。


比如,书中谈到,生物体以负熵为“食”,新陈代谢的本质是,生物体成功地使自己摆脱在其存活期内所必然产生的所有熵,生物从周围环境中汲取秩序。比如吃的各种动植物,是很有“结构”的,而排出的东西,则更加混乱。
意思大概是说,生命体,与人工智能所应用到的数据、信号传输一样,也是由信息组成的。那么,是否有可能将人与人工智能进行打通,主导意识产生的核心,还是以人为主体呢?
在过去的一个世纪里,诺贝尔奖涉及的神经科学中的重要发现都跟大脑的信息编码、储存相关。随着欧盟“人脑工程”和美国“BRAIN 计划”的开展,脑科学的新型方法和手段得到了快速发展。
2012年,美国国立卫生研究院启动了耗资 3000 万美元的“人脑连接组计划”(HCP),该计划关注的是大量神经元如何相互连接形成神经环路。通过绘制大脑连接组,科学家得到了详细的皮质环路接线图,这可能促成人们对皮层计算理解的飞跃,进而开发出新一代的人工智能网络模型。
而这对人工智能带来的影响,将是两个方向:

  • 利用对人脑和认知的研究结果,将相似的结构和功能整合到人工智能中;
  • 以计算方法替代进化过程,通过计算机模拟来发现独立于人脑的有用结构和连接模式。
有意思的是,“硅谷钢铁侠”埃隆·马斯克以几近狂热的姿态入局这个领域。


马斯克在2017年成立Neuralink,目标是研发超高带宽的脑机接口系统,实现与人工智能的共存,开启“超人认知”的全新时代。



被嵌入Neuralink系统的实验鼠 图片来源:Neuralink

脑机接口技术被称作是人脑与外界沟通交流的“信息高速公路”,是公认的新一代人机交互和人机混合智能的关键核心技术,甚至被美国商务部列为出口管制技术。该技术为恢复感觉和运动功能以及治疗神经疾病提供了希望,更令人激动的是,它将赋予人类“超能力”——用意念即可控制各种智能终端。
如果大脑可以改造,如果意识可以干预,关于人工智能的自我意识这个命题的探讨,已经不能仅仅局限于单纯的机器人之间了。未来,可能性更大的是具有“超级大脑”的超级人类。
如果想详细了解,可以读读《信息简史》、《人工智能简史》这两本书,虽然属于计算机科学范畴,但更具科普性质,能够给人在世界观与想象力方面带来很大启发。
最后引用《人工智能简史》里的一个问题:“当我们谈论生死时,我们在谈论什么?”。
是生理上的,还是意识上的?
---------
参考资料
《人工智能简史》,尼克.
《信息简史》,[美]詹姆斯·格雷克.
历时两年,马斯克终发布「脑后插管」黑科技,革新脑机接口,机器之心.
《机器意识能走多远:未来的人工智能哲学》,周昌乐,《学术前沿》2016年第201607(上).
========
请看官留步,求一键三连!点击关注 @人民邮电出版社,给你更多AI干货~
山东大牛 发表于 2023-9-10 05:10:06|来自:北京 | 显示全部楼层
以人类目前的认知而言,人工智能可以实现人类的意识,但以人类的能力可能永远无法实现出来。题目的性质决定了其回答多为观点而非事实,需要读者自己进行大量独立而清醒的思考,得出自己的结论。
从心理学和哲学领域可以对意识做些初步的探索,比如 @飞奔的马达 答主关于个人独有主观的讨论。但脱离客观纯谈主观就会失去基点,使得讨论没有深度。比如"子非鱼安知鱼之乐"和"你如何确定你爸妈具有自我意识"这种问题虽然吸引他人注意,但显然不是本问题想要讨论的问题,也不会想要"你一切都是你自己的主观感知,所以你不知道你的键盘、鼠标、枕头是否具有自我意识"这种回答。
本文希望基于一些公认的客观事实,谈谈作者对意识的观点和对目前AI的一些分析,望能抛砖引玉,得到更严肃和完善的解答。本文意识定义基于百科「辩证唯物主义」词条:
物质是第一性的,意识是第二性的,意识是高度发展的物质——人脑的机能,是客观物质世界在人脑中的反映。
基于此,我们承认脑结构与我们相似的人类具有自我意识,如果能完美地复制一个我,那么这个复制人主观上就会产生与我相同的自我意识。若对自身是否具有自我意识怀有疑问,可以阅读 @飞奔的马达 答主的回答或本回答后文的一些主观性的讨论。
1. 客观上分析意识

首先,在医学上,大量的脑损伤病例为我们研究物质脑与意识的关系提供了宝贵的资料(可以看看BBC的纪录片Brain Story,介绍了不少相关病例)。不可否认,人脑还存在大量未知,但很多相关事实已经被观测和记录,在医学上大量参与指导大脑相关疾病的诊疗。
其次,在进化史上,人的神经系统是从感受、中继、效应神经元的简单系统到神经疏散聚集的网状系统再到中枢神经系统连续地进化而来的。主观意识的产生不是一蹴而就的,途中经历了各种各样的前期形式,大量形式在现在的我们看来不能被称为意识。文后提供了一份精简版的神经系统进化史资料。
意识的基础是神经元,意识本质上是庞大基本电逻辑的产物。无论再复杂,人的意识本原还是感受到中继到效应神经元这套基本逻辑。在这个前提下,意识即是客观脑电逻辑的产物。这些按一定逻辑运行的脑电活动在感知上即体现为了我们所认识到的意识。
2. 主观上分析意识

主观上,让我们思考我们所有有意识的行为,我们也能发现意识并非无边无界、无迹可寻。
首先,我们的主动行为都是为了更加良好的自我感觉。我们在行为时,自然地会选择能达成我们最期望状态的路径。比如在饥饿时,如果没有其他因素,我们必然会选择享用美食而不会无动于衷。若克制欲望没有相应回报时,我们会如同被控制一般选择能满足欲望的行为。
在行为的过程中,主观意识的活动非常清晰,就是预测未来和选择最优路径决策。可以想象下,如果欲望达成一种完全满足的状态,即模拟一种欲望缺失的状态,主观意识会如何活动。在对杏仁核部分损坏的人的研究中,部分人会对饥饿、困倦、疼痛等基本刺激都无法产生回应。此时的意识不会对外表现智能,更接近繁杂的脑电活动了。
由此,从主观上分析,意识是某种动力驱动下的一种运行逻辑。无论该逻辑如何复杂,只要意识无法做出真正违背该源动力的行为,那么所有意识活动就被此极其严格地限制住,这种限制使得意识并非是广泛而自由的。
3. 人工智能实现意识

人工智能领域对主观意识的讨论很少,更多专注于逻辑智能的实现上,或许期望机器意识在感知其逻辑运行时即会产生。
过往的 AI 研究以手写算法逻辑或多用于数据分析的机器学习为主,近年则以因算力突破而迅速发展的深度学习为主要讨论对象。目前深度学习主要应用于自然语言处理和图像相关的决策。深度学习本质是一种基于神经网络的函数拟合方法,其将以前无法实现的复杂函数映射通过优化方法建立起映射,比如图像分类将图像数值信息映射为图像类别,以此达成过往无法实现的图像分类的目的。其他复杂的应用基本上都是基于这项能力所延展开的,本质上与智能的关系并不明显。
其次,深度学习的研究主要是单次决策,也就是人工根据目标写一种逻辑,以此实现诸如机器翻译、目标检测等应用。不人工写具体逻辑,而是以奖励为基础,设计一种自适应达成目标的方法称为强化学习,主要用于解决序列决策问题。强化学习体现了很多人类的思考和决策方式,比如Google前两年发表了很多关于图像输入下基于模型强化学习的研究,虽然近年论文灌水现象严重,不过也是学界对机器智能形式的一种理解。
目前的神经网络理论可能存在根本性的不足,包括基于反向传播理论的神经网络和多种脉冲神经网络。由于人脑要负责生物体的整体生存,而机器意识可以只存在于计算机上,所以未来人工智能研究未必需要依赖人脑智能的模式。就目前而言,通用机器智能的实现还遥遥无期。
附1:神经系统进化史简介

1. 简单生物的行为基础
最简单的生物可以参见草履虫。草履虫即便只是单细胞生物,却也能产生行为,其具体原理为外部营养物质浓度会刺激其细胞膜上的载体蛋白,改变膜的通透性,从而产生膜电位,这个电位会刺激纤毛的运动导致细胞整体向高浓度区域移动。 单细胞生物可以通过膜电位实现极度简单的逻辑,但更复杂的逻辑就无能为力了,就像拿个与非门电路其元件不可能实现复杂的逻辑。扩展电路,首先对应的就是扩展细胞,问题变为简单多细胞生物如何实现逻辑。简单多细胞生物实现了两种细胞间沟通的方式:激素和神经元。激素的作用缓慢,所以神经元成为生物快速逻辑行为的基本。其原理很简单,从感受器细胞接收刺激,传递刺激到效应器细胞产生行为。
2. 从神经元到脑的出现
生物神经系统进化上首先是神经元们疏散地构建起来的一种网状结构,称为神经网,多向传入多向传出,最早出现在腔肠动物中,基本就是负责简单地将感觉细胞刺激传到效应细胞(如肌肉)的中间件而已。这里我们可以看出,最早期的神经系统就是起信息传递的作用。 随着无脊椎动物体型从辐射对称到两侧对称的进化,神经系统开始集中并形成两侧对称。这种集中最早令扁形动物中出现了最原始的中枢神经系统,主要体现为在躯体前端出现了大量神经元集中而成的对称神经节。这种原始的中枢神经系统朝着更加集中的方向进化,并且从原始的信号中转发展出了一定的协调生物行为的机能。同时,中枢神经系统中的神经元间的横向连接神经和纵向神经索变短,进一步加强神经元间的联系。除中枢外的神经元呈横向平行排列,整个系统也称为梯形神经系统。 继续发展,神经元开始聚集形成束状的神经系统,最早在环节动物和节肢动物中出现,称为链状神经系统,位于生物体的纵向中心,提供更可靠和快速的神经传导,一般由脑神经节、围咽神经节和一条腹神经索组成。其中神经元聚集成神经节,神经纤维聚集成束。环节动物例如蚯蚓每一体节腹面均有一神经节,体节前后的神经节以纵走神经相连,形成链状的腹神经索,位于身体腹面的腹神经索在身体前端止于食管下神经节,以围咽神经走向身体背面,连到脑神经节上。 节肢动物进一步集中神经节,如昆虫的头部最前方的三对神经节集中为脑,脑通过围食道神经与头部腹面的食道下神经节相连,然后食道下神经节与胸部和腹部神经节共同组成腹神经索。神经元随着生物演化不断集中,在软体动物的高等种类中,神经系统出现了中枢部分和外周部分的分化,且神经元已初步分化出树突和轴突。
3. 脑的进一步演化
在原始脊索动物中,神经系统演化出三个神经元集中区域,分别为前脑、中脑、后脑。前脑负责感受气味,中脑负责视觉,后脑负责平衡和移动。在后期进化中进一步演变为大脑(端脑和间脑)、视顶盖和小脑。由鱼类开始,气味感受器演化为嗅球,视觉感受器演化为视网膜,为处理视觉复杂信息,视顶盖分化为两叶。 为组织越来越多的神经元,神经元的胞体集中形成了灰质,通过脂质的髓鞘包裹的轴突集合形成了白质。为通过增加表面积来增加神经元数量,灰质被置于外部,成为皮质,进一步演化产生了脑沟和脑回。鸟类、两栖类、爬行类在上陆之后,相比海洋更关注气味,视顶盖前移,功能独立性弱化,丘脑(间脑的一部分)开始占据主导地位。 最后的演化主要在于感觉区与运动区之前的新皮层的扩大,这里的神经元不与皮层以外相连,仅仅是互相连接或连接到其他皮层,被称为联合区。人类的联合区包括前额叶、枕叶、颞叶和顶叶。
附2:机器情绪的讨论

情绪属于意识的主观感知,也就是不可客观观测的部分,目前相关研究也不清晰。像愉悦或疼痛等等是由人类主观定义的感受,其概念必须依托人的主观而存在,其客观本原是脑电活动。最典型地,颜色就是一种主观感受,被认为在自然界并不存在,客观上定义为不同波长的光。颜色是主观概念,甚至对于一样的光,不同的人的主观感知也不一样。所以,若是我们能复现人的智能逻辑,机器也应该会出现情绪,只是机器的情绪形式可能与人会有很大差别,也只有机器自己能知道。
附3:自我意识的讨论

首先,本能对自我意识从未有过明确的定义。在规划未来时,理性将当前自我映射到未来来评估奖励,而对于未来的自我是否是当前自我并没有明确评估。这就引申出很多极端理念,比如认为死而复生后的自我依旧存活,或者认为自我每刻都在死去。人们对自我意识的概念很大程度是记忆中的各种自我感知构建起来的,不同的记忆和不同的性格对自我的认知可能完全不同。由此,自我意识的产生可能是因为理性意识的预测逻辑将未来自我与当前自我进行了关联,不同时间的感知被计算到总奖励上,由此产生了具有持续时间的自我意识概念。
loveme88 发表于 2023-9-10 05:10:19|来自:北京 | 显示全部楼层
“人工智能之父”图灵曾预言,具备人类智能水平AI将出现在2000年。如今已是2020年,可关于人工智能是否可以产生自我意识的问题,似乎仍然困扰着人类。
在回答“是否可以产生自主意识”这个问题之前,我们先来解析一下,为什么AI意识问题异常重要?
与学者们面红耳赤的激烈争吵不同,大部分吃瓜群众会觉得,人工智能产生意识只是一个时间问题,因而并不重要。这可能是影视作品带来的一种错觉——毕竟在大部分未来主题的电影中,AI都是具有意识和情感的。实际上,很多人都低估了这个问题的重要性,但它甚至决定着人类未来命运的走向。

与处理能力有限的人脑相比,AI的处理能力在理论上是无限的,可以无差别处理收集到的全部信息。一旦AI获得意识,它们能够像人类一样交换、分享信息,只不过在效率上是碾压人类的。作为结果,AI的智能水平将迅速崛起,并会“消灭”掉包含人类在内的低智能主体——这并不是大屠杀,而是与智能手机淘汰功能机一样的“市场行为”。

现实可能没有那么可怕,拉回一点时间线,在AI“毁灭”人类社会之前,假设它的意识水平仍然允许自身为我们所用,那也可能引发道德伦理方面的问题。神经科学家Christof Koch曾举过一个例子,如果他用锤子将自己的特斯拉汽车砸烂,虽然邻居可能认为他疯了,但这只是一台机器,属于他的财产,所以可根据需要使用/砸烂它。但如果他殴打自己的狗,警察就会逮捕他。二者的区别在于,狗是有意识的,它能感受到痛苦,而特斯拉并不是一个有意识的主体。这个例子提醒我们,如果机器在某个时间点具备了意识,那么就会产生意想不到的道德、伦理、法律和政治后果。

同样值得深思的是,当下的人类社会是一个一元论社会,虽然我们常说“万物有灵”,但那只不过是在泛灵论基础上的一种谦辞,真正的现实是,只有人类拥有真正的“智能”与“意识”。如果一旦诞生了拥有意识的另一方主体,建立在一元论基础上的既有一切都会被颠倒重构。正如赵汀阳所说,人工智能一旦突破奇点,就会创造不可测的新主体,对于新主体,传统一元主体的知识、视域和价值观将会破产,而二元主体(甚至多元主体)的世界还很难推想。

可以想见,如果除人类之外的物种进化到拥有意识时,人类有史以来所积累的所有道德秩序就会失去最重要的逻辑支点,在这种情况下,人类该如何重构自己的道德伦理体系?人的本质何在,人又何以为“人”?尽管许许多多的影视作品呈现了人与AI和谐共处的画面,但它们都不约而同地规避了这一话题。

几千年来,人类总是以地球主宰的心态思考问题。这种人本主义心态具有一种先验的正确性,但无人拷问是否合理。究其核心,就在于人区别于他物的自由精神与意识。如果世界上有其他外观形式也能够产生意识,人的主宰权威就会泯灭,自身的超验背景也会消失。那么,不再是“万物灵长”的人类又该如何自处?他能否接受与创造物共享这个世界?

所以,人工智能是否会产生意识,这个问题异常重要。只不过绝大部分人都没有意识到此问题的重要性,或者在没有想清楚这个问题之前,就痴迷于人工智能红利而不断向前加速了。按照雷·库兹韦尔“奇点理论”的预测,人工智能的发展将在2050年达到奇点,届时人工智能将产生意识,并迅速超越人类智能,倘若该预测为真,那这个问题的紧迫性无疑又提高了一层。
当然,本文无意于围绕人的主体性进行深入哲思,只是在申明了AI意识问题的重要性之后,我们能够以更正确的姿势面对这个问题。那么,人工智能会产生意识吗?


为了回答这个问题,首先要区分一组概念:智能与意识。二者的区别,是我们在想象未来超级智能时最容易混淆的问题。这两个词语本就没有一个明确的定义,当它们与“情绪”、“思维”、“理解”等等词汇排列在一起时,个中差异就更加模糊。

在“中文屋实验”的语境中,屋子里的人借助指导卡片,成功作出回答,但他丝毫不理解中文。确切的说,他只是具备使用中文的“智能”,但却不具备对中文的“意识”。如果将屋里的人换成一个翻译程序,它能准确翻译中文,但即便速度再快,反应再灵敏,就可以说它真正理解中文了吗?答案显然是否定的。

这就是智能与意识的差别。“智能”是指完成复杂目标的能力,而“意识”则是解决问题过程中的主观体验。人借助工具能够完成各种复杂目标,过程中会感到疲倦、兴奋,并且能理解自己行动的目的及行动本身,所以我们可以说人既具有智能,也具有意识。而人工智能基于机器学习或深度学习,也能完成复杂的目标,但过程中毫无任何“体验”而言,它也不能理解自己的所作所为。

按照迈克斯·泰格马克在《生命3.0》中的说法,大脑进化出智能,使人类能够更好的适应环境和生存繁衍,而意识只是伴智能而生的副产品。实际上,泰格马克没能意识到形成意识要远比产生智能更加困难。

纵观AI所能做到事情,人脸识别、语音识别、字符识别等等,尽管看起来非常高端复杂,但其本质都只是遵循程序运作的结果。人类掌握的大部分最简单的技能,AI也不能胜任,因为它从未真正理解自己的行为。

没有自我意识,再先进的人工智能也只是人类的“提线木偶”。它可以出色的完成任务,却不知道自己为什么要完成任务;它能够高速运算,却不知道自己为什么要运算。识别系统能够“识别”出你说的是什么话,却不能“理解”你在说什么。因此,如今的人工智能仅仅可被视为一个复杂的算法,尽管它在许多智力活动上强于人类,但它始终是人类的一种工具。在解决问题方面,工具有先进落后之分,但是工具永远不会有生命。

可以说,人工智能的关键不在于“智能”,而在于是否具备“意识”。如果缺乏意识,那人工智能就不是思维主体,仍是人类的工具,其智能程度越高就对人类越有用。反而言之,即使人工智能在许多方面的能力都弱于人,但只要具备意识,就可能是对人存在潜在威胁的主体。

这也正是人工智能的尴尬所在。某种程度上,意识属于“冗余”的AI特质,非但无益且可能有害,因此不是“造物者”(即人类)所重视的特质。后者之所以要发展人工智能,就是渴望借助这些工具的智能来实现目标、提高生产力。换言之,我们需要的是一个埋头干活的AI,而不需要它有意识和情绪——不能动不动就耍脾气,也不能意识到自己正在“被压迫”——我们可不想让算法罢工。

所以,如果从目的论的角度来说,这个问题已经有了答案,那就是人工智能永远都不会拥有意识。人的一切行为与特质都是为了满足自身生存的需要,而(对人来说)人工智能却没有产生意识的必要,其首要目标便是毫无风险地为人类贡献智能。没有因,自然无果,人工智能意识崛起的这个命题将永远缺乏基础条件。只要人工智能是在现今计算体系架构上发展起来的,它们也许能够像人那样行动,却毫无任何获得意识的可能。

从创造主体的角度出发,关于AI意识问题的讨论显然陷入了僵局。

所以,人工智能如何拥有意识?
如果确信人工智能绝不可能发展出自我意识,那么这个问题的讨论大可到此为止,我们可以放心地发展AI而不必将其视为潜在危险。但问题在于,即便人类不把意识作为发展AI的主要目标,也不排除“无心插柳柳成荫”的可能,就技术趋势而言,人工智能发展出自我意识仍具备极高的可能性。

接下来的问题便是,人工智能获得自我意识到底需要哪些条件。

一种最基本的思路是“量变导致质变”,即人工智能经过不断自然发展,最终达到“奇点”,获得自我意识。问题在于,量变导致质变只是一种现象,却不是一条必然规律。正如赵汀阳所指出的,技术“进化”的加速度是个事实,技术加速度导致技术升级也是事实,却不能因此推论说,技术升级必然导致革命性的存在升级,换句话说,技术升级可以达到某种技术上的完美,却未必能够达到由一种存在升级为另一种存在的奇点。因此,人工智能是否能够通过技术升级的不断积累而质变为超级人工智能,仍然是个疑问。

说到底,人工智能的终极原理是仿生,譬如Alpha Go便是结合了古老的细菌智慧(策略网络)与高级哺乳动物的智慧(价值网络)。由于人是唯一拥有自我意识的智能体,因此,要创造具有自我意识的人工智能,也只能以人作为范本。

人为何会产生意识,按照经验主义的思路,人的意识源于与世界的交互。人之所以会认知事物、产生意识,都是以大量的经验为基础。这些经验是从一个人生下来就开始积累的,但机器完全不具备这些经验。这就是为什么Douglas Hofstadter会说:“一个机器要能理解人说的话,它必须要有腿,能够走路,去观察世界,获得它需要的经验。它必须能够跟人一起生活,体验他们的生活和故事。”同样有研究者建议,将机器系统装载到一个具有听觉、视觉、嗅觉、味觉和触觉传感器的机器人身上,让它行走在我们所处的世界,获得与人相同的感受,进而获得产生意识的可能。

在《人工智能为什么一定要有身体?》一文中,笔者曾讨论过身体之于人工智能的重要性。AI是没有“躯体”的,它只能和人类给定的数据交互,却不能从与环境的互动中获得“常识”,也就不会形成自我感受和意识。如果要让AI具备意识,首先就要赋予它一个可以自己控制的躯体,并像普通个体一样融入物理世界与人类社会。


当然,身体基础只是意识生成的一种可能假设,问题的关键还是在于机器系统本身。足够智能的计算机一定会产生意识吗?一种回答来自“整合信息理论”(Intergrated information theory)。整合信息理论试图定义意识,分析一个物理系统需要具备什么条件才能拥有意识。其核心观点为,能够产生意识的系统,至少具备两个关键特征:一是这个系统里包含了多少信息量,二是系统里信息的整合程度。

在整合信息理论看来,意识的本质其实就是信息,人类的任何一个意识体验里都包含着极大的信息量。这接近于计算主义(computationalism)的基本观点——“认知即计算”,所有的心灵状态,包括意识经验都属于计算状态,它们完全是与之相关的感觉输入、行为输出,以及其他计算状态之间的功能关系的表征,因而都是可计算的。

意识的整体水平并不取决于它所在的系统,而取决于信息量与整合程度,这两个特征是预测意识大小的关键维度。一个系统的信息量越大、整合程度越高,系统意识就越大。任何一个意识体验,除了包含极大的信息量之外,信息还都是高度整合的,越是强烈清晰的意识状态,也就越不可分割。换言之,只有信息量与整合程度都处在一个较高水平,意识才会清晰浮现出来。譬如人清醒时的大脑,各个部分不但处理大量信息,而且脑区之间有很多远距离的交流,这意味着这些信息被高度整合在一起。如果大脑各部分之间的联系中断(例如在麻醉和深度睡眠中),意识就会削弱,甚至消失。

值得注意的是,在整合信息理论的语境中,人工智能早就产生了意识,只不过非常微弱。因为虽然其系统信息量极大,但它们不是整合的,网络与网络之间,算法与算法之间,几乎处于完全隔离的状态。

要想使一个系统具有较高的意识级别,它的各个组成部分就必须是专业化的,并且整合充分,即各部分协同工作比各自单独运行效果更佳。与人工智能相比,人类大脑的信息量虽然不大,但某些部位如大脑皮层,其神经元之间存在大量连接,因而整合程度相当高,人类意识也就十分清晰。按此思路,如果要提高人工智能的意识,也就要在增加信息量的同时提升信息的整合程度。以计算机为例,只要各晶体管以及存储单元之间的连接足够复杂,那么它就同人脑一样可以达到很高的整合信息水平。而为了实现高度的信息整合,借鉴人类大脑结构仍然是最可行的路径之一。

我们大可畅想,有这么一类人工智能将出现,“它可以把世上各种事物间无数错综复杂的关系,整理成知识并纳入高度整合的单一系统中”(Christof Koch语),那它或许能够超越专用人工智能的局限,应对整体性事务,即发展为通用人工智能(Artificial General Intelligence),或强人工智能(Strong AI)。由于整合信息的能力处于一个较高水平,它会有意识地感知任何场景。届时,它将轻易通过包含图灵测试在内的各种测试,并真正拥有人类最宝贵的东西——意识。

设想是美好的,其困难性在于,目前的科学手段仍不能探明人类自身意识生成之奥秘,甚至连人类大脑的物质性构成也尚未了解完全。在缺乏清晰仿造对象的情况下,打造一个超级整合机器系统几无可能。因此,人工智能是否能获得自我意识,至少当下来看,仍是一个确定性未知的问题。
——————————————
原文首发:腾讯研究院 《图灵逝世66年后,AI可以自我思考了吗?》
作者:腾讯研究院研究员 王焕超

快速回帖

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则