2023年,人工智能哪些方向进展将值得期待?

[复制链接]
兰色的风 发表于 2023-7-31 18:14:34|来自:北京 | 显示全部楼层 |阅读模式
2023年,人工智能哪些方向进展将值得期待?
全部回复5 显示全部楼层
buxizhizhou 发表于 2023-7-31 18:14:44|来自:北京 | 显示全部楼层
作为一个普通的LLM用户,说一点自己关于LLM进展的看法。
目前的大语言模型训练和推理成本太高,比如有人分析[1],OpenAI ChatGPT每天的运营70万美元,一年的话是2.5亿美元。这个数字即使对于像微软这样的大公司,也不是一笔随随便便的开支。所以LLM的研究和应用还是有很大的改进空间的,我个人认为下面的几个点上的改进会比较重要:

  • 高质量、稳定可用的数据集
  • 网络设计上的优化
  • 硬件和训练流程上的优化
刚好最近这三个点都有一些相关的新闻或进展,说一下我的理解。
数据集

在数据集上,这几天有一个新闻[2],Reddit公司打算向使用API调用Reddit聊天内容的公司收费。随着数据使用规则的变化,如何构建稳定可用、没有法律风险的训练数据集也变得越来越重要。好在很多团队还是愿意将自己采集的数据集开源出来,部分可以商用。这里简单列一些我看到的开源数据集:

  • RedPajama-Data-1T
  • databricks-dolly-15k
  • Open Assistant
  • GPT4All-J Dataset
数据是这三部分里面最容易取得进展的,相信在2023年会看到更多的数据相关的工作。
网络设计

在网络结构优化上,斯坦福大学提出了 Hyena Hierarchy网络结构[3],将Transformer中的平方计算量的Attention修改为次平方的结构,




图片来源:参考4

从上图可以看到,Hyena 在 Sequence Length 为100的情况下,比Attention结构快100倍。更具体的对比,可以看论文。



图片来源:参考4

在测试集上,Few-shot 下Hyena准确率也比GPT框架的论文GPTNeo要好,Zero-shot 要差些。
当然我也是个LLM的门外汉,不懂算法细节,只是觉得这个思路是解决现在LLM模型参数量过大问题的一个好方向。
硬件

最后是训练软件和硬件层面的进展。根据这个报告[5],微软在自研用于训练语言模型的AI芯片。虽然GPU已经是很强大的计算单元,但针对语言模型设计的AI芯片,应该还是能在GPU的基础上进一步提速,毕竟GPU是一种通用的结构。相信随着LLM的实际价值的不断被发现,针对它们的专用芯片也会越来越多,当然这对芯片公司可能也是一个很好的机遇。
参考内容

[1]. How Much Does ChatGPT Cost to Run? $700K/day, Per Analyst (businessinsider.com)
[2]. Reddit Wants to Get Paid for Helping to Teach Big A.I. Systems
[3]. Hyena Hierarchy: Towards Larger Convolutional Language Models 论文
[4]. Hyena Hierarchy: Towards Larger Convolutional Language Models 博客
[5]. Microsoft reportedly working on its own AI chips that may rival Nvidia’s

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

×
Virtual 发表于 2023-7-31 18:15:28|来自:北京 | 显示全部楼层
人工智能提供Equalizer,内卷更少,创造更多,人们有更多机会做更多的事。

人工智能与其他科技的根本区别,在于人工智能更强调创造。

好问题,目前最火的方向毫无疑问是大模型了,自从chatgpt火了之后,AI再次“破圈”,吸引了一大批社会人士的关注。人工智能的很多方向都是值得关注的,包括AI和科学领域结合,可视化方向等等,我这篇文章想从游戏的角度入手,跟大家探讨一下人工智能的发展和社会的未来。


为什么游戏领域如此受人关注,因为游戏作为资本的主要角逐场,反映的是时代的变化,也是科技的变化。玩游戏可以了解技术,窥探社会。如果你耐心看完本文,相信你会认同我的这一说法。
我小时候玩的是魔兽争霸,星际争霸之类的即时战略游戏, 这个大家想必也是熟知的,除非你是00后。这两款游戏在当时硬件条件很差的情况下,仍然做出了非常好的效果,实现了很复杂的游戏机制(包括控制大量单位,科技与进攻的平衡,电脑AI的引入等等)。



魔兽争霸的界面

然而从计算机技术的发展来看,当时的主要游戏产品仍然犯了两个比较常见的错误:
(1)很多企业把游戏弄的非常复杂,以此来提高游戏门槛,典型的失败案例就是帝国时代(虽然仍然引发了很大轰动)。
(2)侧重于具体算法的优化,缺乏合适的分层。往往一款游戏本身就需要做一个系统和一个生态。这给更新换代和新游戏开发造成了困难。
(3)不注重玩家感情的培养和人文信息的融入,而东亚玩家是非常看重玩家之间关系的培养的。
再后来网页游戏兴起了一段时间,可以说算是部分解决了上面三个比较基本的问题,拿贪玩蓝月为力,


对(1)的解决在于他不需要很复杂的操作,甚至挂机就可以等升级打怪了,想操作的时候点一下完成任务,然后就会弹出一大堆提示。对(2)的解决在于他是基于网页的,因此不受客户端的限制,开法起来也非常容易,一款游戏没人玩了赶紧开发下一款,又可以收获一波玩家,而对(3)的解决在于开发各种工会师徒系统,拉隆玩家关系。这些也成了一款网页游戏的基本要素。
网页游戏最大的弊端在于它引入了新的问题:(4)太坑钱了。玩家之间的秩序完全靠氪金,没个千儿八百的根本无法出头,玩两个月就能看到自己的未来,没有任何上升的空间。而RMB玩家看到用户流失,也不太想继续玩了,并且RMB玩家也知道自己的装备全是氪金来的,即便虐杀非RMB玩家也没有任何快感。同时一款游戏大部分玩家都是非RMB玩家,没有非RMB玩家就没有游戏本身。
同时期的DOTA的发明可以说开创了一个划时代的游戏种类:MOBA,首先他解决了上述的(1),他不需要很复杂的操作,只需要控制单个英雄,(2)MOBA玩法本身不依赖复杂的渲染或者具体的游戏机制,只要简单的设计些技能即可,虽然看起来华丽但其实实现这些技能是非常简单的。注意这里并不是说设计没有价值,设计是很有价值的但是它往往不需要花创作者很多时间,冰蛙一个人就可以做到大部分的工作,如果需要的话再配一些美工即可。
上述提到的(3)也在MOBA游戏中得以解决,如果你在工作中感到不顺心,大可以在游戏中喷队友,反正队友有四个,总能找到个接锅的。如果说赢了还可以嘲讽对面。同时MOBA游戏的内在机制也促进了(4)的解决,玩家不可能氪金来直接改变游戏的结果,虽然可能可以小幅度的增加自己的英雄强度,但是匹配机制仍然能保证你找到合适的队友。同时就算0冲或者微冲玩家也能走到游戏的最顶端,这种特性吸引了一大堆游戏粉丝。现在我们的游戏时代仍然处于MOBA时代。


上面说的这些好像有点偏题,但是却是十分关键的,大家也能看到,之前的游戏并没有太多人工智能因素的引入,如果有的话那估计就是电脑可以充当玩家作为陪玩,但是被电脑虐一定是一个不好的体验。
MOBA游戏的弊端在于:(5)太内卷了。像我这样的玩家不得不承认自己是真的菜,只能在一个很低的分段挣扎,那些英雄玩久了也都没劲了,我之前还写过一篇文章,为什么DOTA2越来越没人玩了。虽然游戏厂商都在解决问题,但是不能根本性的解决内卷的问题。毕竟要满足第四条不氪金的话,好像只能在公平的平台上实现竞技和内卷,那么有没有别的玩法呢?
我想说的是,未来人工智能的引入一定能让游戏有更多的创造性,玩家之间拼的是思想的新颖程度,是不是让别人觉得好笑好玩,而不是单纯的内卷技术
这里面再简单回顾一下创造类游戏的历史,我可能知道的不多,欢迎评论区补充。首先是三位一体这款游戏,比较新颖的提出了用鼠标绘制,可以生成箱子,或者平板,而这些道具可以帮助玩家抵挡障碍物,以及越过新的障碍物。



三位一体游戏画面

现在想起来,这是不是最简单的prompt机制呢?所谓prompt机制,就是玩家给一个大概的描述,然后人工智能算法去补充它,在它的指引下呈现出新颖的结果。现在主要人工智能的成果,包括chatgpt,diffusion都是基于prompt机制的。
我这里还想提到另外一款游戏,剧本杀,这款游戏也是讲人的创造力发展到一个相当高水平的游戏,你可以设计任何情节,角色扮演,里面加入小游戏,各种机制,然后让玩家进行比拼或者合作。可以说剧本杀有点像图灵机的感觉,可以让玩家自定义游戏的形式,并且按照自己的爱好满足逻辑或者情感的需求,也可以算是未来游戏的雏形。
总而言之,未来游戏应该是创造+AI+剧本杀的某种结合,而不是单纯的内卷,这样就解决了上面的(1-5)个问题。
我们的话题并没有在这里结束,而是刚刚开始。我本文想说的一个核心观点是:
游戏的发展是技术的写照,是社会发展的模拟。

这里提到一个重要的概念,Equalizer,可以翻译为均等器。举几个例子:
(1)男人与女人生来是不平等的,男人力气大,但是手枪发明之后,男人和女人都被均等化了,因为任何人都扛不住一颗子弹。这里手枪就是一种equalizer。
(2)有些同学算数不强,就是解方程解不来,但是现在有自动化方程求解器,甚至不需要列方程就可以用数据的方式解决问题,这里的程序就是一种equalizer。有了程序之后,算数能力带来的差异就变小了。
而人工智能的引入,也是一种equalizer。比如之前你下不过柯洁,但是只要你开了alphago,他再强也没有用。传统象棋界有称号叫大师和特级大师,而现在有种说法叫做超级大师,简称超大,只要你开了软件那就是超大,任何特大那都不是对手。
比如原来你写法律文书需要聘请很专业的律师不然就是一脸懵逼,未来有了chatgpt辅助,你完全可以进行文书的草拟,只要请律师把把关即可。
比如现在我打MOBA游戏竞争不过那些反应快的玩家,那么未来完全可能有一种equalizer,帮助我这种手残玩家体验游戏的乐趣。
社会发展的每一步,都离不开equalizer,比如之前人们都得给资本家打工,自己拼命内卷,努力八成都被资本家抢走了,自己留下的都付不起房租。而未来equalizer的引入,就可以让人们自食其力,实现给自己打工,把自己的才能和创造力发挥出来。
人工智能让社会更加的公平,更大程度实现解放生产力。
再探讨一个深入的话题,为什么之前社会实现不了平等和GC,说白了还是equalizer不够,或者用前人的话总结,生产力不够,你吃饱了我就吃不饱,你能买iphone我就只能用大哥大,那谈什么平等。
之前我们尝试过强行用强制的手段进行equalize,吃大锅饭,然后给大家发粮票,最后的结果是大家都没有生产积极性了,确实平等了但是都穷了。生产资料公有的前提是生产资料是无人的,透明的,自动化的,靠制度维系的。如果生产资料仍然不是现代化的,那么公有化之后只会导致更大的腐败和贫穷。我想说当时的梦想是对的,但是实现手段得要靠科技,科技才是最强有力的equalizer。
过去有一个没有意识到的问题是,equalizer带来的是百家齐放,百家争鸣,而不应该是大一统。这是一个需要辩证把握的理念。换句话说,公平并不是均等,这是截然不同的两个概念。之前人们认为,大家反正都要公平,那我用什么样式的打火机,你就得用什么样式的,如果你用高端打火机,那就是不公平。如果自上而下实现公平,就会发现这种equalize是表象的,甚至是滑稽的。真正的equalizer应该是深层次的,抽象的,是社会地位和职业技能的平等,而不是你穿什么衣服我穿什么衣服,你用什么汽车我用什么汽车这种表面的一致性。
还有一个更深入的问题,未来的人们靠什么谋生。之前的封建社会各家种各家的地,只要不种地那必然会没吃的。未来人们即便不劳作,生产出来的粮食和产品也必然让人们够吃够用。那么人们会做怎样的工作?这里我给出我的答案:
未来人类从事的主要工作,在于创造特异性的需求和消费。
这是我最近的核心思想成果,我想再重复一遍以体现它的重要性:未来人类从事的主要工作,在于创造特异性的需求和消费。或者用一个简单的说法:
未来人们的工作在于高质量的花钱。

我的这个想法是挑战了前人认知的,因为之前我们的老师和家长总会告诉我们,不工作就没法吃饱肚子,没法买房以及在社会生存。还会有人跟我们说,挣了钱不要花一定要存着,不然遇到社会变动或者其他因素急着要钱怎么办。
然而我在发达地区生活的主要体验是,每个人都存钱都不花,那大家都没生意做,大家都会穷。如果每个人的需求都只是吃饱喝足顶多玩个手机,那么只会带来食品行业和手机行业的内卷,这种发展是畸形的和不平衡的。比如在山西的一些落后城市,我们能看到核心街道基本都是饭店,一家饭店接着一家,因为开别的店都没生意做。但是发达的城市往往饭店占比是很小的,比如我在波士顿生活的时候可能找家合适的饭店都需要走很远。再比如现在的香港社会就已经有这样的雏形,人们会花大量的时间进行购物逛街,以及参加音乐会艺术展宗教活动等等,这就是未来。
那么一个自然问题来了,创造需求是怎么成为工作的呢?如果工作就是花钱的话,会不会导致坐吃山空呢?
我对这个问题的回答是,消费或者说花钱成为工作有个前提:这种消费是利他的,创造的价值要多于花费的价值。比如有些旅行主播花费很多钱进行旅行,但是它给很多观众带来了情绪体验,所以这完全可以成为工作。同时,把消费作为工作也不意味着纯粹不劳动。比如原来的卡车司机需要开车十几个小时才能生活,未来这份职业可能就是监控无人驾驶汽车一个小时,然后花七个小时进行消费,购买原材料或者逛街等等。
回到本文开头的论点:
人工智能与之前科技的根本区别,就在于人工智能更强调创造。
从人工智能的观点来看,创造和花钱是可以成为职业的,只要具有足够利他性。举几个例子,比如虚拟形象的引入,可以让更多人成为虚拟主播,这就可以成为一种新的职业。再比如chatgpt也降低了很多行业的从业门槛。这应该是未来社会的必然趋势。从这个角度上讲,人工智能是可以大幅度地促进社会发展的。
<hr/>感谢大家的点赞!

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

×
不活 发表于 2023-7-31 18:15:35|来自:北京 | 显示全部楼层
最近,计算智能领域的旗舰会议,EvoStar 2023,刚刚结束,现在是一个总结和回顾的好时机。在这个会议上,我们看到了许多有关演化计算和机器学习的最新研究成果,涉及的领域也非常广泛,从机器学习/深度学习到演化机器人,再到智能控制等。这些研究成果不仅对学术界有着重要的影响,而且对工业应用也有着广泛的应用前景。
因此,在这篇回答中,我希望分享一些EvoAPPS 2023/EuroGP 2023上计算智能领域的热点趋势和最新研究,希望能够为大家提供一些有益的见解和启示,并激发大家对演化计算/机器学习进行研究和应用的兴趣。
EvoAPPS 2023 Track

根据EvoAPPS 2023的文章列表,可以看出演化计算和机器学习领域的热点趋势从应用视角来看主要涉及以下几个方面:

  • 演化算法在多目标优化问题上的应用
  • 演化算法与深度学习的结合
  • 迁移优化/迁移学习的应用
  • 领域定制化的演化计算方法
  • 演化计算在机器人控制中的应用
演化算法在多目标优化问题上的应用:多目标优化问题在现实生活中普遍存在,如物流、机器人控制等领域。演化算法具有天然的多目标优化能力,近年来在多目标优化问题上的应用越来越受到关注。
EvoAPPS 2023会议中有多篇论文涉及多目标优化问题,包括:

  • Rahimi等人的“Extending Boundary Updating Approach for Constrained Multi-objective Optimization Problems”提出了一种隐式约束处理技术——边界更新法(BU)与显式约束处理技术相结合,从而显著提高有约束多目标优化算法的效果。
  • Colomine等人的“Epoch-based Application of Problem-Aware Operators in a Multiobjective Memetic Algorithm for Portfolio Optimization”提出了一种基于问题感知算子的多目标算法,并应用于投资组合优化问题中,取得了比其他算法更好的结果。
  • Lin等人的“AMTEA-based Multi-task Optimisation for Multi-objective Feature Selection in Classification”则提出了一种基于多任务优化的多目标特征选择算法,以提高多个相关分类任务的性能。
这些研究为解决现实中的多目标优化问题提供了新的思路和方法。



Multi-objective Feature Selection in Classification

演化算法与深度学习的结合:深度学习已经在图像、语音、自然语言处理等领域取得了很大的进展。演化算法与深度学习的结合可以通过自动化网络结构搜索来解决深度学习中的一些问题,如过拟合、网络结构设计等。
EvoAPPS 2023会议中有多篇论文探讨了进化算法在深度学习中的应用,包括:

  • Mahdinejad等人的“Grammar-Guided Evolution of the U-Net”使用进化算法自动设计U-Net模型的结构。
  • Horgan和Mason的“Evolving Neural Networks for Robotic Arm Control”利用进化算法优化神经网络来控制机械臂的运动轨迹
  • Sarti等人的“Under the Hood of Transfer Learning for Deep Neuroevolution”研究了基于进化算法的迁移学习方法如何在新的领域中利用先前学习的知识来优化深度神经网络的结构。
这些研究为深度学习中的关键问题提供了创新的解决方法,推动了深度学习的发展。



Grammar-Guided Evolution of the U-Net

迁移优化/迁移学习的应用:迁移学习可以将已有的知识应用到新任务中,减少新任务的学习成本。近年来,演化算法在迁移学习中的应用受到越来越多的关注,如迁移学习中的深度神经网络结构搜索、迁移学习中的元学习等。
EvoAPPS 2023会议中有多篇论文聚焦于迁移学习,包括:

  • Chen等人的“Multi-Objective Location-Aware Service Brokering in Multi-Cloud – A GPHH Approach with Transfer Learning”探讨了如何通过迁移学习来解决多云环境中的服务中介问题,并提出了一种基于遗传编程和迁移学习的方法。
  • Sarti等人的“Under the Hood of Transfer Learning for Deep Neuroevolution”研究了基于进化算法的迁移学习方法来优化深度神经网络的结构。
  • Babaagba和Ayodele的“Evolutionary based Transfer Learning Approach to Improving Classification of Metamorphic Malware”则提出了一种基于演化算法的迁移学习方法来改进恶意软件分类算法的方法。
这些研究为迁移学习在实际问题中的应用提供了新的思路和方法。



Transfer Learning for Deep Neuroevolution

领域定制化的演化计算方法:针对不同领域的问题设计演化计算方法,包括基于问题的运算符选择、问题特定的编码方法和适应度函数设计等,近年来越来越受到关注。这些高度定制化的方法旨在最大程度地提高求解效率和精度,并在各种领域得到了广泛的应用。
EvoAPPS 2023会议中有多篇论文探讨了高度定制化的演化计算方法,例如:

  • Wang等人的“Energy-Aware Dynamic Resource Allocation in Container-based Clouds via Cooperative Coevolution Genetic Programming”通过合作协同进化遗传规划的方式设计了一种用于动态资源分配的算法,能够提高容器云环境下的能源效率。
  • Villagra和Luque的“A Surrogate Function in cGA for the Traffic Light Scheduling Problem”则提出了一种基于代理模型的cGA(Compact Genetic Algorithm)优化方法,用于解决交通信号灯调度问题。
  • Andreea等人的“Interactive Stage-wise Optimisation of Personalised Medicine Supply Chains”则提出了一种交互式阶段化优化方法,用于解决个性化医疗供应链中的问题。
这些方法都是针对特定问题领域进行设计的,能够有效地提高求解效率和精度。



协同进化遗传规划

演化计算在机器人控制中的应用:机器人控制是演化计算领域的一个重要应用方向。近年来,演化计算在机器人控制中的应用不断拓展,如机器人路径规划、机器人协同控制等。
EvoAPPS 2023会议中有多篇论文探讨了机器学习在智能控制中的应用,包括:

  • Neri和Turner的“A Fitness Landscape Analysis Approach for Reinforcement Learning in the Control of the Coupled Inverted Pendulum Task”使用Fitness Landscape Analysis方法分析了强化学习算法在控制倒立摆任务中的表现,并发现探索能力对于在高崎度环境下实现最优强化学习具有重要作用。
  • Almansoori等人的“Further Investigations on the Characteristics of Neural Network Based Opinion Selection Mechanisms for Robotics Swarms”研究了基于神经网络的观点选择机制的特征,探讨了在机器人群体控制中应用这种机制的可行性和性能。
  • Montague等人的“A Quality-Diversity Approach to Evolving a Repertoire of Diverse Behaviour-Trees in Robot Swarms”使用质量多样性方法来进化多样化的行为树,以帮助机器人群体应对不同环境下的复杂任务。
这些研究为我们提供了新的思路和方法,有望在机器人领域的控制和协同任务中取得更好的表现。
综上所述,演化计算和机器学习领域的热点趋势主要涉及多目标优化、深度学习、迁移学习、领域定制化的演化计算方法以及演化计算在机器人控制中的应用等方面。
EuroGP 2023 Track

根据EuroGP2023的文章列表,可以看出演化计算和机器学习领域的热点趋势从遗传编程视角来看主要涉及以下几个方面:
自适应方法的应用:自适应方法可以帮助算法自动调整参数,提高算法的性能,因此在演化计算和机器学习领域得到了广泛的应用。
EuroGP 2023的文章列表中有多篇论文探讨了自适应方法的应用,包括:

  • José Ferreira等人的“A Self-Adaptive Approach to Exploit Topological Properties of Different GAs’ Crossover Operators”提出了一种自适应方法来利用不同遗传算法的交叉操作的拓扑特性,提高算法的性能。
  • Bryan Martins Lima等人的“Adaptive Batch Size CGP: Improving accuracy and runtime for CGP Logic Optimization flow”使用自适应批量大小的方法,提高了Cartesian遗传编程在逻辑优化任务上的准确性和运行时性能。
这些应用自适应方法的研究旨在通过自动调整算法参数来提高算法的性能和鲁棒性,推动了遗传算法/遗传编程的发展。



Adaptive Batch Size

符号回归的发展:符号回归可以通过自动生成数学表达式等方式来解决回归问题,近年来得到了越来越多的关注。
EuroGP 2023的文章列表中同样有多篇论文探讨了符号回归的不同方面,包括:

  • David Wittenberg和Franz Rothlauf的“Small Solutions for Real-World Symbolic Regression using Denoising Autoencoder Genetic Programming”使用去噪自编码器结合遗传编程来解决小样本符号回归问题。
  • Ting Hu等人的“Phenotype Search Trajectory Networks for Linear Genetic Programming”则探讨了一种基于搜索轨迹网络的线性遗传编程演化分析方法,探究线性遗传编程在解决符号回归问题上的表现。
这些研究表明,符号回归是遗传编程领域的重要研究方向,具有广阔前景。



Phenotype Search Trajectory Networks

图神经网络的应用:近年来,图神经网络在机器学习领域取得了一些令人瞩目的成果,演化计算领域也开始关注这一领域的研究。
EuroGP 2023的文章列表中也有一篇论文探讨了图神经网络在演化计算中的应用。

  • Julia Reuter等人的“Graph Networks as Inductive Bias for Genetic Programming: Symbolic Models for Particle-Laden Flows”探讨了如何将图神经网络作为遗传编程中的归纳偏差来提高演化算法的性能,以解决Particle-Laden Flows问题。
该研究为演化计算领域的图数据处理提供了新的思路和方法。



Graph Networks as Inductive Bias

机器学习和演化计算的结合:机器学习和演化计算是两个相互补充的领域,它们可以相互借鉴、相互促进。
EuroGP 2023的文章列表中有多篇论文探讨了如何将机器学习和演化计算相结合来解决不同的问题。

  • Michał Kowalczykiewicz和Piotr Lipinski的“Grammatical Evolution with Code2Vec”介绍了一种新的演化计算方法,将机器学习中的Code2Vec技术与语法进化相结合,用于解决软件工程中的程序合成问题。
  • Zhou等人的“A Boosting Approach to Constructing an Ensemble Stack”提出了一种改进的集成学习方法,通过演化计算生成不同的基本分类器,然后使用Boosting技术将它们结合在一起,以提高分类器的性能。
  • Zhang等人的“MAP-Elites with Cosine-Similarity for Evolutionary Ensemble Learning”介绍了一种基于MAP-Elites算法和余弦相似度的演化集成学习方法。该方法利用MAP-Elites算法来维护多样性和保留精英个体,同时使用余弦相似度来评估个体的相似度,进而组合成一个更好的集成模型。
这些研究为机器学习和演化计算这两个领域的相互借鉴提供了新的思路和方法,也推动了两个领域的相互发展。



MAP-Elites

多样的领域应用:遗传编程在不同领域都得到了广泛的应用,例如云计算、智能控制、机器人控制、药物设计等。
EuroGP 2023的文章列表中也有一些涉及不同应用领域的研究。

  • Matteo De Carlo等人的“Interacting Robots in a Artificial Evolutionary Ecosystem”探讨了在演化机器人领域中,通过设计一个交互生态系统来更自然地评估机器人,并发现这种评估方式对机器人的最终行为和形态有重要影响,同时仍然保持了相当的适应度性能。
  • Marko Đurasević等人的"To bias or not to bias: Probabilistic initialisation for evolving dispatching rules"介绍了一种使用初步演化调度规则的概率信息来提高遗传编程生成调度规则的收敛速度和质量的方法。
这些研究的结果为遗传编程的实际应用提供了新的思路和方法,也为演化计算和机器学习的应用提供了更广泛的空间。
综上所述,EuroGP 2023的热点趋势主要涉及应用图神经网络、结合机器学习、探索多样的领域应用,以及提高算法的性能和鲁棒性等方面的研究。这些趋势旨在推动遗传编程/演化计算和机器学习领域的融合与发展,以解决实际应用中的问题。

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

×
duck25 发表于 2023-7-31 18:16:07|来自:北京 | 显示全部楼层
最近大火的AutoGPT备受关注,因为大家意识到给ChatGPT额外增加外部搜索能力,和反思记忆模式,就可以让他形成自动规划的agent。只需要给定最终目标,即可以完成全部的子任务分解,多步骤规划,任务结果评估等环节
其实AutoGPT属于Autonomous Language Agents (ALA),可以称为自主式语言agent。我觉得今年可以密切关注这一领域问题的进展,或许有更多意想不到的发现。
这是ReAct论文第一作者姚顺雨提出的概念。AutoGPT的思路其实可以上溯到论文
ReAct: Synergizing Reasoning and Acting in Language Models
在以往的扩展Language Models(LM)的工作中,一种是通过chain of thought (CoT) 去引导其进行多部推理完成复杂reasoning trace,但主要依赖模型内部知识。


另一种是LM与外部环境交互,但是主要是聚焦在文本语境和文本动作之间的映射。ReAct则是对二者的综合,形成协同循环,交替进行。
遵循的模式就是"Thought-Act-Observation"

  • Thought利用到了推理规划部分
  • Act则是调用外部环境接口执行
  • Obs则是根据反馈状态,影响下一步思考规划
相当于在CoT中额外引入Act-Obs这两步,引起状态改变。下图展示的就是ReAct相比于其他单纯的扩展LM技术在回答复杂问题时的优势。


AutoGPT在实现时也延续了ReAct的思路,额外增加的是显式Memory,去维护过往的经历,和存储规划的目标。这可以进一步的去扩展LM的能力,在整个过程中不断的提出新的目标去完成。
但这种显示的扩展Memory思路是否是最优的?在索引Memory的时候基于简单的embedding vector去近邻匹配就足够了么?这些都是需要探索的。目前AutoGPT的形态更多是一些工程解决思路。
在推特上姚顺雨还分享了更加有趣宏大的观点

  • 语言类似基因,基因可以复制变异产生新的基因,语言某种程度也是通过推理、记忆去重复输出或者改写生成新的文本。
  • 动作执行则是开启了生命,因为与环境有了交互反馈,可以去探索并更新状态
  • 而目的或者是意图(intention)或许是孕育涌现出复杂智能的关键。
也就是GPT最常被人诟病是复读机,只是在拟合语言统计概率。但是如果能让其具有action调用外部一切接口的能力,再额外增加intention实现某种目标,或许就可以演化出复杂的通用人工智能。

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

×
xiongdamao 发表于 2023-7-31 18:16:25|来自:北京 | 显示全部楼层
这是有意思但是很难回答的问题。
有意思是因为,大家都很关注这玩意,毕竟这么多的AI相关硕士 博士 都等着毕业,大厂里面很多的算法工程师也在想后面做点啥,会不会被裁员。
很难回答是因为,能预测未来我就不在这了。
要说AI领域最震撼,最近最大的进步,肯定就是大模型了,Large Language Model。
都是基于Transformer结构:



以下给出一些参考资料:
总结当下可用的大模型LLMs - 九号的文章 - 知乎 https://zhuanlan.zhihu.com/p/611403556
使用 LoRA 和 Hugging Face 高效训练大语言模型 - Hugging Face的文章 - 知乎 https://zhuanlan.zhihu.com/p/621488476
大语言模型(LLM)相关学习资料整理 - 云峰璇玑的文章 - 知乎 https://zhuanlan.zhihu.com/p/616280753
通向AGI之路:大型语言模型(LLM)技术精要 - 张俊林的文章 - 知乎 https://zhuanlan.zhihu.com/p/597586623
大模型用这超高的知识储存能力,加上较为简单的知识使用能力(Prompt,In-context Learning等能力),辅助上RLHF实现与人类的对齐,在各个任务都展现出颠覆性的能力。
我认为,2023年,可以考虑的方向包括但不限于:
1. 大模型的高效微调,如何快速让全才变成专家;
2. 大模型的高效训练,如果企业想复现自己的ChatGPT,如何快速收敛
3. 模型的轻量化,包括小模型具备推理能力,毕竟现在的scaling law约束了小模型的性能
4. 知识的更新,世界知识是在动态变化的,从某个视角来看,知识都是动态的。因此,如何更新大模型的知识,是一个有趣的课题。
5. 跨模态,跨领域的融合。比如用LLM来控制机器人,用LLM来打通各行各业。

类比于操作系统,以前的人都在开发自己的windows,以后怕是基于windows开发软件了。

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

×

快速回帖

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则