如何看待 vivo 将发布大模型加持的 OriginOS4,是否意味着手机厂商的系统在进入大模型时代?

[复制链接]
rety2007 发表于 2023-10-18 03:59:59|来自:福建 | 显示全部楼层 |阅读模式
10 月 16 日,vivo 宣布即将发布自研高性能大模型加持的 OriginOS4。据悉,OriginOS4 首发搭载的模型为行业领先的 1750 亿参数的超级大规模云端模型,也是行业首家 7B 端侧大模型,在 C-Eval 排行榜中排名第一。你觉得,都有哪些信息值得关注?另外,随着 vivo 的加入,是否意味着手机厂商的系统已经在进入大模型时代?
全部回复5 显示全部楼层
dfo2545 发表于 2023-10-18 04:00:51|来自:福建 | 显示全部楼层
简单说说vivo的大模型排名第一的这个C-Eval,这不是一个商业性的排行榜。C-Eval由上海交通大学、清华大学、爱丁堡大学共同搭建,是目前相对权威的多层次多学科中文大模型评测基准。此前知乎上已经有一些科普,大家感兴趣也可以去他们的官网看看。
https://cevalbenchmark.com/vivo一个做手机的公司,怎么就一门心思干起了大模型呢?其实早在2017年vivo就已经组建了人工智能全球研究院,经过这几年的持续扩充,目前已经有600人以上的规模。但vivo一直都是强调本分,很多正在做和没有做成的事情都很低调在处理,所以外界也没有太多关注。
ChatGPT大火之后,可以说是大模型的一个“催熟剂”,而vivo的多项底层建设工作也初见规模,所以这次才有了加持在OriginOS 4上的发布。手机厂商和互联网厂商都在纷纷宣布进军大模型,其实就是在抢夺下一个十年的入场券。
如果说智能手机第一个十年的技术赛道是影像和性能,那新十年的赛道将会是AI和大模型的云端协同及应用。而中国手机品牌,必然是新十年智能手机技术竞争的主导者。
这话听起来是不是觉得不靠谱?但这就是事实。


倒退五年,谁要给你说中国汽车品牌将会是新能源汽车时代的全球主导者,你同样也觉得这是天方夜谭,异想天开。但中国这个全球最大的单一市场主体,加上数量庞大的科技工程师队伍,具备了技术创新时代全产业链所需要的各项有利条件,从而在全球科技创新市场中扮演着极为重要的角色。
暂别宏大叙事,我们今天聚焦用户视角,聊聊用户关心的话题——OriginOS 4上所搭载的大模型对vivo以及整个智能手机行业将会带来哪些新的技术创新可能性?
智能手机如何新生?

每一个产品和技术,都是有生命周期的。不管他曾经多么辉煌,都无法避免走向衰败甚至消亡的那一刻。而手机,则是将这一“丛林法则”演绎得最为淋漓尽致的行业。全球范围内,从功能机延续到智能机的厂商只有一家。而功能机从出现到彻底退出,大概就是十余年的时间。参考这个规律周期,留给这一代智能手机的时间也不多了。
换机驱动减弱,换机周期延长,其实就是技术创新的边际效益日渐稀薄。影像、性能、设计、充电、系统……能卷的都卷了一遍,大家的焦虑日趋严重,都在为找寻新的船票日思夜想。
机会从来都是留给有准备和敏锐洞察力的少数人,AI大模型的出现及火爆,让智能手机厂商们隐约看到了新的曙光。智能手机的前一个十年,完成了初级智能阶段的基础建设,不管是影像还是性能,更多是需要用户的主动操控,手机软硬件系统再通过算法的理解来输出合适的结果。比如影像的多帧合成HDR,游戏的智能帧率稳定等等。


大模型的兴起和成熟,则引领智能手机开始变得有了更有深度和难度“思想和思考”。当用户对其输入一段复杂的需求语音,手机系统触发的不再是单一的简单指令执行,而是由多项工作内容组合的复杂工作体系。这个工作体系可以是你未来一周的旅途安排,也可以是你要向上司汇报的工作总结,甚至可以是将你拍摄的合影挑选每一个人最佳状态生成最理想的一张。有了大模型加持的智能手机,在新的技术周期内必定将“人机合一”的蓝图描绘得更加详实生动。
对于新技术的初级阶段,大部分人都是质疑和否定的。正如作为摄影发烧友的我,当年初初看到手机能拍照时,一样是嗤之以鼻:就这?但经历了十余年技术迭代之后,今天的移动影像已经在多数的消费级场景中完全胜任。智能手机降低了用户的影像使用门槛,助推了社交媒体图片化和视频化的全面升级。
而大模型所助推的全面AI化,融入智能手机后,今天我们觉得难于上青天的很多技术壁垒,在未来都会被逐一击穿。
大模型加持的智能手机会是什么样?

每次谈到未来的新技术发展,总会伴随着一句千古不破的名言:理想很丰满,现实很骨感。当我们在畅谈大模型带给智能手机更广阔的技术空间时,一定会有人站出来吐槽:别扯那么远了,先把现在手机上的语音助手“智障化”解决好吧。
其实……大模型加持的目的之一就是来“清障”。
我们为什么不爱用语音助手?每次对话都需要复读唤醒关键词是其一,其二是系统对略微连续性和复杂的多样化指令会瞬间崩溃,完全不知道应对,其三是需要很清晰精准的关键词才能激活系统,模糊化接收指令的能力很弱。


而这些所有槽点的背后,其实都指向一个相同的软肋——只有大数据,没有大模型。如果我们把人工智能系统看做是一个小朋友,那他一直都只是在做10以内的加减法,即使他一天到晚做了无数道题,可始终就是停留在这个能力范围内。而超过10的加减法甚至是乘除法,他确实就是不会。如果这是活生生的人,他的脑力会成长,会通过得到训练,逐渐学会难度更大的算法。但早年间的手机软硬件系统,将有限的资源都投入到了影像和性能的需求中,所以即使每天有海量的数据进来,但在系统化的大模型训练这部分,成长性是滞后的。
大模型加持后的语音助手,不再是由关键词触发对应的指令。而是根据你提出的需求进行一整套的分析、运算和输出。举个简单的例子:过去我们给手机助手说:给我一杯水。他就只晓得给你一杯水。但如果有了大模型的加持之后,他可能会结合当时的气温、你的身体指标,你是否有运动过等等,再来问你:你是需要热水还是冷水?是否有多少温度的需求?需要500毫升还是200毫升?
当然,这是一个比喻,主要是让我们理解大模型加持后的手机系统,他有了触类旁通的主动思考能力。而OriginOS 4,首先要解决的就是诸如此类沟通能力的改善。
大模型产品进入真实可用的阶段,解决知识图谱的完整和完善,也是非常重要的底层能力。vivo目前已经建立了超过2800T的知识图谱,目前投入系统应用的约有150T。150T是什么概念呢?等于2个半中国国家图书馆藏书里的知识量。
海量知识图谱建立起来以后,对用户意味着什么呢?
过去我们问手机助手:介绍一下大熊猫?他大概率是给你一个类似百度百科的标准化答题。但引入大模型以后,他可能可以给你洋洋洒洒讲半个小时都不带重样。而且如果你再给他一个更精准的范围:如何在小学生兴趣课堂上介绍熊猫?他会在知识科普之外,给你诸如简单的绘本教学、手工教学、儿歌等等一系列的知识供给。
我们有些朋友特别害怕在会上发言,但身在职场又总会面对这样的时刻。手机接入大模型之后,我们先全程对会议内容录音记录,等差不多了就发起“整理记录”的需求。大模型根据你的会议记录,再结合自己数据库里的多种文本需求,在很短时间内就能完成一篇总结发言稿的撰写,并推送到你手机上。
大模型将来可以帮你规划差旅行程,日常工作,但我觉得这些还不足以体现大模型辛辛苦苦的海量数据学习和训练成就,大模型的终极目标应该是提升我们的多项能力。
比如我们来开个脑洞:很多人喜欢拍照,但又苦于拍不出好看的照片。当大模型在得到海量的摄影美学和摄影技巧训练后,他就会变成你随时随地伴随身边的摄影老师了。对你拍摄的照片进行分析,为你提供改进参考。大模型也可以根据你的拍摄习惯,理解你的个性化表达,将你的照片进行统一风格的调色和修图等。
大模型如果与手游结合,可以分析你的技术弱点和优势,帮你挑选更适合的英雄,为你规划更高效的学习成长路径等等,一句话,大模型可以是你的高水平电竞教练。
手机有一个非常强大的天然优势,就是用户已经对手机有长时间贴身的高依赖性,掌握了硬件的入口,是系统抵达用户的第一站。而且手机与用户的对话是多面的,不是某一个仅限于写作或是拍摄App等。而且手机厂商在端云协同优化、资源配置合理和分配等方面,都具有近水楼台先得月的便利条件。
App的优势在于能快速汇集海量的用户群,但其短板就是如果不与终端厂商合作,他们的产品服务都要基于云端来完成。而这一笔巨大的运行成本,在用户规模达到一定量级后,就会反过来遏制其继续扩大规模。
vivo的大模型还有哪些值得关注的点?

据目前所能了解到的信息,vivo搭载到OriginOS 4的大模型主要是配置在端侧为主。如果将算力分布在云侧为主,那肯定是极为强悍,但随之带来的终端测功耗巨高、数据时延明显、流量成本惊人等等,都很难适应大规模商业化。
那如果主要配置在端侧,会不会就失去了大模型的优势凸显呢?至少在目前我认为是不会的。因为大模型怎么用,用到哪些地方,在现阶段还是一个摸着石头过河的阶段,并不会有特别深入的功能需求。手机用户的需求多种多样,所以vivo不是仅限于一两个模型,而是一口气搭建了五个大模型,以覆盖目前手机用户的高频功能需求点。
主要配置放在端侧,还有一个特别重要的刚需——隐私安全。比如国内某著名的输入法,其语音识别准确性高得吓人,就是依靠将用户数据上传到云端的大模型内进行识别。可问题来了,如果信号不好的时候,这个语音输入功能就会罢工。而且有些用户总觉得上传到云端是不能确保数据隐私的,也比较抗拒。
但OriginOS 4将大模型配置到端侧后,语音输入的识别和转换等工作,全部都是在端侧完成,这样一来,不仅时延低,而且数据隐私保护更放心,同时还不用担心网络信号盲区的断网影响。
智能手机大模型化的想象空间有多大?

大模型加持到手机端后的应用场景究竟会是如何?即使我们现在只是看到了朦胧的轮廓,但我们却都坚信这就是未来。原因很简单,大模型所带来的功能是具备“推”和“拉”两个能力的。
推是指大模型能协助完成很多繁杂的重复劳动和低技术含量的工作,将一些必须做但又没啥工作技能需求的工作替代以后,可以大规模释放生产力,去从事更具有创造性价值的工作。这就像人类从人工搬运到有了推车,后来有了蒸汽机和内燃机,直到今天通过电动化来提升搬运效率一样。未来很多只需要输入简单指令就能训练大模型完成的工作,就会从人工测转移出去。
而拉动力——将会是让智能手机焕发新生的重要力量。我们前面提到过大数据通过智能手机与用户建立连接后,不仅是能协助处理日常性工作,更重要的是能充当我们在工作、娱乐、运动等场景中的“第三只眼”。“第三只眼”是什么呢,是洞察我们的优缺点,掌握分析我们的规律性,最后结合大模型数据库来提供具有指导性的建议。
所以大模型的尽头不是让我们与语音小助手的对话更像真人对话这么浅显,更为重要的是能让我们与朝夕相伴的手机一起,可以去发现更好的自我,创造更好的自我。科技创新的目标一定不是让人类懒惰,而是让人类可以集中有限的专注力,去发现更多更值得专注的方向。
OriginOS 4,到底这次能满足我们多少好奇心?相信很快就能揭开谜底。
hqw333333 发表于 2023-10-18 04:01:45|来自:福建 | 显示全部楼层
在回答之前,快速帮大家补充和梳理一下信息:

  • vivo这次会有多个大模型,有10亿、70亿、660亿、1300亿和1750亿,理论上这些模型都会在OriginOS4上见到。不过,本次C-Eval官网上的参与测试的模型名称为“vivoLM”,未标明参数



  • vivoLM的访问方式一栏里为“Private”。鉴于可私有化部署,结合网络信息,这个分数很有可能是70亿参数的版本跑出来的。在这个参数下能登顶,效果确实不错;
  • 在今年8月时vivo曾在C-Eval测试过名为“vivo_Agent_LM_7B”的模型,得分64.4,在当时排名第五,很可能是今天这个登顶模型的前身
  • 通告里明确了“行业首家 7B 端侧大模型”,这说明这个70亿的模型可以本地部署;而与OriginOS4同期发布,则说明它是一步到位直接跑在用户的手机上。这意味着它在具有不错的效果的同时,手机上的功耗表现也是可接受的;
  • GPT4在C-Eval的分数是68.7。不过由于vivo本次的大模型还未向公众开放,故不在同一个排行榜里。
  • C-Eval 是上海交通大学和清华大学一起搞的大模型中文评估套件,排行榜是附带的。不过也正是因为有排行榜,各家AI公司在C-Eval跑出成绩后都会宣传一下,所以今年以来曝光率还挺高的。不过需要说明的是,模型在各种比赛上拿奖跑高分,但实际使用效果大相径庭的情况并不少见。


基本信息大概就是这些,如果你对这个新闻感兴趣,这六条基本就已经说清楚了,对vivo将要发布的大模型也会有一个判断。
至于问题后半部分,说手机厂商的系统是否会进入大模型时代,这个其实都不用怎么回答,因为这半年几乎每一家都透出风要上大模型,这是绝对的大势所趋,区别仅在于谁能抢先和谁能做好。vivo这次的尝试尽量涵盖了多种方案,对于行业来说也是不错的参考。
<hr/>当然,信息就这么多,但想一下子理解还是挺难的。所以这篇回答剩下的部分,会把这些信息尽量写得易懂一些。同时也会结合已有信息做些猜测,写一些我自己的判断。
这个新闻第一行就提到了一个信息“OriginOS4 首发搭载”和 “1750 亿参数的超级大规模云端模型”。1750 亿这个数据可太熟悉了,大名鼎鼎的ChatGPT,其背后的GPT3.5,也同样是1750亿参数。高参数量通常代表着更大的规模和更高的复杂性,因此在过去的AI行业通稿里,我们能看到不少骇人的参数量。
当然,更高的参数量并不总是能带来更好的效果,不同厂商的不同模型之间,参数量也并不能直接对比,在未见到实际效果前,也不好对vivo的1750亿模型做评价。不过,有1750亿模型的存在,起码意味着vivo在该领域有着国内靠前的投入程度和研发实力。
但这个1750亿模型在未来的OriginOS4上大概率不是主力,因为本次除了这个1750亿模型打头阵之外,还有一个70亿的模型,它才是真正的主角。
此前国内已有多家厂商跟进了大模型语音助手,看过网上的体验,效果说实话都不错。但这些大模型语音助手,都是跑在云端的。比如有的语音助手,就出现过因为本地版本不一致,导致接口出现问题语音助手直接罢工的情况。
而vivo这个70亿的模型,是直接跑在手机上的,这是非常大的不同,挑战也非常多。这里列4个点:
性能问题

此前有媒体算过,按云服务价格来换算,GPT一次应答的成本在人民币5分钱左右。对于高性能的服务器尚且需要这么高的成本,显然对于手机来说是不可能的。当然,70亿参数的模型性能需求低了很多,但对于手机来说同样是挑战。
如果在手机上和大模型语音助手对话几轮,背壳就开始发烫了,还影响手机续航,这显然对于用户来说是不太好的体验。不过既然OriginOS4敢上,至少说明这方面肯定做了准备。
响应速度

ChatGPT刚上线的那两个月,响应速度其实是比较一般的。上去打两句话,等待应答可能得半分钟。对于手握大量顶尖服务器的OpenAI尚且如此,这次vivo的手机应用,在更大的性能限制下,更让人担心。
而手机语音助手的应用场景其实和ChatGPT的聊天还不太一样,对响应速度有着更高的要求,毕竟谁也不想定个闹钟反应半天。如果vivo能在OriginOS4上做到即时响应,体验会高一个档次。
审核问题

生成式AI时常会出现不可控的回复。所以我们能看到一些AI作画网站至今还保留着人工审核。对于大语言模型来说,在云端就会走一遍机器审核,这个审核所需要的性能也不可小觑。
如果vivo在本手机上部署了这个模型,那审核是如何解决的?是上传到云端,还是一切在本地解决?
与手机功能的结合度

这个问题也是最影响用户体验的。生成式AI很有趣,这没错,但对于大部分用户来说,基本还是处于尝鲜阶段。一方面目前生成式AI可提高效率的领域其实并没有想象中那么广,另一方面提示词的学习也有一定门槛。而在手机上,这还要再加一层。
因为手机助手是兼具控制手机的功能的,如果OriginOS4的大模型仅仅只是聊天写文档,它的使用率会受到极大的限制。
我其实希望,这次OriginOS4可以做出具有语义理解能力的复杂系统指令,并且尽量把这一特性本地化,随时可用。这不仅会方便我这种数码爱好者,还会帮助很多不那么会使用手机功能的朋友。毕竟一句话就能完成的操作,比上网学要简单得多。
<hr/>不过,如果真能解决以上问题,本地部署带来的优势是非常多的。
1.最明显的就是在网络差甚至断网的情况下,手机系统的AI功能仍旧可以维持良好使用。
我自己会遇到这样的场景。刚从商场出来,进入地下车库,手上提着东西,手机信号很差。这个时候一般就是单手拿手机,要手忙脚乱地切换好多个应用来实现特定的某个诉求。
这个时候其他大模型语音助手肯定全歇菜了,但如果是本地部署的,你可以直接口语让语音助手帮你完成一串复杂指令,想想是很实用的。
2.响应速度也会存在优势。虽然前文中我们刚刚提到了性能限制对于响应速度的影响,但如果能够解决性能问题,本地部署的响应速度一定会比云端有优势,还不会遇到大流量的问题。
3.用户的隐私安全更容易得到保证。记录不出本机,数据不传云端,自然也就少了很多隐私安全上的担忧。
4.对于vivo来说,本地部署还能为自己节约成本。毕竟如果大部分对话都跑在本地,自己就犯不上租那么多服务器,这能省下的开销是非常多的。
不过,以上的挑战和优势,在现在这个时间节点,更多还是猜测,具体如何得看发布后的实际体验。
要知道,C-Eval 榜单上的很多模型普通用户根本摸不到,可用的几个,也需要性能不错的机器。好看但用不到,是很多AI公司面临的问题。vivo这次如果成真,可以开一个很大的先例。
希望这次的OriginOS4能够如宣传一样,让更多的普通用户也用到大模型,让大模型与手机系统的结合更进一步。
我没房只有床 发表于 2023-10-18 04:01:59|来自:福建 | 显示全部楼层
一、进入大模型时代的可能不仅仅是手机厂商
今天是2023年的10月底,距离ChatGPT发布其实还不到一年的时间,可是这不到一年的时间,对于新一波的AI共识我想应该是所有人都不能忽略的技术大趋势。
这一波大浪的影响力无数大佬们都给了足够多的描述和重视,典型的比如:

  • 比尔盖茨:属于AI的时代已经开启
  • 黄仁勋:我们已经到达了生成式AI的引爆点
  • 马化腾:AI是互联网百年不遇的机遇
  • ……
我们哪怕只看国内这一年整个TMT行业的趋势,
有媒体戏称,这一波的人工智能爆发对于几乎所有的科技公司而言,这是:
多少年未见的“一号位工程”。
那么他们这些“一号位工程”到底是做了什么?

二、以LLM(大语言模型)为代表的新一代AI的崛起
ChatGPT的破圈在某种程度上是这一波AI爆发的代表时间,
可其实在去年上半年的时候AI制图就有很多代表公司出现了。
创新工场的李开复老师说这一波AI是AI2.0;


来源:
创新工场李开复:AI 2.0已至,将诞生新平台并重写所有应用区别于上一代的只能解决固定场景固定问题的AI1.0,
AI2.0最大的变化就是大语言模型的基础。
对于AI的共识的瞬间达成和当年移动互联网爆发初期很多人还在观望的态度完全不同;
那么以GPT为代表的LLM到底有什么意义?
我此前有一个演讲是关于AGI的,有这么一张图:


OpenAI在大语言模型上的阶段性成功对于科技行业而言有类似“哥伦布发现新大陆”般的意义。
再细化一些意义是:

  • 大力真的可以出奇迹;(不需要迟疑/犹豫了)
  • 指明了方向和路径;
  • 熬过了质疑和猜测期;
所以我们回看这大半年的时间,几乎我们见到了所有科技公司在大模型上的全情投入。

三、LLM的战役
对于有一定技术、资金能力的科技巨头而言,大模型是一定要做的……
所以我们看到了题干中提及的,作为智能手机行业的核心厂商vivo,当然也不会错过这样一场必须打的战役。
在2017年,vivo就成立了人工智能研究院,那是上一波AI浪潮爆发的年代;


从基于规则到机器学习,再到神经网络的发展让AI在那个年代出现了很多“爆点”;
比如2016年,AlphaGO战胜了为世界冠军李世石;
比如2016年,苹果发布了智能语音助手Siri……
在那之后,vivo在人工智能相关技术的研发上一直进行的是“过饱和”式的投入,
直到今天vivo人工智能研究院有超过1000人的技术团队在做相关的技术研发。
而到了这一次的LLM战役之中,vivo持续多年的技术投入也得到了阶段性的人证;
对于大模型能力的评估,业界中是有一些专业的第三方机构进行排名的。
尤其是在国内,由于GPT的中文数据体量导致,其实中文的大模型的第三方评估更有意义;
在众多第三方的排行榜中,由由清华大学、上海交通大学和爱丁堡大学合作构建的面向中文语言模型的综合性考试评测集C-Eval是比较权威的一个。
官网:
C-Eval  一个适用于大语言模型的多层次多学科 中文评估套件C-Eval目前包含了13948个多项选择题,涵盖了52个不同的学科和四个难度级别,


而C-Eval的榜单是有两张的:

  • 公开访问的模型:这些模型有公开权重或者API,用户可以自行检查验证它们的效果;
  • 受限访问的模型:这些模型暂时没有对公众开放。
在受限访问的模型排名,
排行榜 - C-Eval目前vivo自研的LLM-vivoLM排名第一;


PS:vivoLM在各个领域的具体评测结果可以看这里:
vivoLM
四、“卡脖子”的“中文数据”
GPT目前最新发布的是GPT-4,ChatGPT发布的时候是GPT-3.5;
所以从现实的可执行角度看,无数大模型厂商其实是在GPT-3.5的基础上去追赶GPT-4。
这个追赶的路上到底什么是难的?
起初大家会觉得数据、算力和算法可能是“卡脖子”的;
我们回看ChatGPT的技术实现,LLM-GPT相当于我们把人类所有能够数据化的知识“灌”给模型,然后模型以类似“压缩”/“翻译”的方式返回给我们结果,而这个输入输出的方式就是Chat。
所以对于国内厂商,这里就出现了想要做LLM的第一个要解决的问题:数据。

GPT内中文的数据含量本来就不高,而且中文数据的在线化、逻辑、结构等等质量都是没有那么高的,
这就更给了国内厂商做LLM提出了巨大的挑战。
如何把已经存在在于现实世界的中文数据用大模型能够理解的方式“灌”给TA就成为了这件事的第一个技术难点。
这点我们回看vivo的技术积累,其实在vivo AI研究院在18年的时候就成立了图谱研究院,通过专业团队的建设去建设我们的知识图谱;
截止到今天整个图谱应该已经超过2800T,并且清洗之后直接用在了vivoLM的训练过程。

五、应用层、应用层、应用层
在我个人的认知中,第一次对于这一波AI行业的爆发的基础认知其实来自于红杉美国在去年9月发布的报告:
https://www.sequoiacap.com/article/generative-ai-a-creative-new-world/而前阵子红杉美国发布了这个报告的新一版:Generative AI’s Act Two
https://www.sequoiacap.com/article/generative-ai-act-two/时隔一年之后,红杉美国回看了一年之前那篇文章内容的“错误”;
其中有两条是我非常认同的:
1、模型层和应用层并没有真正意义上的分离
大模型本身在持续的进化,起初使用模型能力的一些应用层公司可能瞬间就被大模型本身更新而“吞没”掉了;即便这些公司可能已经积累了一定所谓的“数据优势”。(所以最近OpenAI创始人公开表达套壳GPT必死)
2、如果数据不是优势,什么是优势?用户/客户才是
我此前在公司内讲过一个观点:在应用层的AI创新上,大家在方向上是没有特别的“优势”,还是拼边界取舍(锐利与否)、执行、团队背景/经验是否匹配;但凡多走一步并形成一定的“结果”就可能会得到超额的正反馈。
那么回到我们今天问题提及的vivo这个案例上,
为什么我会认为对于手机厂商而言,这一波大模型战役手机厂商非常重要。
就是因为在2C领域,手机厂商是直接面对用户的,甚至是全面面对用户的。
这比搜索(Google/百度)、IM(微信/钉钉/飞书)、电商(阿里)、内容(抖音/快手)、办公(Office/WPS)在用户场景的角度看都要更为宽泛和全面。
为什么微软在这一波AI浪潮中这么的“执着”,就是因为操作系统做这件事情的意义绝对大于所有任何一个独立的应用,哪怕这个应用的使用时长已经非常非常长了……
而在手机上,自然这个事情就应该是手机厂商+厂商的OS说承担的。

六、一些还未解决的落地问题
对于有硬件+OS能力的厂商而言,从底层大模型的研发到各种应用场景的落地一定都要弄,
这个共识本身其实已经不需要再去论述了,那么剩下的就是怎么做了。
而回看我们在这个回答最开始写的,ChatGPT发布到今天其实也还不到一年……
在“怎么做”这个角度其实还是还有很多悬而未决的问题,
厂商要一边探索大模型本身的边界,又要设计和规划好具体应用场景的落地。
“诗和远方”与“眼前的苟且”都有无数的问题需要解决,比如:
1、大模型运算成本与手机硬件本身的运算能力之间的博弈;
直接跑云端大模型,模型的运算成本计算,加上本地硬件的能力(运算、电池等等)可能都是掣肘;那么本地是否应该跑一个离线的小一点的“LLM”?那么多大参数体量的模型是一个“合理”的选择?这个“合理”的标准又是什么?
2、用户隐私的边界问题
无论是希望用AI的能力做规划、推荐,还是只是想AI执行一些简单的任务,所有执行的前提都是AI要通过你过往的数据在一定程度上的“理解”你,而作为手机厂商当然是最容易拿到这些“数据”,那么用户一定会对隐私有所担忧。
3、Copilot/Agents的执行边界
其实在OS层,具体实施上做一个实现现有系统功能的copilot是所有人第一步都要做到的事情,那之后呢?copilot到底还应该承担什么样子的功能边界?是否要某种意义上的“代替”你?是否要去帮你做一些决定?是否要再往前一步做一些“生成”的事情?

写在最后
回到问题的起初,这一波AI大浪对于所有的TMT公司而言都是一次巨大的挑战与机遇,
手机厂商作为占有硬件+OS两大“超级入口”的厂商有绝对意义上的强势基础。
所以我其实有点期待vivo在即将发布的搭载自研高性能大模型vivoLM的OriginOS4,
我特别想看看vivo这样的厂商在AI浪潮来临的情况下,如何结合大模型的能力进行产品创新。
lin7 发表于 2023-10-18 04:02:14|来自:福建 | 显示全部楼层
先说结论,手机系统确实正在进入大模型时代

不止是vivo正在将AI大模型接入到手机系统,其它有实力的各大厂商目前也都在这样做。
或者我们也可以这样说,在以后的手机品牌可以分为两个梯队,有自研AI大模型融入系统的为第一梯队,其它则为第二梯队。
原因其实很简单。
其一,AI大模型融入系统之后,对手机的使用体验带来的是全方位提升,对于近些年一直在寻找新卖点的手机行业来说,这是一个不得不抓住的机遇。
其二,自研AI大模型非常考验手机厂商的研发实力、以及在人力和财力上的投入,实力雄厚的大厂商自然能够抓住这一机遇更快入局,实力一般的小厂商则只能望机遇而兴叹。
vivo之所以要在OriginOS 4系统融入高性能AI大模型,便是基于以上两个方面的原因,一则提高用户使用体验,再则打造“人无我有,人有我优”的独家优势。
如果对手机领域关注比较多的话,会发现不少手机厂商很早之前就已经入局大模型领域,比如vivo早在2017年就成立了vivo人工智能全球研究院、18年又成立了基于AI大模型研究的图谱研究院,战略眼光之远,着实令人敬佩。
而本篇提问中所提到的“高性能大模型”,即vivo于10月13日在C-Eval提交的1750亿参数超级大模型云端模型“vivoLM”,在目前C-Eval排行榜中以82.3的平均成绩排行第一,同样可以说是非常厉害。。。而在这个超级云端大模型的加持下,OriginOS 4系统又能带来哪些新玩法和新功能?非常值得期待一波~


话说回来。。。大模型到底是什么?vivo在大模型领域都有哪些优势?为什么将AI大模型融入到系统、而不是单独推出一个基于AI大模型的应用?手机系统融入大模型对于我们普通用户而言又能够带来哪些体验提升?OriginOS 4系统又可能会如何布局大模型?等等这些问题,下面且逐一展开、慢慢分析。


大模型是什么?如何才能更通俗易懂的理解它?

“大模型”可以说是今年最火热的互联网词汇,从年初火到年尾的那种。
在这之前,虽然人工智能的新闻经常刷屏,比如阿尔法狗围棋人机大战,再比如年初《流浪地球2》里的MOSS,但这些更多是存在影视和科幻层面,我们普通用户很难接触到。
然后就是今年三四月份,基于大模型技术驱动的ChatGPT横空出世,这是一款普通人也能使用到的聊天机器人工具,它可以和我们进行毫无障碍的语言对话,而且还可以帮助查资料、写文案、甚至编写代码,人工智能就这样突然就变成我们每个人能接触到的现实。
而“大模型”似乎也就成为了当前实现“人工智能”的最佳途径。
“大模型”的全称是“人工智能预训练大模型”,英文名称为“Large Language Models”,或者直接翻译过来也可以称之为“大规模语言模型”。
==,是不是感觉这个概念有些抽象?好像懂了,但又好像什么也没懂?
简单来说,大模型就相当于一个拥有许多藏书的图书馆(这个图书管里的藏书越丰富越好),然后里面有一个不知疲倦的机器人,它可以利用图书管里丰富的藏书作为资料库,然后通过不同的学习任务和训练方式,最终训练成可以理解和生成人类语言。


因为有庞大的语言数据库作为训练资源,再加上算法和算力的加持,大模型机器人不仅可以理解复杂的语意和语境,而且还拥有强大的上下文理解能力,从而可以和我们进行自然顺畅的聊天。
因为背后有着非常丰富的知识库做支撑、且这些知识库的数据已经经过“预训练”,所以我们在向大模型机器人提出问题的时候,它可以快速、且精准的回答相关内容。
自然语意理解+庞大的知识和数据库,凭借这两个杀手锏,AI大模型不仅可以理解使用者的意图、而且可以快速给予回应或者专门问题解答。


vivo在AI大模型领域都有哪些优势?

对于实力雄厚的大厂商而言,其竞争对手更多是同样实力雄厚的大厂商。。。也因为如此,各大厂商在大模型领域的技术积累多少?多快能推出融合了大模型的手机系统?又能否打造出自家独有的基于大模型的应用或功能?这些将会是大厂商之间在未来很长一段时间的竞争方向。
大模型的工作原理看似复杂,其实也很简单,简而言之就是“大力出奇迹”,需要去堆足够庞大的数据库、足够强大的算力、以及研发足够强悍的算法,而这些又都需要足够庞大的人力和财力做支持。
或者也可以这样说,大模型的体验如何,与研发厂商在数据、人力、算法、算力上的投入可以成正相关,而这些又需要庞大的资金投入。
前面我们有提到过vivo早在2017年就成立了vivo人工智能全球研究院、18年又成立了基于AI大模型研究的图谱研究院。
其中vivo人工智能全球研究院在第一轮就投入了1000人、且随后每年增加350名专业的人工智能工程师。。。在人力上的投入够大。
图谱研究院则到目前为止已经汇总有超过2800T的知识图谱,并在清洗之后达到150T,大概相当于1.6亿册图书,相当于2.5个中国国家图书馆。。。在数据上的投入同样也够大。
此外,vivo在大模型的算法和算力上也做了许多投入、当然也有不少产出,比如前面有提到的1750亿参数超级大模型云端模型“vivoLM”在目前C-Eval排行榜中以82.3的平均成绩排行第一,而在此前vivo旗下的另一个大模型“vivoLM-7B”同样也非常能打,目前已取得了C-Eval全球中文榜单第二、其百亿内大模型榜单第一,CMMLU全球中文榜单第一以及其百亿内大模型榜单第一的出色成绩。



vivo为什么将AI大模型融入到系统,而不是单独推出一个基于AI大模型的应用?

前面我们分析过,各大手机厂商纷纷布局AI大模型领域,一则为提高用户使用体验,再则打造“人无我有,人有我优”的独家优势。
但vivo为什么更多是将AI大模型融入到系统之中,而不是单独推出一个像ChatGPT这类基于AI大模型的应用?
原因其实并不复杂。
如果只是推出一个独立应用,对于各个手机厂商而言根本没有难度,也就无从谈起打造产品和技术的护城河。
此外对于独立的大模型应用而言,更多是调用云端大模型的数据和算力、且只能通过聊天的形式来做一些事情,不仅在使用时需要单独打开某个APP,另外在使用过程中的反应速度、以及个人隐私等方面也都得不到完全保障。
而如果将AI大模型融入到手机系统中,此时不仅可以通过语音、输入法、实力按钮、虚拟按键等多种方式调出AI大模型,而且AI大模型还可以通过部署云端+本地的方式以确保算力、反应速度、个人隐私保障等等方面的使用体验,从而带来更便捷、更全方位的使用体验。


手机系统融入大模型,对于我们普通用户都能够带来哪些体验提升?

在AI大模型融入到手机系统之前,智能手机其实并不太“智能”,而我们日常使用的手机助手与其称之为“人工智能”不如称为“人工智障”更合适,经常会听不懂指令、也经常无法做出正确判断。
这里举个简单的例子,比如我要午睡30分钟,然后就比如“在我睡着30分钟后喊醒我”这句很简单的指令,明明可以通过智能手表或手环监测到睡眠数据、然后到点后闹钟喊醒,但目前实测却没有一台智能手机能够做到,而大模型融入手机系统后就能很轻松解决这个问题。
手机系统融入大模型后,对我们的日常生活/工作/娱乐都将带来极大的体验提升,这里简单列举如下:
其一,AI大模型拥有非常强大的自然语言理解能力,可以听懂且理解用户日常口语化的表达,并给与相应回复,是不是可以做个很合格的“全能聊天网友”?闲暇时候可以聊天解闷。
其二,当我们需要进行文案创作、图形创作的时候,可以将意图告知给AI大模型,然后AI大模型会快速完成相应创作内容,我们再进行简单修改调整即可使用,是不是能大大提高工作效率和生产力?
其三,当我们需要快速搜索到相册里的某张图片时,可以对这个图片的大概内容进行简单描述,然后AI大模型即可找到符合描述的一系列图片,我们再在其中进行挑选,是不是同样很省事?
其四,当我们需要记住某件事情的时候,只需要告诉AI大模型“帮我记下XXX”或者“明天XX时候提醒我做XX”,AI大模型能够轻松理解用户意图、并在合适时间进行提醒。
除此之外,借助于AI大模型,我们日常使用手机进行导航、运动、控制智能家居设备等等操作时,也都能带来不少体验提升。


且猜猜OriginOS 4系统可能将如何布局大模型?

在前面的内容里,我们有看到vivo目前已经推出了1750亿参数超级大模型“vivoLM”、以及C-Eval全球中文榜单第二的“vivoLM-7B”,如果不出意外的话,这两个大模型都将应用到OriginOS 4系统。
这里先解释一下“vivoLM-7B”命名里字母“B”的含义,其为“ billion”的缩写,中文意思为“10亿”,7B大模型即包含有70亿量级参数。
目前来看,vivo已经展露出来的大模型主要有一个1750亿参数的超级大模型、以及一个70亿参数规模相对mini一些的大模型。
另外在上个月的2023博鳌科创论坛开幕式的媒体访谈中,vivo周围总当时有提到vivo将打造大模型矩阵、且一共包含有5个AI大模型,分别是10亿、70亿、660亿、1300亿、1750亿量级。
这也就是说。。。除了vivoLM和vivoLM-7B两个大模型外,应用到OriginOS 4系统的应该还有10亿、660亿、以及1300亿量级的AI大模型。
vivo为什么要打造大模型矩阵?而不是直接一个超级大模型解决所有?
这里就涉及到AI大模型在性能、能效、反应速度、隐私安全等方面的问题了。
相对来说,大模型部署的量级越大,其信息量也就越丰富、智能程度也就越高,但同时对性能、功耗、运存、乃至运行成本等等的要求同样也越高。
理论上1B和7B大模型倒还有可能在PC或手机端运行,而7B以上乃至量级更大的大模型,就只能在云端运行了。
如果单单指望一个部署在云端的超级大模型来解决所有用户问题的话,不仅运行成本会爆炸(一年下来动辄要烧数十上百亿资金),而且在反应速度、隐私安全等方面也得不到完全保障。
也因此,如果没猜错的话,OriginOS 4必将采用云端+本地的大模型构成方式,其中660亿、1300亿、1750亿量级的云端大模型保证算力、以应对复杂问题,而10亿、70亿量级的本地大模型则保证隐私、能效、以及响应速度。
至于为什么云端大模型分为660亿、1300亿、1750亿三个不同量级,而本地大模型又分为10亿、70亿两个不同量级,这其中的原因同样也不复杂,不同量级的AI大模型可以用于解决不同的问题。
像算数、聊天之类的1B大模型足够,而搜图、导航则7B大模型毫无压力,这两个大模型都在手机端本地,反应速度更快,个人隐私更有保障,且能耗低完全不必担心手机性能Hold不住。
而文案创作、或者图片制作则就需要比较复杂的AI大模型了(手机端运行不仅反应速度慢,且高能耗会导致手机发热、续航降低),此时可以跟任务的难易程度分配不同的云端大模型,比如文案创作可以用660亿级大模型,更复杂的图片制作则可以用1750亿超级大模型。
云端+本地大模型矩阵的组合,不仅可以节省成本,而且能够满足用户对算力、性能、能耗、隐私保护等多方面的使用需求,可以说是目前手机系统融入AI大模型的最佳解决办法之一。
至于在AI大模型的应用表现形式上,此前vivo周围总于9月21日发布的一条微博中有提到过将在OriginOS 4系统上搭载“中央化智能助理”,从后面的描述来看,很像是目前手机智能助手的超级进化版本,可以针对复杂问题给出专业回答。


除此之外,如果没猜错的话,在vivo输入法、图库搜索等系统原生应用中应该都会有AI大模型的影子,另外vivo会否在OriginOS 4系统内直接搭载文案/图文创作、图片设计的AI软件,同样也比较令人好奇。
另外得益于vivoLM超级大模型在各个学科知识储备评估的超高准确率,如果自己是学生、又或者家里有小朋友正在上学的话,OriginOS 4系统搭载的AI大模型同样非常值得期待,毕竟这个“私人老师”的知识渊博程度要远高于这个世上所有的真人老师(当然教学方法还是真人老师更强,AI大模型更多是起到辅助作用)。


一切,我们不妨等OriginOS 4系统的正式发布来揭晓,以及期待早日用上OriginOS 4的那一天~
仙履奇缘 发表于 2023-10-18 04:02:28|来自:福建 | 显示全部楼层
关于大模型,我想我们也并不算陌生了。在人工智能领域,大模型是指拥有超过10亿个参数的深度神经网络。它们能够处理海量数据、完成各种复杂的任务。
如今,大模型是人工智能领域的热点话题之一。
有多热呢。
像我爹这样的老股民,目前对大模型也能说得头头是道的。
说的对不对咱另说,但他能从一顿饭开头说到结尾。
这些技术对他们而言仿佛都不陌生,要知道,最近几年里,我听我爹说过大数据,说过云计算,说过AI,说过元宇宙,现在又是大模型。
但你要问他,这些个技术要如何运用到我们日常生活中呢,他绝壁跟你说,这还是个概念,这还早着呢!
“还早着”那必然不会“还早着”,来让我们抬头看标题:如何看待 vivo 将发布高性能大模型加持的 OriginOS4,是否意味着手机厂商的系统在进入大模型时代?
应用这不就来了吗。
目前,各家手机厂商都在努力的让手机系统像个人,又不像个人
像个人指的是它们的交互,比如说有自己名字的语音助手,会唱歌会抬杠还会逗你开心,再比如说屏幕的自动亮度调节,比如说它会给你整理快递信息,会提醒你航班消息,以后甚至可以帮你制定旅游计划,不管怎么看,这都像个贴心的管家。
而不像人,指的是它们的工作量越来越夸张。能给自己加速,能给自己清理,能给自己优化,甚至你让他做个攻略可能只需要一眨眼的功夫,怎么看怎么不像是人能做出来的事情。
对于单台手机而言,用最低的成本和负担让手机系统越来越像个人,又越来越不像个人,这正是大模型这一技术的特点。而即将发布高性能大模型加持的 OriginOS4的vivo认为,大模型的本质其实是把上下数千年的人类文明的知识,以某种更高维的抽象的把它压缩起来给到用户。
就今天的消息,vivo 大模型已经在排行榜 C-Eval 拿下第一。C-Eval由上海交通大学,清华大学,爱丁堡大学共同完成,是构造了一个覆盖人文,社科,理工,其他专业四个大方向,52 个学科,从中学到大学研究生以及职业考试,一共 13948 道题目的中文知识和推理型测试集,也是业内公认的比较权威的中文AI大模型评测榜单。


如图所示,C-Eval 的测试维度囊括了包含创作,生活服务,专业输出等等多种维度,从中小学的必修课,到工商管理,法学,教育学,经济学等等不同学科,再到电气工程师,注册会计师等等专业领域,测试科目可以说是应有尽有,眼瞅着就是往培养全科人才去的。
如果参与测试的大模型们是人的话,那么这个人就可以辅导孩子做作业,从早教到高考一贯制,甚至到了大学还能根据孩子所学的学科对孩子进行指导。
还可以在你遇到麻烦的时候提供一些支持,比如说自由职业者如何报税,比如说出去旅游应该吃什么逛什么,比如说我想学习一个新的领域的知识,我要去买什么书。比如说父母年纪大了,该如何养生,它能随时查询某种特定的食物糖尿病人能不能吃,减肥中的人能不能吃,能知道去某个城市是高铁更好还是飞机更好,写历史小说的时候不用再因为一个细节而拼命看资料,甚至还得去隔壁市博物馆去考据——我们只需要问一问我们有高性能大模型加持的语音助手就可以了。
而vivo大模型的C-Eval 测试结果如下,不得不说,在看到这个页面的时候,我竟然有一种看人家成绩单的感觉。


这样一份成绩单即使在学校里也相当不错了,虽然有几门偏科,但也达到了非常不错的准确率。如果现实中存在这样的人才,我们难以想象要花多少钱才能雇来给自己当管家,但当它进入手机,能够和我们每个人相伴,又该是多么美好的生活啊。
想想就觉得这美好的也太抽象了。
在前面我们提到过,vivo认为大模型的本质其实是把上下数千年的人类文明的知识,以某种更高维的抽象的把它压缩起来给到用户。所以大模型中的数据知识要全,同时更高维度的那种应用范式和逻辑思维链要足够的强。在这一点上,vivo做了非常完善的应对。具体的应对其实我们都可以在后续官方渠道听到,比如说11月1日的vivo开发者大会。
对于我等普通用户来说,我们关心的是 OriginOS4究竟会不会更“聪明”,能不能提高手机的使用体验。
理论上来说,大模型进入手机将会把下一代用户交互范式带入手机。在大模型加持下,AIGC 让语音助手交互会更自然。海量数据的训练也会让语音助手更聪明。再加上智能手机本地化数据存储和处理的安全隐私优势。在大模型的加持下,智能手机朝智慧助手的方向将迈进一大步,语音助手有望摆脱任务式的工具性应用,真正的称为我们的“管家”
在这一点上,vivo的处理方式和我预料的非常相似,vivo选择在手机上把大模型作为用户的助理来出现,。比如小微助手会接入大模型。但它能做的不仅仅是一个简单对话。它在我们学习工作生活等方面都会进行全面的颠覆性的创新。
比如说,你需要看一个发布会的总结——诶对,就是我每次发布会写的这种。它会比我完成的更好,甚至你会觉得,你面对的是一个专业人,而不是一个AI
不仅如此,vivo还有更高端的应用形式,它已经不再是大模型本身而上升为一个“智能体”了。智能体在人工智能里面其实是一个很成熟的技术,它至少包含了这几层面。第一个它能够感知到周边的这些信息,它能够识别我们的意图,它能够帮助我们进行决策。
当我看资料看到这里的时候,第一个想到的其实是纸片人。能帮你决策,拯救你的选择障碍的纸片人谁不喜欢呢。这里我特别想给vivo提个建议,OriginOS4上给语音助手多几个声线选择吧,最好再配上不同的立绘。我喜欢那种瘦瘦的戴眼镜文质彬彬的类型,可一定得安排上啊!
一定要安排上!!!一定!!!
当然,对于如此优秀的大模型我也有许多担忧。虽然我对于它的担忧更多的并不是技术上,而是关于我们自己。比如说以后OriginOS4已经可以整理发布会信息了,那么我再写总结的意义又在哪里呢?比如说我以前想要为了看番看剧而学语言,但现在随随便便就能翻译生肉,那我还会有学语言的动力吗。长假期间我跟父母开车出去旅游,我爹就感叹,自从有了导航,我们几乎都失去了看地图的能力,我记得我小时候学历史学地理看地图看的轻轻松松的,而到了我侄女就格外费劲。以后大模型也会如此让我们失去学习的动力吗?
不光是学习,还有现在的婚恋问题。如果你的伴侣还没有你的手机助手善解人意,你会选择将善解人意交给手机助手,将同舟共济交给伴侣,还是会觉得伴侣做的不够好。这也可能变成巨大的麻烦。
在这一问题下,许多大佬们都提到在基于大模型的生成式 AI 浪潮中,手机厂商们可能会继续“打起来”,会提升技术,会出现新的手机形态,在未来,手机厂商通过大模型的融入,将大模型的能力快速扩展到自家的整个软硬件生态体系当中,会给数码和家居两大领域进行更多的变革。
但我认为这一变革并不仅仅会在手机上,各种数码产品上,各种家电上。当大模型进入手机,就像我们每个人都有了更多的加成,它带来的影响是会辐射到整个社会上的,从此以后,我们的生活方式将会发生巨大的改变。而它改变的方向是我们并不可控的。
所以,在这一问题下,我是欣喜与担忧并存的。各家手机厂商的系统势必会进入大模型时代,但大模型带给我们的,除了生活的便利以外,还会有怎样的生活方式改变呢。

快速回帖

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则