前两个月国产类ChatGPT大模型如雨后春笋,为何最近都没声音了?

[复制链接]
zichuan 发表于 2023-8-4 02:11:54|来自:北京 | 显示全部楼层 |阅读模式
比如百度的文心一言,阿里的通义千问,讯飞的星火
全部回复5 显示全部楼层
有你才美丽 发表于 2023-8-4 02:12:46|来自:北京 | 显示全部楼层
历史课本上还在嘲笑闭关锁国
殊不知新型的闭关锁国已经开始了
gongjue 发表于 2023-8-4 02:13:17|来自:北京 | 显示全部楼层
谢邀。
国内国外大模型的本质区别:

  • 国内先搞一波小参数的大模型,PR一定要cover机器之心、新智元、量子位,然后宣城自己的130b模型超越了gpt4,并在自己的榜上发布测评结果,成功超越gpt4。最后一堆商业公司来买130b的模型,这就算是创业成功了,毕竟一套价格不菲,几千万。
  • 国外套路可能稍微简单一点,就是想复刻stablediffusion的火热,奈何LLM动辄几十GB的模型还是比较难玩的动,加上没有美女ai图这样的流量密码不太好推广,最终就只剩下openai和inflection以及claude等闭源商业公司这样的寡头。顺带没事喷一喷国内的研究者总是发布达到chatgpt4 106%能力的工作,人家一更换测评数据集就泯然众人矣了。
以上就是当下的一个大模型国际全貌
迈天过海 发表于 2023-8-4 02:13:46|来自:北京 | 显示全部楼层
总结成一句话就是:除了GPT-3.5/4之外的大语言模型(LLM),智能都不够高,离落地还有一定的距离。好好炼丹才是王道,智能上不去,宣传再多也不会有人买账。
和很多业务团队一样,过去的几个月我们一直在尝试LLM的B端落地。但目前的进展并不理想。以下是一些前线战报:
闭源LLM的落地情况

目前闭源LLM里能真正商用的只有GPT-3.5/4,实测其他模型的表现都不太好。
使用闭源模型的最大问题是信息安全的挑战,很多企业都严格禁止把核心业务数据发给外部的LLM。
如果没有和OpenAI签署特殊的保密协定,你发给GPT的每一个token都有可能被用来训练下一代模型。试问谁敢乱发业务数据给GPT呢?
所以现在B端落地的都是企业的周边业务,比如简单的客户聊天机器人、总结一些email内容、爬个网站总结内容之类的助手类软件。
以上是我看到的现状。当然少数企业已经在和OpenAI进行深度合作,这些企业暂且不谈。
开源LLM的落地情况

我们基本把业界呼声比较高的开源LLM都测了个遍,过程就不细说了,只说一些结论:
1. 目前(2023-06-23) 所有的开源LLM智能都不够高,输出不稳定,落地难度很大,所以还需要各路炼丹师继续努力。
2. 很多模型只是宣传的好,实际上就是吞噬显存的人工智障,这类模型以Dolly-V2为代表,基本没有办法正常交流。
3. 一些模型在日常交流中表现良好,但放到垂直领域还是不太行,这类模型以Vicuna为代表。受限于token数量,现在业界的普遍玩法是LLM+垂直知识库,再使用一些稀奇古怪的咒语 (Prompts)来指导LLM完成任务。有点能力的团队都能把POC (Proof of Concept)做出来,但如果想放在复杂的生产环境中使用,预计会遇到很多很多问题。
4. 由于商业许可的限制,表现好的模型(比如Vicuna)大多不能商用,只能用来做实验,这也是制约落地的一个关键因素。
5. 在需要高度精密的业务场景下,无论是GPT-4还是其他模型,都暂时不可用,因为输出结果不可预测,精度无法保障。
6. 现阶段学会念咒(prompt engineering)很重要,好咒语可以让LLM的输出接近它的智能上限。不会念咒你很可能得到一些奇奇怪怪的输出。每个模型的喜好都不太一样,这和炼丹手法有关系,找到最适合模型的咒语,需要很多人力来反复试验。
7. 国产开源LLM还是挺能打的,比如ChatGML,在垂直领域的表现比Vicuna还要好。
8. 不要指望把整个垂直知识库塞到模型里做fine tune,这需要很高的成本和优秀的炼丹手法。作为业务团队,我们能做的只是让LLM学习一些我们提问的方式以及预期的回答格式。有时候光靠念咒不够,还是需要一些低成本的fine-tune。
丰鹰 发表于 2023-8-4 02:14:30|来自:北京 | 显示全部楼层
因为碳基智能比人工智能便宜
北京泥人 发表于 2023-8-4 02:15:17|来自:北京 | 显示全部楼层
人家自己做出来的东西不给抄就是卡他脖子

快速回帖

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则