聊聊李开复的大模型套壳LLaMA这件事

在这件事上,“硅基立场”有自己的基本立场:我们不必当大语言模型的“原教旨主义者”,但用“魔改”的大模型持续冲击国际国内的大模型关键指标榜单,对大语言模型真正的普及和应用,确实没什么价值。零一万物说,世界上所有的大语言模型研发者都是站在GPT巨人的肩膀上的,LLaMA也是“魔改”的GPT,意思是大家都“套壳”。既然是这样,不如把话索性挑明了:LLaMA就是通用人工智能时代的Android,就是用来“套壳”和“魔改”的,基于LLaMA架构,科学系统地训练一个性能强大的大语言模型,不是什么丢人的事。

1. 李开复创立的“零一万物”近期发布了两款开源大模型Yi-34B和Yi-6B,其中34B具有40万汉字的超长文本处理能力,问鼎了多项全球英文和中文能力测试排行榜第一。但很快,有研究人员在开源大模型社区Hugging Face上指出:“Yi系列”的模型架构与Meta公司推出的开源大模型LLaMA相比,只改了两个张量(tensor)的名字。

2. 这名研究人员是在Yi大模型刚刚发布的时候提出来的,只是指出了问题而已,看不出什么恶意,还表示“开源社区无疑将重新发布对张量重新命名的Yi大模型,以使其符合LLaMA的架构”。毕竟LLaMA是完全开源的架构,且开源协议允许零一万物这么做。

3. 零一万物并没有第一时间在开源社区回应。直到在中美人工智能界颇有些影响力的创业者、Lepton AI创始人贾扬清在自己朋友圈吐槽了零一智能的“套壳”,事件才真的发酵,也终于得到了零一万物的回应。零一万物回复解释:这是以前做实验的时候改的名字,发布的时候忘了改回去,并为此致歉,表示尊重开源社区的诉求,重新把tensor的名字改正。

4. 零一万物同时辩称:国际主流大模型都是基于Transformer架构,LLaMA、Chinchilla、Gopher等模型架构与GPT大同小异。意思是:我们没有抄袭,只是忘了改名字。零一万物的声明还罗列了他们一系列超越模型架构的突破性研发努力。比如最优数据配比方案、数据工程、细节参数、训练过程监测等。零一万物说:“这些科学训模的系统性工作,往往比起基本模型结构能起到巨大的作用和价值”。

5. 在这件事上,“硅基立场”有自己的基本立场:我们不必当大语言模型的“原教旨主义者”,但用“魔改”的大模型持续冲击国际国内的大模型关键指标榜单,对大语言模型真正的普及和应用,确实没什么价值。

6. 零一万物说,世界上所有的大语言模型研发者都是站在GPT巨人的肩膀上的,LLaMA也是“魔改”的GPT,意思是大家都“套壳”。从这个意义上,我们得感谢零一万物,算是第一个把这个问题公开摆在桌面上谈了,也算是揭开了盖子。

7. 中国的大语言模型研发圈私下里有很多聚会和讨论,不在场的公司和关键人物经常是被讨(奚)(落)的对象。其中一个经常被拿出来说的话题就是:“XXX最近发布的那款大模型,其实就是LLaMA的套壳”。这个被吐槽名单实在是太长了,也不方便在这里公布(主要是不敢)。有意思的是,奚落别人套壳LLaMA的人,自己团队通常也在套LLaMA的壳。可是当着对方的面,你也不好意思问,不想双方都尴尬下不来台。

8. 既然是这样,不如把话索性挑明了:LLaMA就是通用人工智能时代的Android,就是用来“套壳”和“魔改”的,基于LLaMA架构,科学系统地训练一个性能强大的大语言模型,不是什么丢人的事。对大多数大语言模型从业者来说,这甚至是最优解。

9. 我们也不用太担心LLaMA架构在中国的“适配性”。就像Android在中国有那么多智能手机厂商推出的“分身”操作系统一个道理,LLaMA是一个基础架构,对数据配比、训练方法、参数调优、训练过程监测的综合优化,最终训练出一个符合中国法律法规和主流价值观要求的大语言模型,现实里是可行的。国内那么多“套壳”了LLaMA的大语言模型都通过了有关部门的备案,可以公开商用,就证明了这一点。

10. 说“套壳”LLaMA是大多数人的最优解,是因为中国的大语言模型太多,而大语言模型的人才储备又太少。“模型井喷”,意味着人们记不住那么多的模型和公司,想要坐在牌桌上,就得尽快推出自己的模型,至少先在VC圈和业界混个脸熟。另一方面,算力、数据、资金等各种资源的匮乏,少量顶级人才“站队”早早结束,LLaMA等开源大模型持续翻新,都意味着想快速出一个拿得出手的“原创”大语言模型,越来越难。

11. 可以预见的是,中国的大语言模型创业团队将分为两派——“魔改派”和“原创派”。其中工程能力较强的团队更适合当“魔改”派,就是用科学系统的训练,推出一个基于开源架构、在某一个或多个方面具有更强能力的大模型。而学术积累比较深厚、甚至直接脱胎顶级高校和研究机构的团队更适合当“原创派”,因为“发论文”更需要架构上的原创成果——没人说智谱的ChatGLM套壳和“魔改”LLaMA吧?因为人家真的没这么做,清华大学计算机学院的原班班底,基础研究的积累和成本在创业公司的成本之外。

12. 很难说应该支持哪一种路线。毕竟全世界都在搞“魔改”,中国的大语言模型研发者,站在前人的肩膀上做出一些新的成果,同时为全球开源社区作出“中国贡献”,是一件很值得期待的事。当然,我们确实更希望看到中国“原创派”的突破和进展,甚至做出能给全球大语言模型研发者用的基础大模型,这将是中国对全球通用人工智能发展作出的更大贡献。

13. 可以期待的是:中国的大语言模型研发者先拿LLaMA套个壳、魔个改,推出一个尽快能上牌桌的版本,然后再持续进行研发,逐步推出更“原创”的基础模型。OpenAI的GPT,还有Google的Bard,都是对Transformer的“魔改”,但它们的思路改动是相当彻底的,最终也带来了极其不同的效果,几乎是完全原创的了。据我们所知,国内一些套壳了LLaMA的大模型团队也正在另起炉灶,研发原创程度更高的、下一个版本的大模型。如果套壳和魔改只是一个尽快上牌桌的权宜之计,也没什么不好。倘使华为上来就强推鸿蒙,小米2012年就押注澎湃OS,中国智能手机攻占全球的进程不会更快,只会更慢。

14. 不过还是那个问题,无论就只想搞套壳和魔改也好,还是先搞套壳再搞自研也罢,只要用了开源架构的成果,就得公开承认,显著标出,遵守开源社区的规则。“忘了”改张量,始终不是一个交代得过去的理由。如果零一万物这次的风波,能够变成一个契机,让“套壳”和“魔改”LLaMA架构不再遮遮掩掩,可以被公开大大方方承认,应该是一件好事。

15. 此外,零一万物这次爆发的风波,也在很大程度上来自“问鼎多项排行榜第一”的高调亮相,让它成了一个容易被攻击的靶子。要知道,中国“问鼎排行榜第一”的大模型可真是太多了,“超过ChatGPT”已经成了家常便饭。一个大语言模型多厉害,全靠刷榜和口头评测,这真的是一个西洋景。

16. 这让“榜单”越来越被诟病,越来越多的人称呼它们为“开卷考试”。一名国内大厂研究院负责人跟我们说:哪怕是GPT-4的代码能力,在一些真正与现实结合的评测上,比如SWE Bench等,得分也是零,但国内的很多大模型在发布时,却从来不谈这些细节。前段时间,智源研究院副院长林咏华老师跟我们交流中也提到过:C-Eval、MMLU以及CMMLU等几个测评集,已经被各路模型过度训练,一些测评榜单完全可以靠定向的训练数据拔高分数。这就好比是高考变开卷了,还给了提前“复习”的时间——“大模型高考”用这种方式选拔最出色的大模型,还能靠谱么?

17. 这种“刷榜”真正的问题是:分散了大模型研发者关注“真正问题”的精力。在前不久OpenAI的开发者大会上,CEO Sam Altman一句“遥遥领先”也没提,也不需要提。但这场开发者大会带来的屠龙式震撼效果是显著的,人们通过创建自己的GPTs,成为AI时代的“开发者”,一下子让访问量持续下滑的ChatGPT服务器再度被挤瘫了。几乎没人再怀疑“AI究竟能为我们做什么”。它能解决的问题,刷榜和冲榜不能,永远不能。

18. 有的时候,我们觉得中国和美国AI发展的两个截然不同的场景真的令人感慨:都很热闹,只是热闹的地方不同。在美国,更多的AI开发者怕自己被OpenAI断了生路,而一些新的开发者跃跃欲试。在中国,几家明星大模型公司在各种排行榜上玩神仙打架,其它开发者作壁上观。“AI要落地”这个问题,业界都有更清晰的意识和更紧迫的愿望,但是刷榜的神仙打架,跟这个愿望是背道而驰的。

19. 这又要说到LLaMA的开源过程:最初LLaMA的开源,架构搬不走,参数也不能直接拿去用,但你可以用它自己的预训练。对大模型开发者来说,资金、数据和技术思路都很重要,如果三者都具备,你就能用三个月的时间推出一个自己的大语言模型。到了LLaMA 2,它彻底开源可商用了,架构和参数可以直接“搬走”,这其实为了中小开发者和实际的商用场景,是为了“激活”原生AI应用的。结果,一些人用彻底开源的LLaMA推出了刷榜用的“原生”大模型,总觉得哪儿有点不对劲。

20. 所以各路大模型大神们,多做做生态和开发者关系吧。也别互相嘲笑对方在套壳了。有一本书叫《法国文人相轻史》,把人们熟悉的19世纪和20世纪法国作家之间的恩怨情仇描述得活灵活现。真要是有人写一本《中国AI科学家相轻史》,精彩程度也不差。

本文来自微信公众号:硅基立场(ID:gh_1b4c629a6dbd),作者:骆轶航、王兆洋

声明: 该内容为作者独立观点,不代表新零售资讯观点或立场,文章为网友投稿上传,版权归原作者所有,未经允许不得转载。 新零售资讯站仅提供信息存储服务,如发现文章、图片等侵权行为,侵权责任由作者本人承担。 如对本稿件有异议或投诉,请联系:wuchangxu@youzan.com
Like (0)
Previous 2023年11月17日
Next 2023年11月18日

相关推荐

  • 水温80度:AI行业真假繁荣的临界点

    我们从来没拥有过这么成功的AI主导的产品。

    (这种分析统计并不那么准,但大致数量级是差不多的)

    这两个产品碰巧可以用来比较有两个原因:

    一个是它们在本质上是一种东西,只不过一个更通用,一个更垂直。

    蓝海的海峡

    未来成功的AI产品是什么样,大致形态已经比较清楚了,从智能音箱和Copilot这两个成功的AI产品上已经能看到足够的产品特征。

    未来科技 2024年6月5日
  • ChatGPT、Perplexity、Claude同时“罢工”,全网打工人都慌了

    美西时间午夜12点开始,陆续有用户发现自己的ChatGPT要么响应超时、要么没有对话框或提示流量过载,忽然无法正常工作了。

    因为发现AI用久了,导致现在“离了ChatGPT,大脑根本无法运转”。”

    等等,又不是只有一个聊天机器人,难道地球离了ChatGPT就不转了。

    大模型连崩原因猜想,谷歌躺赢流量激增6成

    GPT归位,人们的工作终于又恢复了秩序。

    未来科技 2024年6月5日
  • ChatGPT宕机8小时,谷歌Gemini搜索量激增60%

    ChatGPT一天宕机两次

    谷歌Gemini搜索量激增近60%

    ChatGPT在全球拥有约1.8亿活跃用户,已成为部分人群工作流程的关键部分。

    过去24小时内提交的关于OpenAI宕机的问题报告

    图片来源:Downdetector

    ChatGPT系统崩溃后,有网友在社交媒体X上发帖警告道:“ChatGPT最近发生的2.5小时全球中断,为我们所有依赖AI工具来支持业务的人敲响了警钟。

    未来科技 2024年6月5日
  • ChatGPT、Perplexity、Claude同时大崩溃,AI集体罢工让全网都慌了

    接着OpenAI也在官网更新了恢复服务公告,表示“我们经历了一次重大故障,影响了所有ChatGPT用户的所有计划。Generator调查显示,在ChatGPT首次故障后的四小时内,谷歌AI聊天机器人Gemini搜索量激增60%,达到327058次。

    而且研究团队表示,“Gemini”搜索量的增长与“ChatGPT故障”关键词的搜索趋势高度相关,显示出用户把Gemini视为ChatGPT的直接替代选项。

    未来科技 2024年6月5日
  • 深度对话苹果iPad团队:玻璃的传承与演变

    iPad最为原始的外观专利

    没错,这就是iPad最初被设想的样子:全面屏,圆角矩形,纤薄,就像一片掌心里的玻璃。

    2010年发布的初代iPad

    好在乔布斯的遗志,并未被iPad团队遗忘。

    初代iPad宣传片画面

    乔布斯赞同这一想法,于是快速将资源投入平板电脑项目,意欲打造一款与众不同的「上网本」,这就是iPad早年的产品定义。

    iPad进化的底色

    苹果发布会留下过很多「名场面」,初代iPad发布会的末尾就是一例。

    未来科技 2024年6月5日
  • 底层逻辑未通,影视业的AI革命正在褪色…

    GPT、Sora均为革命性产品,引发了舆论风暴,但它在上个月发布的“多模态语音对谈”Sky语音,却由于声音太像电影明星斯嘉丽·约翰逊,被正主强烈警告,被迫下架。

    华尔街日报也在唱衰,认为“AI工具创新步伐正在放缓,实用性有限,运行成本过高”:

    首先,互联网上已经没有更多额外的数据供人工智能模型收集、训练。

    03、

    如果说训练“数字人”、使用AI配音本质上瞄向的仍是影视行业固有的发展方向,那么还有另外一群人试图从根本上颠覆影视行业的生产逻辑和产品形态。

    但分歧点正在于此,电影公司希望通过使用AI技术来降低成本,但又不希望自己的内容被AI公司所窃取。

    未来科技 2024年6月5日
  • KAN会引起大模型的范式转变吗?

    “先变后加”代替“先加后变”的设计,使得KAN的每一个连接都相当于一个“小型网络”, 能实现更强的表达能力。

    KAN的主要贡献在于,在当前深度学习的背景下重新审视K氏表示定理,将上述创新网络泛化到任意宽度和深度,并以科学发现为目标进行了一系列实验,展示了其作为“AI+科学”基础模型的潜在作用。

    KAN与MLP的对照表:

    KAN使神经元之间的非线性转变更加细粒度和多样化。

    未来科技 2024年6月5日
  • 这个国家,也开始发芯片补贴了

    //mp.weixin.qq.com/s/tIHSNsqF6HRVe2mabgfp6Q
    [4]中国安防协会:欧盟批准430亿欧元芯片补贴计划:2030年产量占全球份额翻番.2023.4.19.https。//mp.weixin.qq.com/s/VnEjzKhmZbuBUFclzGFloA
    [6]潮电穿戴:印度半导体投资大跃进,一锤砸下1090亿,政府补贴一半.2024.3.5https。

    未来科技 2024年6月5日
  • 大模型的电力经济学:中国AI需要多少电力?

    这些报告研究对象(数字中心、智能数据中心、加密货币等)、研究市场(全球、中国与美国等)、研究周期(多数截至2030年)各不相同,但基本逻辑大同小异:先根据芯片等硬件的算力与功率,计算出数据中心的用电量,再根据算力增长的预期、芯片能效提升的预期,以及数据中心能效(PUE)提升的预期,来推测未来一段时间内智能数据中心的用电量增长情况。

    未来科技 2024年6月5日
  • 你正和20万人一起接受AI面试

    原本客户还担心候选人能否接受AI面试这件事,但在2020年以后,候选人进行AI面试的过程已经是完全自动化的,包括面试过程中AI面试官回答候选人的问题,AI面试官对候选人提问以及基于候选人的回答对候选人进行至多三个轮次的深度追问。

    以近屿智能与客户合作的校验周期至少3年来看,方小雷认为AI应用不太可能一下子爆发,包括近屿智能在内的中国AI应用企业或许要迎来一个把SaaS做起来的好机会。

    未来科技 2024年6月4日