互联网大厂的黑话文学,已经蔓延到AI圈了

接下来就是一些模型类型,比如目前大模型几乎都是基于Transformer架构。

有一些技术和数据术语,可能在阅读大模型文献的时候会经常遇到,比如判断机器学习能力时候用到的F1值,训练这个大模型用了多少参数等,像LLAMA2-13B、LLAMA2-70B中的”xxB”就是参数,同一个模型参数量不同,性能也不一样。

还有一些经常看到,但与大模型技术不太相关的。

本文来自微信公众号:新硅NewGeek(ID:XinguiNewgeek),作者:董道力,题图来自:视觉中国

咱们先看一段话:

眼熟吗?这和张一鸣怒斥黑话文学盛行时,引用公司内部文件中一些员工撰写的报告摘录基本一回事。

看似内容一大堆,其实什么也没说。

黑话最盛行的当属互联网行业,这些莫名其妙的词语对于汇报、晋升、面试而言似乎一时之间成了无往不利的神器。

这种黑话也开始蔓延到新能源车这边,什么“Vortex情感涡流”“多模态空间交互”“太空驾驶座舱”。

刀片电池、麒麟电池各种名称的电池,五屏三维空间交互等等,虽然还没像互联网黑话那样惹人嫌,但哪怕把业内专家请过来看,一时间还很难理解。

风头更盛的AI大模型也不例外,各种新闻、访谈、演讲中都充斥着大量名词术语,看得人眼花缭乱。

不过好在,AI这块还算不上黑话,实际上都是一些专有名词的缩写。

即便如此,把AI、AGI、GAI放在一起,一样还是头晕眼花。

咱们这篇文章,就专门盘点一下各种常用词都是什么意思。

首先是最基础的一些术语,如AI代表人工智能,AGI代表人工通用智能等。周鸿祎在sora发布后表示AGI会提前到来,说的就是这个。

接下来就是一些模型类型,比如目前大模型几乎都是基于Transformer架构。基于这种架构,又开发出很多专注一些垂直领域的模型,像对话模型GPT3、绘画模型DALL-E2。

有一些技术和数据术语,可能在阅读大模型文献的时候会经常遇到,比如判断机器学习能力时候用到的F1值,训练这个大模型用了多少参数等,像LLAMA2-13B、LLAMA2-70B中的”xxB”就是参数,同一个模型参数量不同,性能也不一样。

还有一些经常看到,但与大模型技术不太相关的。比如大模型是一个黑箱,没人知道它的数据是怎么生成的,所以大模型的伦理问题就很值得关注,如何让大模型遵循人类价值就是AI对齐。像不久前谷歌大模型生成黑皮马斯克,就是对齐过头了。

硬件也是研究大模型不得不提到的,GPU是目前比较主流的训练和搭载大模型用的芯片,我们经常讨论的英伟达就是发明GPU的公司。而谷歌针对计算也发布了特别的芯片TPU。

最后就是一些人物、会议等,我们常常会看到某某大佬对xx作出评价,进行预言,其实翻来覆去就那几位。比如被誉为卷积神经网络之父的Yann LeCun,前不久在怼sora不算是世界模型。

而最近因为开设免费的AI课程处于舆论浪尖的360CEO周鸿祎,早年因为经常穿一件红色polo衫,到处“怼人”被称为红衣大炮。

一些AI顶会和一些学术期刊也非常值得关注,往往会议中出现的技术会引领行业未来的发展,会议发布的Fellow也能带你认识那些行业领军人物。

而且,顶会上的一些论文也常常是大家争相阅读的对象。比如《Attention Is All You Need》这一论文,在2017年的NeurIPS上,该论文介绍了Transformer模型,对目前流行的大模型影响颇深,堪称里程碑式的文章。

如果仔细看一下大型模型的黑话,我们会发现它们大多数是学术词汇或英文缩写,并没有刻意创造的“新概念”。

如果记不住这些黑话怎么办?那就不要记,遇到不熟悉的术语时再查就可以了。

能不能看懂黑话,重点在于你有没有见过。不论是中文还是英文的大模型黑话,如果你不是这个领域的从业者,即便是母语者也不一定能够理解。

黑话的本质是为了降低信息交流的成本。有些概念没有合适的中文翻译,使用英文或英文缩写会更加方便。在这种情况下,人们通常不会反感这些黑话。

例如,“AI”是“人工智能”的缩写,虽然它传达了相同的意思,但“AI”比“人工智能”在打字时更加方便。尽管这可能对Adobe的Illustrator不太公平。

人们对于互联网大厂的黑话态度也随时间而发生变化,从最初的趋之若鹜到现在的避之不及,其根本原因在于这些黑话是否有实质性的含义。

有些黑话是空洞的,没有实质性的技术或能力支撑,却试图通过创造新词汇来构建壁垒。另一些则是为了构建话语权,故意使用专业术语来描述一些常见的内容,好忽悠行业外的人。

目前,大型模型领域的黑话还处于一个基础阶段,希望未来不会出现令人反感的废话。

参考资料:

[1]大厂互联网黑话卷到了国外,网友:过年了,请说点人话吧 | InfoQ

[2]理解“黑话”盛行的原因,也就理解了当下的中国社会 | 南都观察

本文来自微信公众号:新硅NewGeek(ID:XinguiNewgeek),作者:董道力,编辑:张泽一

声明: 该内容为作者独立观点,不代表新零售资讯观点或立场,文章为网友投稿上传,版权归原作者所有,未经允许不得转载。 新零售资讯站仅提供信息存储服务,如发现文章、图片等侵权行为,侵权责任由作者本人承担。 如对本稿件有异议或投诉,请联系:wuchangxu@youzan.com
(0)
上一篇 2024年3月4日
下一篇 2024年3月4日

相关推荐

  • 水温80度:AI行业真假繁荣的临界点

    我们从来没拥有过这么成功的AI主导的产品。

    (这种分析统计并不那么准,但大致数量级是差不多的)

    这两个产品碰巧可以用来比较有两个原因:

    一个是它们在本质上是一种东西,只不过一个更通用,一个更垂直。

    蓝海的海峡

    未来成功的AI产品是什么样,大致形态已经比较清楚了,从智能音箱和Copilot这两个成功的AI产品上已经能看到足够的产品特征。

    未来科技 2024年6月5日
  • ChatGPT、Perplexity、Claude同时“罢工”,全网打工人都慌了

    美西时间午夜12点开始,陆续有用户发现自己的ChatGPT要么响应超时、要么没有对话框或提示流量过载,忽然无法正常工作了。

    因为发现AI用久了,导致现在“离了ChatGPT,大脑根本无法运转”。”

    等等,又不是只有一个聊天机器人,难道地球离了ChatGPT就不转了。

    大模型连崩原因猜想,谷歌躺赢流量激增6成

    GPT归位,人们的工作终于又恢复了秩序。

    未来科技 2024年6月5日
  • ChatGPT宕机8小时,谷歌Gemini搜索量激增60%

    ChatGPT一天宕机两次

    谷歌Gemini搜索量激增近60%

    ChatGPT在全球拥有约1.8亿活跃用户,已成为部分人群工作流程的关键部分。

    过去24小时内提交的关于OpenAI宕机的问题报告

    图片来源:Downdetector

    ChatGPT系统崩溃后,有网友在社交媒体X上发帖警告道:“ChatGPT最近发生的2.5小时全球中断,为我们所有依赖AI工具来支持业务的人敲响了警钟。

    未来科技 2024年6月5日
  • ChatGPT、Perplexity、Claude同时大崩溃,AI集体罢工让全网都慌了

    接着OpenAI也在官网更新了恢复服务公告,表示“我们经历了一次重大故障,影响了所有ChatGPT用户的所有计划。Generator调查显示,在ChatGPT首次故障后的四小时内,谷歌AI聊天机器人Gemini搜索量激增60%,达到327058次。

    而且研究团队表示,“Gemini”搜索量的增长与“ChatGPT故障”关键词的搜索趋势高度相关,显示出用户把Gemini视为ChatGPT的直接替代选项。

    未来科技 2024年6月5日
  • 深度对话苹果iPad团队:玻璃的传承与演变

    iPad最为原始的外观专利

    没错,这就是iPad最初被设想的样子:全面屏,圆角矩形,纤薄,就像一片掌心里的玻璃。

    2010年发布的初代iPad

    好在乔布斯的遗志,并未被iPad团队遗忘。

    初代iPad宣传片画面

    乔布斯赞同这一想法,于是快速将资源投入平板电脑项目,意欲打造一款与众不同的「上网本」,这就是iPad早年的产品定义。

    iPad进化的底色

    苹果发布会留下过很多「名场面」,初代iPad发布会的末尾就是一例。

    未来科技 2024年6月5日
  • 底层逻辑未通,影视业的AI革命正在褪色…

    GPT、Sora均为革命性产品,引发了舆论风暴,但它在上个月发布的“多模态语音对谈”Sky语音,却由于声音太像电影明星斯嘉丽·约翰逊,被正主强烈警告,被迫下架。

    华尔街日报也在唱衰,认为“AI工具创新步伐正在放缓,实用性有限,运行成本过高”:

    首先,互联网上已经没有更多额外的数据供人工智能模型收集、训练。

    03、

    如果说训练“数字人”、使用AI配音本质上瞄向的仍是影视行业固有的发展方向,那么还有另外一群人试图从根本上颠覆影视行业的生产逻辑和产品形态。

    但分歧点正在于此,电影公司希望通过使用AI技术来降低成本,但又不希望自己的内容被AI公司所窃取。

    未来科技 2024年6月5日
  • KAN会引起大模型的范式转变吗?

    “先变后加”代替“先加后变”的设计,使得KAN的每一个连接都相当于一个“小型网络”, 能实现更强的表达能力。

    KAN的主要贡献在于,在当前深度学习的背景下重新审视K氏表示定理,将上述创新网络泛化到任意宽度和深度,并以科学发现为目标进行了一系列实验,展示了其作为“AI+科学”基础模型的潜在作用。

    KAN与MLP的对照表:

    KAN使神经元之间的非线性转变更加细粒度和多样化。

    未来科技 2024年6月5日
  • 这个国家,也开始发芯片补贴了

    //mp.weixin.qq.com/s/tIHSNsqF6HRVe2mabgfp6Q
    [4]中国安防协会:欧盟批准430亿欧元芯片补贴计划:2030年产量占全球份额翻番.2023.4.19.https。//mp.weixin.qq.com/s/VnEjzKhmZbuBUFclzGFloA
    [6]潮电穿戴:印度半导体投资大跃进,一锤砸下1090亿,政府补贴一半.2024.3.5https。

    未来科技 2024年6月5日
  • 大模型的电力经济学:中国AI需要多少电力?

    这些报告研究对象(数字中心、智能数据中心、加密货币等)、研究市场(全球、中国与美国等)、研究周期(多数截至2030年)各不相同,但基本逻辑大同小异:先根据芯片等硬件的算力与功率,计算出数据中心的用电量,再根据算力增长的预期、芯片能效提升的预期,以及数据中心能效(PUE)提升的预期,来推测未来一段时间内智能数据中心的用电量增长情况。

    未来科技 2024年6月5日
  • 你正和20万人一起接受AI面试

    原本客户还担心候选人能否接受AI面试这件事,但在2020年以后,候选人进行AI面试的过程已经是完全自动化的,包括面试过程中AI面试官回答候选人的问题,AI面试官对候选人提问以及基于候选人的回答对候选人进行至多三个轮次的深度追问。

    以近屿智能与客户合作的校验周期至少3年来看,方小雷认为AI应用不太可能一下子爆发,包括近屿智能在内的中国AI应用企业或许要迎来一个把SaaS做起来的好机会。

    未来科技 2024年6月4日