应用+AI,是未来吗?

二、数据

对于外行人,认为大模型=会话大模型+生成大模型。AI免费爬取编程问答社区SegmentFault的数据做了大模型,用户一看在ChatGPT中做编程问答效果更好,就不访问SegmentFault网站了,所以SegmentFault的流量快速下滑。

四、模型

2023年,中国发布了上百款套壳大模型以及所谓的垂直行业大模型。

一、引擎

1970年代,IBM发明了一个中间件叫:规则引擎。

意思就是:你可以灵活设置规则,不用把业务规则逻辑用编程语言写死在软件中。

因为中国程序员都是码农,不懂得设计程序,就是知道业务逻辑多复杂,代码就多复杂,所以各种状态机引擎、规则引擎都不会用。即使平台研发团队搞了个规则引擎,也都在业务功能中不会用或者只用一点点。

现在,人工智能热潮风起,很多IT厂商又开始用规则引擎忽悠智能化-自动化。

二、数据

对于外行人,认为大模型=会话大模型+生成大模型。

对于内行人,大模型=海量大数据+Transformer深度神经网络。

所以,数据的重要性和稀缺性,对于内行人来说,比模型还重视。所以中国最近两年出台了无数政策在说数据安全和数据资产的事。

Open AI公司因为数据,在2023年也惹上了事。这就是,事情不火不挣钱,大家都不言语,一旦发现事情火了有利可图了,这就得说道说道了。所以2023年,Open AI免费爬取编程问答社区SegmentFault的数据做了大模型,用户一看在ChatGPT中做编程问答效果更好,就不访问SegmentFault网站了,所以SegmentFault的流量快速下滑。这让SegmentFault就怒了:你不仅爬取我的数据不给我钱,你还拉走了我的用户,这不行。

Open AI虽然去年主动去国会申请召开听证会,希望促进国会尽快立法,让大家在规则下发展。但是最终听证会也没有有效运转起来。所以美国对于数据资产的一系列的法律制定,也滞后了。

那大模型怎么持续进化?有人想到了一种方法是:数据增强,通过现有数据进行智能的变形和合成,这样就数据量翻倍了。我认为这种方法比较狗屎。我经常说:垃圾输入必然是垃圾输出。数据增强在我眼里,和内容洗稿没啥本质差异。你把十篇内容稿件通过各种切分排列组合弄出来1000篇内容稿件,也是垃圾,而不是创造和知识。所以这种垃圾输入垃圾输出的数据增强方法,只能让大模型更傻。

那大模型怎么持续进化?我能想到的最好方法就是现在大模型的应用商店。传闻GPT应用商店里已经有300万个应用了。大家不用搞Lora微调和预训练,也不用搞指令调优,也不需要搞人工反馈的强化学习,也不用搞复杂编程开发,只需要提示模板调优+SaaS API调用就可以很方便地做出一个应用。这个应用无法脱离大模型。只要人们使用应用,本质上就是源源不断地把数据输送给大模型。大模型把数据日常沉淀汇集起来,然后在大版本预训练时利用起来。每个应用产生的数据都很小,但是这么多应用产生的数据就如同无数条小河,汇聚起来就是大江大海。你如果因为安全考虑不想把你的数据沉淀给大数据,那对不起,那你用开源私有部署去玩吧。

所以,这种方法避免了数据资产的法律问题,也避免了数据增强的愚蠢问题,还有了源源不断的新鲜数据血液。这个机制才是永恒永动的。

三、技术

刚才提到了提示调优模板+公有云SaaS Open API调用。这里就再衍生一个技术:AI Agent。

Agent这个词大多在强化学习场景中使用。2023年Q4,一个新技术热词被Open AI公司内斗引爆了出来,那就是:Q* Learning。其实A*是强化学习的前置技术-动态规划中的一种算法,Q-Learning也是强化学习-时序差分中的一种算法。Q* Learning就是这么组合来的。

但是AI Agent这个热词在2023年引爆是在上半年,是在下半年Q* Learning引爆之前流行起来的。所以外行人眼里的AI Agent,其实和强化学习没半毛钱关系。

外行人眼里的AI Agent,其实是在上半年流行的提示调优模板相关。

大家都知道,现有人工智能还不能回答复杂逻辑的问题,所以大家想了一个办法,叫做:思维树CoT,意思就是把一个复杂逻辑问题,人为分解为12345步,这样就可以一点点引导大模型得到你想要的答案了。

所以,AI Agent其实是一系列2023年上半年技术的杂合,所以才有了现在AI Agent框架的说法,杂合了:

  • CoT模板-代码生成大模型、公有云SaaS-Open API甚至API工具(如Postman、Zapier)

  • RPA-UI层集成自动化、流程挖掘。

SAP就想走这条路。但这条路和人工智能其实没有半毛钱关系,只是挪用了人工智能的思维树的思路而已。

不过我个人观点:

1. 假的AI Agent(就是模板+公有云SaaS Open API调用所谓的自动化流程挖掘),这条路也走不远,而且这条路也和人工智能没有半毛钱关系。

2. 真正的AI Agent(基于强化学习),短时间(3年内),我是看不到黎明。

四、模型

2023年,中国发布了上百款套壳大模型以及所谓的垂直行业大模型。

依我对中国人工智能产业的了解,其实能做大模型的中国团队寥寥无几,一双手都能数过来。

其实,绝大多数所谓的大模型团队,连Lora微调都不会也不敢。虽然Lora微调也只是改动最后一层,但是即使改动最后一层也不会啊,况且改动完了还要做预训练,虽然预训练的代价已经很小,但很小也是需要不少算力的。所以,在中国,其实连Lora微调都不会做。

大多数团队只会使用提示模板调优。连RHLF(基于人工反馈的强化学习)都不会。毕竟强化学习比深度学习还难。

有些深度的团队会搞指令模板调优。

但大多数团队连所有的调优都不会也不敢,因为太消耗工程人力了。能做的,就是把自己的数据通过大模型API输入给大模型,然后让大模型自动输出结果。这就是真实的现状。

李鬼太多了。

即使是真李逵,敢于做Lora微调,敢于做提示调优和指令调优甚至RHLF,我个人认为垂直大模型也最终必然会被通用大模型吞没。

为啥我会这个观点?我类比个例子。经常有朋友问我:为啥你会这么独特地思考?我说:因为我的知识体系中有:历史、地理、政治、军事、金融、经济、哲学、人性、计算机、组织、管理,所以我的思考是多维的、非线性的、动态的。而大多数人知识不成体系,所以是单维的、线性的、静态的。

我之所以这么类比,就是因为垂直大模型就和大多数人一样是单维的、线性的,不会聪明的。真正的聪明一定是多维交汇的。就如同很多知名的数学家,在音乐造诣方面也不错,他们其实就是融会贯通。不融会贯通是走不远的。

五、应用

2023年特别流行一个人工智能技术名词叫:RAG,意思就是检索增强生成。

这个热词来源于:微软Bing搜索,整合了GPT文本生成大模型,通过实时搜索避免了大模型因为预训练机制导致的信息陈旧问题,也通过文本摘要生成大模型弥补了传统搜索列出无数条链接内容让用户一一点开看的缺陷。

所以业界也想模仿New bing这么搞垂直搜索增强改进,所以产生了RAG技术的探索。

在说2023年流行的RAG这个热词之前,我再说说另一个技术:向量搜索引擎、向量数据库。

我早先用的是ElasticSearch,在2020年我用了向量搜索引擎和向量数据库Milvus。

2023年,RAG火了,于是向量搜索引擎和向量数据库不知道怎么也突然火出圈了。

然后有一帮人不知是不知道呢,还是别有用心呢,就把向量搜索引擎和向量数据库,偷梁换柱李代桃僵,就等同于RAG了。

不过,热潮很快就过去了,2023年,向量数据库被证伪,又快速回到了自己过去擅长的领域。随之,RAG这股风也不如过去热了。

本文来自微信公众号:阿朱说 (ID:azhushuo),作者:吕建伟

声明: 该内容为作者独立观点,不代表新零售资讯观点或立场,文章为网友投稿上传,版权归原作者所有,未经允许不得转载。 新零售资讯站仅提供信息存储服务,如发现文章、图片等侵权行为,侵权责任由作者本人承担。 如对本稿件有异议或投诉,请联系:wuchangxu@youzan.com
(0)
上一篇 2024年1月16日
下一篇 2024年1月16日

相关推荐

  • 水温80度:AI行业真假繁荣的临界点

    我们从来没拥有过这么成功的AI主导的产品。

    (这种分析统计并不那么准,但大致数量级是差不多的)

    这两个产品碰巧可以用来比较有两个原因:

    一个是它们在本质上是一种东西,只不过一个更通用,一个更垂直。

    蓝海的海峡

    未来成功的AI产品是什么样,大致形态已经比较清楚了,从智能音箱和Copilot这两个成功的AI产品上已经能看到足够的产品特征。

    未来科技 2024年6月5日
  • ChatGPT、Perplexity、Claude同时“罢工”,全网打工人都慌了

    美西时间午夜12点开始,陆续有用户发现自己的ChatGPT要么响应超时、要么没有对话框或提示流量过载,忽然无法正常工作了。

    因为发现AI用久了,导致现在“离了ChatGPT,大脑根本无法运转”。”

    等等,又不是只有一个聊天机器人,难道地球离了ChatGPT就不转了。

    大模型连崩原因猜想,谷歌躺赢流量激增6成

    GPT归位,人们的工作终于又恢复了秩序。

    未来科技 2024年6月5日
  • ChatGPT宕机8小时,谷歌Gemini搜索量激增60%

    ChatGPT一天宕机两次

    谷歌Gemini搜索量激增近60%

    ChatGPT在全球拥有约1.8亿活跃用户,已成为部分人群工作流程的关键部分。

    过去24小时内提交的关于OpenAI宕机的问题报告

    图片来源:Downdetector

    ChatGPT系统崩溃后,有网友在社交媒体X上发帖警告道:“ChatGPT最近发生的2.5小时全球中断,为我们所有依赖AI工具来支持业务的人敲响了警钟。

    未来科技 2024年6月5日
  • ChatGPT、Perplexity、Claude同时大崩溃,AI集体罢工让全网都慌了

    接着OpenAI也在官网更新了恢复服务公告,表示“我们经历了一次重大故障,影响了所有ChatGPT用户的所有计划。Generator调查显示,在ChatGPT首次故障后的四小时内,谷歌AI聊天机器人Gemini搜索量激增60%,达到327058次。

    而且研究团队表示,“Gemini”搜索量的增长与“ChatGPT故障”关键词的搜索趋势高度相关,显示出用户把Gemini视为ChatGPT的直接替代选项。

    未来科技 2024年6月5日
  • 深度对话苹果iPad团队:玻璃的传承与演变

    iPad最为原始的外观专利

    没错,这就是iPad最初被设想的样子:全面屏,圆角矩形,纤薄,就像一片掌心里的玻璃。

    2010年发布的初代iPad

    好在乔布斯的遗志,并未被iPad团队遗忘。

    初代iPad宣传片画面

    乔布斯赞同这一想法,于是快速将资源投入平板电脑项目,意欲打造一款与众不同的「上网本」,这就是iPad早年的产品定义。

    iPad进化的底色

    苹果发布会留下过很多「名场面」,初代iPad发布会的末尾就是一例。

    未来科技 2024年6月5日
  • 底层逻辑未通,影视业的AI革命正在褪色…

    GPT、Sora均为革命性产品,引发了舆论风暴,但它在上个月发布的“多模态语音对谈”Sky语音,却由于声音太像电影明星斯嘉丽·约翰逊,被正主强烈警告,被迫下架。

    华尔街日报也在唱衰,认为“AI工具创新步伐正在放缓,实用性有限,运行成本过高”:

    首先,互联网上已经没有更多额外的数据供人工智能模型收集、训练。

    03、

    如果说训练“数字人”、使用AI配音本质上瞄向的仍是影视行业固有的发展方向,那么还有另外一群人试图从根本上颠覆影视行业的生产逻辑和产品形态。

    但分歧点正在于此,电影公司希望通过使用AI技术来降低成本,但又不希望自己的内容被AI公司所窃取。

    未来科技 2024年6月5日
  • KAN会引起大模型的范式转变吗?

    “先变后加”代替“先加后变”的设计,使得KAN的每一个连接都相当于一个“小型网络”, 能实现更强的表达能力。

    KAN的主要贡献在于,在当前深度学习的背景下重新审视K氏表示定理,将上述创新网络泛化到任意宽度和深度,并以科学发现为目标进行了一系列实验,展示了其作为“AI+科学”基础模型的潜在作用。

    KAN与MLP的对照表:

    KAN使神经元之间的非线性转变更加细粒度和多样化。

    未来科技 2024年6月5日
  • 这个国家,也开始发芯片补贴了

    //mp.weixin.qq.com/s/tIHSNsqF6HRVe2mabgfp6Q
    [4]中国安防协会:欧盟批准430亿欧元芯片补贴计划:2030年产量占全球份额翻番.2023.4.19.https。//mp.weixin.qq.com/s/VnEjzKhmZbuBUFclzGFloA
    [6]潮电穿戴:印度半导体投资大跃进,一锤砸下1090亿,政府补贴一半.2024.3.5https。

    未来科技 2024年6月5日
  • 大模型的电力经济学:中国AI需要多少电力?

    这些报告研究对象(数字中心、智能数据中心、加密货币等)、研究市场(全球、中国与美国等)、研究周期(多数截至2030年)各不相同,但基本逻辑大同小异:先根据芯片等硬件的算力与功率,计算出数据中心的用电量,再根据算力增长的预期、芯片能效提升的预期,以及数据中心能效(PUE)提升的预期,来推测未来一段时间内智能数据中心的用电量增长情况。

    未来科技 2024年6月5日
  • 你正和20万人一起接受AI面试

    原本客户还担心候选人能否接受AI面试这件事,但在2020年以后,候选人进行AI面试的过程已经是完全自动化的,包括面试过程中AI面试官回答候选人的问题,AI面试官对候选人提问以及基于候选人的回答对候选人进行至多三个轮次的深度追问。

    以近屿智能与客户合作的校验周期至少3年来看,方小雷认为AI应用不太可能一下子爆发,包括近屿智能在内的中国AI应用企业或许要迎来一个把SaaS做起来的好机会。

    未来科技 2024年6月4日