人工智能根本不需要教授和博士

大家一定听过人工智能不可解释、人工智能有幻觉问题,其实本质就是出在了人工智能的第一性原理,因为它的本质就是:概率。

所以现在人工智能工程用的专家人工制作提示模板进行调优、专家人工制作指令模板进行调优、专家人工进行强化学习反馈进行调优,都是因为专家人工在调教,当然越来越像人了啊。

所以为啥有了Transformer后模型可以越做越大,就是因为Transformer搞成了标准砖,而且这块标准砖的内核还是最最原始的算法模型。

现在国内有股歪风,就是风险投资投人工智能赛道,专门追逐搞人工智能的教授和博士,好像人工智能是个多么多么高门槛的事情,必须教授和博士才能搞定。

一、数学

其实人工智能的基础知识很低,大学的数学课程就能应对。

人工智能涉及到的基础数学知识就是三样:概率、微积分、线性代数。

大家一定听过人工智能不可解释、人工智能有幻觉问题,其实本质就是出在了人工智能的第一性原理,因为它的本质就是:概率。概率的事情嘛,就像你在赌场赌博一样,把把都是独立事件。

大家也感觉现在的人工智能好像越来越像人了。就如同图灵测试说的那样:如果你判断不出来在幕布后面是人还是机器,那么这台机器就是人工智能。大家觉得人工智能现在真是越来越像人了,本质就是人工智能的数学原理就是基于微积分拟合的。所谓的微积分拟合就像你照猫画虎,越画越像而已。

所以现在人工智能工程用的专家人工制作提示模板进行调优、专家人工制作指令模板进行调优、专家人工进行强化学习反馈进行调优,都是因为专家人工在调教,当然越来越像人了啊。所以大家一点也不要感觉人工智能神奇。

那线性代数在人工智能领域有啥用呢?其实没啥用,就是为了方便计算简化计算而已。把很多变量很多维度,用线性代数的矩阵计算方式来计算而已,就这点作用。

二、模型

很多人说人工智能的三大门槛是:模型、数据、算力。其实这也没啥神奇的。

我们先说说模型。很多人一提到模型,肯定会提到大模型、提到Transformer。

其实Transformer一点也不神奇,甚至我都觉得Transformer可能是走错路了。

为啥会这样说呢?因为Transformer的核心思想相当原始:

1. 注意力是为了让长度越长时不要遗忘前面,不要捡了芝麻丢了西瓜。从最早的256个字节到现在的128k,主要就是受限于内存大小和内存成本了。多头注意力也是为了并行运算快而已。

2. Transformer的核心神经网络模型其实是最原始、最早的前馈神经网络,都起源于上世纪60年代了。后来虽然出现了大家熟知的CNN、RNN、LSTM等等先进模式,但Transformer其实根本没用,而是返回源头用了最原始的模型。

3. 编码器-解码器,在外人看来好像很神秘,其实编码器就是为了把输入的信息转换成向量形式便于线性代数矩阵计算而已。而解码器正好相反,把计算好的结果又还原成普通人能看得懂的信息序列。

Transformer原理就是这么简单啊,就这三个核心啊,这三个核心要义的作用我上述都讲了。

其实Transformer的作用和云平台的Docker的价值很相似,Transformer是把水泥沙子打造成一块标准砖,有了标准砖,你建猪窝还是建100层的摩天大楼你都好建了。而Docker的价值也是这样,把水泥沙子打造成一个标准集装箱,你集装箱里放各种小零碎都行,但集装箱就很好做长途运输了,一艘大船,想垒多少个都可以自由组合。

所以为啥有了Transformer后模型可以越做越大,就是因为Transformer搞成了标准砖,而且这块标准砖的内核还是最最原始的算法模型。

这就尴尬了。人类那么多聪明脑袋,花了50年研究各种精巧算法,都废了。所以2017年Transformer一出,2018年、2019年,众多教授们一看,完啰完啰,自己多年的心血没戏了。所以他们留在工业界就没啥大价值了,人工智能只剩下简单粗暴地搞算力搞海量数据高质量数据加工了,不需要这些大教授了。所以这些大教授们在2017年之后又纷纷躲回大学象牙塔内,在工商业界待不住了。

三、数据

咱们再说说数据。

数据需要两个关键:

1. 海量数据;

2. 海量的高质量数据。

为啥要这两个关键呢。

我们先来说说我们最常规的信息化,就是:我们在现实中干完事了,然后人根据我们实际干的事,打开电脑软件找到某个功能模块,然后根据我们对这件事的理解,在这个功能模块UI窗口中输入了各种字段信息。这些信息都是基于我们人的自我理解的,这些信息不是在现实实际干事的时候自动生成的,而是事中事后由人工来理解判断由人工来输入的,所以经常会出现电脑自洽、现实自洽,但电脑和现实两张皮、不一致。

那我们再说回到人工智能。为啥人工智能在2018年大模型出来之前需要海量的人工做海量的标注呢?就是因为数据质量不高,需要人工将这些海量数据打上标签,这其实和信息化输入结构性字段信息是一样本质的。

但是我们不想这么海量人工打标签怎么办?所以大模型的竞争只能是高质量的数据,而且这样的高质量数据越多越好。为啥会这样呢?就是因为高质量数据相当于在数据产生的时候就是由专业人产生的,他们产生信息的时候就不会瞎产生,而是带有一定的结构性和逻辑性,这和普通人随便说话颠三倒四是不一样的。

所以现在的人工智能大模型为啥能采用无监督无标注的学习方式呢?就是要求喂的数据就必须是高质量高结构性高逻辑性的数据。就这么本质简单。所以像图书、论文、Wiki、专业问答如SF这些数据都是高质量高结构性高逻辑性数据。所以为啥SF会屏蔽OpenAI,会和OpenAI打官司,就是因为OpenAI想免费使用SF的高质量数据,然后搞好大模型去卖钱。

但是,世界上哪里有那么多高质量的数据啊。所以没办法,前期尽量高质量数据,没有的话就选次一点的数据。大家都明白垃圾输入垃圾输出。那怎么办?那没办法啰,只能在事后补救了,这就是我们常见到的:专家人工制作提示模板进行调优、专家人工制作指令模板进行调优、专家人工进行强化学习反馈进行调优。

四、算力

最后我们讲讲算力。

很多人奇怪,老美卡了我们那么多芯片:

1. 计算机服务器的计算芯片;

2. 手机的计算芯片、通信芯片、图形芯片;

3. 现在又卡我们的人工智能芯片。

听说现在英伟达的A100和H100芯片都炒到了天价,很多人纳闷,我们现在已经有了国产的CPU,为啥我们不能拿国产CPU来进行人工智能大模型的处理呢?非得需要专门的人工智能处理芯片呢?

其实无他,人工智能大模型的原理是深度神经网络,深度神经网络的计算的数学原理是矩阵计算,咱们平常用的CPU擅长整数浮点数的四则运算,不擅长矩阵运算。当然,你也可以用咱们CPU来搞人工智能大模型,但是性能肯定很慢,就比如说你想问大模型一个问题,大模型需要计算到明天才能告诉你答案,你愿意吗?

五、没有先进落后之分,只有适用场景之分

所以人工智能并不神秘,并不复杂,我们无须妄自菲薄,我们也不需要轻视或抛弃最经典的人工智能,如:运筹学、优化算法、因果推断、时间序列预测、异常检测算法……其实这些古老的算法,一切都可深度神经网络学习,也可以用Transfomer这块标准砖来搭建。就如同若干块砖,你可以一会摆成S状,也可以一会摆成B状。

六、技术成熟度

不过我的一个朋友昨天说了一句话蛮好:技术的成熟度,就是不断从专家范围到社会范围到普通人普惠。

我想了想,还真是。

一开始流行的人工智能,如上述我写的:运筹学、优化算法、因果推断、时间序列预测、异常检测算法,都是很专家。即使我用运筹学给你做个应用模型,你也不会用。就得乙方专家做,甲方专家用。

后来,互联网兴起了,最典型的人工智能技术就是搜索(如百度)、推荐(如抖音)。这就是乙方专家做,甲方普通用户就能用。

现在,人工智能扎堆的热点是:文本/音频/视频的识别和生成,这就产生的初级应用如:数字助手、虚拟角色人、数字形象人,这就普惠了。现在任何普通人都能应用这些人工智能技术了。这就是技术的成熟度。

本文来自微信公众号:阿朱说 (ID:azhushuo),作者:吕建伟

声明: 该内容为作者独立观点,不代表新零售资讯观点或立场,文章为网友投稿上传,版权归原作者所有,未经允许不得转载。 新零售资讯站仅提供信息存储服务,如发现文章、图片等侵权行为,侵权责任由作者本人承担。 如对本稿件有异议或投诉,请联系:wuchangxu@youzan.com
(0)
上一篇 2023年11月9日
下一篇 2023年11月9日

相关推荐

  • 水温80度:AI行业真假繁荣的临界点

    我们从来没拥有过这么成功的AI主导的产品。

    (这种分析统计并不那么准,但大致数量级是差不多的)

    这两个产品碰巧可以用来比较有两个原因:

    一个是它们在本质上是一种东西,只不过一个更通用,一个更垂直。

    蓝海的海峡

    未来成功的AI产品是什么样,大致形态已经比较清楚了,从智能音箱和Copilot这两个成功的AI产品上已经能看到足够的产品特征。

    未来科技 2024年6月5日
  • ChatGPT、Perplexity、Claude同时“罢工”,全网打工人都慌了

    美西时间午夜12点开始,陆续有用户发现自己的ChatGPT要么响应超时、要么没有对话框或提示流量过载,忽然无法正常工作了。

    因为发现AI用久了,导致现在“离了ChatGPT,大脑根本无法运转”。”

    等等,又不是只有一个聊天机器人,难道地球离了ChatGPT就不转了。

    大模型连崩原因猜想,谷歌躺赢流量激增6成

    GPT归位,人们的工作终于又恢复了秩序。

    未来科技 2024年6月5日
  • ChatGPT宕机8小时,谷歌Gemini搜索量激增60%

    ChatGPT一天宕机两次

    谷歌Gemini搜索量激增近60%

    ChatGPT在全球拥有约1.8亿活跃用户,已成为部分人群工作流程的关键部分。

    过去24小时内提交的关于OpenAI宕机的问题报告

    图片来源:Downdetector

    ChatGPT系统崩溃后,有网友在社交媒体X上发帖警告道:“ChatGPT最近发生的2.5小时全球中断,为我们所有依赖AI工具来支持业务的人敲响了警钟。

    未来科技 2024年6月5日
  • ChatGPT、Perplexity、Claude同时大崩溃,AI集体罢工让全网都慌了

    接着OpenAI也在官网更新了恢复服务公告,表示“我们经历了一次重大故障,影响了所有ChatGPT用户的所有计划。Generator调查显示,在ChatGPT首次故障后的四小时内,谷歌AI聊天机器人Gemini搜索量激增60%,达到327058次。

    而且研究团队表示,“Gemini”搜索量的增长与“ChatGPT故障”关键词的搜索趋势高度相关,显示出用户把Gemini视为ChatGPT的直接替代选项。

    未来科技 2024年6月5日
  • 深度对话苹果iPad团队:玻璃的传承与演变

    iPad最为原始的外观专利

    没错,这就是iPad最初被设想的样子:全面屏,圆角矩形,纤薄,就像一片掌心里的玻璃。

    2010年发布的初代iPad

    好在乔布斯的遗志,并未被iPad团队遗忘。

    初代iPad宣传片画面

    乔布斯赞同这一想法,于是快速将资源投入平板电脑项目,意欲打造一款与众不同的「上网本」,这就是iPad早年的产品定义。

    iPad进化的底色

    苹果发布会留下过很多「名场面」,初代iPad发布会的末尾就是一例。

    未来科技 2024年6月5日
  • 底层逻辑未通,影视业的AI革命正在褪色…

    GPT、Sora均为革命性产品,引发了舆论风暴,但它在上个月发布的“多模态语音对谈”Sky语音,却由于声音太像电影明星斯嘉丽·约翰逊,被正主强烈警告,被迫下架。

    华尔街日报也在唱衰,认为“AI工具创新步伐正在放缓,实用性有限,运行成本过高”:

    首先,互联网上已经没有更多额外的数据供人工智能模型收集、训练。

    03、

    如果说训练“数字人”、使用AI配音本质上瞄向的仍是影视行业固有的发展方向,那么还有另外一群人试图从根本上颠覆影视行业的生产逻辑和产品形态。

    但分歧点正在于此,电影公司希望通过使用AI技术来降低成本,但又不希望自己的内容被AI公司所窃取。

    未来科技 2024年6月5日
  • KAN会引起大模型的范式转变吗?

    “先变后加”代替“先加后变”的设计,使得KAN的每一个连接都相当于一个“小型网络”, 能实现更强的表达能力。

    KAN的主要贡献在于,在当前深度学习的背景下重新审视K氏表示定理,将上述创新网络泛化到任意宽度和深度,并以科学发现为目标进行了一系列实验,展示了其作为“AI+科学”基础模型的潜在作用。

    KAN与MLP的对照表:

    KAN使神经元之间的非线性转变更加细粒度和多样化。

    未来科技 2024年6月5日
  • 这个国家,也开始发芯片补贴了

    //mp.weixin.qq.com/s/tIHSNsqF6HRVe2mabgfp6Q
    [4]中国安防协会:欧盟批准430亿欧元芯片补贴计划:2030年产量占全球份额翻番.2023.4.19.https。//mp.weixin.qq.com/s/VnEjzKhmZbuBUFclzGFloA
    [6]潮电穿戴:印度半导体投资大跃进,一锤砸下1090亿,政府补贴一半.2024.3.5https。

    未来科技 2024年6月5日
  • 大模型的电力经济学:中国AI需要多少电力?

    这些报告研究对象(数字中心、智能数据中心、加密货币等)、研究市场(全球、中国与美国等)、研究周期(多数截至2030年)各不相同,但基本逻辑大同小异:先根据芯片等硬件的算力与功率,计算出数据中心的用电量,再根据算力增长的预期、芯片能效提升的预期,以及数据中心能效(PUE)提升的预期,来推测未来一段时间内智能数据中心的用电量增长情况。

    未来科技 2024年6月5日
  • 你正和20万人一起接受AI面试

    原本客户还担心候选人能否接受AI面试这件事,但在2020年以后,候选人进行AI面试的过程已经是完全自动化的,包括面试过程中AI面试官回答候选人的问题,AI面试官对候选人提问以及基于候选人的回答对候选人进行至多三个轮次的深度追问。

    以近屿智能与客户合作的校验周期至少3年来看,方小雷认为AI应用不太可能一下子爆发,包括近屿智能在内的中国AI应用企业或许要迎来一个把SaaS做起来的好机会。

    未来科技 2024年6月4日