来源|王智远
我每天都写文章,并不稀奇。
然而,当涉及商业分析、数据处理相关问题时,不能马虎处理;这些情况下,必须深入调查。搜集公开网络上的分析和财务报告,是一项艰巨的挑战。
为什么?
准确性至关重要。如果信源不准,会直接导致分析结论偏差。想必前段时间某大V翻车的事件,给大家诸多启发。
避免信息过时。今天的新闻,明天可能就过时了。所以,不停地搜索最新信息、数据,能确保分析、决策不会基于过时的情况发生。
真正了解市场。光看数据还不够,市场比较复杂,得深入挖掘才能看到有哪些潜在风险,这也能找到隐藏的不同角度。
所以,我最头疼的一件事是看报告、看财报、看数据。
怎么办?我打算让AI帮我处理,也遇到一些挑战。在国内,很难找到有效阅读PDF和其他文档格式的高效AI大模型。
于是,我转向ChatGPT-4。
用近四个月,最大问题是经常遇到长度限制,较大文档你得切两半才能上传,要么,上传文档后解析结果不尽人意,这些问题非常困扰,比直接阅读报告还头疼。
直到前段时间遇到Kimi-chat,极大减轻了我的分析负担,仿佛找到一个能理解复杂报告的助手。
01Kimi-chat是什么呢?
如此卡哇伊的名字,这个答案隐藏在它的口号中:别焦虑,Kimi帮你整理资料,文件,拖进来;网址,发出来。一看就是一个有效整理、处理资料的工具;网址是:https://kimi.moonshot.cn
打开网址,非常简洁,对话框呈现在眼前,人工智能小人告诉你,可以把网址、文件发给它,可以帮你看看,既然是这样,我们就一个一个测。
首先,读文件。
根据Kimi-chat官方宣传,它最多支持20W字上下文输入,也就是说,我把一篇PDF小说、书籍塞进去都没问题。
我就试了一下,把自己2021年写的《复利思维》.PDF塞给它,完全没问题,这本书共计12万字。
然而,当我尝试输入《信息论40讲》时,系统提示我超过了对话长度的175%;而《被讨厌的勇气》这本书,则超出20%。
我轮番测试,把我第二本即将要出的书14万字world塞给它,它显示超出36%。14万字的百分之36%大约是5万字;换句话说,它支持一口气10万字以内的内容处理。
为绕过字符限制,我换了方法。
将一份10万字的文档分成两半,分别输入到Kimi-chat中,结果显示系统能够无障碍处理。但是,我注意到处理PDF文档有个要求:扫描件不行。
我还发了两篇大约3万字的文档给它,也没问题。
比较惊讶的是,它能够根据之前我发给它的信息来回答我的问题;也就是说,不管我问什么,只要在这个对话框里说过,它都能记住,回答得更准确、更有条理。
这个功能对我来说特别有用,尤其是处理长篇大论的时候。
我还测试了表格总结能力,给它多个表格,让它把重点罗列出来。它能清楚地按逻辑顺序归纳,还能基于提炼的内容,再做成表格,复制到Word、Markdown里都能用。
为了方便,我还让它帮我基于PDF、Word资料提出50个问题,并把问题做成表格。这也都没难倒它,真是挺强大的。
话说回来,即使是付费版的GPT-4,它处理上下文时的token数量上限也只是32K。
虽然根据我自己的测试,似乎只能处理大约10万字。不过,实际上10万字的处理能力,对于大多数情况来说,也已经足够了。
02接着,读网页。
我先试了Kimi Chat给的一个示例,就是总结一篇大概3.6万字的文章,并让它像个AI专家似得提出三个问题。Kimi Chat给我找了一篇关于人工智能的文献,10几秒分析完,速度挺快。
我分别将虎嗅、36氪、百度、豆瓣等多个网站的链接发送给Kimi Chat。它不仅能够读取这些链接中的内容,还能够概括出各篇文章主旨,当我需要更深入的细节时,它也能提供。
比如:
我问它,某个文章第一段主要讲啥?核心观点是什么?
它能快速给我总结出来。这样我就不用自己费劲去翻找了,直接知道文章的要点。特别是我有一堆东西要看的时候,这个功能真的挺省事。
我对Kimi Chat进行了连贯性测试。
先把三篇讲差不多东西的文章的链接,扔到同一个聊天窗口里,一块儿发过去,然后问它一些问题。它回答得挺好的,一点儿都不乱。
后来我又换了个招,发三篇完全不同主题的文章,还来自不同网站,结果它照样能处理得挺顺利。
总之,在处理文件和网页内容方面,Kimi Chat的一个大优点是能上传多种类型、来自不同网站的内容。它甚至可以将您的问题和答案整理成表格,方便查看和理解,分析能力很强。
但也有些局限。
比如,它不支持在一个对话框里同时上传网页和文件。而且,尽管官方宣称它能一次性处理20万字,实际上我发现它并没有达到这个标准,也可能是我人工测试的不精准。
说实在,就读网页、读文档方面,这些功能足够使用了。
03接着,文本搜索。
文本搜索,对一个内容创作者,最重要的能力是什么?答案是准确性、相关性。
举个例子:
最近各家都在频繁出Q3财报,财经类作者需要迅速获取这些财报的详细信息,来进行分析;这种情况下,他们可能会用关键词,如“网易2023Q3财报”进行搜索。
搜索出来后,基于财报简要、主要财务指标、市场分析的评论、以及其他媒体的报道,然后结合自己的观点提出不同角度。
那么,大家常规怎么操作的呢?
基于某度、某乎、某氪、或者微信搜索进行搜索,这非常麻烦。我把这个问题,交给了Kimi Chat。
它直接给我事实搜索出,2023年11月16日网易发布的第三季财报内容,并且指出该季度增长如何、业绩如何;毛利多少、实现毛利润多少。
…..
为了更深入了解网易。我让它给出(资产负债表状况)公司的资产、负债和股东权益的状态如何?是否显示出财务健康和稳定性?
它迅速给我找出5篇资料。
但由于分析过程比较复杂,它没办法直接给出结论,最后,它建议我关注流动比率、负债占资产比率、净资产收益率。
我问它你能帮我找到吗?
它无法直接找到三个问题同样的内容,但为我提供了关于负债占资产比率的5篇文章。后来,我把5篇链接复制下来给它,让它分析,它也无法给出占资产比率。
也就是说,
第一,这个工具能提供实时搜索,但它的功能有限。
比如,如果您需要了解占资产比率,但这个信息没有直接提及在内容中,工具就不能自动计算、提供数据。它不能基于财报进行额外的计算。
第二,联网搜索和文档(链接)分析是分开的。
如果你已经向它发送任何链接、文档,那么,它就无法再帮您搜索网络上的内容,不过,要是开启一个新的对话,它就可以再次联网搜索;
其三,未联网下,它的知识库训练截止到2021年11月,和ChatGPT-4时间相似。
04再者,找资料。
文本搜索,就像在网上快速找东西,输入你想知道的关键词,然后它会给你一堆信息;但找资料不一样,它更像你已经知道什么,然后去挖掘背后的故事。
这个观点谁提出的,什么时候提出。不是简单搜搜看,更像深入地去研究背后的信息。
举个例子:
我平时写认知心理学的内容比较多,所以经常得翻翻谁最先提出某个概念,或者找找相关的学术研究之类的。
于是,我针对“焦虑”一词,提出了几个问题,让它帮我找出来。结果挺让我吃惊的。
它给我抓取了百度知道、头条百科、以及学术方面的内容,并且对这些内容进行了详细的解释。
继续我的实验。
我对它引用的资料:[(1917)焦虑(《精神分析引论》第25讲)提出新的问题。我想知道里面提到焦虑分为几个部分,但它告诉我,对这个知识领域不够了解,无法给我想要的答案。
于是,我尝试了另一种方法。
我把它提供的链接复制下来,开启了一个新的对话框,并再次提问焦虑分为哪几个部分。这次它给了我答案,告诉我焦虑可以分为:
-
现实焦虑(Realangst)
-
神经性焦虑(Neurotischer Angst)
-
道德焦虑(与超我相关)
也就是说,这个工具自己不能从它给你的链接里,再挖东西出来。如果你想知道更多,得自己复制它给的那个链接,再发回去给它,这样它才能根据这个链接找出你要的详细信息,ChatGPT-4至今也无法做到。
最后,我又测试了一下它的自语言处理能力(NLP)。
什么是自语言?
简单来说,个人在不太正式的情况下,用最自然、最习惯的方式表达的语言,这包括用方言、非常口语化的方式表达出来的想法。
它实际反应一个人的思考模式和内心状态。
比如:
一个人面对困难时,可能会对自己说,加油,你能行;这种语言往往非常直接、真实,并且表达用词非常个人化,有口头禅、自创词汇。
这种在没有旁听者的情况下,用来鼓励自己的言行,就是一种自语言。
日常我和客户访谈居多。最近,尝试了一个新方法:
将我和一位高管的访谈对话转录成文字,然后交给了Kimi-chat,看看它能否理解这些内容,并生成一个剔除那些非正式或口语化表达(俗称“口水话”)的文本。
结果,它的能力还是令我挺吃惊地。我能完全理解采访的实质内容,还能生成更加有逻辑、清晰的形式,这对于整理采访记录、提炼重点信息来说,非常有帮助。
综合来看,我总结了它的4个优点:
-
快速享应
-
高可用性
-
不漏信息
-
学习长文本
它用来起挺方便的,不需要代理。而且给它一大堆文字也不用怕丢失,回答快,准确性高,就算你丢给它一个超大文件,也能把里面所有信息炒出来,一个不漏。
讲真,国产大模型我也测试了很多,目前能做到这个地步,还算不容易;当然,评价一款软件,首先看它好不好用,长期坚持使用一款软件,我更关心它会不会跑路。
05于是,我就查了一些该公司背景。
该公司创始人叫,杨植麟。他是一位90后的AI天才,曾是清华大学的学生,师从IEEE Fellow唐杰。
本科毕业后,他就去了自语言处理(NLP)研究全球排名第一的卡耐基基梅隆大学攻读博士学位。攻读期间发表关于Transformer-XL和XLNet的两篇论文,主要给AI大模型技术提供了突破性基础。
后来自己创立名叫“月之暗面”(MoonShot AI)公司,发布一款千亿参数的大模型moonshot,用来承载Kimi Chat,至今估值20亿美金。
这个公司有两位联合创始人,分别为周昕宇、吴育昕,他们在大模型的工程、算法开发方面都有丰富的经验。目前公司的团队规模超过50人,成员多来自于谷歌、Meta、亚马逊等全球科技巨头,是一个国际化的团队。
我比较好奇,为什么叫月之暗面?
于是,我就去找了找原因。这个名字来源于创始人个人喜欢的一张专辑Pink Floyd的《Dark Side of the Moon》。
意思是,月球的暗面始终背对地球,处在地球人的视线外,象征神秘与未知。
公司想在人工智能领域探索这种未知,就像月球暗面一样,充满神秘和挑战;因此,他将公司民命为月之暗面。
这个软件为什么内容比较精准、且处理长文本呢?杨植麟认为市场的大模型有三种:
-
金鱼型
-
蜜蜂型
-
蝌蚪型
金鱼比较健忘,就像滑动手机窗口一样,模型会基于窗口,自动把之前的内容扔掉,只关注最新输入的东西,所以它没法完全懂整篇文章的意思,处理不了跨好几篇文档的对比。
好比,我有10万字访谈记录,它就不一定能从里面找出来最重要的10个观点、问题是什么。
蜜蜂型处理方式,像蜜蜂采花那样,只关注一小块,不管整体。它会在给的文本里搜寻、增强信息,但只专注于其中一部分。
就好比,假设你给它10份简历,它能帮你找出每份简历的重点,但就做不到更深入地挖掘每个细节。
蝌蚪型,就像是个还没长大的小蝌蚪,能力还没完全长成。为了让它处理更长的文字,就得减少一些参数,比如只用百亿个。
这就像是,想让一个人走更远的路,就让他的背包轻一些,因为书少了,做的事情也就少了。
因此,杨植麟认为,对于‘月之暗面’这个项目来说,成功的第一步是解决‘长文本’处理的挑战。
例如,要通过分析多篇财务报告、处理多份法律合同、或者汇总多篇文章,才能有效地找到关键信息。这种能力对于深入理解、处理大量复杂数据至关重要。
话说回来,长文本能力的提升,不仅让AI工具在日常工作流中更好用,还能更好地辅助人类进行跨领域、跨学科主题发散思考。这难道不是好事吗?
嗯,至少从我的角度来说,挺好的,你可以试试。
总结而言
AI的记忆力,越来越好了。
估值20亿的kimi-Chat真香,这家年轻的公司已经展现出巨大潜在价值,它能否像open-AI一样,成为国内的巨头,就看如何把握机遇,应对挑战了。