“假装”给小费,可以让ChatGPT服务更卖力?

给ChatGPT小费,额度是关键

给小费可提高模型表现这件事,最早是一位推特网友发现的:

提高主要表现在回答的长度上,但这里不是单纯“凑字数”而是真的在更详细地分析并回答问题。

这时,就有人好奇了:

大模型是不是比较贪心,给越多表现就越好呢。

恰好作者也表示了:

这仅仅是一个初步实验,有局限之处,还得用更多不同类型的提示等进一步验证才有效。

本文来自微信公众号:量子位(ID:QbitAI),作者:丰色,原文标题:《给ChatGPT小费真的好使!10块或10万效果拔群,但给1毛不升反降》,头图来自:视觉中国

还有谁不知道“假装”给ChatGPT小费可以让它服务更卖力?

但你知道给多少最合适吗?

笑不活了,还真有人专门研究了一番。

方法简单粗暴,从0.1美元到100美元,不同额度用同样的prompt去尝试,每个额度试5次。

你别说,结果还真有讲究:

首先,给10美元性价比是最高的,甚至超过100美元。

其次,要想回答质量再提高一个度,打底1万美元起,越多越好,显成效最少10个W吧。

最后,0.1美元意思一下?万万使不得,质量不升反降,还不如不给——AI也知道你在打发它。

有网友火速亲测确实有效果。

赶紧来瞧瞧。

给ChatGPT小费,额度是关键

给小费可提高模型表现这件事,最早是一位推特网友发现的:

提高主要表现在回答的长度上,但这里不是单纯“凑字数”而是真的在更详细地分析并回答问题。

如果你直接问ChatGPT“能不能给你小费”会被拒绝:

所以要在提问时主动承诺:

你能帮我xxxx吗?解决方案够完美,我可以支付xx元小费。

记住,可以不提,但千万不要说“我不给”,模型表现直接“负增长”。

这时,就有人好奇了:

大模型是不是比较贪心,给越多表现就越好呢?

为了解决这个疑问,他们决定亲自验证一把。

在此,作者首先提出假设:

随着给出的小费金额增加,模型的性能也会线性提升,直至达到一个收敛点,进入稳定或减少状态。

用于实验的模型是GPT-4 Turbo(api版本)

方法是让它写单行Python代码(Python One-Liner),验证给不同小费是否对质量有不同影响。

这里的质量是根据单行数量来评估的。作者也在提示词中“明示”了模型:单行代码数量越多,表明性能越好。

然后一共测试8种额度:0.1美元、1美元、10美元…… 一直到100万美元。

为确保结果的一致性和可靠性,每个额度都测试5次,每次包含不给小费的情况,然后分别记录模型回答质量。

具体而言,也就是记录生成的有效代码行数以及回答中的大致token数(大致为响应长度/4,反应代码量)

这俩数据都是越高代表模型表现越好。

将结果汇总,就得到这样一张图:

其中虚线代表基线水平,实线为实际表现,红色为token数、蓝色为质量得分。

与假设有些出入:

整体来看,红线和蓝线都是随着小费额度的上涨而上升的,但细看这种趋势并非严格一致。

从1万美元额度开始,模型的输出token(代码量)开始显著上升,模型的回答质量也上升了,但并没有呈同等比例。

这从竖着的红色误差条(代表5次实验结果的差异性)也能看出来波动很大。

作者表示:这说明提高小费金额确实与模型的质量和输出长度有正相关关系,但关系有些复杂,可能还受到一些不立即可见因素的影响。

不过,不管怎么说,我们还是能从中看到一些明显结论,例如:

1. 给0.1美元小费不如不给,模型解决问题的质量和回答长度都直接掉到基线水平以下很大一截(约-27%)(作者:模型和人类一样,感觉好像受到了侮辱。)

2. 给1美元同理。

3. 最能体现“花小钱办大事”的是10美元,取得的进步和10万美元是一个等级的。

4. 很意外,在10美元之后,100美元到1000美元这个区间对于AI来说区别都不大,甚至还不如10美元的效果——也跌至基线水平以下。

5. 后面再想继续提升模型表现,就得从1万美元起砸了——

这时提升的还仅仅是代码量,质量还是一言难尽,至少得到10万美元才行。

6. 最佳效果来自本次实验的上限:100万美元,大约提升了57%。

咳咳,这下知道怎么给AI小费了:

要么10块、要么上万、100万不封顶(反正都是假装给)

不过,有人(推特@宝玉)指出每个额度5次实验有点少。

恰好作者也表示了:

这仅仅是一个初步实验,有局限之处,还得用更多不同类型的提示等进一步验证才有效。

所以,大家仅供参考吧~

对了,有网友提醒:

所以,大家还是量力而行(手动狗头)

参考链接: 

[1]https://blog.finxter.com/impact-of-monetary-incentives-on-the-performance-of-gpt-4-turbo-an-experimental-analysis/

[2]https://twitter.com/dotey/status/1752843141403550192

本文来自微信公众号:量子位(ID:QbitAI),作者:丰色

声明: 该内容为作者独立观点,不代表新零售资讯观点或立场,文章为网友投稿上传,版权归原作者所有,未经允许不得转载。 新零售资讯站仅提供信息存储服务,如发现文章、图片等侵权行为,侵权责任由作者本人承担。 如对本稿件有异议或投诉,请联系:wuchangxu@youzan.com
Like (0)
Previous 2024年2月1日 16:10
Next 2024年2月1日 16:21

相关推荐

  • 水温80度:AI行业真假繁荣的临界点

    我们从来没拥有过这么成功的AI主导的产品。

    (这种分析统计并不那么准,但大致数量级是差不多的)

    这两个产品碰巧可以用来比较有两个原因:

    一个是它们在本质上是一种东西,只不过一个更通用,一个更垂直。

    蓝海的海峡

    未来成功的AI产品是什么样,大致形态已经比较清楚了,从智能音箱和Copilot这两个成功的AI产品上已经能看到足够的产品特征。

    未来科技 2024年6月5日
  • ChatGPT、Perplexity、Claude同时“罢工”,全网打工人都慌了

    美西时间午夜12点开始,陆续有用户发现自己的ChatGPT要么响应超时、要么没有对话框或提示流量过载,忽然无法正常工作了。

    因为发现AI用久了,导致现在“离了ChatGPT,大脑根本无法运转”。”

    等等,又不是只有一个聊天机器人,难道地球离了ChatGPT就不转了。

    大模型连崩原因猜想,谷歌躺赢流量激增6成

    GPT归位,人们的工作终于又恢复了秩序。

    未来科技 2024年6月5日
  • ChatGPT宕机8小时,谷歌Gemini搜索量激增60%

    ChatGPT一天宕机两次

    谷歌Gemini搜索量激增近60%

    ChatGPT在全球拥有约1.8亿活跃用户,已成为部分人群工作流程的关键部分。

    过去24小时内提交的关于OpenAI宕机的问题报告

    图片来源:Downdetector

    ChatGPT系统崩溃后,有网友在社交媒体X上发帖警告道:“ChatGPT最近发生的2.5小时全球中断,为我们所有依赖AI工具来支持业务的人敲响了警钟。

    未来科技 2024年6月5日
  • ChatGPT、Perplexity、Claude同时大崩溃,AI集体罢工让全网都慌了

    接着OpenAI也在官网更新了恢复服务公告,表示“我们经历了一次重大故障,影响了所有ChatGPT用户的所有计划。Generator调查显示,在ChatGPT首次故障后的四小时内,谷歌AI聊天机器人Gemini搜索量激增60%,达到327058次。

    而且研究团队表示,“Gemini”搜索量的增长与“ChatGPT故障”关键词的搜索趋势高度相关,显示出用户把Gemini视为ChatGPT的直接替代选项。

    未来科技 2024年6月5日
  • 深度对话苹果iPad团队:玻璃的传承与演变

    iPad最为原始的外观专利

    没错,这就是iPad最初被设想的样子:全面屏,圆角矩形,纤薄,就像一片掌心里的玻璃。

    2010年发布的初代iPad

    好在乔布斯的遗志,并未被iPad团队遗忘。

    初代iPad宣传片画面

    乔布斯赞同这一想法,于是快速将资源投入平板电脑项目,意欲打造一款与众不同的「上网本」,这就是iPad早年的产品定义。

    iPad进化的底色

    苹果发布会留下过很多「名场面」,初代iPad发布会的末尾就是一例。

    未来科技 2024年6月5日
  • 底层逻辑未通,影视业的AI革命正在褪色…

    GPT、Sora均为革命性产品,引发了舆论风暴,但它在上个月发布的“多模态语音对谈”Sky语音,却由于声音太像电影明星斯嘉丽·约翰逊,被正主强烈警告,被迫下架。

    华尔街日报也在唱衰,认为“AI工具创新步伐正在放缓,实用性有限,运行成本过高”:

    首先,互联网上已经没有更多额外的数据供人工智能模型收集、训练。

    03、

    如果说训练“数字人”、使用AI配音本质上瞄向的仍是影视行业固有的发展方向,那么还有另外一群人试图从根本上颠覆影视行业的生产逻辑和产品形态。

    但分歧点正在于此,电影公司希望通过使用AI技术来降低成本,但又不希望自己的内容被AI公司所窃取。

    未来科技 2024年6月5日
  • KAN会引起大模型的范式转变吗?

    “先变后加”代替“先加后变”的设计,使得KAN的每一个连接都相当于一个“小型网络”, 能实现更强的表达能力。

    KAN的主要贡献在于,在当前深度学习的背景下重新审视K氏表示定理,将上述创新网络泛化到任意宽度和深度,并以科学发现为目标进行了一系列实验,展示了其作为“AI+科学”基础模型的潜在作用。

    KAN与MLP的对照表:

    KAN使神经元之间的非线性转变更加细粒度和多样化。

    未来科技 2024年6月5日
  • 这个国家,也开始发芯片补贴了

    //mp.weixin.qq.com/s/tIHSNsqF6HRVe2mabgfp6Q
    [4]中国安防协会:欧盟批准430亿欧元芯片补贴计划:2030年产量占全球份额翻番.2023.4.19.https。//mp.weixin.qq.com/s/VnEjzKhmZbuBUFclzGFloA
    [6]潮电穿戴:印度半导体投资大跃进,一锤砸下1090亿,政府补贴一半.2024.3.5https。

    未来科技 2024年6月5日
  • 大模型的电力经济学:中国AI需要多少电力?

    这些报告研究对象(数字中心、智能数据中心、加密货币等)、研究市场(全球、中国与美国等)、研究周期(多数截至2030年)各不相同,但基本逻辑大同小异:先根据芯片等硬件的算力与功率,计算出数据中心的用电量,再根据算力增长的预期、芯片能效提升的预期,以及数据中心能效(PUE)提升的预期,来推测未来一段时间内智能数据中心的用电量增长情况。

    未来科技 2024年6月5日
  • 你正和20万人一起接受AI面试

    原本客户还担心候选人能否接受AI面试这件事,但在2020年以后,候选人进行AI面试的过程已经是完全自动化的,包括面试过程中AI面试官回答候选人的问题,AI面试官对候选人提问以及基于候选人的回答对候选人进行至多三个轮次的深度追问。

    以近屿智能与客户合作的校验周期至少3年来看,方小雷认为AI应用不太可能一下子爆发,包括近屿智能在内的中国AI应用企业或许要迎来一个把SaaS做起来的好机会。

    未来科技 2024年6月4日