8个好用的提示词策略,教你玩转ChatGPT

为何要写指令

和LLM之间的交互乍看起来很简单:输入一个问题,立刻就能得到答案。

引导模型得出解法

LLM缺乏对语义的理解,因此想要它举一反三超出训练集很难。

让它提供多种选项

LLM的能力之一就是它的巨量“长期记忆”。提供一套可用的参考可以达成很多目的:

明确语境,这让LLM可以更好地理解你的要求的细微之处。

大语言模型(LLM)使用深度学习——人工智能(AI)中模拟人类大脑神经网络的类型——来为用户的输入,或者叫“指令”,生成和人类回应类似的文本回应。和传统中使用的确定性算法不同,LLM能够解释自然语言命令,并且从基本的补完上半句到复杂的解题都很擅长,因此它既对用户友善,又用途多样。在很短的时间里,LLM已经在技术领域中随处可见,渗透进各种不同的学科当中。对业界和学界的研究者来说,LLM很快成为了写作、编程和可视化时无可替代的工具[2,3,4]

为何要写指令

和LLM之间的交互乍看起来很简单:输入一个问题,立刻就能得到答案!但是,要想有效率地和这些模型交互就更有挑战性了,涉及到的细节比初看起来更多[5]。这就为使用LLM带来了一个根本的限制:其输出的质量与指令的质量直接相关——这一限制在当前有关LLM能力的讨论中常常被忽视。一份精心撰写的指令可以生成一份精准的回复,这样就能最大程度提高模型表现。相反,指令写得不好就会产生模糊、错误或文不对题的答案。

这种限制很大程度上是因为LLM本身的性质。虽然它有着复杂的算法和巨量的训练数据(包含网页、维基百科、社交网络贴文、学术论文、书籍和说明书等材料),但它本质上还是一个数学模型,缺乏对世界的理解。这些工具被设计来预测文字出现的概率,而不是生成真理。它们会识别训练集数据中的模式(下一个最可能的字元),通过统计学上的概率预测文字。这样生成出的文字非常依赖于训练集数据中所出现的文字模式。

进一步说,因为每个预测出的字元都会影响接下来的字元,前面错一个词就会引发恶性循环,越来越不准。因此指令写得好既能增加每个字元预测准确的概率,也会减小错误不断积累的效应。指令很重要的另一个关键原因在于LLM可以根据上下文学习。这个能力让模型可以暂时适应它们所收到的指令,因此指令对传达上下文信息至关重要。

因此,掌握编写有效指令的艺术与科学——有时被称为“指令工程”——是提升LLM能力的关键。想要得到最优的结果,就得同时拥有领域相关的知识和对模型本身的理解和技术,而这需要通过学习和经验来锻炼。因此,第一条建议就是去摆弄模型。与模型的交互越多,就越能理解其中的细节,以及它能如何帮助我们达成需求。这篇评论列出了可行的策略和规则,以及其背后的原理,为精通此道奠下基础。

引导模型得出解法

LLM缺乏对语义的理解,因此想要它举一反三超出训练集很难。但是,它的参数化能力让它获得了一套昂贵的过往数据(“记忆”),可以从中提取信息。这套记忆来源于训练数据(“长期记忆”)以及指令和交互记录(“工作记忆”)的综合。这两者的组合——推广能力低下但记忆力超群——意味着LLM可以在复杂的任务被拆解成较小的任务和步骤后有效处理它们。

例如,和宽泛的命令把“文本翻译成中文”相比,可以考虑把它拆解成两步:“首先按字面意思翻译,保持含义不变;然后将翻译润色,让它符合中文的语言习惯”。类似地,与其让它直接写出一篇1000字的论文,不如尝试把任务分解成子任务,用具体的指令分别生成出概述、结论和中心论点。

清晰、逐步的指令会降低模糊性和不确定性,因此可以生成更为准确的回复。把更大的任务简化成更小的逐步任务,就可以有效利用LLM稳健的记忆力,并且能通过结构性指示来弥补它有限的抽象能力。

添加相关的语境

LLM比人类的“工作记忆”大多了。因此,想要让它提供精准且符合问题语境的回复,在输入中提供相关的语境就很重要了。一个限定语境的问题应当:

  • 包含具体内容。将你的问题根植于具体的细节之中,这样才能引导LLM产生更为准确,相关的理解。因此,不要让它起草一份求职信,而是把职位广告和你的简历一并提供给它,以增加相关的上下文。

  • 给信息排出优先级。让你的交互基于相关的事实信息。不要问模型怎么才能永远幸福快乐,给它提供一份经同行审议的论文,基于那篇研究问它问题。

这样做的目的不是给LLM灌输大量泛用的知识,而是给它和你的问题相关的细节。当指令中包含了具体的细节时,LLM就会生成更有洞察力,更精细的回复。

指令要明确

你要是想点一杯最喜欢的饮料,不会随便走进一个咖啡馆,说“请来杯咖啡!”。同样,也不要期待LLM能读懂你的心。虽然LLM能准确猜到你的想法、甚至超越期待的时候很令人欣喜,但给出不明确的请求就要承担LLM猜测意图时文不对题的风险。明确性是关键。

要想降低模型预测时的不确定性,说明你想要什么。不要说“润色这篇文章”,而是提供一份更精确的指示,考虑你想要什么样的风格,你的目标受众,以及你有没有某种特定的需求(例如明确性或简洁性)。因此,一段更具体的指示可能是“像个顶级期刊的顶级编辑那样,润色这篇文章让它更为清晰流畅。”

再举一个例子,若是要让它给你建议一个名字,就可以通过加入限制条件来明确要求:“名称必须以动词开头,其隐含的主语/行为主体是用户”。尽量明确地说明任务、目标、想要的重点和任何限制条件。模糊的需求就会导致模糊的回应,而明确的指令有助于:

  • 减少指导语及需要处理的文字的模糊性(例如,使用特定标签、字符或符号作为分隔符)

  • 让LLM可以专注于你的特定需求方面。

  • 提供清晰的条件来判断模型的准确度。

虽然LLM在设计上追求对话提炼,使用明确指导提前说清目的就可以简化这一流程。你可以说明目的和限制条件来控制对话方向。与此同时,不要对尚未明确定义的目标做过多描述,这也可能会让它走上错误的路线,或是错过意料之外(也可能是更好的)答案。

让它提供多种选项

LLM的能力之一就是它的巨量“长期记忆”。为了挖掘LLM这方面的潜力,可以让它提供一系列选项,而不是一项建议。你可以要求它给出三个类比来解释一个概念,五个点子来引入,十种选项来替换最后一段,或是二十个名字来命名一个函数——让模型给你足够多的思维材料,好从中自由选择。

除了要求多种选项以外,你还可以考虑重复用同样的指令多次生成回复。重新生成回复会让回复中产生更多变化,并改进质量。要求多种选项和重生成回复有很多好处,具体包括:

  • 鼓励模型探索多条出路,这会让模型的输出有更强的创造力和多样性。

  • 为你提供更全面的选项组合,尽量减少得到次优或偏颇的建议的风险。

  • 加快迭代优化。

LLM是一个多能型的思维搭档:问它从多种角度提供大量选项可以丰富你的决策流程。丰富的选项能够解锁最多的效益。

设定角色

LLM巨量的训练数据集意味着它能够模拟各种角色来提供专业的反馈或独特的视角。和征询泛用建议或信息相比,你可以考虑让模型做个角色扮演:让它模仿你的典型读者来提供写作上的反馈;扮演一名写作教练来帮助修订手稿;扮演一只擅长人类生理学的西藏牦牛来解释高海拔的影响;或扮演一块有智慧的奶酪蛋糕来讲奶酪蛋糕比喻——可能性是无限的。设定角色可以:

  • 给模型的回复设定语境,这让它更符合你的特定需求。

  • 能与模型进行更有交互性和吸引人的对话

  • 产出更为精细和专业的信息,这会提升输出的质量。

  • 提出创造性手段来解决问题,鼓励跳出框架的思考。

  • 人格化提供了框架,可以让它使用独特的视角来产出回应。

能利用上LLM的角色扮演能力的话,就能获得更多有针对性和符合语境的回复(并且在过程中获得更多乐趣!)

给它例子,不要光解释

LLM擅长小样本学习(有示例的学习)[6]。因此,一个特别有效的手段就是使用具体的例子来丰富你的意图。不要模糊地讲“以这些数据制图”,考虑提供一个例子:“为这些数据画张条形图,类似附件论文中的图[3]。”就像对理发师描述想要的发型那样,一张图片赛过千言万语。无论是编程时给一段代码还是写作时给一段例句,明文写出的例子会成为模型无价的指南。提供一套可用的参考可以达成很多目的:

  • 明确语境,这让LLM可以更好地理解你的要求的细微之处。

  • 减少达成想要的输出所需的迭代次数。

  • 提供标准以评价模型的输出。

示例可以作为LLM的路线图,引导它生成出和你的期待一致的回复。因此,考虑在你的指令中加入说明性示例来改进表现。

声明想要的输出格式

LLM经常废话太多。明确你想要的格式——重点,阅读水平,语气等等——有助于限制可能结果,改进相关性。例如,不要说“总结关键结论”,可以声明输出格式:“总结出关键结论并分项列举,使用高中生也能理解的语言。”预先声明格式还可以提供清晰的标准来评估LLM的表现。你可以选择:

  • 要求分项列举来简明扼要地总结。

  • 使用轻松的口吻,增加易读性。

  • 增加代码注释,提供说明。

  • 限制回复长度保证简洁,或是限制阅读等级来保证易于理解。

声明你想要的格式可以设定明确期望,简化输入的指令。约束能促进切题。

实验,实验,再实验

什么指令更有效没有一定之规。稍微调整一下可能就会产生显著甚至意外的差异。考虑以下示例:

  • 在一系列推理问题中,在指令中简单加入“一步一步思考”就可以让GPT-3的表现好得多——这是思维链指令的一种[7]

  • LLM可以回应情绪性的信息。根据一篇未经同行审议的预印本[8],加入一些短语例如“深呼吸一下——这事对我的职业生涯很重要”或是“我会给好答案200块小费”可以提高回复的质量。

  • 一份未经同行审议的研究提出,可以通过添加“识别出问题中的关键概念并提供一份教程”或“想三个相关但不同的问题”来强化复杂的编程任务中的表现——这是一种类推指令[9]

  • 虽然LLM在直接面对复杂计算问题时可能会失利,但它们生成可用的计算机代码来解决同样问题时就很出色(例如,“写一段Python代码来解决这个问题”)[10]

这些例子证明LLM对指令非常敏感。因此你必须实验,实验,再实验!有效率地使用LLM要求你持续进行创造性的实验。你还可以考虑:

  • 调整措辞、长度、详细度和限制条件。

  • 调整不同的示例、语境和指示。

  • 既尝试对话性的指示,也尝试精准说明性的指示。

  • 在不同的LLM上尝试相同的指示。

因此,把指示当成可以测试的假设,然后使用其结果中获得的信息来进行迭代。并非所有尝试都会成功,但每次尝试都会有新的收获。坚持下去,最优结果就会出现。

结论

LLM在自然语言处理的领域里是无人能比的搭档。这篇评论为解锁LLM的全部潜力提供了可执行的策略及其原理。

核心要点包括:将复杂任务拆解成小任务和步骤;使用相关细节提供框架;明确说明目的;以及用示例表明意图。其他推荐包括:设定角色,要求提供选项来利用LLM的广泛性;声明格式来设置预期;不断实验以获得最优结果。

结合起来,这些策略能帮助用户创建详细,结构性的指示,来最有效地处理特定任务。虽然有效编写指令的技术可能不会让你永远幸福快乐,但它一定能让你的工作效率和乐趣得以倍增。

本文来自微信公众号:自然系列 (ID:nature-portfolio),作者:Zhicheng Lin

声明: 该内容为作者独立观点,不代表新零售资讯观点或立场,文章为网友投稿上传,版权归原作者所有,未经允许不得转载。 新零售资讯站仅提供信息存储服务,如发现文章、图片等侵权行为,侵权责任由作者本人承担。 如对本稿件有异议或投诉,请联系:wuchangxu@youzan.com
(0)
上一篇 2024年5月7日 15:42
下一篇 2024年5月7日

相关推荐

  • 水温80度:AI行业真假繁荣的临界点

    我们从来没拥有过这么成功的AI主导的产品。

    (这种分析统计并不那么准,但大致数量级是差不多的)

    这两个产品碰巧可以用来比较有两个原因:

    一个是它们在本质上是一种东西,只不过一个更通用,一个更垂直。

    蓝海的海峡

    未来成功的AI产品是什么样,大致形态已经比较清楚了,从智能音箱和Copilot这两个成功的AI产品上已经能看到足够的产品特征。

    未来科技 2024年6月5日
  • ChatGPT、Perplexity、Claude同时“罢工”,全网打工人都慌了

    美西时间午夜12点开始,陆续有用户发现自己的ChatGPT要么响应超时、要么没有对话框或提示流量过载,忽然无法正常工作了。

    因为发现AI用久了,导致现在“离了ChatGPT,大脑根本无法运转”。”

    等等,又不是只有一个聊天机器人,难道地球离了ChatGPT就不转了。

    大模型连崩原因猜想,谷歌躺赢流量激增6成

    GPT归位,人们的工作终于又恢复了秩序。

    未来科技 2024年6月5日
  • ChatGPT宕机8小时,谷歌Gemini搜索量激增60%

    ChatGPT一天宕机两次

    谷歌Gemini搜索量激增近60%

    ChatGPT在全球拥有约1.8亿活跃用户,已成为部分人群工作流程的关键部分。

    过去24小时内提交的关于OpenAI宕机的问题报告

    图片来源:Downdetector

    ChatGPT系统崩溃后,有网友在社交媒体X上发帖警告道:“ChatGPT最近发生的2.5小时全球中断,为我们所有依赖AI工具来支持业务的人敲响了警钟。

    未来科技 2024年6月5日
  • ChatGPT、Perplexity、Claude同时大崩溃,AI集体罢工让全网都慌了

    接着OpenAI也在官网更新了恢复服务公告,表示“我们经历了一次重大故障,影响了所有ChatGPT用户的所有计划。Generator调查显示,在ChatGPT首次故障后的四小时内,谷歌AI聊天机器人Gemini搜索量激增60%,达到327058次。

    而且研究团队表示,“Gemini”搜索量的增长与“ChatGPT故障”关键词的搜索趋势高度相关,显示出用户把Gemini视为ChatGPT的直接替代选项。

    未来科技 2024年6月5日
  • 深度对话苹果iPad团队:玻璃的传承与演变

    iPad最为原始的外观专利

    没错,这就是iPad最初被设想的样子:全面屏,圆角矩形,纤薄,就像一片掌心里的玻璃。

    2010年发布的初代iPad

    好在乔布斯的遗志,并未被iPad团队遗忘。

    初代iPad宣传片画面

    乔布斯赞同这一想法,于是快速将资源投入平板电脑项目,意欲打造一款与众不同的「上网本」,这就是iPad早年的产品定义。

    iPad进化的底色

    苹果发布会留下过很多「名场面」,初代iPad发布会的末尾就是一例。

    未来科技 2024年6月5日
  • 底层逻辑未通,影视业的AI革命正在褪色…

    GPT、Sora均为革命性产品,引发了舆论风暴,但它在上个月发布的“多模态语音对谈”Sky语音,却由于声音太像电影明星斯嘉丽·约翰逊,被正主强烈警告,被迫下架。

    华尔街日报也在唱衰,认为“AI工具创新步伐正在放缓,实用性有限,运行成本过高”:

    首先,互联网上已经没有更多额外的数据供人工智能模型收集、训练。

    03、

    如果说训练“数字人”、使用AI配音本质上瞄向的仍是影视行业固有的发展方向,那么还有另外一群人试图从根本上颠覆影视行业的生产逻辑和产品形态。

    但分歧点正在于此,电影公司希望通过使用AI技术来降低成本,但又不希望自己的内容被AI公司所窃取。

    未来科技 2024年6月5日
  • KAN会引起大模型的范式转变吗?

    “先变后加”代替“先加后变”的设计,使得KAN的每一个连接都相当于一个“小型网络”, 能实现更强的表达能力。

    KAN的主要贡献在于,在当前深度学习的背景下重新审视K氏表示定理,将上述创新网络泛化到任意宽度和深度,并以科学发现为目标进行了一系列实验,展示了其作为“AI+科学”基础模型的潜在作用。

    KAN与MLP的对照表:

    KAN使神经元之间的非线性转变更加细粒度和多样化。

    未来科技 2024年6月5日
  • 这个国家,也开始发芯片补贴了

    //mp.weixin.qq.com/s/tIHSNsqF6HRVe2mabgfp6Q
    [4]中国安防协会:欧盟批准430亿欧元芯片补贴计划:2030年产量占全球份额翻番.2023.4.19.https。//mp.weixin.qq.com/s/VnEjzKhmZbuBUFclzGFloA
    [6]潮电穿戴:印度半导体投资大跃进,一锤砸下1090亿,政府补贴一半.2024.3.5https。

    未来科技 2024年6月5日
  • 大模型的电力经济学:中国AI需要多少电力?

    这些报告研究对象(数字中心、智能数据中心、加密货币等)、研究市场(全球、中国与美国等)、研究周期(多数截至2030年)各不相同,但基本逻辑大同小异:先根据芯片等硬件的算力与功率,计算出数据中心的用电量,再根据算力增长的预期、芯片能效提升的预期,以及数据中心能效(PUE)提升的预期,来推测未来一段时间内智能数据中心的用电量增长情况。

    未来科技 2024年6月5日
  • 你正和20万人一起接受AI面试

    原本客户还担心候选人能否接受AI面试这件事,但在2020年以后,候选人进行AI面试的过程已经是完全自动化的,包括面试过程中AI面试官回答候选人的问题,AI面试官对候选人提问以及基于候选人的回答对候选人进行至多三个轮次的深度追问。

    以近屿智能与客户合作的校验周期至少3年来看,方小雷认为AI应用不太可能一下子爆发,包括近屿智能在内的中国AI应用企业或许要迎来一个把SaaS做起来的好机会。

    未来科技 2024年6月4日