与生成式AI对话,要掌握哪些技巧

作为微软的首席科学家,我的任务是开展让工作变得更好的研究。拥有这份工作是一个令人难以置信的激动时刻。一项又一项研究表明,最近的AI进步将使人们能够以全新、更高效的方式工作,我们还在探索AI可能性的开始阶段。在微软工作的17年里,我从未像现在这样对计算机改善工作的机会更加乐观。

最新一代AI工具之所以前景广阔,原因之一是它们现在可以让我们用几千年来与他人互动的方式与计算机互动:自然语言。这是一个巨大的变化。之前与计算机交流复杂想法的唯一方式,是用专为计算机设计的语言准确无误地填写电子表格公式、记住电子邮件搜索的准确关键词,或学习编程。现在很多限制都消失了,你可以通过简单的自然语言提示,告诉AI你想做什么。

虽然总体而言,使用提示与AI进行交流的能力是一个巨大进步,但研究表明,这也引入了一个可理解的学习曲线。即使对我而言,能用简单的英语与计算机交谈也是一件新奇事。全世界的科学家正在努力缩短这种学习曲线,并取得了很大进展(例如,在“提示优化”方面的工作)。然而,研究清楚地表明,如果能就如何编写好的提示语进行培训,就可以从AI中收获更多。例如,BCG最近对管理咨询师进行的一项研究发现,接受过提示培训的咨询师比没有接受培训的咨询师更擅长使用AI工具。

幸运的是,微软和学术界的研究已经有了早期发现,可以帮助我们加速提示之旅。这些研究结果大多可以归结为一个关键见解:即便使用自然语言,也要记得AI系统需要的东西与人类不同。

掌握AI语言

计算机在提示中需要知道哪些人类可能不知道的信息?如何利用这些信息来改进提示?以下科学文献中的理论和结果有助于回答这个问题。

提供更多背景信息。心理语言学长期以来一直教导我们在所有交流中介绍背景的核心作用,即通过对话互相理解的过程,也就是保证大家说的是一回事。例如,如果参加会议的人对会议结束时需要采取的行动有共同理解,并且知道自己有这种共同理解,那可能是因为他们花了很多时间来讨论下一步怎么做。

与大语言模型(LLM)进行基础训练的过程,和与他人进行基础训练不同,因为人类与该模型的共同语境通常较少。在提示中明确上下文有助于获得更好结果。例如,当我与团队中的研究人员交谈时,我们都知道过去关于这个主题的所有头脑风暴会议,彼此拥有的技能等等,但是LLM不知道,至少现在还不行。因此,如果我用AI给这个人写电子邮件,那么提供我知道而LLM可能不知道的所有重要背景信息,就会很有帮助。一个人可能认为告诉他们所需的所有背景信息有些冒犯,但LLM不会。

得益于“检索增强生成”(RAG)等技术和其他最近的技术进步,需要提供的上下文数量将大大减少。例如,AI可以搜索你过去的电子邮件和文档,以查找有用信息。当前语境也能提供基础材料。例如,有些系统会将你就会议提出的问题记录在会议纪要中。尽管如此,考虑到基础信息对有效合作的重要性,为LLM提供正确语境依然至关重要。

运用“群众智慧”。研究表明,人们可以通过从不同角度处理问题来捕捉“群众的智慧”,现在我们可以利用AI做到这一点。我发现,可以至少要求对方给出三个回复(例如,“至少生成三个标题”或“告诉我你重写这一段的三种方法”),有时甚至可以要求它为想法提供一部分结构(“至少做出一个有趣,一个正式的”)。清楚知道自己想从模型中得到什么时,给它举几个例子。这个过程被称为“小样本学习”(FSL),将有助于LLM根据你想要的内容做出回复。

依赖识别,而不是回忆。计算机交互的一个核心原则是,人们识别想要发出的命令要比回忆命令容易得多。想想看,从列表中进行选择,比从头开始想一个命令要容易得多。所以几乎我们所有人都会使用图形界面,而不是DOS这样的“命令”;例如,双击图标打开应用程序,要比记住打开应用程序的特定命令再记住应用程序的正式名称要容易得多。

帮助人们识别他们可能需要的提示,而不是从头开始编写,是许多AI新功能背后的驱动因素。在一些先进的AI系统中,你可以访问大量预先编写好的提示语库,并保存喜欢的提示等等。这些都会体现在用户体验中,时间久了,你和组织使用的最佳提示也将开始包含在内。同时我还保留了一个文件,包含一些我最喜欢的个人提示,而这些提示尚未包含在库中。例如我常使用的一个是:我是一名研究员,正在向合作的团队发送这封邮件。请告诉我发邮件的注意事项。

让它成为对话,而不是单个要求。文献中的一个关键发现是,将复杂请求分解为多个步骤,可以帮助人们更成功地从LLM中获得想要的东西。有更正式的方法来做到这一点(例如,“大模型思维链”提示),不过非正式的方法也能成功。例如,我发现最好先要我想理解的文章的摘要,再分别要求观点。例如:

·请用提纲概述文章内容,重点


转载请注明:http://www.nylrzx365.com/sjgj/sjgj/16385.html

  • 上一篇文章:
  •   
  • 下一篇文章: 没有了