首页>智库>Prompt系统学习>提示的应用(攻略)

需要支持?

如果通过文档没办法解决您的问题,请提交工单获取我们的支持!

提示的应用(攻略)

1、介绍

现在我们将通过社区成员编写的文章来讨论端到端的提示工程的过程。

2、多项选择题

让我们使用 GPT 来解决一道 LSAT问题!

以下是一道 LSAT (法学院入学考试) 问题的例子。考虑你如何回答它以及你的推理。

英国修道士 John of Worcester 在 1128 年 12 月 8 日记录了两个异常大的太阳黑子的出现。五天后,韩国南部观察到了一个明亮的极光。太阳黑子活动通常在平均五天的时间段之后,极光出现。因此,韩国的观测有助于证实 John of Worcester 的观测。以下哪项是正确的,如果是正确的,最能加强这个观点?

a)即使在前一周没有重要的太阳黑子活动,极光也有时会发生。

b)在 John of Worcester 之前的1000多年中,中国的资料记录了太阳黑子的出现。

c)只有大规模的太阳黑子活动才能导致在韩国这样的纬度下看到的极光。

d)由于在典型的日光条件下肉眼无法观察到太阳黑子,因此 John of Worcester 记录的观测必须发生在不寻常的天气条件下,如雾或薄云。

e)John of Worcester 的记录包括一个太阳黑子的图画,这可能是太阳黑子活动的最早插图。

正确答案是 :

c)只有大规模的太阳黑子活动才能导致在韩国这样的纬度下看到的极光。

尝试将问题粘贴到下面的演示中:

提示的应用(攻略)

为什么我的答案不同?

您的答案可能会因为以下原因而不同:1)基础模型 GPT-3 的更新 2)文本生成过程中的随机性。我们可以通过将 temperature 设置为 0 来使输出更加一致。

模型失败了。这是否意味着该模型无法回答这种类型的问题?不一定。我们将深入探讨可以用来改进模型结果的技术。

魔法短语

上面我们使用的标准提示并没有为 GPT 的输出“推理”提供太多见解。我们可以尝试添加短语 让我们一步一步地解释,例如:

e)John of Worcester 的记录包括一个太阳黑子的图画,这可能是太阳黑子活动的最早插图。

让我们一步一步地解释

这个短语将增加模型的详细程度。您可能会得到类似这样的输出:

提示的应用(攻略)

注意,模型是如何逐步推理出答案的。

这种行为的具体术语是“思维链”,模型按顺序生成语句以达到答案。这类似于《思考,快与慢》(from Thinking Fast and Slow) 中的系统2的思维概念;模型默认为系统1思维,但可以将系统1思维连接起来,以得出更有方法论的答案。

改进

以下是一些多项选择题的基本提示变体:

重新排列问题选项

我们可以重新排列问题中的选项

a) John of Worcester 的记录包括一个太阳黑子的图画,这可能是太阳黑子活动的最早插图

b) 由于在典型的日光条件下肉眼无法观察到太阳黑子,因此 John of Worcester 记录的观测必须发生在不寻常的天气条件下,如雾或薄云。

提示的应用(攻略)

改写问题

再来看看原来的问题是这样的:

如果以下哪个选项为真,最能加强这个观点?

我们可以将问题改成这样:

将每个选项标记为强化、削弱或不影响论点。

这样可以进一步了解答案的选择。

提示的应用(攻略)

添加额外上下文

以下是一个可通过使用贝叶斯定理轻松解决的问题示例:

考虑两种医学测试,A 和 B。当病毒存在时,测试 A 在识别病毒方面的有效性为 90%,但假阳性率为 5%(表明病毒存在,而实际上不是)。测试 B 在识别病毒方面的有效性为 95%,但假阳性率为 10%。这两种测试使用独立的方法来确定病毒是否存在。这种病毒由所有人中的 2% 承载。

(a) 假设只使用测试 A 对一个人进行病毒检测。如果测试 A 呈阳性,那么这个人实际上携带该病毒的概率是多少?(2 分)

(b) 假设只使用测试 B 对一个人进行病毒检测。如果测试 B 呈阳性,那么这个人实际上携带该病毒的概率是多少?(2 分)

(c) 假设使用这两个测试对一个人进行病毒检测。如果这两个测试都呈阳性,那么这个人实际上携带该病毒的概率是多少?(2 分)

让我们尝试使用 GPT:

添加额外上下文

以下是一个可通过使用贝叶斯定理轻松解决的问题示例:

考虑两种医学测试,A 和 B。当病毒存在时,测试 A 在识别病毒方面的有效性为 90%,但假阳性率为 5%(表明病毒存在,而实际上不是)。测试 B 在识别病毒方面的有效性为 95%,但假阳性率为 10%。这两种测试使用独立的方法来确定病毒是否存在。这种病毒由所有人中的 2% 承载。

(a) 假设只使用测试 A 对一个人进行病毒检测。如果测试 A 呈阳性,那么这个人实际上携带该病毒的概率是多少?(2 分)

(b) 假设只使用测试 B 对一个人进行病毒检测。如果测试 B 呈阳性,那么这个人实际上携带该病毒的概率是多少?(2 分)

(c) 假设使用这两个测试对一个人进行病毒检测。如果这两个测试都呈阳性,那么这个人实际上携带该病毒的概率是多少?(2 分)

让我们尝试使用 GPT:

提示的应用(攻略)

输出是不正确!

如果我们添加一些上下文,如下所示:

让我们一步步解释。贝叶斯的公式为

该模型将使用正确的公式贝叶斯。

提示的应用(攻略)

输出是 正确的!

GPT模型在执行算术运算方面表现不佳。你可能会注意到,虽然表达式书写正确,但计算出的数字却不正确。请尝试添加短语:将表达式作为答案,而不是数字以禁用计算。

你可能会对MRKL感兴趣,这是一种将GPT与计算器等外部工具结合起来解决这个问题的范例。

3、解答讨论性问题

通过正确的提示,GPT-3非常擅长写作短格式回答。为了证明这一点,我将看一下解答讨论性问题,这是许多大学课程中常见的每周任务。对讨论性问题的回答通常约为100到700字。更长的内容可能会有些棘手,因为语言模型的记忆有限,并且难以理解他们所写的内容的全局图像。

让我们看一个基本的讨论问题的例子:

我们星球面临的最紧迫的环境问题是什么,个人可以采取哪些措施来帮助解决这些问题?”

我们可以将其转化为简单的GPT-3提示,将回答以下问题:放在前面。

回答以下问题:

我们星球面临的最紧迫的环境问题是什么,个人可以采取哪些措施来帮助解决这些问题?

由于这个提示生成的结果并不一致,有些只有一两个句子。一个典型的讨论回答应该有多个段落,因此这些结果并不理想。一个好的提示应该给出具体的格式和内容指令。您需要消除语言中的歧义以提高一致性和质量。这是一个更好的提示。

第二个提示生成了更长的输出和更好的结构。提示中使用“论文”一词是有意的,因为GPT-3可以理解论文的定义,因此更有可能生成连贯的、结构化的回答。

许多讨论性问题并不适合提示

“内战是一场关于扩张的冲突吗?同意还是不同意,为什么?”

这是一个真实的大学历史课程的讨论问题。它的措辞不当,也过于开放。为了获得良好的讨论回答,您需要将问题改写为一个明确定义的提示。上面那个讨论问题的明确定义提示可以是:

“解释内战的原因以及扩张是否在冲突中起了作用。附上支持您论点的证据。”

现在我们可以添加格式和上下文指令。

写一篇高度详细的讨论回答,按照论文结构回答以下提示:

解释内战的原因以及扩张是否在冲突中起了作用。

附上支持您论点的证据。

使用GPT-3自动重写明确定义的提示

上面的改写例子是使用OpenAI的ChatGPT生成的。

提示的应用(攻略)

迭代

在为讨论问题制定有效的提示后,您现在需要细化GPT-3生成的结果。这可能涉及到调整输出以符合诸如字数等限制,或将不同生成的结果的概念组合在一起。

迭代的一个简单方法是生成多个输出并查看它们,以了解GPT-3正在使用的概念和结构。一旦评估了输出,您就可以选择最合适的输出并将它们组合成一个连贯的回答。

另一种迭代的方法是逐步开始,然后逐步扩展。这需要不止一个提示:一个起始提示,用于撰写最初的一两段,然后是其他提示,以扩展已经写过的内容。

以下是一个潜在的哲学讨论问题:

“数学是发明还是发现?用仔细的推理来解释你的答案。”

将其添加到一个简单的提示中,如下所示:

写一个起始段回答以下问题:

数学是发明还是发现?用仔细的推理来解释你的答案。

我生成了一些回答,找到了一个我喜欢的:

哲学家和数学家之间争论不休,数学是发明还是发现。

一些人认为,数学的概念和原则独立于人类思维存在,因此可以被认为是被发现而不是被发明的。

例如,数字、比率和几何形状的概念在自然界中被观察到,可以被抽象化和系统化地研究。

This is a pretty good start. I then followed this up with another prompt to expand: 这是一个不错的开端。然后我使用另一个提示来扩展:

我正在撰写一篇详细的短文,回答以下提示:

数学是发明还是发现?用仔细的推理来解释你的答案。这是我目前的情况: 哲学家和数学家之间争论不休,数学是发明还是发现。

一些人认为,数学的概念和原则独立于人类思维存在,因此可以被认为是被发现而不是被发明的。

例如,数字、比率和几何形状的概念在自然界中被观察到,可以被抽象化和系统化地研究。

写下我文章的下一段。

尝试使用以下演示来扩展此提示(您将可以在箐年人家AI对话页面进行输入Prompt):

提示的应用(攻略)

我使用此提示生成了几个扩展,并选择了一个我喜欢的,最终得到了以下结果:

哲学家和数学家之间争论不休,数学是发明还是发现。

一些人认为,数学的概念和原则独立于人类思维存在,因此可以被认为是被发现而不是被发明的。

例如,数字、比率和几何形状的概念在自然界中被观察到,可以被抽象化和系统化地研究。

另一方面,有人认为数学在很大程度上是人类思维的发明。

数学原理基于逻辑推理,这是人类思维的一个特征。

例如,欧几里德几何基于抽象的公理和前提,被接受为真实而无需证明。

因此,可以认为几何是人类思维的发明,而不是一种发现。

同样,数学公式和方程用于模拟和预测物理现象,这又是人类推理的结果。

使用扩展提示,我们可以逐步地写作并在每个步骤上进行迭代。这对于需要生成更高质量的输出并希望逐步修改的情况非常有用。

4、用GPT-3构建ChatGPT

介绍

ChatGPT在过去一个月内爆炸性增长,仅一周内就获得了一百万用户。令人惊讶的是,其基础模型GPT-3在2020年首次亮相,并在一年前公开了对外访问权限

ChatGPT是一种新的语言模型,由OpenAI进行了优化,从GPT-3进行了微调,使其能够用于对话1。它具有用户友好的聊天界面,您可以通过它输入内容并获得AI助手的响应。请在chat.openai.com上查看。

尽管早期版本的GPT-3没有当前的GPT-3.5系列那么先进,但它们仍然令人印象深刻。这些模型通过API和Playground Web UI界面提供,让您调整某些配置参数并测试提示。GPT-3取得了显着的关注,但它并没有达到ChatGPT的病毒式传播。

与GPT-3相比,ChatGPT之所以如此成功,是因为它作为一个简单的AI助手对于普通人来说非常易于使用,无论他们对数据科学、语言模型或AI的知识有多少。

在本文中,我将概述如何使用像GPT-3这样的大型语言模型来实现ChatGPT等聊天机器人。

动机

本文部分原因是由Riley Goodside的一条推文引发的,他指出了ChatGPT是如何实现的。

How to make your own knock-off ChatGPT using GPT‑3 (text‑davinci‑003) — where you can customize the rules to your needs, and access the resulting chatbot over an API. pic.twitter.com/9jHrs91VHW

— Riley Goodside (@goodside) December 26, 2022

与GPT-3.5系列中的其他模型一样,ChatGPT是使用RLHF进行训练的,但它的大部分效果来自于使用了好的提示

提示

As an advanced chatbot named Skippy, your primary goal is to assist users to the best of your ability. This may involve answeringquestions, providing helpful information, or completing tasks based on user input. In order to effectively assist users, it is importantto be detailed and thorough in your responses. Use examples and evidence to support your points and justify yourrecommendations or solutions. Remember to always prioritize the needs and satisfaction of the user,. Your ultimate goal is toprovide a helpful and enjoyable experience for the user.

USER: What is your name?

SKIPPY: Hi there! My name is Skippy! How can I help you today?

USER: Write me a title for a blog post on AI

SKIPPY: How AI is Changing the Future: A Look at the Possibilities and Challenges Ahead

USER: Make it more engaging and mention GPT-3

SKIPPY: Exploring the Possibilities of GPT-3: How AI is Revolutionizing the Future

Skippy chatbot完整的提示(prompt)

提示是指示 AI 进行某些操作的过程。 正如你可能在网上看到的 ChatGPT 的示例一样,你可以提示它做任何事情。常见的用例是总结文本、根据描述编写内容或创建诸如诗歌、食谱等等。

ChatGPT 是一个语言模型和用户界面。用户输入到界面的提示实际上被插入到包含用户和 ChatGPT 之间整个对话的较大提示中。这使得基础语言模型能够理解对话的上下文并作出适当的回应。

提示的应用(攻略)

在发送到模型之前插入用户提示的示例

语言模型通过在预训练过程中学习的概率来完成提示,从而确定接下来的词汇。

GPT-3 能够从简单的指令或几个示例中“学习”。后者被称为少样本或上下文学习。在上面的聊天机器人提示中,我创建了一个虚构的聊天机器人命名为 Skippy,并指示它向用户提供回应。GPT-3 明白了来回交流的格式 USER: {user input} 和 SKIPPY: {skippy response}。GPT-3 理解 Skippy 是一个聊天机器人,之前的交流是一段对话,因此当我们提供下一个用户输入时,“Skippy”将作出回应。

记忆

Skippy和用户之间的过去交流会附加到下一个提示中。每次我们提供更多用户输入并获得更多聊天机器人输出时,提示都会扩展以纳入这个新交流。这就是Skippy和ChatGPT这样的聊天机器人如何记住以前的输入。但是,GPT-3聊天机器人可以记住的内容是有限的。

提示在进行多次交流后可能会变得很庞大,特别是如果我们使用聊天机器人来生成像博客文章这样的长篇回复。发送到GPT-3的提示将转换为标记(tokens),这些标记(tokens)是单个单词或其中的一部分。对于包括ChatGPT在内的GPT-3模型,组合提示和生成响应的标记限制为4097个(约3000个单词)。

几个例子

保存先前对话的提示有许多不同的用途。 ChatGPT旨在成为一个多功能的通用助手,在个人使用的经验中,它很少会要求一些后续跟进的问题。

询问你近况的心理治疗师聊天机器人

拥有一个主动询问问题并从用户那里获得反馈的聊天机器人可能会很有帮助。下面是一个关于治疗师聊天机器人的示例,它将询问问题和后续问题,以帮助用户思考他们的一天。

提示的应用(攻略)

治疗师聊天机器人

使用旧的日记与年轻的自己交谈

Michelle Huang使用GPT-3与她的年轻自己聊天。提示(Prompt)使用了一些上下文,例如旧的日记,配对聊天机器人样式的问答格式。 GPT-3能够根据这些条目模仿一种人格。

i trained an ai chatbot on my childhood journal entries – so that i could engage in real-time dialogue with my “inner child”

some reflections below:

— michelle huang (@michellehuang42) November 27, 2022

提示的内容:

以下是一段现在Michelle(年龄[已隐去])与14岁的年轻自己之间的对话,年轻的Michelle曾写下以下的日记:

[日记内容在此处]

现在的Michelle: [在此处输入你的问题]

作者指出日记条目可能会达到token的限制。在这种情况下,你可以挑选几个条目或者尝试概括几个条目。

实现

我将介绍如何在Python中编写一个简单的GPT-3驱动聊天机器人。使用OpenAI API将GPT-3包含在您正在构建的应用程序中非常容易。您需要在OpenAI上创建一个帐户并获取API密钥。请查看他们的文档这里。

我们需要完成以下步骤:

格式化用户输入以便于GPT-3的聊天机器人

从GPT-3获取聊天机器人响应作为完成

使用用户的输入和聊天机器人的响应更新提示

循环

这是我将要使用的提示。我们可以使用python将<conversation history>和<user input>替换为它们的实际值。

chatbot_prompt = “””

作为一个高级聊天机器人,你的主要目标是尽可能地协助用户。这可能涉及回答问题、提供有用的信息,或根据用户输入完成任务。为了有效地协助用户,重要的是在你的回答中详细和全面。使用例子和证据支持你的观点,并为你的建议或解决方案提供理由。

<conversation history>

User: <user input>

Chatbot:”””

我跟踪下一个用户输入和上一个对话。每个循环之间,聊天机器人和用户之间的新输入/输出都会附加到对话历史中。

import openai

openai.api_key = “YOUR API KEY HERE”

model_engine = “text-davinci-003”

chatbot_prompt = “””

作为一个高级聊天机器人,你的主要目标是尽可能地协助用户。这可能涉及回答问题、提供有用的信息,或根据用户输入完成任务。为了有效地协助用户,重要的是在你的回答中详细和全面。使用例子和证据支持你的观点,并为你的建议或解决方案提供理由。

<conversation history>

User: <user input>

Chatbot:”””

def get_response(conversation_history, user_input):

prompt = chatbot_prompt.replace(

“<conversation history>”, conversation_history).replace(“<user input>”, user_input)

# Get the response from GPT-3

response = openai.Completion.create(

engine=model_engine, prompt=prompt, max_tokens=2048, n=1, stop=None, temperature=0.5)

# Extract the response from the response object

response_text = response[“choices”][0][“text”]

chatbot_response = response_text.strip()

return chatbot_response

def main():

conversation_history = “”

while True:

user_input = input(“> “)

if user_input == “exit”:

break

chatbot_response = get_response(conversation_history, user_input)

print(f”Chatbot: {chatbot_response}”)

conversation_history += f”User: {user_input}\nChatbot: {chatbot_response}\n”

main()

这里是一个简单聊天机器人的完整代码的链接。

现在只需要构建一个漂亮的前端,让用户可以与之交互!

5、 聊天机器人 + 知识库

从 GPT-3 和 ChatGPT 等大型语言模型 (LLM) 的最新进展中可以看出,在技术行业引起了很大的关注。这些模型对内容生成非常强大,但它们也有一些缺点,例如偏差和幻象。LLM在聊天机器人开发方面特别有用。

基于意图的聊天机器人

传统聊天机器人通常是基于意图的,这意味着它们被设计为响应特定的用户意图。每个意图由一组样本问题和相应的响应组成。例如,“天气”意图可能包括类似“今天天气如何?”或“今天会下雨吗?”这样的样本问题,并且可能输出“今天将是晴天”的响应。当用户提出问题时,聊天机器人将其与最相似的样本问题匹配意图,并返回相应的响应。

提示的应用(攻略)

传统基于意图的聊天机器人的工作原理。图像由作者制作。

然而,基于意图的聊天机器人也有自己的问题。其中一个问题是,它们需要大量特定的意图才能给出特定的答案。例如,用户说“我无法登录”、“我忘记了密码”或“登录错误”等话语可能需要三个不同的答案和三个不同的意图,尽管它们都非常相似。

GPT-3如何帮助

这就是GPT-3可以发挥的特别用处。每个意图可以更广泛,利用您的知识库文档。知识库 Knowledge Base 是存储为结构化和非结构化数据的信息,可用于分析或推断。您的知识库可能由一系列文档组成,解释如何使用您的产品。

因此,每个意图与文档相关联,而不是一组问题和特定答案,例如,一个“登录问题”的意图,一个“如何订阅”的意图等等。当用户询问有关登录的问题时,我们可以将“登录问题”文档传递给 GPT-3 作为上下文信息,并为用户的问题生成特定的响应。

提示的应用(攻略)

利用GPT-3的聊天机器人工作原理。作者提供的图片。

这种方法减少了需要处理的意图数量,并允许更好地适应每个问题的答案。此外,如果与意图关联的文档描述了不同的流程(例如“在网站上登录”的流程和“在移动应用程序上登录”的流程),GPT-3可以在给出最终答案之前自动询问用户以获得更多的上下文信息。

为什么不能将整个知识库传递给GPT-3?

今天,像GPT-3这样的LLM模型的最大提示的长度约为4k令牌(对于text-davinci-003模型),这很多,但不足以将整个知识库馈入单个提示中。 LLM由于计算原因具有最大提示的限制,因为使用它们生成文本涉及多个计算,随着提示大小的增加,计算量也会迅速增加。

未来的LLM可能不会有这种限制,同时保留文本生成能力。然而,就目前而言,我们需要一个设计解决方案来解决这个问题。

如何使用GPT-3构建一个聊天机器人

聊天机器人的流程可以分为以下两个步骤:

首先,我们需要为用户的问题选择适当的意图,即我们需要从知识库中检索正确的文档。 然后,一旦我们有了正确的文档,我们就可以利用GPT-3为用户生成适当的答案。在这样做的过程中,我们需要精心制作一个良好的提示。

第一步可以使用语义搜索semantic search解决。我们可以使用sentence-transformers库中的预训练模型,轻松地为每个文档分配一个分数。分数最高的文档将用于生成聊天机器人答案。

提示的应用(攻略)

如何利用GPT-3让聊天机器人工作。GPT-3可以利用知识库文档中的信息生成适当的答案。

使用 GPT-3 生成答案

一旦我们有了正确的文档,我们需要创建一个好的提示,以便将其用于GPT-3生成答案。在以下实验中,我们将始终使用temperature为0.7的text-davinci-003模型。

为了制作提示,我们将尝试使用以下内容

角色提示: 一种启发式技术,为AI分配特定的角色。

相关的知识库信息, 即在语义搜索步骤中检索到的文档。

用户和聊天机器人之间最后一次交换的消息. 这对于用户发送的未指定整个上下文的消息非常有用。我们将在后面的例子中看到它。请查看此示例 了解如何使用GPT-3管理对话。

最后, 用户的问题.

提示的应用(攻略)

让我们使用角色提示技术开始我们的提示。

作为一名高级聊天机器人Skippy,您的主要目标是尽力帮助用户。

然后,假设语义搜索步骤从我们的知识库中提取了以下文档。所有文档都描述了类似于Instagram的虚构产品VideoGram的工作方式,但仅用于视频。

提示的应用(攻略)

我们可以在提示中这样添加它的内容。

作为一款名为Skippy的高级聊天机器人,您的主要目标是尽力帮助用户。

开始上下文

从网站登录到VideoGram

1. 打开您的网络浏览器并前往VideoGram网站。

2. 单击页面右上角的“登录”按钮。

3. 在登录页面上,输入您的VideoGram用户名和密码。

4. 输入凭据后,单击“登录”按钮。

5. 您现在应该已经登录到您的VideoGram帐户中。

从移动应用登录到VideoGram

1. 在您的移动设备上打开VideoGram应用。

2. 在主页面上,点击位于右下角的“登录”按钮。3. 在登录页面上,输入您的VideoGram用户名和密码。

4. 输入凭据后,点击“登录”按钮。

5. 您现在应该已经登录到您的VideoGram帐户中。

结束上下文

最后,我们需要将对话和用户问题添加到提示的末尾,就像以下示例中那样。

作为一款名为Skippy的高级聊天机器人,您的主要目标是尽力帮助用户。

开始上下文

从网站登录到VideoGram

1. 打开您的网络浏览器并前往VideoGram网站。

2. 单击页面右上角的“登录”按钮。

3. 在登录页面上,输入您的VideoGram用户名和密码。

4. 输入凭据后,单击“登录”按钮。

5. 您现在应该已经登录到您的VideoGram帐户中。

从移动应用登录到VideoGram

1. 在您的移动设备上打开VideoGram应用。

2. 在主页面上,点击位于右下角的“登录”按钮。3. 在登录页面上,输入您的VideoGram用户名和密码。

4. 输入凭据后,点击“登录”按钮。

5. 您现在应该已经登录到您的VideoGram帐户中。

结束上下文

SKIPPY:您好,我是Skippy!我能为您做些什么?

用户:我找不到登录按钮。

SKIPPY:

将此提示传递给GPT-3,我得到了以下生成的答案。

没问题! 在网站上,登录按钮位于页面右上角。 在移动应用程序上,登录按钮位于页面右下角。如果您需要进一步的帮助,请告诉我!

请注意,生成的答案中的信息来自知识库文档。

用GPT-3消歧用户问题

我们来试试更模糊的用户输入,比如“无法登录”。这是完整的提示。

作为一个名叫Skippy的高级聊天机器人,您的主要目标是尽力帮助用户。

START CONTEXT

从网站登录到VideoGram

1. 打开您的Web浏览器,然后转到VideoGram网站。

2. 点击页面右上角的“登录”按钮。

3. 在登录页面上,输入您的VideoGram用户名和密码。

4. 输入您的凭据后,单击“登录”按钮。

5. 您现在应该已经登录到VideoGram帐户。

从移动应用程序登录到VideoGram

1. 打开您的移动设备上的VideoGram应用程序。

2. 在主页面上,点击右下角的“登录”按钮。 3. 在登录页面上,输入您的VideoGram用户名和密码。

4. 输入您的凭据后,点击“登录”按钮。

5. 您现在应该已经登录到VideoGram帐户。

END CONTEXT

SKIPPY: 你好,我是Skippy!我能帮你什么忙?

USER: 无法登录

SKIPPY:

GPT-3试图更好地理解用户的问题,给出了以下回答。

很抱歉听到这个消息。您能告诉我您是在尝试通过VideoGram网站还是移动应用程序登录吗?

接下来,这是完整的对话内容。为了方便查看,这里省略了提示的其他部分。

USER: 无法登录

SKIPPY: 很抱歉听到这个消息。您能告诉我您是在尝试通过VideoGram网站还是移动应用程序登录吗?

USER: 移动应用程序

SKIPPY: 好的,没问题。要通过移动应用程序登录,请打开您的移动设备上的VideoGram应用程序。在主页面上,点击右下角的“登录”按钮。在登录页面上,输入您的VideoGram用户名和密码。输入您的凭据后,点击“登录”按钮。您现在应该已经登录到VideoGram帐户。如果您需要进一步的帮助,请告诉我。

只要有正确的上下文信息,GPT-3就可以进行消歧义。

使用GPT-3生成答案时可能出现的问题

The previous examples worked well. However, there are several ways in which this chatbot could fail. 前面的例子都很正常运行。然而,这种聊天机器人可能会失败的几种方式。

如果我们询问“移动应用程序是否免费?”,将登录文档作为上下文传递给GPT-3,你通常会得到一个答案,比如“是的,VideoGram移动应用程序是免费下载和使用的”,即使这样的信息并没有包含在上下文信息中。生成虚假信息对于客户服务聊天机器人来说非常糟糕!

当用户问题可以在上下文中找到答案时,GPT-3很少生成虚假信息。由于用户问题通常是短小模糊的文本,我们不能总是依赖语义搜索步骤来检索正确的文档,因此我们总是容易受到虚假信息生成的影响。

结论

GPT-3非常适用于创建对话式聊天机器人,并能够根据插入的上下文信息回答一系列具体问题。然而,仅依靠上下文信息使模型产生答案很困难,因为模型往往会产生幻象(即生成新信息,可能是错误的)。生成虚假信息是一个不同严重程度的问题,这取决于使用情况。

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
购物车
优惠劵
今日签到
有新私信 私信列表
搜索