由前OpenAI员工创立的人工智能公司Anthropic公开发布了其最新Claude AI模型的系统提示。这一罕见的举动让用户罕见地了解了其大型语言模型(LLM)的内部运作,并使Anthropic成为唯一一家正式分享此类指令的大型人工智能公司。
系统提示,通常被认为是专有信息,在塑造人工智能的行为和能力方面至关重要。
该版本于2024年7月12日星期一发布,包括Claude 3.5 Sonnet、Claude 3 Opus和Claude 3 Haiku型号的详细说明。这些提示概述了关于模型行为的具体指导方针,包括禁止面部识别和链接访问,以及以Anthropic认为客观的方式处理有争议话题的指令。
这不是Anthropic迈向透明度的第一步。今年3月,该公司的人工智能总监Amanda Askell在社交媒体平台X(前身为推特)上分享了Claude 3系统提示的早期版本。她还解释了这种条件反射背后的原因。
她在推特上说:“我们为什么要使用系统提示?首先,它们让我们给模型提供‘实时’信息,比如日期。其次,它们允许我们在训练后进行一些定制,并调整行为,直到下一次微调。这个系统提示可以做到这两点。”。
Anthropic的决定与OpenAI、Meta或xAI等其他主要人工智能公司的做法不同,这些公司对其系统提示保密。然而,黑客和LLM越狱者已经能够提取这些指令,据透露,ChatGPT有一个1700字的巨大提示,Grok-2被告知它的灵感来自《钢铁侠》和《银河系漫游指南》中的JARVIS。
Anthropic的提示现在可以通过他们的Claude应用程序和在线平台访问。该公司表示有意定期更新和发布这些提示,为人工智能教学方法的演变提供持续的见解。
如何成为一个更好的提示者
Anthropic系统提示的披露不仅可以帮助用户了解聊天机器人的工作原理,还可以帮助人们了解LLM的思维方式,以及用户如何通过更好的输入来指导他们的思维过程。LLM的核心是高度复杂的文本预测器,每个单词都会影响后续内容的生成。
因此,一个精心设计的提示可以帮助用户增强我们模型的能力,并从他们与人工智能模型的交互中获得更准确、更符合上下文和更有针对性的结果。
1.丰富上下文是关键
提供丰富的上下文对于指导人工智能模型生成更精确和相关的响应至关重要。Anthropic的提示表明了详细的上下文信息在塑造人工智能行为中的重要性。
以下是Anthropic系统提示的关键部分:
“助理是克劳德,由Anthropic创建。当前日期为{}。克劳德的知识库最后一次更新是在2024年4月。它回答了有关2024年4月之前和之后事件的问题,就像2024年四月一个消息灵通的人在与上述日期的人交谈时所做的那样,并且可以在相关的时候让人们知道这一点。”
请注意,Anthropic解释了克劳德必须如何回答。因此,其提示的语言、语调和知识将模仿2024年的社会写作方式,而不是莎士比亚在世时罗密欧与朱丽叶的说话方式。
在清晰的上下文中构建任务,包括相关的背景信息,有助于模型生成更符合特定用户需求的响应。这种方法避免了通用或偏离目标的答案。通过提供丰富的上下文,用户使模型能够更好地理解任务需求,从而改善结果。
例如,用户可以要求模型生成一个恐怖故事,它就会这样做。但是,提供该风格的详细特征可以显著提高输出质量。那些更进一步的人,添加所需写作风格或内容类型的示例,可以进一步细化模型对指令的理解,并改善生成的结果。
2.分解复杂的查询
Anthropic的提示还揭示了系统地处理复杂任务的重要性,将它们分解为可管理的组件,而不是像用户在与他们最喜欢的chabot交互时那样一次性解决所有部分。
以下是Anthropic的一些引文,可以解决这个问题:
当遇到数学问题、逻辑问题或其他受益于系统思维的问题时,克劳德会一步一步地思考,然后给出最终答案
“如果用户要求完成一项无法在一次响应中完成的很长的任务,Claude会主动提出逐步完成任务,并在完成任务的每个部分时获得用户的反馈。”
对于多方面的任务,指示模型逐步解决问题可以带来更集中和准确的响应。这种分割允许基于任务每个阶段的反馈进行细化。
然而,理想的方法是使用多镜头技术,如思维链或思维骨架,指导LLM完成一系列相互关联的任务。这种方法通过调节任务之间的思维过程来降低幻觉的可能性。
多镜头技术涉及用户通过不同的提示与模型交互,引导过程达到令人满意的最终输出。
然而,没有时间或耐心处理许多交互的用户可以做下一个最好的事情,并在提供最终答案之前提示模型阐明其推理过程。这可以提高输出的质量,模型自身的推理输出会影响其最终响应的质量。
虽然这种方法不如直接的用户指导有效,但它是提高响应质量的一个很好的折衷方案。
3.使用直接和有目的的语言
Anthropic的提示是一个很好的例子,说明在人工智能交互中使用清晰、明确的语言是多么重要。
Anthropic的一些引文鼓励并使用清晰的语言:
“Claude在回复的最后提醒用户,虽然它试图准确,但在回答这样的问题时可能会产生幻觉。它使用‘幻觉’一词来描述这一点,因为用户会理解它的意思。”
“克劳德直接回应所有人类信息,没有不必要的肯定或填充短语,如‘当然!’、‘当然!”、“绝对!”、‘太好了!’、“当然!”等。”
使用直接、明确的语言有助于避免误解,并确保模型的响应是直接和有目的的。这种方法消除了人工智能输出中不必要的复杂性或模糊性。
提示通过提供关于模型应如何处理特定情况的明确指导方针来解决潜在的歧义。指定所需的语气和风格可确保响应与预期的沟通风格相匹配。
正如稳定扩散过去依赖于负面提示来不在图像中生成元素一样,如果用户告诉模型不做什么和避免做什么,AI LLM也可以更好地工作。
通过指示模型保持特定的语气并避免不必要的短语,用户可以提高人工智能响应的清晰度和专业性。该指令指导模型专注于在没有多余语言的情况下提供实质性内容。
如果否定指令阻止模型采取特定的推理路径,它也可以帮助模型更好地推理。
额外好处:用标签分隔您的指令
您可能已经注意到,Claude在其提示中使用了XML标签,例如,以开头,以结尾。起初,这可能会让人觉得奇怪,但这种做法将帮助你理解更长的提示,并使你的聊天机器人更能理解它正在分析提示的哪一部分。
XML(可扩展标记语言)标签为内容提供了一个清晰的层次结构,允许更精确地控制人工智能如何解释和利用提示的不同部分。Anthropic使用XML标签在提示中建立不同的“模块”,每个模块在指导Claude的行为和反应方面都有特定的目的。
将一些指令封装在标签中有助于模型分离特定的文本块并理解其内容。例如,你可以使用
发布者:币下载 转转请注明出处:https://www.paipaipay.cn/354127.html