深入解析AI提示工程
背景介绍:这个采访主要是:Anthropic 的几位提示工程专家——Amanda Askell(对齐微调)、Alex Albert(开发者关系)、David Hershey(应用型 AI)以及 Zack Witten(提示工程)——回顾了提示工程的发展历程,分享了实用经验,并探讨了随着 AI 能力不断提升,提示方式可能会发生的变化。
首先,需要知道什么是提示词工程。
提示词的目的在于把需求讲清楚(clear communication),为什么叫工程是因为你需要不断迭代指令,独立测试不同的实验方案。同时,它还涉及系统性思维,例如对延迟、数据来源(如 RAG)以及版本控制的管理。它也不仅仅是“文笔好不好”的问题,而是能否清楚地描述概念和指令。它更不是一种“魔法”,不能指望靠不断打磨一条完美提示词,就无限期地解决本来不可能完成的任务。
其次,针对提示词策略上常见的争议话题都分享了自己的看法。
角色设定与人格提示(Personas and Role Prompting):更应该需要清晰、详尽地描述任务要求、背景信息以及在特殊情况下该怎么做,应该避免无谓的“角色设定”。这种方法迫使你**“外化大脑中的信息”**,提供具体的指令而非模糊的身份,通常能获得更高质量的输出
语法与书写错误(Grammar and Writing Errors):对于仅经过预训练、尚未充分对齐的模型来说,拼写错误是危险的,因为模型更容易在输出中模仿这些错误。现代的 RLHF(基于人类反馈的强化学习)模型通常对拼写错误和缺乏标点并不敏感,即使输入比较凌乱,它们也往往能理解其中的“概念性意图”。尽管模型能理解,但保持良好的格式和语法仍有其价值,像对待代码一样对待提示词,意味着要投入同样的关注和细节。良好的排版和风格被视为一种职业素养,甚至是一种能反映出工程师是否在“用心”打磨提示词的信号。
最后,给出了一些锻炼自己提示词书写能力的方法。
先把自己的prompt发给agent,然后问他有哪些地方不清晰,给出修改意见,这样反复修改。
去读别人的提示词(输出把事情做对了),去读模型输出。拆解它在做什么、为什么这么写,然后自己也试一试,多做实验,多和模型对话。
把你的提示词给另一个人看看会很有用,尤其是给那种对你在做什么完全没背景的人,反复做、反复练、反复写。并且如果你真的好奇、真的感兴趣,而且觉得好玩,那很多最后提示词很强的人,其实就是因为他们真的享受这个过程,用 AI 来自动化你自己的工作。
如果你能想到一些能逼近你认为“可能性边界”的任务。我第一次真正开始深入提示词,大概就是在尝试做一个“像智能体(agent)那样”的任务时,跟很多人一样:把任务拆解,弄清楚每一步怎么做。通过不断去压测边界,你会学到很多“怎么跟模型相处、怎么引导它”的东西。