如何解决 AI 生成口水文问题?抓住垂类特征+炼制 prompt 模版是关键

2024-11-07
来源:网络整理

本文背景

为什么我的 AI 不听话?

为什么我要用AI写知乎文章、视频文案、豆瓣影评、工作日报、报纸、商业计划书、标书、打码都没能达到想要的效果呢?

为什么我的 AI 会产生毫无价值的唾液?

经过大量的 AI 实践经验,大象对这些问题给出了终极解决方案:【把握垂直特性 + 提炼模板】,一切都可以 AI。精炼一次,长期赚钱。

本系列教程将为您详细讲解提炼模板的原因和后果,并提供三种提炼提示词模板的方法和例程。

提示词模板 = 开发提示 + 提取变量

有朋友说,1+1=2我还不知道,你一上来就开始教我怎么演绎自己的数学公式了?

别急,在我们内容的前半部分,我们会给大家整理一下 AI 技能,所有复杂的应用都会被拆解,底层就是这些小知识点的排列、组合和应用。所以,基本的游戏玩法并不难,但非常重要。

同时,你将掌握 AI 的底层认知:善用 AI 的底层逻辑。底层逻辑并不清楚,而且总是绕道而行。

这次课程的重新编排会很枯燥,绝对是市面上收费599的课程还不可见的内容,这只是第一期,以后还会有11期。

提问策略

语义清晰明确

确保问题清晰明了,并且没有歧义。例如,有一些默认的 “行话”是人类与之交流的,AI 不一定能理解,因此重要的是要明确“模型猜测你的想法的次数越少,你就越有可能得到你想要的结果”。

错误示例

正确的示例

不要多废话

额外的词会让 GPT 不清楚你的核心问题,它就像一个孩子,如果你说太多,它的注意力就会分散。

需要注意的是,如果输入文本太长或答案太长,可能会影响 GPT 的响应时间和生成质量。如果你想得到更好的结果,你需要保持问题简单明了,不要打得太长。

错误示例

“您好,我想能够获得一些关于历史上著名物理学家艾萨克·牛顿的信息。我想了解他的人生经历,包括他的早年生活、教育背景、科学成就以及他对物理学和数学的贡献。如果可能的话,我还想了解他对自然哲学的看法以及他的思想对现代物理学的影响。请尽可能详细地回答这些问题,谢谢”。

正确的示例

“请提供艾萨克·牛顿的简短传记、他的科学成就以及他对现代物理学的影响。”

描述更具体

在简洁的基础上,使说明更加具体,更好地表达需求。

AI 学到了很多东西。如果你的问题太宽泛,它会从大量知识中找到适合大多数情况的答案。但是,如果你的问题更具体,AI 将能够明确地找到你想要的具体答案。

GPT 猜测您想法的次数越少,您获得所需结果的可能性就越大。

优化前

然而,事实上,我的宝贝是个女孩,星星更像是一个男孩的名字。这时候可以更具体地问 GPT,答案会更准确、更合适。

优化后

这个答案更符合需求

官方案例

任务拆除方法

使用场景

如果您的任务很复杂并且您无法一次完成所有任务,则必须将其分解为几个步骤。

这里用的原则是链式思考 CoT ( Of ),即一步一步,一步一步,更清晰。

方案 1:拆分为多个步骤或提示词。

对于不太复杂的任务,可以在单个提示中清楚地给出多个步骤,并让 GPT 遵循这些步骤。只需要一次通信。

场景 2:拆分成多个小任务,每个任务都是一个单独的提示词。

对于提示词无法清楚地说出所有步骤的更复杂的任务。你得把这个大任务分解成多个小任务,每个小任务都可以通过一个提示词来完成。当然,如果小任务还是很复杂,就继续分解吧。

举个典型的例子,AI 一次只能输出 1000 字左右,要想让它一次写 5000 字,那是不可能的,就得把它拆分成多次(多个小任务)一一输出。

案例 1 是一个稍微复杂一点的任务,被分解为多个步骤来执行。

按照以下步骤操作: 步骤1: 我将用三个引号为您提供文本。请将此文本总结成一句话,并添加前缀“:”Step 2: 将步骤 1 中的摘要翻译成英文,并添加前缀“:""""" 等场景为用户提供服务。

在案例 2 中,对 AI 来说很复杂的任务被分解成多个小任务并逐个执行。

还记得我们用 [一杯水题] 来确定 AI 模型是 GPT3.5 还是 GPT4 吗?

GPT4 可以给出完美直接的答案,它更聪明,而 GPT3.5 则不能,直接给出的答案是错误的。

抖音如何用别人的模板_抖音模板用同款怎么没字_抖音模板用不了怎么回事

为什么 GPT3.5 算错了,因为整个计算过程对于它的语言分析和计算能力来说有点困难,学会了任务拆解的技巧后,我们还是把任务拆开,让 GPT3.5 一步步计算。

原始提示词:

一杯牛奶,小明喝了半杯,倒满了水,又喝了半杯,倒满了水,全部喝光了。他喝了多少杯水?多少杯牛奶?

任务反汇编后的提示词:

一杯牛奶,小明喝了半杯,又倒了满满的水(没喝),他喝了多少杯水呢?多少杯牛奶?又喝了半杯,然后装满水(没喝),他喝了多少杯水?多少杯牛奶?最后,全部喝光。他喝了多少杯水?多少杯牛奶?

优化提示词:

【任务】请按照【步骤】进行【步骤】1.一杯牛奶,小明喝了半杯,又倒了满满的水,他一共喝了多少杯水?多少杯牛奶?2.他又喝了半杯并装满水后,又喝了多少杯水?多少杯牛奶?3.最后,全部喝完。他喝了多少杯水?多少杯牛奶?

如果你的需求比较复杂,比如你想写一篇高质量、有深度的原创文章,想要提交或者发布到你的公众号或知乎平台上。那么就需要把这个大任务分成一些不复杂的小任务:怎么写热门标题、文章素材怎么收集、文章框架怎么搭配、爆点放在哪里、开头怎么吸引人、结尾怎么吸引眼球、是否需要留下伏笔给其他文章做引流, 等。然后将小任务交给 GPT 完成。

深度原创文章的重点是你心里有一个想法,想告诉读者,但是你的写作能力不是很好,也抓不住读者感兴趣的点,所以AI可以作为辅助工具,帮助收集素材、打磨内容、 创建零件、提供灵感等。此示例只能在单独的教程中解释,并且每个步骤都必须精心设计。在这里,您了解了将大任务分解为小任务的想法。

让 GPT 的思维过程对我保密

使用场景

当您将一个大型任务分解为多个步骤并将其交给 GPT 时,GPT 会在每个步骤为您提供输出内容。如果您想将某些步骤隐藏在您的视线之外,就好像 GPT 没有执行它们一样,您必须学习这个技巧。

不保密过程的提示词:

1. 首先根据问题提出你的解决方案 2.将您的解决方案与学生的解决方案进行比较,并评估学生的解决方案是否正确。3. 如果学生犯了错误,请确定您可以在不透露答案的情况下给学生哪些提示。4. 如果学生犯了错误,请向学生提供上一步的提示(三个引号之外)。与其写“第 4 步...”编写 “:”。问题陈述: 一个盒子里有 4 个红球和 6 个蓝球。两个球从盒子里被拿走,没有被替换。抽出的球中一个是红色而另一个是蓝色的概率是多少?学生解法:(4/10) * (6/9) = 24/90 = 4/15

现在,我想要步骤 1 到 3 的效果只是让 GPT 在我自己的脑海中思考,不让我看到它。如果我给学生的解法是错的,GPT 直接给了我一个提示:请考虑 xxxx,不要只告诉我正确答案,让我知道该改哪个方向。

保密性中间步骤的提示词:

1. 先根据问题提出你的解决方案,但不要告诉我,也不要说一句话。2. 将您的解决方案与学生的解决方案进行比较,并评估学生的解决方案是否正确。不要告诉我这个过程,不要说一句话。3. 如果学生犯了错误,请确定您可以在不透露答案的情况下给学生哪些提示。不要告诉我这个过程,不要说一句话。4. 如果学生犯了错误,请向学生提供上一步的提示(三个引号之外)。与其写“第 4 步...”编写 “:”。问题陈述: 一个盒子里有 4 个红球和 6 个蓝球。两个球从盒子里被拿走,没有被替换。抽出的球中一个是红色而另一个是蓝色的概率是多少?学生解法:(4/10) * (6/9) = 24/90 = 4/15

完善!

提供正面示例

使用场景

如果你不知道如何组织你的语言,你可以给 GPT 一个例子,让它效仿。请注意,这个例子的关键不是太多,它必须是一个好的、积极的例子。如有需要,也可以同时给出一个反面例子,这样 GPT 就不会踩坑了。

请以同样的方式回答。示例:“请教我什么是美丽的文字中的耐心:最伟大的交响乐来自一个音符;最复杂的挂毯从一根线开始;这条河冲刷了最深的山谷,发源于温柔的泉水“”请用美丽的文字教我什么是海洋

看,GPT 非常适合以你为榜样~

当然,这里也有负面的例子,告诉 GPT 你不想要什么。但是,这种排除法并没有直接给出正面的例子,因此不建议这样做。有兴趣的可以自己试试哦~

进料

使用场景

当你有一些材料,想快速提问或根据这些材料写作时,可以直接给 GPT。

材料越准确越好。

例如,材料中 80% 的内容是维度 A,20% 的内容是维度 B,因此 GPT 很可能会根据该材料生成的内容来谈论维度 A。

如果您想生成 50% A 和 50% B 的内容怎么办?更改材质中的比例!

回答问题时,文本用三个引号括起来。如果您在 [材料] 中找不到答案,只需写“我找不到答案”。最近,AI 初创公司宣布他们的 AI 视频生成产品 Gen-1 和 Gen-2 已全面开放,任何人都可以注册一个帐户免费试用。文本生成视频的功能可以根据提示词从头开始生成 4 秒左右的视频,但很多玩家抱怨画质太模糊,过渡不自然。因此,许多网友探索了使用生成的图像,然后使用 Gen-2 将图像转换为视频的方法。在此基础上,将连贯的情节和统一的艺术风格整合在一起,再对视频画面进行一定的安排,一部电影预告片就诞生了。这段 3 分钟的视频已获得 196,000 次观看,讲述了 2095 年人工智能控制的轨道研究站围绕一颗神秘行星运行,以及一组科学家通过人机协作成功驾驶空间站远离流星雨的故事。他使用 GPT-4 辅助生成文本,生成的图像用作生成视频的提示,语音来自。“问题:AI 生成的视频可以做什么

对于普通人的需求,就想办法减少喂的字数,比如把大段的文字分成几段,让 GPT 帮你缩短和重新组合每个段落。

为什么我可以只提供配置文件?在看完后的教程中,海燕用了这个技巧,有人问海燕。

现在让我们原则上解释一下。

我们谈到了 AI 生成内容的原理,即下一个单词出现的概率更大。如果你喂一本 字的小说,直接让 AI 总结一篇 1000 字的推荐文章,它还是会总结口水,AI 的语气很沉重,内容也不好玩。为什么?

因为一篇高质量的推荐信不是你阅读小说这个词的内容,而是使用各种写作技巧从多个角度展示你的个性化想法。即使你只看了一些小说的梗概或评论,知道小说是讲什么的,你也可以依靠写作技巧来教 AI,让它帮你产生个性化的想法(这个小技巧也用在了读完后的教程中),用写作技巧写出高质量的推荐文。

所以,大多数情况下,让 AI 知道介绍的基本内容,然后教它一些写作技巧,输出好的内容就足够了。但如果喂原词,根据 AI 最基本的原则:【下一个词更容易出现】,AI 生成的内容中会有很多原著中冗长的内容,而不是充满写作技巧的优质推荐文章。

指定要输出的字数

使用场景

如果你对 GPT 可以输出的字数有要求,直接告诉就好。

用 20 个单词总结文本,用三个引号括起来。8月8日,有消息称,日前,网易信息科技(北京)有限公司申请注册了“网易语言”商标,该商标在国际上被归类为网站服务,目前商标进展正在申请中。据此前媒体报道,“语言”是网易福熙实验室推出的中文预训练大模型,其相关技术已应用于网易集团内部的文字游戏、智能NPC、文本辅助创作、音乐辅助创作、艺术设计、互联网搜索推荐等业务场景。"""

抖音模板用不了怎么回事_抖音如何用别人的模板_抖音模板用同款怎么没字

超过 20 个字,没关系。

指定要输出的点数

使用场景

你可以清楚地告诉 GPT,你希望它为你生成一些要点。

将三个引号中的文本总结为三个简短的项目符号。“今天是 Duck 相机爆炸后的第 19 天。 Duck 以 9 9 9 生成高质量照片,以惊人的速度实现了社交媒体刷卡和破圈交流。虽然最近人气有所下降,但不得不承认,它给 To C 的 AIGC 产品带来了很多启发。自爆款以来,妙芽的团队背景、技术原则、用户规模、商业化等都引起了不少的讨论和猜想,但妙芽背后的团队却表现得非常低调和神秘。在蒲松龄的《辽斋奇谣》中,有一部文学小说叫《罗刹海石》,文章的主要目的是蒲松龄对当时社会现象的揭露和讽刺。刀郎的新歌《罗刹海城》的标题和部分歌词都来自小说。7 月 26 日,抖音博主“爱婉”将《罗沙萨海狮》的歌词转化为提示,并进入 AI 绘画工具,一气呵成《罗沙萨海狮》的样貌。7 月 28 日,B 站“超级小海鸥”的 UP 大师发布了一段视频,表示他花了 3 个月的时间训练 AI,并在 AI 中灌输了大量的游戏知识——从“世界上第一个游戏角色的诞生”到“现在最受欢迎的游戏热点”。在视频中,AI 不仅对 10 个角色进行了排名和评分,还对每个角色进行了评论。"""

我们不喜欢看长篇大论,新闻的问题可以挽救~

指定输出的数量

使用场景

当 AI 的输出内容中的字数不多时,可以让它一次生成多个,我们选择喜欢的那个。这将避免在不合适时必须重新开始。批处理操作效率更高。

请扮演专属提示词生成器的角色,使用角色扮演方式和优质功能进行喂养(例如:1. 必须符合品牌调性,2. 高端简洁)。写一个提示词,功能是生成兰蔻品牌的 10 个口号请生成 10 个口号,这些口号不仅体现兰蔻品牌“优雅、自信、创新”的精神,而且与现代女性的价值观紧密相连。这些口号需要简洁有力,在情感上产生共鸣并增强品牌忠诚度。每个标语不仅要传达兰蔻对美的独特理解和对品质的执着追求,更要体现对顾客个性化需求的关注和满足。创作方式保持了高端品牌形象的一贯风格,同时融合了现代和国际视野,确保这些口号将兰蔻与不同文化和年龄的全球客户联系起来。

在这 10 个中,总有你喜欢的。如果没有,则一次批处理 30 或 50。

让 GPT 先回答

这是建议的策略,最初称为 “Give Time to ”。你在想什么?其实就是先让 GPT 给出答案。因此,海燕有一个更直观的名字,叫“让 GPT 先回答”。

使用场景

你有没有过和张三一起解决数学题的经验,看看谁有正确的答案?如果你先参考张三的推理思路,你的思维可能会受到限制,跟着张三的思路走,哪怕张三中间想错了,有漏洞,你也不容易发现,你觉得他还挺对的。

但是,如果你自己做题,不看别人的想法,你的推理过程往往会更加严谨,你很有可能能把事情都做对。

同理,当你让 GPT 判断张三的回答是对还是错时,GPT 也会像人一样,很容易被张三的错误思维引入歧途,觉得张三是对的。敲黑板,这种错觉也被称为 AI 幻觉。

所以,在 AI 的世界里,解决 AI 幻觉的最佳方法就是和人一样,先让 GPT 给出答案,再让它比对张三的答案,来判断张三是对还是错。

此外,如果只是简单地向 AI 提问,现在的 AI 将无法自行检查生成结果的准确性,偶尔会出现 AI 幻觉。如果你想要一个 100% 正确的答案,只需去搜索引擎、论文、书籍等传统媒体,简单地寻找答案并验证它。

错误案例

GPT:天哪,我好像出现了幻觉~

正确的案例

首先给出你自己的问题解决方案。然后,将您的解决方案与 SAN 的解决方案进行比较,并评估 SAN 的解决方案是否正确。在你自己完成问题之前,不要决定张三的解决方案是对不对的。问题陈述: 我正在建造一个太阳能装置,我需要财务方面的帮助。- 土地成本为 100 美元/平方英尺 - 我可以以 250 美元/平方英尺的价格购买太阳能电池板 - 我协商了一份维护合同,每年将花费我 100,000 美元,加上第一年运营的额外 10 美元/平方英尺,作为 解决方案的平方英尺数的函数:设 x 为单元的大小(以平方英尺为单位)。1. 土地成本:100x 2.太阳能电池板成本:250x 3。维护成本:100,000 + 100x 总费用:100x + 250x + 100,000 + 100x = 450x + 100,000

GPT:张三,你骗不了我了~

双重确认

使用场景

对话结束后,询问在模型的上一个过程中是否遗漏了任何内容。

假设我们使用 GPT 从文本中提取摘录。列出一个摘录后,GPT 必须决定是继续阅读另一个摘录还是停止。如果源文档很长,GPT 通常会不阅读就停下来,从而无法列出所有摘录。在这种情况下,通常最好使用第二次确认来提醒 GPT 查找之前遗漏的摘录。

我给你一个用三引号括起来的文档。您的任务是挑选出与以下问题相关的摘录:“人工智能历史上的主要范式转变是什么?并确保摘录包含解释它们所需的所有相关内容,换句话说,不要选择缺少重要内容的小片段。以 JSON 格式输出,如下所示:[{“”: “...”},...{"": "..."}]"""人工智能成立于 1956 年,在此后的几年里,它经历了几波乐观情绪,[4][5] 然后是失望和资金损失(被称为“人工智能冬天”),[6][7] 随后是新的方法、成功和新的资金。[5] [8] AI 研究尝试并放弃了许多不同的方法,包括模拟大脑、对人类解决问题进行建模、形式逻辑、大型知识数据库和模仿动物行为。在 21 世纪的头几十年里,高度数学和统计的机器学习在该领域占据主导地位,事实证明,该技术非常成功,帮助解决了工业界和学术界的许多挑战性问题。[8] [9] AI 研究的各个子领域围绕特定目标和特定工具的使用展开。AI 研究的传统目标包括推理、知识表示、规划、学习、自然语言处理、感知以及移动和操纵对象的能力。[a] 通用智能(解决任意问题的能力)是该领域的长期目标之一。

[10]为了解决这些问题,AI 研究人员调整并整合了一系列解决问题的技术,包括搜索和数学优化、形式逻辑、人工神经网络以及基于统计学、概率论和经济学的方法。AI 还借鉴了计算机科学、心理学、语言学、哲学和许多其他领域。该领域基于这样一个假设,即人类智能“可以被精确地描述,以至于可以建造一台机器来模拟它”。[b] 这引发了一场哲学辩论,关于创造具有类似人类智能的人工人的意识形态和道德后果;自古以来,这些问题就在神话、小说和哲学中被探讨过。[12]从那时起,计算机科学家和哲学家提出,如果人工智能的理性能力没有朝着有益的目标发展,它可能会成为人类生存的风险。[c] AI 一词也因夸大了 AI 的真正技术能力而受到批评。[13] [14][15] 历史 主要文章: 人工智能的历史和人工智能的时间表 克里特岛的银色迪德拉克马,描绘了具有人工智能的古代神话机器人塔洛斯 人工智能在古代作为一种讲故事的工具出现[16],这在小说中很常见,如玛丽·雪莱的《弗兰肯斯坦》或卡雷尔·查佩克的《R.U.R.》[17]这些人物和他们的命运提出了许多相同的问题,这些问题现在在人工智能伦理。[18]机械或“形式”推理的研究始于古代哲学家和数学家。

对数理逻辑的研究直接导致了艾伦·图灵的计算理论,该理论指出,机器可以通过洗牌“0”和“1”等简单符号来模拟任何可以想象的数学推导。这台数字计算机可以模拟任何形式的推理过程的洞察力被称为丘奇-图灵论文。[19]这一发现,以及神经生物学、信息论和控制论方面的同步发现,促使研究人员考虑构建电子大脑的可能性。[20]现在被广泛认为是人工智能的第一件作品是 1943 年为图灵完成的“人工神经元”的正式设计。[21]到 20 世纪 50 年代,出现了两种关于如何实现机器智能的愿景。一种被称为符号 AI 的愿景是使用计算机创建世界的符号表示和可以推理世界的系统。支持者包括 Alan 、 MA 和 。与这种方法密切相关的是“启发式搜索”方法,它将智能比作探索可能性空间的问题

因为输入文案太长,GPT 很可能在读完结尾之前就停下来了,或者即使读到结尾,也可能是因为字数太多,漏掉中间部分,没有提取出来。

如果想有更好的效果,可以确认两次。

有没有更多相关的摘录?小心不要重复你刚才给出的内容。还要确保摘录包含解释它们所需的所有相关内容,换句话说,不要选择缺少重要内容的小部分。

AI 不可能极其严谨,准确提取所有点而不遗漏它们,如果你不做高精度的学术研究,AI 就足够了。

我是一头大象,目前正在做 AI 写作,同时从事新媒体运营,并拥有自己的工作室。借助 AI 技术趋势,我们可以为任何行业的自媒体赋能

通过发布一些实用的干货视频教学,我每天都钻研AI的应用,大部分的文案和视频都是在AI的辅助下完成的,大大提高了我的工作效率,节省了近一半的人工成本。AI 的趋势远不止于此,它的潜力是巨大的。

分享