【提示工程】Chain-of-Thought Prompting Elicits Reasoning in Large Language Models

2023-12-19

解决问题

探索大语言模型解决推理问题的能力。从头训练或微调模型,需要创建大量的高质量含中间步骤的数据集,成本过大。

相关工作

1、使用中间步骤来解决推理问题
(1)使用自然语言通过一系列中间步骤解决数学应用题
(2)通过创建更大的数据集微调语言模型,而不是从头训练
(3)使用语言模型一行一行的预测中间结果预测最终输出

2、采用提示方式
(1)少样本提示
(2)自动学习提示
(3)描述任务的模型指令

本文采用一系列思维来增强语言模型的输出

创新方法

采用由 自然语言描述逻辑推理过程 ,构建成一条 解决问题步骤的思维链 ,以Prompt的形式进行few-shot提示。

优势

(1)可将问题拆解为多个步骤解决
(2)提供可解释性,便于调试
(3)应用任务领域广
(4)加入少量示例就可以引出COT

结论

我们探索了思维链提示作为一个简单且广泛适用的方法来增强语言模型的推理。通过算术推理、符号推理和常识推理的实验,我们发现 思维链推理是模型尺度的一种新特性 ,它允许足够大的语言模型执行原本为平坦尺度曲线的推理任务。扩大语言模型可以执行的推理任务的范围将有望激发基于语言推理方法的进一步工作。

本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)

【提示工程】Chain-of-Thought Prompting Elicits Reasoning in Large Language Models 的相关文章

随机推荐