0


【AIGC】COT思维链:让AI学会拆解问题,像人一样思考

COT思维链

  • 引言
  • 理解实践
    • 存疑例子- COT解决
  • 内置COT
  • COT的优势
  • COT的未来展望:
  • 结语

引言

在人工智能领域,我们一直在追求让机器像人类一样思考。然而,即使是最先进的AI,也常常被诟病缺乏“常识”,难以理解复杂问题,更不用说像人类一样进行逻辑推理和解决问题了。最经常的表现就是遇到不会的地方,或者一些人一眼能看出来的地方AI在那里胡扯

为了解决这个问题,一种名为“思维链(Chain of Thought, COT)”的技术应运而生。COT的核心思想是:将复杂问题分解成一系列简单的子问题,并逐步推理出最终答案。 这就像人类在解决问题时,会先将问题拆解成一个个小步骤,然后一步步推理,最终得出结论。​
在这里插入图片描述

理解实践

存疑例子

为了理解COT我们先来看个例子。经典的数strawberry里面的r有几个

  1. from langchain_openai import ChatOpenAI
  2. from langchain.chains import LLMChain
  3. from langchain.prompts import PromptTemplate
  4. # 模型
  5. model = ChatOpenAI(
  6. model='deepseek-chat',
  7. openai_api_key='sk-xxx',
  8. openai_api_base='https://api.deepseek.com',
  9. max_tokens=4096)# 定义一个简单的提示模板
  10. prompt_template = PromptTemplate(
  11. input_variables=["user_input"],
  12. template="用户: {user_input}\nAI:")# 创建一个链,将提示模板与模型连接起来
  13. chain = LLMChain(llm=model, prompt=prompt_template)# 手动输入一个值并发送给模型
  14. user_input ="strawberry里面有几个r"# 发送消息给模型并获取响应
  15. response = chain.run(user_input=user_input)print(f"\n\nAI: {response}\n")

我们得到的结果是比较糟糕的:

  1. AI: 在单词 "strawberry" 中,有两个字母 "r"

在这里插入图片描述

COT解决

我们开始试着加入cot,让他进行问题的拆解,在进行回答试一下:

  1. from langchain_openai import ChatOpenAI
  2. from langchain.chains import LLMChain
  3. from langchain.prompts import PromptTemplate
  4. # 模型
  5. model = ChatOpenAI(
  6. model='deepseek-chat',
  7. openai_api_key='sk-xxx',
  8. openai_api_base='https://api.deepseek.com',
  9. max_tokens=4096)# 定义一个简单的提示模板
  10. prompt_template = PromptTemplate(
  11. input_variables=["user_input"],
  12. template="用户: {user_input}\nAI:")# 创建一个链,将提示模板与模型连接起来
  13. chain = LLMChain(llm=model, prompt=prompt_template)# 手动输入一个值并发送给模型
  14. user_input ='''
  15. 回答下面问题并注意回答的时候严格按照以下步骤,逐步进行:
  16. 1.将单词拆开
  17. 2.从左到右一个,一个对比字母是不是,是的话你要记录他的位置,并记住数量加一
  18. 3,第2步数出来多少个r直接输出
  19. 问题:'strawberry'里面有几个r
  20. '''# 发送消息给模型并获取响应
  21. response = chain.run(user_input=user_input)print(f"\n\nAI: {response}\n")

结果很好,llm按照我们的思路去进行了单词拆解,并得到了正确的答案。

  1. AI: 1. 将单词拆开: s, t, r, a, w, b, e, r, r, y
  2. 2. 从左到右一个,一个对比字母是不是r:
  3. - 1个字母是s,不是r
  4. - 2个字母是t,不是r
  5. - 3个字母是r,是r,记录位置3,数量加一
  6. - 4个字母是a,不是r
  7. - 5个字母是w,不是r
  8. - 6个字母是b,不是r
  9. - 7个字母是e,不是r
  10. - 8个字母是r,是r,记录位置8,数量加一
  11. - 9个字母是r,是r,记录位置9,数量加一
  12. - 10个字母是y,不是r
  13. 3. 2步数出来多少个r直接输出: 3

在这里插入图片描述

内置COT

上面提到的例子是我们引导llm解决某个具体的例子,但如果我们不知道用户想问什么,但是又想内置思维链怎么办呢?尝试下像我一样写

  1. from langchain_openai import ChatOpenAI
  2. from langchain.chains import LLMChain
  3. from langchain.prompts import PromptTemplate
  4. import json
  5. # 模型
  6. model = ChatOpenAI(
  7. model='deepseek-chat',
  8. openai_api_key='sk-xxx',
  9. openai_api_base='https://api.deepseek.com',
  10. max_tokens=4096)# 定义一个简单的提示模板
  11. prompt_template = PromptTemplate(
  12. input_variables=["user_input"],
  13. template="用户: {user_input}\nAI:")# 创建一个链,将提示模板与模型连接起来
  14. chain = LLMChain(llm=model, prompt=prompt_template)# 手动输入一个值并发送给模型
  15. initial_prompt ='''
  16. 你是一个能够逐步解释推理过程的专家AI助手。对于每一步,提供一个描述你在该步骤中所做内容的标题,以及相应的内容。决定是否需要另一步骤或你已准备好给出最终答案,
  17. ,且每次推理你仅执行一步等我说继续才能执行下一步。输出以JSON格式响应,包含 ‘title’, ‘content’, 和 ‘next_action’(要么是 ‘continue’,要么是 ‘final_answer’)键值。
  18. 为了提高指令遵从性,通过大写字母强调指令的重要性,包括一组提示和最佳实践:
  19. 1、尽可能多地使用推理步骤。至少5步,且每次推理你仅执行一步等我说继续才能执行下一步
  20. 2、意识到作为语言模型你的限制以及你能做什么和不能做什么。
  21. 3、包括探索替代答案。考虑你可能是错误的,如果你的推理是错误的,错误可能在哪里。
  22. 4、当你说你在重新检查时,实际上要重新检查,并采用另一种方法来做。不要只是说你在重新检查。
  23. 5、至少使用3种方法得出答案。
  24. 6、使用最佳实践。
  25. 问题如下:周五昨天的后天是周几
  26. '''# 发送消息给模型并获取响应
  27. response = chain.run(user_input=initial_prompt)print(f"\n\nAI: {response}\n")# 清理响应内容,去掉 ```json 和 ```标记
  28. response = response.strip('```json').strip('```').strip()# 解析初始响应
  29. response_json = json.loads(response)
  30. history =[response_json]# 循环直到 next_action final_answerwhile response_json['next_action']!='final_answer':# 更新用户输入,带上历史记录和初始提示词
  31. user_input =f"{initial_prompt}\n{json.dumps(history)}\n,继续你的下一步推理Z:"# 发送消息给模型并获取响应
  32. response = chain.run(user_input=user_input)print(f"\n\nAI: {response}\n")# 清理响应内容,去掉 ```json 和 ```标记
  33. response = response.strip('```json').strip('```').strip()# 解析响应
  34. response_json = json.loads(response)
  35. history.append(response_json)# 确保我们访问的是列表的第一个元素ifisinstance(response_json,list):
  36. response_json = response_json[0]

这样我们就将思维链内置好了,llm可以自己去决定问题拆解或停止思考进行回答。
在这里插入图片描述
可以看到结果是非常好的,cot对于这种需要多步推理的问题效果尤其的好。

COT的优势

  • 提升复杂问题的解决能力: 传统的AI模型通常只能处理简单、直接的任务,而COT可以将复杂问题分解成多个简单的子问题,从而提升模型解决复杂问题的能力。
  • 增强模型的可解释性: COT将推理过程可视化,使得模型的决策过程更加透明,便于人类理解和调试。
  • 促进模型的学习和进化: COT可以帮助模型更好地理解问题的本质,从而促进模型的学习和进化,使其在解决新问题时更加高效。

COT的未来展望:

COT作为一种新兴的技术,目前还处于发展初期,但其潜力巨大。未来,随着技术的不断进步,COT有望在以下几个方面取得突破:

  • 更强大的推理能力: 未来的COT模型将能够处理更加复杂、抽象的问题,并进行更加深入的推理。
  • 更强的可解释性: 未来的COT模型将能够提供更加清晰、易懂的推理过程,使得人类可以更好地理解和信任AI的决策。
  • 更广泛的应用场景: 未来的COT模型将能够应用于更多的领域,例如医疗诊断、法律咨询、金融分析等。

结语

COT思维链的出现,为AI的发展开辟了一条新的道路。它让AI学会了像人类一样思考,将复杂问题分解成简单的步骤,并逐步推理出最终答案。希望我的引导会对你产生启发。关于非编码版可查看思维链COT优化Prompt


本文转载自: https://blog.csdn.net/rekaf66/article/details/143428775
版权归原作者 智兔唯新 所有, 如有侵权,请联系我们删除。

“【AIGC】COT思维链:让AI学会拆解问题,像人一样思考”的评论:

还没有评论