0


AI大模型(二):AI编程实践

一、软件安装

1. 安装 Visual Studio Code

VSCode官方下载:Visual Studio Code - Code Editing. Redefined

根据自己的电脑系统选择相应的版本下载

安装完成!

2. 安装Tongyi Lingma

打开VSCode,点击左侧菜单栏【extensions】,在extensions的搜索框里输入【tongyi】,点击【Install】安装

TONGYI Lingma是阿里推出免费的AI编程辅助工具,目前对日常编程支持度很好。

TONGYI Lingma安装成功!

TONGYI Lingma 账号登录,会跳转到阿里云,输入手机账号密码登录即可。

3. 安装 Github Copilot

二、AI编程实践

需求:制作一个简单的客服机器人

假装自己是一个产品经理,从未写过代码,看AI能否帮我们解决这个问题。

ChatGPT-4o Mini :【我是一个新手,我想制作一个简单的客服机器人,请问应该如何设计?】

ChatGPT-4o Mini ** 回答的完整内容:**

制作一个简单的客服机器人是一个非常有趣的项目,尤其对新手来说,它能帮助你了解自然语言处理、自动化以及如何与用户交互。以下是设计一个基本客服机器人的步骤:

1. 确定机器人的功能与范围

首先要明确你想让机器人执行哪些任务,通常客服机器人会具备以下一些功能:

  • 回答常见问题:提供自动化的回答,如产品信息、订单状态、退换货政策等。
  • 收集信息:收集用户的基本信息或问题描述。
  • 转接人工客服:当机器人无法解答时,将对话转接给人工客服。

2. 选择技术和工具

对于一个新手来说,可以使用一些现成的开发平台,省去复杂的技术难题:

选项1:使用聊天机器人平台

如果你不想从头开始编写代码,可以选择一些现成的机器人平台,它们提供了可视化的设计界面,可以帮助你快速创建简单的客服机器人:

  • Dialogflow(由Google提供)
  • Rasa(开源,适合有一定编程基础的用户)
  • ManyChat(专注于社交平台如Facebook Messenger的聊天机器人)
  • Chatbot.com(支持无编程开发)

这些平台大多数都提供自然语言理解(NLU)模块,可以帮助你理解用户的意图,并根据预设的规则进行应答。

选项2:使用编程语言和库

如果你有一定的编程基础,可以使用以下工具:

  • Python:Python非常适合做简单的聊天机器人,常用的库有:
    • NLTK:自然语言处理库。
    • spaCy:更强大的自然语言处理库。
    • ChatterBot:一个简单易用的Python库,适合聊天机器人。
    • Flask/Django:用于部署和搭建Web接口。

3. 设计聊天流程

客服机器人通常会有一个基本的对话流,下面是一个简单的例子:

  • 欢迎语:如“您好!有什么我可以帮您的吗?”
  • 用户输入:用户询问问题或描述问题。
  • 匹配意图:机器人通过自然语言理解技术,识别用户问题的意图。
  • 生成回复:根据匹配到的意图,机器人给出相应的答复。
  • 结束或转接人工客服:如果问题解决了,机器人可以结束对话,或者当无法解决时,转接人工客服。

4. 设计对话内容

根据你想要解决的客户服务问题,提前准备一些常见问题和答案。比如:

  • “你们的工作时间是什么?”

    • 回复:我们每天9:00AM到6:00PM为您服务。
  • “如何查询订单状态?”

    • 回复:您可以通过输入订单号查询订单状态。

你也可以使用预设模板关键词匹配来快速响应一些常见问题。

5. 集成与测试

如果你使用的是平台或框架,你可能需要将机器人集成到网站、APP或社交媒体平台中(如微信、Facebook Messenger)。如果是通过编程实现,则需要创建一个服务器来接收用户请求,并返回机器人的回答。

  • 集成到网站:你可以使用像FlaskDjango这样的小型Web框架来开发Web接口,并将机器人集成到网页中。
  • 集成到社交平台:如微信、Slack、Telegram等,很多平台都有API,你可以将机器人部署到这些平台进行交互。

6. 用户反馈与优化

  • 日志记录:记录用户的对话日志,可以帮助你了解机器人在哪些地方回答不准确或无法回答的问题。
  • 机器学习训练:通过用户反馈和新的对话数据,定期训练和优化机器人的语言理解能力。

7. 部署与维护

将机器人部署到实际环境中后,要定期进行监控和优化,确保其稳定运行。可以设置定期的更新和维护,添加新的功能和解决新的问题。


小结

制作一个简单的客服机器人,可以通过以下步骤完成:

  1. 确定机器人的功能与范围。
  2. 选择合适的技术或平台(如Dialogflow、Rasa等)。
  3. 设计聊天流程与常见问题。
  4. 集成机器人到网站或社交平台。
  5. 进行测试、优化与维护。

通过不断学习和优化,客服机器人能够变得更加智能和高效。希望这个大纲能帮助你开始你的项目!如果你有具体的问题或者需要更详细的帮助,可以继续问我!

可以看出回答的内容很泛, 接着我们来缩小范围。

继续问【我只想要用户提交问题,然后通过大模型回答问题的客服机器人,应该如何实现?】

ChatGPT-4o Mini ** 回答的完整内容:**

如果你的目标是构建一个简单的客服机器人,用户提交问题后通过大语言模型(如OpenAI的GPT)回答问题,实际上可以按照以下步骤实现。这个设计的核心就是通过一个大模型来理解和回答用户的问题,而不涉及复杂的流程管理、意图识别等。

1. 选择合适的API接口

由于你希望通过大模型回答用户问题,最简单的方式是调用现有的大模型API,比如OpenAI的API(如GPT-4、GPT-3.5等),通过该接口与模型交互,获取问题的答案。

  • OpenAI GPT API:可以用来发送用户的提问,并获取GPT模型的回答。
  • 其他大模型API:例如Anthropic的Claude、Google的PaLM等也有类似功能。

2. 搭建一个简单的Web接口

为了让用户能够提交问题,你需要一个简单的Web接口。在这里,我假设你使用Python和Flask来实现这个Web应用。

步骤1: 安装必要的库

首先,确保你安装了Flask和OpenAI的Python客户端库:

 pip install flask openai

步骤2: 获取OpenAI API密钥

  • 注册OpenAI账户,并生成API密钥:OpenAI API
  • 获取API密钥后,保存在一个安全的地方。

步骤3: 编写Flask应用

接下来,编写一个简单的Flask应用,允许用户提交问题并通过OpenAI的API获取答案。

 import openai
 from flask import Flask, request, jsonify

# 设置OpenAI的API密钥
 openai.api_key = 'your-openai-api-key'

# 初始化Flask应用
 app = Flask(__name__)

@app.route('/')
 def index():
     return '''<form method="post" action="/ask">
                   <label for="question">请输入您的问题:</label><br>
                   <input type="text" id="question" name="question" size="50"><br><br>
                   <input type="submit" value="提交">
                 </form>'''

@app.route('/ask', methods=['POST'])
 def ask():
     user_question = request.form['question']
     
     # 使用OpenAI的API来回答用户的问题
     response = openai.Completion.create(
         engine="gpt-4",  # 可以选择使用不同的模型,如gpt-3.5、gpt-4
         prompt=user_question,
         max_tokens=150,
         temperature=0.7
     )
     
     answer = response.choices[0].text.strip()
     
     # 返回答案
     return jsonify({
         'question': user_question,
         'answer': answer
     })

if __name__ == '__main__':
     app.run(debug=True)

这个Flask应用的简单结构如下:

  • **根页面 (/)**:显示一个提交问题的表单。
  • /ask 路由:接收用户提交的问题,调用OpenAI的API生成回答,并将回答返回给用户。

步骤4: 运行Flask应用

在终端中运行Flask应用:

 python app.py

Flask应用会启动并在本地服务器上运行。你可以通过浏览器访问 http://127.0.0.1:5000/,输入问题,提交后会看到机器人的回答。

3. 部署到云平台

如果你希望让其他用户也能使用这个机器人,你可以将这个应用部署到云平台上,常见的选择有:

  • Heroku:适合快速部署Python应用。
  • VercelNetlify:这些平台也支持Python后台服务,尤其适合简单的Web应用。
  • AWS、Google Cloud、Azure:如果你有更多的技术要求,选择这些云平台也可以。

Heroku为例,你可以按照以下步骤进行部署:

  1. 创建一个requirements.txt 文件,列出需要的Python库:
    Flask==2.1.2
    openai==0.27.0
    
  2. **创建一个Procfile**,告诉Heroku如何启动你的应用:
    web: python app.py
    
  3. 将代码推送到GitHub,然后连接到Heroku进行部署。

4. 扩展与优化

尽管这个设计已经可以让用户提交问题并得到回答,但你可以根据需要做一些扩展和优化:

  • 缓存回答:可以考虑使用缓存(如Redis),避免重复的问题每次都调用API,从而提高效率并减少费用。
  • 输入限制与过滤:在实际使用中,需要过滤掉一些不当或恶意的输入,确保机器人不会回答敏感内容。
  • 日志记录:记录用户的提问和机器人的回答,方便后期分析和优化。
  • UI优化:可以设计更友好的用户界面,例如使用JavaScript、React等实现更动态的交互体验。

小结

简单的客服机器人可以通过调用大模型(如OpenAI的GPT)实现。基本步骤包括:

  1. 获取OpenAI的API密钥并安装相关库。
  2. 使用Flask等框架搭建Web接口,允许用户提交问题。
  3. 使用OpenAI的API返回问题的答案。
  4. 部署到云平台让更多用户访问。

这样,你就能快速实现一个基于大模型的客服机器人,用户只需要提交问题,系统就能自动生成回答。如果你有任何问题或需要进一步的帮助,随时告诉我!

希望再具体一点,于是接着问

【那么怎么实现服务器端部分,如何写一个后端服务器】

ChatGPT-4o Mini ** 回答的完整内容:**

要实现一个简单的后端服务器,你可以使用 PythonFlask 来快速构建服务器端部分。Flask 是一个轻量级的 Web 框架,适合用来搭建小型应用。下面我将详细介绍如何从零开始实现后端服务器,使其能够处理用户提交的问题,并通过 OpenAI 的 API 获取答案。

1. 搭建后端服务器

1.1 安装必要的库

首先,你需要安装以下 Python 库:

  • Flask:用于构建 Web 服务器。
  • OpenAI:用于与 OpenAI API 进行交互,获取 GPT 模型的回答。

打开终端,执行以下命令安装:

 pip install flask openai

1.2 获取 OpenAI API 密钥

  • 注册 OpenAI 账号并生成 API 密钥:OpenAI API.
  • 保存你的 API 密钥,并确保它在代码中可用。

1.3 编写 Flask 后端代码

接下来,我们将创建一个 Flask 应用来处理用户请求,并通过 OpenAI API 返回相应的答案。

**app.py**:

 import openai
 from flask import Flask, request, jsonify

# 设置OpenAI的API密钥
 openai.api_key = 'your-openai-api-key'  # 请替换为你自己的API密钥

# 初始化Flask应用
 app = Flask(__name__)

# 首页路由,显示一个简单的HTML表单,供用户提交问题
 @app.route('/')
 def index():
     return '''
         <form method="POST" action="/ask">
             <label for="question">请输入您的问题:</label><br>
             <input type="text" id="question" name="question" size="50"><br><br>
             <input type="submit" value="提交">
         </form>
     '''

# 提问路由,处理用户提交的问题并通过OpenAI API获取答案
 @app.route('/ask', methods=['POST'])
 def ask():
     user_question = request.form['question']
     
     # 调用OpenAI的API来生成问题的答案
     try:
         response = openai.Completion.create(
             engine="gpt-4",  # 你可以选择不同的模型,如 "gpt-3.5-turbo" 或 "gpt-4"
             prompt=user_question,
             max_tokens=150,
             temperature=0.7
         )
         
         # 获取模型的回答
         answer = response.choices[0].text.strip()
         
         # 返回JSON格式的回答
         return jsonify({
             'question': user_question,
             'answer': answer
         })
     except Exception as e:
         # 如果发生错误,返回错误信息
         return jsonify({'error': str(e)})

if __name__ == '__main__':
     # 启动Flask应用,默认端口为5000
     app.run(debug=True)

代码说明:

  1. Flask基础应用:我们创建了一个简单的 Flask 应用,并定义了两个路由:

    • **/**:显示一个简单的表单,用户可以在其中输入问题。
    • **/ask**:处理 POST 请求,接受用户提交的问题,调用 OpenAI API 获取回答。
  2. 调用 OpenAI API:使用 openai.Completion.create 方法向 OpenAI API 提交用户的问题并获取回答。此处我们使用 gpt-4 模型,你可以根据需求选择不同的模型(如 gpt-3.5)。

  3. 返回回答:Flask 会将 API 返回的回答(answer)作为 JSON 返回给用户。如果发生错误,会返回错误信息。

2. 运行后端服务器

  1. 确保你有一个有效的 OpenAI API 密钥,并将其替换到代码中的 openai.api_key 位置。

  2. 在终端中运行 Python 文件:

 python app.py

Flask 会启动一个本地服务器,默认情况下,服务器会运行在 http://127.0.0.1:5000/

  1. 打开浏览器,访问 http://127.0.0.1:5000/,你将看到一个简单的表单,用户可以在此表单中输入问题并提交。

  2. 提交问题后,后台将调用 OpenAI API 并返回相应的答案。

3. 部署到线上环境

当你完成本地开发后,可能需要将后端应用部署到生产环境,以便其他用户能够访问。你可以使用以下平台进行部署:

3.1 使用 Heroku 部署

Heroku 是一个非常适合小型应用的云平台,支持快速部署。以下是将 Flask 应用部署到 Heroku 的步骤:

  1. **创建一个 requirements.txt**,列出所有依赖的库:

    Flask==2.1.2
    openai==0.27.0
    
  2. **创建一个 Procfile**,告诉 Heroku 如何启动你的应用:

    web: python app.py
    
  3. 初始化 Git 仓库(如果你还没有初始化 Git):

    git init
    git add .
    git commit -m "Initial commit"
    
  4. 将应用推送到 Heroku

    • 登录 Heroku:heroku login
    • 创建应用:heroku create
    • 将代码推送到 Heroku:git push heroku master
  5. 完成后,你的应用将部署到 Heroku,并可以通过 Heroku 提供的 URL 进行访问。

3.2 使用 AWSGoogle CloudAzure 部署

如果你需要更多的控制权,或者希望应用托管在企业级云平台上,你可以使用 AWS、Google Cloud、Azure 等平台来部署你的 Flask 应用。这些平台的部署方法稍微复杂一些,通常涉及创建虚拟机、安装环境、配置 Web 服务器(如 Nginx 或 Apache)等。

4. 扩展功能

你可以在此基础上继续扩展你的后端功能:

  • 问题缓存:为了减少 API 调用次数,可以缓存重复的问题及其答案。例如,可以使用 Redis 缓存用户问题的答案。
  • 输入验证与清理:可以添加一些对用户输入的检查和过滤机制,避免恶意或无意义的问题。
  • 日志记录:记录用户的提问和机器人的回答,以便后期分析与优化。

小结

通过 Flask 和 OpenAI API,你可以快速构建一个简单的后端服务器,实现用户提交问题并通过 GPT 模型获取答案的功能。关键步骤包括:

  1. 安装 Flask 和 OpenAI SDK。
  2. 编写处理问题的后端代码,使用 OpenAI API 获取答案。
  3. 运行和部署服务器,提供 Web 界面供用户提问。

如果你有任何问题,或者需要进一步的帮助,请随时向我提问!

可以看到它的结果比前面更具体了。接下来我们按它的步骤进行操作,看能否成功呢?

GPT提示:【1.1 安装必要的库】

我的实操: 【1.1 安装必要的库】


GPT提示:【1.2 获取 OpenAI API 密钥】

我的实操: 【1.2 获取 OpenAI API 密钥】

此处省略截图


GPT提示:【1.3 编写 Flask 后端代码】

我的实操: 【1.3 编写 Flask 后端代码】

在VSCode软件的项目文件夹下,新建app.py文件,该文件写入如下代码。

import openai
from flask import Flask, request, jsonify

# 设置OpenAI的API密钥
openai.api_key = 'your-openai-api-key'  # 请替换为你自己的API密钥

# 初始化Flask应用
app = Flask(__name__)

# 首页路由,显示一个简单的HTML表单,供用户提交问题
@app.route('/')
def index():
    return '''
        <form method="POST" action="/ask">
            <label for="question">请输入您的问题:</label><br>
            <input type="text" id="question" name="question" size="50"><br><br>
            <input type="submit" value="提交">
        </form>
    '''

# 提问路由,处理用户提交的问题并通过OpenAI API获取答案
@app.route('/ask', methods=['POST'])
def ask():
    user_question = request.form['question']
    
    # 调用OpenAI的API来生成问题的答案
    try:
        response = openai.Completion.create(
            engine="gpt-4",  # 你可以选择不同的模型,如 "gpt-3.5-turbo" 或 "gpt-4"
            prompt=user_question,
            max_tokens=150,
            temperature=0.7
        )
        
        # 获取模型的回答
        answer = response.choices[0].text.strip()
        
        # 返回JSON格式的回答
        return jsonify({
            'question': user_question,
            'answer': answer
        })
    except Exception as e:
        # 如果发生错误,返回错误信息
        return jsonify({'error': str(e)})

if __name__ == '__main__':
    # 启动Flask应用,默认端口为5000
    app.run(debug=True)

"""
代码说明:
1. Flask基础应用:我们创建了一个简单的 Flask 应用,并定义了两个路由:
    /:显示一个简单的表单,用户可以在其中输入问题。
    /ask:处理 POST 请求,接受用户提交的问题,调用 OpenAI API 获取回答。

2. 调用 OpenAI API:使用 openai.Completion.create 方法向 OpenAI API 提交用户的问题并获取回答。此处我们使用 gpt-4 模型,你可以根据需求选择不同的模型(如 gpt-3.5)。

3. 返回回答:Flask 会将 API 返回的回答(answer)作为 JSON 返回给用户。如果发生错误,会返回错误信息。
"""

代码运行:

GPT提示:【2. 运行后端服务器

我的实操: 【2. 运行后端服务器

打开浏览器,访问

http://127.0.0.1:5000/


好了,这就基本实现了通过chatgpt的指导,让一个不会编程的人,完成制作客服机器人的需求。

如果还想要调整前端界面,让其交互更美观,或是部署到线上环境,可以继续参照上述示例,让GPT生成对应代码,然后我们再逐步copy验证。

标签: AI编程

本文转载自: https://blog.csdn.net/CSBLOG/article/details/143794473
版权归原作者 CSBLOG 所有, 如有侵权,请联系我们删除。

“AI大模型(二):AI编程实践”的评论:

还没有评论