调用对话Chat
更新时间:2024-10-21
本文介绍了如何通过千帆ModelBuilder提供的命令行CLI工具,使用ERNIE-3.5-8K模型调用对话Chat实现单轮对话功能。
实现效果
例如,希望了解北京相关的介绍,选择使用ERNIE-3.5-8K模型版本API进行对话。即
- 用户发起提问:你好
- 使用模型ERNIE-3.5-8K调用后,返回相关介绍,如“你好!请问有什么我可以帮助你的吗?”等。
步骤简介
步骤一,安装Python SDK。如果已安装,可跳过此步骤。
步骤二,配置鉴权。如果已配置鉴权环境变量,可跳过此步骤。
步骤三,查看CLI帮助及文档。
步骤四,调用相关命令。如调用对话Chat。
步骤一,安装Python SDK
注意:如果已安装Python SDK,可跳过此步骤。
安装Python SDK,命令如下。
pip install qianfan
步骤二,设置鉴权环境变量
注意:如果已设置鉴权环境变量,可跳过此步骤。
# 使用安全认证AK/SK鉴权;替换下列示例中参数,安全认证Access Key替换your-access-key,Secret Key替换your-secret-key
export QIANFAN_ACCESS_KEY=your-access-key
export QIANFAN_SECRET_KEY=your-secret-key
步骤三,查看CLI帮助及文档
查看对话Chat相关命令,可以通过以下任一方法查看。
- 方式一:通过文档查看,查看对话Chat相关文档,详见https://github.com/baidubce/bce-qianfan-sdk/blob/main/docs/cli.md#chat-对话。
- 方式二:通过命令行查看。
# 使用qianfan --help查询支持的全部命令
qianfan --help
# 使用 qianfan chat -h 查询chat相关命令
qianfan chat -h
通过命令行查看,如下图所示。
步骤四,调用对话Chat命令
# 输入对话Chat相关命令,指定模型ERNIE-3.5-8K,model参数值对应ERNIE-3.5-8K
qianfan chat --model ERNIE-3.5-8K
# First token latentcy: 0.79s, Total latency: 3.23s.
# Input token: 1, Output token: 31, Total token: 32.
# 输入文本,例如你好
# Enter your message:
你好
# 指定模型ERNIE-3.5-8K
你好!请问有什么我可以帮助你的吗?无论是关于知识问答、文本创作,还是其他任何我能够提供的帮助,我都会尽力满足你的需求。
#First token latentcy: 0.68s, Total latency: 3.26s.
#Input token: 3, Output token: 204, Total token: 207.
# 如果希望结束对话,可以输入/exit
#Enter your message:
/exit
实现效果如下图所示。
注意:如果结束对话,输入/exit。