2
利用langchain接入百度文心一言
大模型开发/技术交流
- 社区上线
- 开箱评测
2023.10.062986看过
在国内使用使用openAI,终归没法商用。寻求接入国产模型或开源平替模型变得越来越迫切,一方面合规,另一方面也能保证数据安全。本文将首先讲解以下如何利用langchain接入百度文心一言。
(1) 百度key申请
接入百度文心一言,首先要申请到baidu_api_key和baidu_secret_key,未申请的可以先到这里申请:
进入后点击立即体验。
(2) 文心一言的langchain插件
申请到两个key后,就可以准备开始开发了。要在langchain中接入百度文心一言,可以借助插件:langchain-wenxin
插件安装命令如下: pip install langchain-wenxin
或 pip3 install langchain-wenxin
(3) 文心一言支持的模型
目前百度文心一言支持的模型如下图所示:
下面将讲述如何接入ERNIE-Bot、ERNIE-Bot-turbo和Embedding-V1模型。
接入前,需要全局设置一下百度的两个key。在终端中执行以下命令:
export BAIDU_API_KEY="<你的百度api key>"export BAIDU_SECRET_KEY="<你的百度securet key>"
(4) ERNIE-Bot、ERNIE-Bot-turbo和Embedding-V1模型的接入
a) 接入ERNIE-Bot:
代码如下:
from langchain_wenxin.chat_models import ChatWenxinfrom langchain.schema.messages import HumanMessagellm = ChatWenxin() print(llm([HumanMessage(content="你好")]))
正常运行效果如下:
b) 接入ERNIE-Bot-turbo
代码如下:
llm = Wenxin(model="ernie-bot-turbo")print(llm("你好"))
正常运行效果如下:
c) 接入Embedding-V1
代码如下:
from langchain_wenxin.embeddings import WenxinEmbeddingswenxin_embed = WenxinEmbeddings(truncate="END")print(wenxin_embed.embed_query("hello"))print(wenxin_embed.embed_documents(["hello"]))
正常运行后可以看到会返回一堆向量值,运行效果如下:
评论