模型更新记录
更新时间:2024-12-02
本文介绍了本平台的新模型发布记录与介绍,相关内容可于模型广场进行体验。
产品更新状态可查看:产品更新动态。
2024年12月
日期 | 模型厂商 | 模型名称 | 模型版本 | 模型类型 | 动态说明 | 介绍及调用 |
---|---|---|---|---|---|---|
12月2日 | 百度 | 推理服务V2版本 | ERNIE-Lite-Pro-128K | 推理服务V2版本-对话Chat V2 | 升级 | 新增支持function call。 调用说明请查看:API调用文档 |
2024年11月
日期 | 模型厂商 | 模型名称 | 模型版本 | 模型类型 | 动态说明 | 介绍及调用 |
---|---|---|---|---|---|---|
11月21日 | 百度 | ERNIE Character | ERNIE-Character-Fiction-8K-Preview | 对话Chat | 上新 | 2024年10月28日发布的版本,在剧情主动性、深度扮演能力、现代潮流度、边界安全问题的灵活度等能力得到增强,涵盖现代都市、古代武侠等的角色扮演场景也更加丰富。 调用说明请查看:API调用文档 |
11月21日 | 百度 | Qianfan Agent | Qianfan-Agent-Speed-8K | 对话Chat | 上新 | 千帆自研Agent专用版模型,针对企业级大模型应用进行了专门的指令调优,在问答场景、智能体相关场景可以获得同等规模模型下更好的效果。2024年11月21日发布的版本,支持8K上下文长度。 调用说明请查看:API调用文档 |
11月21日 | 百度 | Qianfan Agent | Qianfan-Agent-Lite-8K | 对话Chat | 上新 | 千帆自研Agent专用版模型,针对企业级大模型应用进行了专门的指令调优,在问答场景、智能体相关场景可以获得同等规模模型下更好的效果。2024年11月21日发布的版本,支持8K上下文长度。 调用说明请查看:API调用文档 |
11月21日 | 百度 | ERNIE Lite | ERNIE-Lite-128K-0722 | 对话Chat | 上新 | 2024年7月22日发布版本,支持128K上下文长度。 调用说明请查看:API调用文档 |
11月21日 | 百度 | 推理服务V2版本 | 推理服务V2版本 | 推理服务V2版本-对话Chat V2 | 升级 | 新增支持搜索相关能力,请求参数新增web_search,表示搜素增强的选项;响应参数新增search_results,表示搜索结果列表。 调用说明请查看:API调用文档 |
11月14日 | 百度 | ERNIE 3.5 | ERNIE-3.5-128K-Preview | 对话Chat | 上新 | 此版本为ERNIE-3.5-128K模型的预览版本,指向最新版本模型。 调用说明请查看:API调用文档 |
11月14日 | 百度 | ERNIE 4.0 Turbo系列 ERNIE 4.0系列 ERNIE 3.5系列 |
ERNIE-4.0-8K-Latest ERNIE-4.0-8K-Preview ERNIE-4.0-8K ERNIE-4.0-Turbo-8K-Latest ERNIE-4.0-Turbo-8K-Preview ERNIE-4.0-Turbo-8K ERNIE-4.0-Turbo-128K ERNIE-3.5-8K-Preview ERNIE-3.5-8K ERNIE-3.5-128K |
推理服务V2版本-对话Chat V2 | 升级 | 新增支持function call。 调用说明请查看:API调用文档 |
2024年10月
日期 | 模型厂商 | 模型名称 | 模型版本 | 模型类型 | 动态说明 | 介绍及调用 |
---|---|---|---|---|---|---|
10月31日 | 百度 | ERNIE 4.0 Turbo | ERNIE-4.0-Turbo-128K | 对话Chat | 上新 | ERNIE 4.0 Turbo是百度自研的旗舰级超大规模⼤语⾔模型,综合效果表现出色,广泛适用于各领域复杂任务场景;支持自动对接百度搜索插件,保障问答信息时效。相较于ERNIE 4.0在性能表现上更优秀。ERNIE-4.0-Turbo-128K是模型的一个版本。 调用说明请查看:API调用文档 |
10月29日 | 百度 | ERNIE 3.5 | ERNIE-3.5-8K-Preview | 对话Chat | 上新 | 模型能力全面升级,在文本创作、逻辑推理、角色扮演、信息处理等方向能力大幅提升,长文输出整句时延显著降低。您也可以在ERNIE-3.5-8K-Preview进行效果测试。 调用说明请查看:API调用文档 |
10月11日 | 百度 | ERNIE 4.0 Turbo | ERNIE-4.0-Turbo-8K-Latest | 对话Chat | 上新 | ERNIE 4.0 Turbo是百度自研的旗舰级超大规模⼤语⾔模型,综合效果表现出色,广泛适用于各领域复杂任务场景;支持自动对接百度搜索插件,保障问答信息时效。相较于ERNIE 4.0在性能表现上更优秀。ERNIE-4.0-Turbo-8K-Latest是模型的一个版本。 调用说明请查看:API调用文档 |
10月10日 | 百度 | ERNIE Tiny | ERNIE-Tiny-128K-0929 | 对话Chat | 上新 | 百度自研的超高性能大语言模型,部署与精调成本在文心系列模型中最低。ERNIE-Tiny-128K-0929是2024年9月29日发布的版本,支持128K上下文长度。 调用说明请查看:API调用文档 |
10月10日 | 百度 | ERNIE 3.5 | ERNIE-3.5-8K-0329 | 对话Chat | 退役 | 如您需要继续使用请切换至ERNIE-3.5-8K模型接口。 退役机制说明请查看:模型版本升级及退役机制 |
10月10日 | 百度 | ERNIE 4.0 | ERNIE-4.0-8K-0329 | 对话Chat | 退役 | 如您需要继续使用请切换至ERNIE-4.0-8K模型接口。 退役机制说明请查看:模型版本升级及退役机制 |
10月10日 | 百度 | ERNIE Lite | ERNIE-Lite-8K-0922 | 对话Chat | 退役 | 如您需要继续使用请切换至ERNIE-Lite-8K模型接口。 退役机制说明请查看:模型版本升级及退役机制 |
10月8日 | 百度 | ERNIE 4.0 | ERNIE-4.0-8K ERNIE-4.0-8K-Preview ERNIE-4.0-8K-Latest ERNIE-4.0-8K-0329 ERNIE-4.0-8K-0613 |
对话Chat | 升级 | API文档新增返回参数prompt_tokens_details、search_count。 调用说明请查看:API调用文档 |
10月8日 | 百度 | ERNIE 4.0 Turbo | ERNIE-4.0-Turbo-8K ERNIE-4.0-Turbo-8K-Preview |
对话Chat | 升级 | API文档新增返回参数prompt_tokens_details、search_count。 调用说明请查看:API调用文档 |
10月8日 | 百度 | ERNIE 3.5 | ERNIE-3.5-8K ERNIE-3.5-8K-Preview ERNIE-3.5-8K-0329 ERNIE-3.5-128K ERNIE-3.5-8K-0613 ERNIE-3.5-8K-0701 |
对话Chat | 升级 | API文档新增返回参数prompt_tokens_details、search_count。 调用说明请查看:API调用文档 |
10月6日 | 百度 | ERNIE AppBuilder | ERNIE-Speed-AppBuilder-8K、 ERNIE-Lite-AppBuilder-8K-0614 |
对话Chat | 退役 | 相关操作可以到百度智能云千帆AppBuilder咨询。 |
2024年9月
日期 | 模型厂商 | 模型名称 | 模型版本 | 模型类型 | 动态说明 | 介绍及调用 |
---|---|---|---|---|---|---|
9月24日 | 百度 | ERNIE 4.0 Turbo | ERNIE-4.0-Turbo-8K-0628 | 对话Chat | 上新 | ERNIE 4.0 Turbo是百度自研的旗舰级超大规模⼤语⾔模型,综合效果表现出色,广泛适用于各领域复杂任务场景;支持自动对接百度搜索插件,保障问答信息时效。相较于ERNIE 4.0在性能表现上更优秀。ERNIE-4.0-Turbo-8K-0628是模型的一个版本。 调用说明请查看API调用文档 |
9月6日 | 百度 | ERNIE Lite Pro | ERNIE-Lite-Pro-128K | 对话Chat | 上新 | 百度自研的轻量级大语言模型,效果比ERNIE Lite更优,兼顾优异的模型效果与推理性能,适合低算力AI加速卡推理使用。ERNIE-Lite-Pro-128K该模型版本,优化模型效果,支持128K上下文长度,效果比ERNIE-Lite-128K更优。 调用说明请查看API调用文档 |
2024年8月
日期 | 模型厂商 | 模型名称 | 模型版本 | 模型类型 | 动态说明 | 介绍及调用 |
---|---|---|---|---|---|---|
8月31日 | 百度 | ERNIE Speed Pro | ERNIE-Speed-Pro-128K | 对话Chat | 上新 | 百度2024年最新发布的自研高性能大语言模型,通用能力优异,适合作为基座模型进行精调,更好地处理特定场景问题,同时具备极佳的推理性能。 调用说明请查看API调用文档 |
8月30日 | 百度 | ERNIE 4.0 | ERNIE-4.0-8K ERNIE-4.0-8K-Preview ERNIE-4.0-8K-Latest ERNIE-4.0-8K-0329 ERNIE-4.0-8K-0613 |
对话Chat | 升级 | API文档新增请求参数请求参数user_ip。 调用说明请查看:API调用文档 |
8月30日 | 百度 | ERNIE 4.0 Turbo | ERNIE-4.0-Turbo-8K ERNIE-4.0-Turbo-8K-Preview |
对话Chat | 升级 | API文档新增请求参数请求参数user_ip。 调用说明请查看:API调用文档 |
8月30日 | 百度 | ERNIE 3.5 | ERNIE-3.5-8K ERNIE-3.5-8K-Preview ERNIE-3.5-8K-0329 ERNIE-3.5-128K ERNIE-3.5-8K-0613 ERNIE-3.5-8K-0701 |
对话Chat | 升级 | API文档新增请求参数user_ip。 调用说明请查看:API调用文档 |
8月29日 | Meta | Meta-Llama-3.1-8B | Meta-Llama-3.1-8B-Instruct | 对话Chat | 上新 | Meta Llama 3.1系列8B参数大语言模型,擅长语言细微差别,上下文理解、代码生成以及翻译和对话生成等复杂任务。 |
8月15日 | 百度 | Qianfan-Dynamic-8K | Qianfan-Dynamic-8K | 对话Chat | 上新 | 百度新推高性价比大模型服务,覆盖海量中英文语料,具有强大的通用能力,可满足绝大部分对话问答、创作生成、插件应用等场景要求;同时,对模型推理进行了优化,提供更好的推理性能。 调用说明请查看API调用文档 |
8月2日 | 百度 | ERNIE-Novel-8K | ERNIE-Novel-8K | 对话Chat | 上新 | 百度自研通用大语言模型,在小说续写能力上有明显优势,也可用在短剧、电影等场景。2024年8月2日首次发布的版本,百度自研通用大语言模型,在小说续写能力上有明显优势,也可用在短剧、电影等场景。 调用说明请查看API调用文档 |
2024年7月
日期 | 模型厂商 | 模型名称 | 模型版本 | 模型类型 | 动态说明 | 介绍及调用 |
---|---|---|---|---|---|---|
7月25日 | 百度 | ERNIE 3.5 | ERNIE-3.5-8K-0701 | 对话Chat | 上新 | ERNIE 3.5是百度自研的旗舰级大规模⼤语⾔模型,覆盖海量中英文语料,具有强大的通用能力,可满足绝大部分对话问答、创作生成、插件应用场景要求;支持自动对接百度搜索插件,保障问答信息时效。ERNIE-3.5-8K-0701是模型的一个版本。 调用说明请查看API调用文档 |
7月18日 | 百度 | ERNIE Character | ERNIE-Character-8K | 对话Chat | 升级 | 新增支持enable_user_memory、user_memory_extract_level,分别表示是否开启用户记忆、用户记忆抽取级别。 调用说明请查看:API调用文档 |
7月18日 | 百度 | ERNIE Character | ERNIE-Character-Fiction-8K | 对话Chat | 升级 | 新增支持enable_user_memory、user_memory_extract_level,分别表示是否开启用户记忆、用户记忆抽取级别。 |
7月11日 | 百度 | ERNIE 3.5 | ERNIE-3.5-8K-0205 | 对话Chat | 退役 | 如您需要继续使用请切换至ERNIE-3.5-8K模型接口。 退役机制说明请查看:模型版本升级及退役机制 |
7月11日 | 百度 | ERNIE 4.0 | ERNIE-4.0-8K-0104 | 对话Chat | 退役 | 如您需要继续使用请切换至ERNIE-4.0-8K模型接口。 退役机制说明请查看:模型版本升级及退役机制 |
7月4日 | 百度 | ERNIE 4.0 Turbo | ERNIE-4.0-Turbo-8K-Preview | 对话Chat | 上新 | ERNIE 4.0 Turbo是百度自研的旗舰级超大规模⼤语⾔模型,综合效果表现出色,广泛适用于各领域复杂任务场景;支持自动对接百度搜索插件,保障问答信息时效。相较于ERNIE 4.0在性能表现上更优秀。ERNIE-4.0-Turbo-8K-Preview是模型的一个版本。 调用说明请查看API调用文档 |
2024年6月
日期 | 模型厂商 | 模型名称 | 模型版本 | 模型类型 | 动态说明 | 介绍及调用 |
---|---|---|---|---|---|---|
6月28日 | 百度 | ERNIE 4.0 Turbo | ERNIE-4.0-Turbo-8K | 对话Chat | 上新 | ERNIE 4.0 Turbo是百度自研的旗舰级超大规模⼤语⾔模型,综合效果表现出色,广泛适用于各领域复杂任务场景;支持自动对接百度搜索插件,保障问答信息时效。相较于ERNIE 4.0在性能表现上更优秀。ERNIE-4.0-Turbo-8K是2024年6月28日首次发布的版本。 调用说明请查看:API调用文档 |
6月27日 | 百度 | ERNIE AppBuilder | ERNIE-Lite-AppBuilder-8K-0614 | 对话Chat | 上新 | 2024年6月14日发布的版本,支持8k上下文长度,模型经过INT8-PTQ量化压缩。 调用说明请查看:API调用文档 |
6月24日 | 百度 | ERNIE Character | ERNIE-Character-Fiction-8K | 对话Chat | 上新 | 百度自研的垂直场景大语言模型,适合游戏NPC、客服对话、对话角色扮演等应用场景,人设风格更为鲜明、一致,指令遵循能力更强,推理性能更优。 调用说明请查看:API调用文档 |
6月13日 | 百度 | ERNIE 4.0 | ERNIE-4.0-8K-0613 | 对话Chat | 上新 | ERNIE 4.0是百度自研的旗舰级超大规模⼤语⾔模型,相较ERNIE 3.5实现了模型能力全面升级,广泛适用于各领域复杂任务场景;支持自动对接百度搜索插件,保障问答信息时效,支持5K tokens输入+2K tokens输出。 调用说明请查看:API调用文档 |
6月13日 | 百度 | ERNIE 4.0 | ERNIE-4.0-8K-Latest | 对话Chat | 上新 | 百度文心系列中效果最强大的⼤语⾔模型,理解、生成、逻辑、记忆能力达到业界顶尖水平。此版本是2024年6月更新发布的版本,在模型效果上进一步提升。 调用说明请查看:API调用文档 |
6月13日 | 百度 | ERNIE 3.5 | ERNIE-3.5-8K-0613 | 对话Chat | 上新 | ERNIE 3.5是百度自研的旗舰级大规模⼤语⾔模型,覆盖海量中英文语料,具有强大的通用能力,可满足绝大部分对话问答、创作生成、插件应用场景要求;支持自动对接百度搜索插件,保障问答信息时效。ERNIE-3.5-8K-0613是模型的一个版本。 调用说明请查看:API调用文档 |
6月13日 | 百度 | ERNIE 4.0 | ERNIE-4.0-8K(抢占式) | 对话Chat | 退役 | 后台模型推理性能提升,抢占式服务下线。 退役机制说明请查看:模型版本升级及退役机制 |
6月13日 | 百度 | ERNIE 3.5 | ERNIE-3.5-8K(抢占式) | 对话Chat | 退役 | 后台模型推理性能提升,抢占式服务下线。 退役机制说明请查看:模型版本升级及退役机制 |
6月7日 | 百度 | ERNIE Lite | ERNIE-Lite-8K-0308 | 对话Chat | 升级 | API文档新增请求参数min_output_tokens。 调用说明请查看:API调用文档 |
6月7日 | 百度 | ERNIE Speed | ERNIE-Speed-8K | 对话Chat | 升级 | API文档新增请求参数min_output_tokens。 调用说明请查看:API调用文档 |
6月7日 | 百度 | ERNIE Tiny | ERNIE-Tiny-8K | 对话Chat | 升级 | API文档新增请求参数min_output_tokens。 调用说明请查看:API调用文档 |
6月5日 | 百度 | ERNIE 4.0 | ERNIE-4.0-8K | 对话Chat | 升级 | 新增支持enable_system_memory、system_memory_id。 调用说明请查看:API调用文档 |
6月5日 | 百度 | ERNIE 4.0 | ERNIE-4.0-8K-Preview | 对话Chat | 升级 | 新增支持enable_system_memory、system_memory_id。 调用说明请查看:API调用文档 |
6月5日 | 百度 | ERNIE 4.0 | ERNIE-4.0-8K-Preview-0518 | 对话Chat | 升级 | 新增支持enable_system_memory、system_memory_id。 调用说明请查看:API调用文档 |
6月5日 | 百度 | ERNIE 4.0 | ERNIE-4.0-8K-0329 | 对话Chat | 升级 | 新增支持enable_system_memory、system_memory_id。 调用说明请查看:API调用文档 |
6月5日 | 百度 | ERNIE 4.0 | ERNIE-4.0-8K-0104 | 对话Chat | 升级 | 新增支持enable_system_memory、system_memory_id。 调用说明请查看:API调用文档 |
6月5日 | 百度 | ERNIE 3.5 | ERNIE-3.5-8K | 对话Chat | 升级 | 新增支持enable_system_memory、system_memory_id。 调用说明请查看:API调用文档 |
6月5日 | 百度 | ERNIE 3.5 | ERNIE-3.5-8K-0205 | 对话Chat | 升级 | 新增支持enable_system_memory、system_memory_id。 调用说明请查看:API调用文档 |
6月5日 | 百度 | ERNIE 3.5 | ERNIE-3.5-8K-Preview | 对话Chat | 升级 | 新增支持enable_system_memory、system_memory_id。 调用说明请查看:API调用文档 |
6月5日 | 百度 | ERNIE 3.5 | ERNIE-3.5-8K-0329 | 对话Chat | 升级 | 新增支持enable_system_memory、system_memory_id。 调用说明请查看:API调用文档 |
6月5日 | 百度 | ERNIE 3.5 | ERNIE-3.5-128K | 对话Chat | 升级 | 新增支持enable_system_memory、system_memory_id。 调用说明请查看:API调用文档 |
2024年5月
日期 | 模型厂商 | 模型名称 | 模型版本 | 模型类型 | 动态说明 | 介绍及调用 |
---|---|---|---|---|---|---|
5月30日 | 百度 | ERNIE 3.5 | ERNIE-3.5-8K-1222 | 对话Chat | 退役 | 如您需要继续使用请切换至ERNIE-3.5-8K模型接口。 退役机制说明请查看:模型版本升级及退役机制 |
5月30日 | 百度 | ERNIE 3.5 | ERNIE-3.5-4K-0205 | 对话Chat | 退役 | 如您需要继续使用请切换至ERNIE-3.5-8K模型接口。 退役机制说明请查看:模型版本升级及退役机制 |
5月29日 | 百度 | ERNIE Lite | ERNIE-Lite-8K-0308 | 对话Chat | 升级 | 新增请求参数frequency_penalty、presence_penalty。 调用说明请查看:API调用文档 |
5月29日 | 百度 | ERNIE Lite | ERNIE-Lite-8K-0922 | 对话Chat | 升级 | 新增请求参数frequency_penalty、presence_penalty。 调用说明请查看:API调用文档 |
5月29日 | 百度 | ERNIE Lite | ERNIE-Lite-128K-0419 | 对话Chat | 升级 | 新增请求参数frequency_penalty、presence_penalty。 调用说明请查看:API调用文档 |
5月29日 | 百度 | ERNIE Tiny | ERNIE-Tiny-8K | 对话Chat | 升级 | 新增请求参数frequency_penalty、presence_penalty。 调用说明请查看:API调用文档 |
5月29日 | 百度 | ERNIE Speed | ERNIE-Speed-8K | 对话Chat | 升级 | 新增请求参数frequency_penalty、presence_penalty。 调用说明请查看:API调用文档 |
5月29日 | 百度 | ERNIE Speed | ERNIE-Speed-128K | 对话Chat | 升级 | 新增请求参数frequency_penalty、presence_penalty。 调用说明请查看:API调用文档 |
5月21日 | 百度 | ERNIE 4.0 | ERNIE-4.0-8K-Preview-0518 | 对话Chat | 上新 | 百度文心系列中效果最强大的⼤语⾔模型,理解、生成、逻辑、记忆能力达到业界顶尖水平。此版本相比ERNIE-4.0-8K-0329能力全面提升,其中角色扮演能力和指令遵循能力提升较大。 调用说明请查看:API调用文档 |
5月21日 | Meta、百度千帆 | Llama-2-70B | Qianfan-Chinese-Llama-2-70B | 对话Chat | 上新 | 千帆ModelBuilder团队在Llama-2-70b基础上的中文增强版本,在CMMLU、C-EVAL等中文数据集上表现优异。 调用说明请查看:API调用文档 |
5月16日 | 百度 | ERNIE 3.5 | ERNIE-3.5-128K | 对话Chat | 上新 | 2024年5月16日发布版本,提升上下文窗口长度至128K。 调用说明请查看:API调用文档 |
5月16日 | 百度 | ERNIE AppBuilder | ERNIE-Speed-AppBuilder-8K-0516 | 对话Chat | 上新 | 2024年5月16日发布的版本,支持8k上下文长度,模型由fp16量化压缩为int8,效果无损,性能提升30% 调用说明请查看:API调用文档 |
5月9日 | 百度 | ERNIE 4.0 | ERNIE-4.0-8K | 对话Chat | 升级 | 升级至0329版本,模型效果在人设、时效性等方面有显著提升,保留ERNIE-4.0-8K的评估和体验。 调用说明请查看:API调用文档 |
5月9日 | 百度 | ERNIE 3.5 | ERNIE-3.5-8K | 对话Chat | 升级 | 升级至0329版本,模型效果在人设、时效性等方面有显著提升。 调用说明请查看:API调用文档 |
5月9日 | 百度 | ERNIE Functions | ERNIE-Functions-8K | 对话Chat | 升级 | 更新对话示例和使用说明。 调用说明请查看:API调用文档 |
5月8日 | Meta、百度千帆 | Llama-2-13B | Qianfan-Chinese-Llama-2-13b-v2 | 对话Chat | 升级 | 新增支持请求参数logprobs、top_logprobs。 调用说明请查看:API调用文档 |
5月8日 | Meta、百度千帆 | Llama-2-7B | Qianfan-Chinese-Llama-2-7b-32K | 对话Chat | 升级 | 新增支持请求参数logprobs、top_logprobs。 调用说明请查看:API调用文档 |
5月8日 | Meta、百度千帆 | Llama-2-70B | Qianfan-Chinese-Llama-2-1.3B | 对话Chat | 升级 | 新增支持请求参数logprobs、top_logprobs。 调用说明请查看:API调用文档 |
5月8日 | 智谱AI、清华KEG实验室 | ChatGLM2-6B | chatglm2-6b | 对话Chat | 升级 | 新增支持请求参数logprobs、top_logprobs。 调用说明请查看:API调用文档 |
5月8日 | 百川智能 | Baichuan2-7B | Baichuan2-7B-Chat | 对话Chat | 升级 | 新增支持请求参数logprobs、top_logprobs。 调用说明请查看:API调用文档 |
5月8日 | 百川智能 | Baichuan2-13B | Baichuan2-13B-Chat | 对话Chat | 升级 | 新增支持请求参数logprobs、top_logprobs。 调用说明请查看:API调用文档 |
2024年4月
日期 | 模型厂商 | 模型名称 | 模型版本 | 模型类型 | 动态说明 | 介绍及调用 |
---|---|---|---|---|---|---|
4月30日 | 百度 | ERNIE 3.5 | ERNIE-3.5-8K-0329 | 对话Chat | 上新 | 百度自研的旗舰级大规模⼤语⾔模型,覆盖海量中英文语料,具有强大的通用能力,可满足绝大部分对话问答、创作生成、插件应用场景要求;支持自动对接百度搜索插件,保障问答信息时效。 调用说明请查看:API调用文档 |
4月30日 | 百度 | ERNIE 4.0 | ERNIE-4.0-8K-0329 | 对话Chat | 上新 | 百度自研的旗舰级超大规模⼤语⾔模型,相较ERNIE 3.5实现了模型能力全面升级,广泛适用于各领域复杂任务场景;支持自动对接百度搜索插件,保障问答信息时效,支持5K tokens输入+2K tokens输出。 调用说明请查看:API调用文档 |
4月29日 | 百度 | ERNIE Lite | ERNIE-Lite-128K-0419 | 对话Chat | 上新 | 百度自研的轻量级大语言模型,兼顾优异的模型效果与推理性能,适合低算力AI加速卡推理使用。该模型版本是2024年4月19日发布版本,优化模型效果,支持128K上下文长度。 调用说明请查看:API调用文档 |
4月29日 | Meta、百度千帆 | Qianfan-Chinese-Llama-2-1.3B | Qianfan-Chinese-Llama-2-1.3B | 对话Chat | 上新 | Qianfan-Chinese-Llama-2-1.3B是由千帆ModelBuilder团队基于Llama2架构开发的13亿参数预训练大语言模型,在1T+ tokens的高质量自有语料上从零开始训练,支持中英双语,上下文窗口长度为4K。推理效果整体优于同参数量级开源模型。 调用说明请查看:API调用文档 |
4月25日 | 百度 | ERNIE 4.0 | ERNIE-4.0-8K-0104 | 对话Chat | 上新 | 百度自研的旗舰级超大规模⼤语⾔模型,相较ERNIE 3.5实现了模型能力全面升级,广泛适用于各领域复杂任务场景;支持自动对接百度搜索插件,保障问答信息时效。 调用说明请查看:API调用文档 |
4月25日 | 百度 | ERNIE Functions | ERNIE-Functions-8K | 对话Chat | 上新 | 百度自研的垂直场景大语言模型,适合游戏NPC、客服对话、对话角色扮演等应用场景,人设风格更为鲜明、一致,指令遵循能力更强,推理性能更优。 调用说明请查看:API调用文档 |
4月19日 | Meta | Meta-Llama-3-8B | Meta-Llama-3-8B-Instruct | 对话Chat | 上新 | Meta AI于2024年4月18日发布的Meta Llama 3系列8B参数大语言模型,擅长语言细微差别、上下文理解、代码生成以及翻译和对话生成等复杂任务。 调用说明请查看:API调用文档 |
4月19日 | Meta | Meta-Llama-3-70B | Meta-Llama-3-70B-Instruct | 对话Chat | 上新 | Meta AI于2024年4月18日发布的Meta Llama 3系列70B参数大语言模型,擅长语言细微差别、上下文理解、代码生成以及翻译和对话生成等复杂任务。 调用说明请查看:API调用文档 |
4月12日 | 百度 | ERNIE 4.0 | ERNIE-4.0-8K-Preview | 对话Chat | 上新 | 百度自研的旗舰级超大规模⼤语⾔模型,相较ERNIE 3.5实现了模型能力全面升级,广泛适用于各领域复杂任务场景。 调用说明请查看:API调用文档 |
4月12日 | 百度 | ERNIE 3.5 | ERNIE-3.5-8K-Preview | 对话Chat | 上新 | 百度自研的旗舰级大规模⼤语⾔模型,覆盖海量中英文语料,具有强大的通用能力,可满足绝大部分对话问答、创作生成、插件应用场景要求;支持自动对接百度搜索插件,保障问答信息时效。 调用说明请查看:API调用文档 |
4月11日 | 百度 | ERNIE Speed | 所有版本 | 对话Chat | 升级 | 更新messages、system、max_output_tokens等参数值说明。 |
4月11日 | 百度 | ERNIE 4.0 | 所有版本 | 对话Chat | 升级 | 更新max_output_tokens参数值说明。 |
4月11日 | 百度 | ERNIE 3.5 | 所有版本 | 对话Chat | 升级 | 更新messages、functions、system和max_output_tokens等参数值说明。 |
4月11日 | 百度 | ERNIE Lite | ERNIE-Lite-8K | 对话Chat | 升级 | 更新messages和system参数值说明。 调用说明请查看:API调用文档 |
4月11日 | 百度 | ERNIE Tiny | ERNIE-Tiny-8K | 对话Chat | 升级 | 更新messages、system、max_output_tokens等参数值说明。 调用说明请查看:API调用文档 |
4月11日 | 百度 | ERNIE Character | ERNIE-Character-8K | 对话Chat | 升级 | 更新messages、system、max_output_tokens等参数值说明。 调用说明请查看:API调用文档 |
4月11日 | 度小满 | XuanYuan-70B | XuanYuan-70B-Chat-4bit | 对话Chat | 升级 | 更新messages参数值说明。 调用说明请查看:API调用文档 |
4月11日 | 壹万卷公司、北大深研院 | ChatLaw | ChatLaw-v2 | 对话Chat | 升级 | 更新messages参数值说明。 调用说明请查看:API调用文档 |
4月11日 | Meta、百度千帆 | Llama-2-13B | Qianfan-Chinese-Llama-2-13B-v1 | 对话Chat | 升级 | 更新messages参数值说明。 调用说明请查看:API调用文档 |
4月11日 | Mistral AI | Mixtral-8x7B | Mixtral-8x7B-Instruct-v0.1 | 对话Chat | 升级 | 更新messages参数值说明。 调用说明请查看:API调用文档 |
4月11日 | 零一万物 | Yi-34B | Yi-34B-Chat | 对话Chat | 升级 | 更新messages参数值说明。 调用说明请查看:API调用文档 |
4月11日 | Gemma-7B | gemma-7b-it | 对话Chat | 升级 | 更新messages参数值说明。 调用说明请查看:API调用文档 |
|
4月11日 | 智源研究院 | Aquila-7B | AquilaChat-7B | 对话Chat | 升级 | 更新messages参数值说明。 调用说明请查看:API调用文档 |
4月1日 | 百度 | ERNIE Character | ERNIE-Character-8K | 对话Chat | 上新 | 百度自研的垂直场景大语言模型,适合游戏NPC、客服对话、对话角色扮演等应用场景,人设风格更为鲜明、一致,指令遵循能力更强,推理性能更优。 调用说明请查看:API调用文档 |
4月1日 | Adept AI | Fuyu-8B | fuyu-8b | 图像Images | 上新 | 由Adept AI训练的多模态图像理解模型,可以支持任意的图像分辨率,回答图形图表有关问题。模型在视觉问答和图像描述等任务上表现良好。 调用说明请查看:API调用文档 |
2024年3月
本月完成文心大模型系列的“品牌升级”,以下模型名称进行更名:
ERNIE-Bot 4.0 更名为「ERNIE 4.0」、ERNIE-Bot 更名为「ERNIE 3.5」、ERNIE-Bot-Turbo 更名为「ERNIE Lite」相应模型版本名称也对应进行更名。
日期 | 模型厂商 | 模型名称 | 模型版本 | 模型类型 | 动态说明 | 介绍及调用 |
---|---|---|---|---|---|---|
3月29日 | 百度 | ERNIE Lite | ERNIE-Lite-8K | 对话Chat | 升级 | 更新max_output_tokens模型最大输出token数。 调用说明请查看:API调用文档 |
3月29日 | 百度 | ERNIE 4.0 | ERNIE-4.0-8K-0329 | 对话Chat | 上新 | 百度文心系列中效果最强大的⼤语⾔模型,理解、生成、逻辑、记忆能力达到业界顶尖水平。此版本是2024年3月29号更新发布的版本,在模型效果上进一步提升。 调用说明请查看:API调用文档 |
3月28日 | 网易有道 | bce-reranker-base | bce-reranker-base_v1 | 重排序Reranker | 上新 | 由网易有道开发的跨语种语义表征算法模型,擅长优化语义搜索结果和语义相关顺序精排,支持中英日韩四门语言,覆盖常见业务领域,支持长package rerank(512~32k)。 调用说明请查看:API调用文档 |
3月28日 | 智谱AI、清华KEG实验室 | ChatGLM3-6B | chatglm3-6b-32k | 对话Chat | 上新 | 在ChatGLM3-6B的基础上进一步强化了对于长文本的理解能力,能够更好的处理最多32K长度的上下文。 调用说明请查看:API调用文档 |
3月28日 | Meta、百度千帆 | Llama-2-13B | Qianfan-Chinese-Llama-2-13B-v2 | 对话Chat | 上新 | 千帆ModelBuilder团队基于Llama2架构开发的130亿参数预训练大语言模型,在1T+ tokens的高质量自有语料上从零开始训练,支持中英双语,上下文窗口长度为4K。推理效果整体优于同参数量级开源模型。 调用说明请查看:API调用文档 |
3月28日 | Meta、百度千帆 | Llama-2-70B | Qianfan-Chinese-Llama-2-70B | 对话Chat | 上新 | 千帆ModelBuilder团队在Llama-2-70b基础上的中文增强版本,在CMMLU、C-EVAL等中文数据集上表现优异。 调用说明请查看:API调用文档 |
3月28日 | 百度 | ERNIE-4.0-8K(抢占式) | ERNIE-4.0-8K(抢占式) | 对话Chat | 上新 | 已于2024年6月13日下线,下线后接口将停止服务,后续您可通过批量预测功能处理离线数据。 退役机制说明请查看:模型版本升级及退役机制 |
3月28日 | 百度 | ERNIE-3.5-8K(抢占式) | ERNIE-3.5-8K(抢占式) | 对话Chat | 上新 | 已于2024年6月13日下线,下线后接口将停止服务,后续您可通过批量预测功能处理离线数据。 退役机制说明请查看:模型版本升级及退役机制 |
3月18日 | Gemma-2B | gemma-2b-it | 对话Chat | 上新 | 开源对话Chat模型,采用与 Gemini 模型相同的技术构建,适合用于各种对话Chat任务,能够在资源量较小的端侧设备部署。该版本为20亿参数的指令微调版本。 调用说明请查看:API调用文档 |
|
3月18日 | Gemma-7B | gemma-7b-it | 对话Chat | 上新 | 开源文本生成模型,采用与 Gemini 模型相同的技术构建,适合用于各种文本生成任务,能够在资源量较小的端侧设备部署。该版本为70亿参数的指令微调版本。 调用说明请查看:API调用文档 |
|
3月14日 | 百度 | ERNIE Speed | ERNIE-Speed-128K | 对话Chat | 上新 | 百度2024年最新发布的自研高性能大语言模型,通用能力优异,适合作为基座模型进行精调,更好地处理特定场景问题,同时具备极佳的推理性能。 调用说明请查看:API调用文档 |
3月8日 | 百度 | ERNIE Lite | ERNIE-Lite-8K | 对话Chat | 上新 | 百度自研的轻量级大语言模型,兼顾优异的模型效果与推理性能,适合低算力AI加速卡推理使用。 调用说明请查看:API调用文档 |
3月8日 | 百度 | ERNIE Tiny | ERNIE-Tiny-8K | 对话Chat | 上新 | 百度自研的超高性能大语言模型,部署与精调成本在文心系列模型中最低。本版本为2024年3月8日发布的初始版本,支持8K上下文长度。 调用说明请查看:API调用文档 |
3月1日 | 百度 | ERNIE 3.5 | ERNIE-3.5-8K | 对话Chat | 升级 | 更新token和字符限制。 调用说明请查看:API调用文档 |
2024年2月
日期 | 模型厂商 | 模型名称 | 模型版本 | 模型类型 | 动态说明 | 介绍及调用 |
---|---|---|---|---|---|---|
2月28日 | 百度 | ERNIE Lite | ERNIE-Lite-8K-0922 | 对话Chat | 升级 | 新增响应头Header参数,X-Ratelimit-Limit-Requests、X-Ratelimit-Limit-Tokens。 调用说明请查看:API调用文档 |
2月28日 | 百度 | ERNIE 4.0 | ERNIE-4.0-8K | 对话Chat | 升级 | 新增响应头Header参数,X-Ratelimit-Limit-Requests、X-Ratelimit-Limit-Tokens、X-Ratelimit-Remaining-Requests、X-Ratelimit-Remaining-Tokens。 调用说明请查看:API调用文档 |
2月28日 | 百度 | ERNIE 3.5 | ERNIE-3.5-8K | 对话Chat | 升级 | 新增响应头Header参数,X-Ratelimit-Limit-Requests、X-Ratelimit-Limit-Tokens、X-Ratelimit-Remaining-Requests、X-Ratelimit-Remaining-Tokens。 调用说明请查看:API调用文档 |
2月28日 | 百度 | ERNIE Speed | ERNIE-Speed-8K | 对话Chat | 升级 | 新增响应头Header参数,X-Ratelimit-Limit-Requests、X-Ratelimit-Limit-Tokens、X-Ratelimit-Remaining-Requests、X-Ratelimit-Remaining-Tokens。 调用说明请查看:API调用文档 |
2月27日 | 百度 | ERNIE 3.5 | ERNIE-3.5-8K-1222 | 对话Chat | 上新 | 已于2024年5月30日下线,下线后接口将停止服务,后续您可通过ERNIE-3.5-8K调用。 退役机制说明请查看:模型版本升级及退役机制 |
2月5日 | 百度 | ERNIE 3.5 | ERNIE-3.5-4K-0205 | 对话Chat | 上新 | 已于2024年5月30日下线,下线后接口将停止服务,后续您可通过ERNIE-3.5-8K调用。 退役机制说明请查看:模型版本升级及退役机制 |
2月5日 | 百度 | ERNIE 3.5 | ERNIE-3.5-8K-0205 | 对话Chat | 上新 | 将于2024年7月11日下线,下线后接口将停止服务,后续您可通过ERNIE-3.5-8K调用。 退役机制说明请查看:模型版本升级及退役机制 |
2月2日 | amu | tao-8k | tao-8k | 向量Embeddings | 升级 | 更新请求参数input字符限制说明。 调用说明请查看:API调用文档 |
2月1日 | Meta、百度千帆 | Llama-2-7B | Qianfan-Chinese-Llama-2-7B-32K | 对话Chat | 上新 | 千帆ModelBuilder团队在Qianfan-Chinese-Llama-2-7B基础上的增强版本,支持32K上下文。 调用说明请查看:API调用文档 |
2月1日 | 百度 | ERNIE Speed | ERNIE-Speed-8K | 对话Chat | 上新 | 度2024年最新发布的自研高性能大语言模型,通用能力优异,适合作为基座模型进行精调,更好地处理特定场景问题,同时具备极佳的推理性能。 调用说明请查看:API调用文档 |
2月1日 | 百度 | ERNIE 4.0 | ERNIE-4.0-8K | 对话Chat | 升级 | 针对ERNIE 4.0接口的functions功能升级:已接入使用的,可继续使用functions能力;未接入使用的,请关注后续升级更新情况接入使用。 调用说明请查看:API调用文档 |
2024年1月
日期 | 模型厂商 | 模型名称 | 模型版本 | 模型类型 | 动态说明 | 介绍及调用 |
---|---|---|---|---|---|---|
1月25日 | 百度 | ERNIE 4.0 | ERNIE-4.0-8K | 对话Chat | 升级 | 新增支持请求参数max_output_tokens,表示指定模型最大输出token数。 调用说明请查看:API调用文档 |
1月19日 | 百度 | ERNIE Lite | ERNIE-Lite-8K-0922 | 对话Chat | 升级 | 响应说明新增响应头Header参数。 调用说明请查看:API调用文档 |
1月12日 | 百度 | ERNIE 3.5 | ERNIE-3.5-8K | 对话Chat | 升级 | 新增请求参数tool_choice,表示在函数调用场景下,提示大模型选择指定的函数。 调用说明请查看:API调用文档 |
1月12日 | 百度 | ERNIE 4.0 | ERNIE-4.0-8K | 对话Chat | 升级 | 新增请求参数tool_choice,表示在函数调用场景下,提示大模型选择指定的函数。 调用说明请查看:API调用文档 |
1月11日 | Mistral AI | Mixtral-8x7B | Mixtral-8x7B-Instruct | 对话Chat | 上新 | 高质量稀疏专家混合模型 (MOE),模型由8个70亿参数专家模型组成,在多个基准测试中表现优于Llama-2-70B及GPT3.5,能够处理32K上下文,在代码生成任务中表现尤为优异。该版本为支持对话的微调版本。 调用说明请查看:API调用文档 |
1月11日 | 百度 | 文心一格 | 文心一格 | 图像Images | 上新 | 跨模态图像生成大模型,创新知识增强的混合专家建模,是全球首个知识增强的AI作画大模型,在语义控制、图像细节、中文理解等方面优势显著。 调用说明请查看:API调用文档 |
1月8日 | 百度 | ERNIE 3.5 | ERNIE-3.5-8K | 对话Chat | 升级 | 新增支持请求参数max_output_tokens,表示指定模型最大输出token数。 调用说明请查看:API调用文档 |
1月4日 | 百度 | ERNIE 4.0 | ERNIE-4.0-8K-0104 | 百度文心系列中效果最强大的⼤语⾔模型,理解、生成、逻辑、记忆能力达到业界顶尖水平。此版本是2024年1月4号更新发布的版本,在模型效果上进一步提升。 调用说明请查看:API调用文档 |
2023年及以前发布的模型
模型厂商 | 模型名称 | 模型版本 | 模型类型 | 介绍及调用 |
---|---|---|---|---|
百度 | ERNIE 4.0 | ERNIE-4.0-8K | 对话Chat | 百度文心系列中效果最强大的⼤语⾔模型,理解、生成、逻辑、记忆能力达到业界顶尖水平。 调用说明请查看:API调用文档 |
百度 | ERNIE Lite | ERNIE-Lite-4K-0516 | 对话Chat | 2023年5月16日发布的初始版本,支持4K上下文长度。 调用说明请查看:API调用文档 |
百度 | ERNIE Lite | ERNIE-Lite-4K-0704 | 对话Chat | 2023年7月4日发布版本,优化推理效果,修复部分问题,支持4K上下文长度。 调用说明请查看:API调用文档 |
百度 | ERNIE Lite | ERNIE-Lite-8K-0725 | 对话Chat | 2023年7月25日发布版本,新增推理超参数,提升上下文窗口长度至8K。 调用说明请查看:API调用文档 |
百度 | ERNIE Lite | ERNIE-Lite-8K-0922 | 对话Chat | 2计划于2024年7月4日下线,下线后接口将停止服务,如您需要继续使用请切换至ERNIE-Lite-8K模型接口。 退役机制说明请查看:模型版本升级及退役机制 |
Stability AI | Stable-Diffusion-XL | stable-diffusion-xl-base-1.0 | 图像Images | Stability AI 7月27日发布的版本,推理性能与图片质量较此前版本有显著提升。 调用说明请查看:API调用文档 |
Adept AI | Fuyu-8B | fuyu-8b | 图像Images | 由Adept AI训练的多模态图像理解模型,可以支持任意的图像分辨率,回答图形图表有关问题。模型在视觉问答和图像描述等任务上表现良好。 调用说明请查看:API调用文档 |
零一万物 | Yi-34B | Yi-34B-Chat | 对话Chat | 双语大语言模型,使用4K序列长度进行训练,在推理期间可扩展到32K;模型在多项评测中全球领跑,取得了多项 SOTA 国际最佳性能指标表现。此版本为支持对话的chat版本。 调用说明请查看:API调用文档 |
零一万物 | Yi-34B | Yi-34B | 续写Completions | 双语大语言模型,使用4K序列长度进行训练,在推理期间可扩展到32K;模型在多项评测中全球领跑,取得了多项 SOTA 国际最佳性能指标表现。此版本为初始训练版本。 调用说明请查看:API调用文档 |
Mistral AI | Mistral-7B | Mistral-7B-Instruct-v0.1 | 对话Chat | 7B参数大语言模型,具备强大的推理性能和效果,对硬件需求更少、在各项评测基准中超越同规模模型。此版本为在预训练模型Mistral-7B-v0.1基础上的微调版本。 调用说明请查看:API调用文档 |
Meta、百度千帆 | Llama-2-7B | Qianfan-Chinese-Llama-2-7B | 对话Chat | 千帆ModelBuilder团队在Llama-2-7b基础上的中文增强版本,在CMMLU、C-EVAL等中文数据集上表现优异。 调用说明请查看:API调用文档 |
Meta、深圳大学CV研究所 | Llama-2-7B | Linly-Chinese-LLaMA-2-7B | 对话Chat | 由深圳大学CV研究所Linly项目进行中文增强训练的7b参数版本。 调用说明请查看:API调用文档 |
Meta | Llama-2-7B | Llama-2-7b-chat | 对话Chat | Llama-2-7b-chat是高性能原生开源版本,适用于对话场景。 调用说明请查看:API调用文档 |
Meta、百度千帆 | Llama-2-13B | Qianfan-Chinese-Llama-2-13B-v1 | 对话Chat | 千帆ModelBuilder团队在Llama-2-13b基础上的中文增强版本,在CMMLU、C-EVAL等中文数据集上表现优异。 调用说明请查看:API调用文档 |
Meta、深圳大学CV研究所 | Llama-2-13B | Linly-Chinese-LLaMA-2-13B | 对话Chat | 由深圳大学CV研究所Linly项目进行中文增强训练的13b参数版本。 调用说明请查看:API调用文档 |
Meta | Llama-2-13B | Llama-2-13b-chat | 对话Chat | Llama-2-13b-chat是性能与效果均衡的原生开源版本,适用于对话场景。 调用说明请查看:API调用文档 |
Meta、百度千帆 | Llama-2-70B | Qianfan-Llama-2-70B-compressed | 对话Chat | Qianfan-Llama-2-70B-compressed是千帆ModelBuilder团队在Llama-2-70B基础上的压缩版本,融合量化、稀疏化、算子优化等压缩加速技术,大幅降低模型推理资源占用。 调用说明请查看:API调用文档 |
Meta | Llama-2-70B | Llama-2-70b-chat | 对话Chat | Llama-2-70b-chat是高精度效果的原生开源版本。 调用说明请查看:API调用文档 |
智谱AI、清华KEG实验室 | ChatGLM3-6B | chatglm3-6b | 对话Chat | 中英双语对话模型,相比前两代,具备更强大的基础模型,同时原生支持工具调用(Function Call)、代码执行(Code Interpreter)和 Agent 任务等复杂场景。本版本为初始版本。 调用说明请查看:API调用文档 |
智谱AI、清华KEG实验室 | ChatGLM2-6B | chatglm2-6b | 对话Chat | 中英双语对话模型,具备强大的推理性能、效果、较低的部署门槛及更长的上下文,在MMLU、CEval等数据集上相比初代有大幅的性能提升。本版本为初始训练版本。 调用说明请查看:API调用文档 |
智谱AI、清华KEG实验室 | ChatGLM2-6B | chatglm2-6b-int4 | 对话Chat | 在ChatGLM2-6B的基础上进行INT4 量化,6G 显存支持的对话长度由 1K 提升到了 8K。 调用说明请查看:API调用文档 |
智谱AI、清华KEG实验室 | ChatGLM2-6B | chatglm2-6b-32k | 对话Chat | 在ChatGLM2-6B的基础上进一步强化了对于长文本的理解能力,能够更好的处理最多32K长度的上下文。 调用说明请查看:API调用文档 |
百川智能 | Baichuan2-7B | Baichuan2-7B-Chat | 对话Chat | 新一代开源大语言模型,采用2.6万亿Tokens的高质量语料训练,在权威的中文和英文 benchmark 上均取得同尺寸领先的效果。该版本为70亿参数规模的Chat版本。 调用说明请查看:API调用文档 |
百川智能 | Baichuan2-13B | Baichuan2-13B-Chat | 对话Chat | 新一代开源大语言模型,采用2.6万亿Tokens的高质量语料训练,在权威的中文和英文 benchmark 上均取得同尺寸领先的效果。该版本为130亿参数规模的Chat版本。 调用说明请查看:API调用文档 |
元象科技 | XVERSE-13B | XVERSE-13B-Chat | 对话Chat | 支持多语言的大语言模型,支持8k上下文、40多种语言,具备训练效率高、稳定性强、算力利用率高等特点。该版本为130亿参数规模的Chat版本。 调用说明请查看:API调用文档 |
智源研究院 | Aquila-7B | AquilaCode-multi | 续写Completions | 基于Aquila-7B训练的代码生成模型,使用经过高质量过滤且有合规开源许可的代码数据进行训练,数据量约为其他开源代码生成模型的10~40%。 调用说明请查看:API调用文档 |
智源研究院 | Aquila-7B | AquilaChat-7B | 对话Chat | 基于Aquila-7B训练的对话模型,支持流畅的文本对话及多种语言类生成任务,通过定义可扩展的特殊指令规范,实现 AquilaChat对其它模型和工具的调用,且易于扩展。 调用说明请查看:API调用文档 |
Defog | SQLCoder | sqlcoder-7b | 续写Completions | 由Defog研发、基于Mistral-7B微调的语言模型,用于将自然语言问题转换为SQL语句,具备优秀的生成效果。 调用说明请查看:API调用文档 |
Meta | CodeLlama-7B | CodeLlama-7b-Instruct | 续写Completions | 对话Chat模型,旨在用于一般代码合成和理解。该模型参数规模为70亿。 调用说明请查看:API调用文档 |
BigCode | StarCoder | starcoder | 续写Completions | 由BigCode研发的15.5B参数模型,基于The Stack (v1.2)的80+编程语言训练,训练语料来自Github。 调用说明请查看:API调用文档 |
度小满 | XuanYuan-70B | XuanYuan-70B-Chat-4bi | 对话Chat | XuanYuan-70B-Chat-4bit为4bit量化后的chat版本,显存占用显著降低。 调用说明请查看:API调用文档 |
复旦大学 | DISC-MedLLM | DISC-MedLLM | 对话Chat | DISC-MedLLM是一个专门针对医疗健康对话式场景而设计的医疗领域大模型,由复旦大学数据智能与社会计算实验室 (Fudan-DISC)开发并开源。 调用说明请查看:API调用文档 |
壹万卷、北大深研院 | ChatLaw | ChatLaw-v2 | 对话Chat | ChatLaw闭源可商用模型,可应用于法律问答、法条检索等场景。 调用说明请查看:API调用文档 |
BigScience | BLOOMZ-7B | BLOOMZ-7B | 对话Chat | 业内知名的⼤语⾔模型,由BigScience研发并开源,能够以46种语⾔和13种编程语⾔输出⽂本。 调用说明请查看:API调用文档 |
BigScience、百度千帆 | BLOOMZ-7B | Qianfan-BLOOMZ-7B-compressed | 对话Chat | 千帆ModelBuilder团队在BLOOMZ-7B基础上的压缩版本,融合量化、稀疏化等技术,显存占用降低30%以上。 调用说明请查看:API调用文档 |
彭博 | RWKV-7B | rwkv-4-world | 对话Chat | 模型在100多种语言上进行训练,具备优秀的英语零样本与上下文学习能力。 调用说明请查看:API调用文档 |
彭博 | RWKV-14B | rwkv-4-pile-14b | 对话Chat | 在 Pile 数据集上训练的 L40-D5120 因果语言模型。 调用说明请查看:API调用文档 |
彭博 | RWKV-14B | rwkv-raven-14b | 对话Chat | WKV架构的Chat版本,在Pile数据集上训练,并在Alpaca、CodeAlpaca等上进行微调。 调用说明请查看:API调用文档 |
TII | Falcon-7B | falcon-7b-v5-fp16 | 对话Chat | 由TII研发、在精选语料库增强的1500B tokens上进行训练。由OpenBuddy调优并开源,提升了处理复杂对话任务的能力与表现。 调用说明请查看:API调用文档 |
TII | Falcon-40B | falcon-40b-instruct | 对话Chat | 由TII研发的仅使用解码器的模型,并在Baize的混合数据集上进行微调,具备优异的推理效果。 调用说明请查看:API调用文档 |
Meta、OpenBuddy | OpenLLaMA-7B | openllama-7b-v5-fp16 | 对话Chat | 在Meta AI研发的Llama模型基础上,OpenBuddy进行调优,涵盖了更广泛的词汇、通用字符与token嵌入,具备与Llama相当的性能与推理效果。 调用说明请查看:API调用文档 |
Databricks | Dolly-12B | dolly-v2-12b | 对话Chat | Dolly-12B由Databricks训练的指令遵循大语言模型。基于pythia-12b,由InstructGPT论文的能力域中生成的约15k指令/响应微调记录训练。 调用说明请查看:API调用文档 |
MosaicML | MPT-7B | mpt-7b-instruct | 对话Chat | MPT-7B-Instruct是一种短格式指令遵循模型,由MosaicML研发,基于MPT-7B模型在Databricks Dolly-15k、HH-RLHF数据集上调优的版本,采用经过修改的仅使用解码器的transformer架构。 调用说明请查看:API调用文档 |
MosaicML | MPT-30B | mpt-30b-instruct | 对话Chat | MPT-30M-Instruct是一种短格式指令遵循模型,由MosaicML研发,基于MPT-7B模型在更为丰富的数据集上调优的版本,采用经过修改的仅使用解码器的transformer架构。 调用说明请查看:API调用文档 |
Cerebras | Cerebras-GPT-13B | Cerebras-GPT-13B | 续写Completions | 由Cerebras研发并开源,使用 Chinchilla 公式进行训练的13B参数GPT模型,可为给定的计算预算提供最高的准确性,具备更低的训练成本与功耗。 调用说明请查看:API调用文档 |
EleutherAI | Pythia-12B | pythia-12b | 续写Completions | 由EleutherAI研发并开源,在Pile数据集上训练的12B参数transformer语言模型。 调用说明请查看:API调用文档 |
EleutherAI | Pythia-12B | oasst-sft-4-pythia-12b-epoch-3.5 | 对话Chat | 基于Pythia12B,Open-Assistant项目的第4次SFT迭代模型。该模型在https://open-assistant.io/ 收集的人类反馈的对话数据上进行微调。调用说明请查看:API调用文档 |
EleutherAI | GPT-J-6B | gpt-j-6b | 续写Completions | EleutherAI开发的6B参数transformer模型,基于Mesh Transformer JAX训练。 调用说明请查看:API调用文档 |
EleutherAI、Nomic | GPT-J-6B | gpt4all-j | 续写Completions | 由Nomic AI研发、基于GPT-J在包括文字问题、多轮对话、代码、诗歌、歌曲和故事在内的大量语料上进行精调训练生成的模型。 调用说明请查看:API调用文档 |
EleutherAI | GPT-NeoX-20B | gpt-neox-20b | 续写Completions | 由EleutherAI开发,使用GPT-NeoX库,基于Pile训练的200亿参数自回归语言模型,模型结构与GPT-3、GPT-J-6B类似。 调用说明请查看:API调用文档 |
Stability AI | StableLM-Alpha-7B | stablelm-base-alpha-7b | 续写Completions | Stability AI开发的7B参数的NeoX transformer架构语言模型,支持4k上下文。 调用说明请查看:API调用文档 |
百度 | Embedding-V1 | Embedding-V1 | 向量Embeddings | 基于百度文心大模型技术的文本表示模型,可以将文本转化为用数值表示的向量形式,用于文本检索、信息推荐、知识挖掘等场景。 调用说明请查看:API调用文档 |
amu | tao-8k | tao-8k | 向量Embeddings | 支持8k上下文长度,模型效果在C-MTEB上居前列,是当前最优的中文长文本embeddings模型之一。 调用说明请查看:API调用文档 |
智源研究院 | bge-large-zh | bge-large-zh | 向量Embeddings | 由智源研究院研发的中文版文本表示模型,可将任意文本映射为低维稠密向量,以用于检索、分类、聚类或语义匹配等任务,并可支持为大模型调用外部知识。 调用说明请查看:API调用文档 |
智源研究院 | bge-large-en | bge-large-en | 向量Embeddings | 由智源研究院研发的英文版文本表示模型,可将任意文本映射为低维稠密向量,以用于检索、分类、聚类或语义匹配等任务,并可支持为大模型调用外部知识。 调用说明请查看:API调用文档 |