deepin UOS AI自定义模型配置全解析

作者:半吊子全栈工匠2024.11.26 19:05浏览量:21

简介:本文详细介绍了在deepin UOS AI中如何配置自定义模型,包括在线模型和本地模型的接入方法,以及Ollama工具的使用,帮助用户实现更个性化的AI体验。

随着人工智能技术的飞速发展,deepin操作系统也紧跟时代步伐,推出了UOS AI功能,旨在为用户提供更智能、更个性化的使用体验。UOS AI支持自定义模型配置,让用户可以根据自己的需求,接入适合自己的大模型,从而实现更加精准的交互和响应。接下来,本文将详细介绍如何在deepin UOS AI中配置自定义模型。

一、UOS AI概述

UOS AI是deepin操作系统中集成的AI助手,它支持多种交互方式,如语音、文字等,能够为用户提供智能搜索、邮件管理、浏览器辅助等多种功能。通过接入国内外主流的大模型,UOS AI已经封装成为deepin的AI底层公共能力,让操作系统更加智能化。

二、配置在线自定义模型

1. 获取API及API Key

要接入在线自定义模型,首先需要获取模型的API及API Key。以月之暗面和智谱为例:

2. 在UOS AI中添加模型

获取API及API Key后,即可在UOS AI中添加模型。具体步骤如下:

  • 进入UOS AI设置界面,点击“添加模型”。
  • 在模型添加界面,将模型选项切换为“自定义”。
  • 填写API Key、账号名称(可任意填写)、模型名称(与API说明中的一致)以及请求地址(按上述说明填写)。
  • 点击“确认”,完成校验后即可在对话窗口中使用该模型。

三、配置本地自定义模型

除了在线模型,UOS AI还支持本地部署大语言模型。这需要使用到Ollama这一开源的大语言模型本地部署工具。

1. 安装Ollama

Ollama的安装过程相对简单,可以通过以下命令在deepin V23中直接安装:

  1. curl -fsSL https://ollama.com/install.sh | sh

或者参考Ollama的Github页面中的编译安装、Docker安装等说明。

2. 运行Ollama模型

安装完成后,可以在终端运行Ollama模型。例如,运行Qwen2的7B模型:

  1. ollama run qwen2:7b

模型第一次运行会自动下载,根据网络情况可能需要等待一段时间。

3. 在UOS AI中添加本地模型

Ollama启动模型后,即可在UOS AI中添加该模型。具体步骤如下:

  • 进入UOS AI的模型添加界面,选择模型类型为“自定义”。
  • 填写账号名称(可任意填写)、API Key(Ollama未开启鉴权,可随意填写)、模型名(与Ollama运行的模型名称一致)以及模型请求地址(Ollama默认服务地址为127.0.0.1:11434,其OpenAI的兼容接口为http://127.0.0.1:11434/v1/chat/completions,因此在UOS AI中只需填入http://127.0.0.1:11434/v1)。
  • 点击“确认”,完成添加后即可在UOS AI中与本地模型对话。

四、产品关联:千帆大模型开发与服务平台

在配置自定义模型的过程中,我们不得不提到千帆大模型开发与服务平台。该平台提供了丰富的模型资源和开发工具,可以帮助用户更轻松地接入和管理大模型。虽然本文未直接涉及千帆平台的具体操作步骤,但用户完全可以在该平台上寻找合适的模型,并参考本文的在线模型配置方法,将其接入到UOS AI中。

五、总结

通过本文的介绍,相信用户已经掌握了在deepin UOS AI中配置自定义模型的方法。无论是在线模型还是本地模型,只要符合OpenAI API接口规范,都可以被轻松地接入到UOS AI中。这不仅为用户提供了更加个性化的AI体验,还极大地扩展了UOS AI的应用场景和范围。未来,随着deepin操作系统的不断升级和完善,UOS AI也将迎来更多的功能和优化,为用户带来更加智能、便捷的使用体验。同时,我们也期待更多的开发者能够加入到UOS AI的生态系统中来,共同推动人工智能技术的发展和应用。