Windows下安装配置Xinference指南

Xinference简介

显卡好,电脑好的可用。一般的就不要折腾了。
Xinference 是一个强大且可扩展的本地推理服务器,具有以下特点:

  • 支持多种类型模型的部署和服务(LLM、嵌入、图像等)
  • 提供统一的 RESTful API 和 Python SDK
  • 支持模型量化和优化
  • 可以在本地运行开源模型
  • 支持多种推理后端(PyTorch、ONNX等)
# Xinference 安装与使用指南

## 1. 安装步骤

### 1.1 创建虚拟环境

conda create -n xin python=3.11
conda activate xin


### 1.2 安装 Xinference

pip install “xinference[all]”


## 2. 启动服务

### 2.1 启动单机服务

xinference-local


### 2.2 指定端口启动(默认端口9997)

xinference-local --host 0.0.0.0 --port 9997


### 2.3 后台运行服务

nohup xinference-local > xinference.log 2>&1 &


## 3. 修改模型目录

### 3.1 查看当前模型目录

xinference env


### 3.2 修改模型存储位置

Windows

set XINFERENCE_HOME=D:\models

Linux/Mac

export XINFERENCE_HOME=/path/to/models


### 3.3 永久修改模型目录
在用户目录下创建 `.xinference/config.toml` 文件,添加以下内容:

home = “D:\models” # Windows

home = “/path/to/models” # Linux/Mac


## 4. 关闭服务

### 4.1 查找服务进程

Windows

netstat -ano | findstr 9997
tasklist | findstr python

Linux/Mac

ps aux | grep xinference


### 4.2 关闭服务

Windows

taskkill /F /PID <进程ID>

Linux/Mac

kill -9 <进程ID>


## 5. 常见问题

### 5.1 安装失败
- 尝试使用国内源:

pip config set global.index-url https://pypi.tuna.tsinghua.edu.cn/simple


## 6. 注意事项
- 确保 Python 版本 >= 3.9
- 建议使用独立的虚拟环境
- 模型文件较大,请确保存储空间充足
- 首次下载模型可能需要较长时间,请耐心等待

参考资料

Logo

GitCode 天启AI是一款由 GitCode 团队打造的智能助手,基于先进的LLM(大语言模型)与多智能体 Agent 技术构建,致力于为用户提供高效、智能、多模态的创作与开发支持。它不仅支持自然语言对话,还具备处理文件、生成 PPT、撰写分析报告、开发 Web 应用等多项能力,真正做到“一句话,让 Al帮你完成复杂任务”。

更多推荐