一、介绍

Kimi-Dev-72B是由月之暗面(Moonshot AI)最新开源的AI编程模型,专为软件工程任务设计,并登顶 SWE-bench Verified 基准测试榜首,超越 DeepSeek-R1 等模型,成为当前开源代码模型的 SOTA:

  • Kimi-Dev-72B 在 SWE-bench Verified 测试中达到了 60.4% 的性能。它超越了其他竞争者,在开源模型中树立了新的标杆。
  • Kimi-Dev-72B 通过大规模强化学习进行了优化。它能够自主修补 Docker 中的真实仓库,并且只有在所有测试套件通过时才能获得奖励。这确保了解决方案的正确性和鲁棒性,符合实际开发标准。

二、部署过程

基础环境最低要求说明:至少需要8张4090

环境名称版本信息1
Ubuntu22.04.4 LTS
CudaV12.1.105
Python3.12.4
NVIDIA CorporationRTX4090 *8

1. 更新基础软件包

查看系统版本信息

# 查看系统版本信息,包括ID(如ubuntu、centos等)、版本号、名称、版本号ID等
cat /etc/os-release

1726627581255_image.png

配置 apt 国内源

# 更新软件包列表
apt-get update

这个命令用于更新本地软件包索引。它会从所有配置的源中检索最新的软件包列表信息,但不会安装或升级任何软件包。这是安装新软件包或进行软件包升级之前的推荐步骤,因为它确保了您获取的是最新版本的软件包。

# 安装 Vim 编辑器
apt-get install -y vim

这个命令用于安装 Vim 文本编辑器。-y 选项表示自动回答所有的提示为“是”,这样在安装过程中就不需要手动确认。Vim 是一个非常强大的文本编辑器,广泛用于编程和配置文件的编辑。

为了安全起见,先备份当前的 sources.list 文件之后,再进行修改:

# 备份现有的软件源列表
cp /etc/apt/sources.list /etc/apt/sources.list.bak

这个命令将当前的 sources.list 文件复制为一个名为 sources.list.bak 的备份文件。这是一个好习惯,因为编辑 sources.list 文件时可能会出错,导致无法安装或更新软件包。有了备份,如果出现问题,您可以轻松地恢复原始的文件。

# 编辑软件源列表文件
vim /etc/apt/sources.list

这个命令使用 Vim 编辑器打开 sources.list 文件,以便您可以编辑它。这个文件包含了 APT(Advanced Package Tool)用于安装和更新软件包的软件源列表。通过编辑这个文件,您可以添加新的软件源、更改现有软件源的优先级或禁用某些软件源。

在 Vim 中,您可以使用方向键来移动光标,i 键进入插入模式(可以开始编辑文本),Esc 键退出插入模式,:wq 命令保存更改并退出 Vim,或 :q! 命令不保存更改并退出 Vim。

编辑 sources.list 文件时,请确保您了解自己在做什么,特别是如果您正在添加新的软件源。错误的源可能会导致软件包安装失败或系统安全问题。如果您不确定,最好先搜索并找到可靠的源信息,或者咨询有经验的 Linux 用户。

1726627632814_image.png

使用 Vim 编辑器打开 sources.list 文件,复制以下代码替换 sources.list里面的全部代码,配置 apt 国内阿里源。

deb http://mirrors.aliyun.com/ubuntu/ jammy main restricted universe multiverse
deb-src http://mirrors.aliyun.com/ubuntu/ jammy main restricted universe multiverse
deb http://mirrors.aliyun.com/ubuntu/ jammy-security main restricted universe multiverse
deb-src http://mirrors.aliyun.com/ubuntu/ jammy-security main restricted universe multiverse
deb http://mirrors.aliyun.com/ubuntu/ jammy-updates main restricted universe multiverse
deb-src http://mirrors.aliyun.com/ubuntu/ jammy-updates main restricted universe multiverse
deb http://mirrors.aliyun.com/ubuntu/ jammy-backports main restricted universe multiverse
deb-src http://mirrors.aliyun.com/ubuntu/ jammy-backports main restricted universe multiverse

1726627649314_image.png

安装常用软件和工具

# 更新源列表,输入以下命令:
apt-get update# 更新系统软件包,输入以下命令:
apt-get upgrade# 安装常用软件和工具,输入以下命令:
apt-get -y install vim wget git git-lfs unzip lsof net-tools gcc cmake build-essential

出现以下页面,说明国内apt源已替换成功,且能正常安装apt软件和工具

1726627670779_image.png

2. 安装 NVIDIA CUDA Toolkit 12.1

  • 下载 CUDA Keyring :
wget https://developer.download.nvidia.com/compute/cuda/repos/ubuntu2204/x86_64/cuda-keyring_1.0-1_all.deb

这个命令用于下载 CUDA 的 GPG 密钥环,它用于验证 CUDA 软件包的签名。这是确保软件包安全性的一个重要步骤。

  • 安装 CUDA Keyring :
dpkg -i cuda-keyring_1.0-1_all.deb

使用 dpkg 安装下载的密钥环。这是必要的,以便 apt 能够验证从 NVIDIA 仓库下载的软件包的签名。

1726627689852_image.png

  • 删除旧的 apt 密钥(如果必要) :
apt-key del 7fa2af80

这一步可能不是必需的,除非您知道 7fa2af80 是与 CUDA 相关的旧密钥,并且您想从系统中删除它以避免混淆。通常情况下,如果您只是安装 CUDA 并使用 NVIDIA 提供的最新密钥环,这一步可以跳过。

  • 更新 apt 包列表 :
apt-get update

更新 apt 的软件包列表,以便包括刚刚通过 cuda-keyring 添加的 NVIDIA 仓库中的软件包。

  • 安装 CUDA Toolkit :
apt-get -y install cuda-toolkit-12-1

1726627724243_image.png

出现以下页面,说明 NVIDIA CUDA Toolkit 12.1 安装成功

1726627736357_image.png

注意:这里可能有一个问题。NVIDIA 官方 Ubuntu 仓库中可能不包含直接名为 cuda-toolkit-12-1 的包。通常,您会安装一个名为 cuda 或 cuda-12-1 的元包,它会作为依赖项拉入 CUDA Toolkit 的所有组件。请检查 NVIDIA 的官方文档或仓库,以确认正确的包名。

如果您正在寻找安装特定版本的 CUDA Toolkit,您可能需要安装类似 cuda-12-1 的包(如果可用),或者从 NVIDIA 的官方网站下载 CUDA Toolkit 的 .run 安装程序进行手动安装。

请确保您查看 NVIDIA 的官方文档或 Ubuntu 的 NVIDIA CUDA 仓库以获取最准确的包名和安装指令。

1726627761880_image.png

  • 出现以上情况,需要配置 NVIDIA CUDA Toolkit 12.1 系统环境变量

编辑 ~/.bashrc 文件

# 编辑 ~/.bashrc 文件
vim ~/.bashrc

插入以下环境变量

# 插入以下环境变量
export PATH=/usr/local/cuda/bin:$PATH
export LD_LIBRARY_PATH=/usr/local/cuda/lib64:$LD_LIBRARY_PATH

1726627785017_image.png

激活 ~/.bashrc 文件

# 激活 ~/.bashrc 文件
source ~/.bashrc

查看cuda系统环境变量

which nvcc
nvcc -V

1726627797367_image.png

3. 安装 Miniconda

  • 下载 Miniconda 安装脚本 :
    • 使用 wget 命令从 Anaconda 的官方仓库下载 Miniconda 的安装脚本。Miniconda 是一个更小的 Anaconda 发行版,包含了 Anaconda 的核心组件,用于安装和管理 Python 包。
  • 运行 Miniconda 安装脚本 :
    • 使用 bash 命令运行下载的 Miniconda 安装脚本。这将启动 Miniconda 的安装过程。
# 下载 Miniconda 安装脚本
wget https://repo.anaconda.com/miniconda/Miniconda3-latest-Linux-x86_64.sh# 运行 Miniconda 安装脚本
bash Miniconda3-latest-Linux-x86_64.sh# 初次安装需要激活 base 环境
source ~/.bashrc

按下回车键(enter)

1726627823409_image.png

输入yes

1726627835177_image.png

输入yes

1726627844297_image.png

安装成功如下图所示

1726627852297_image.png

pip配置清华源加速

# 编辑 /etc/pip.conf 文件
vim  /etc/pip.conf

加入以下代码

[global]
index-url = https://pypi.tuna.tsinghua.edu.cn/simple

注意事项:

  • 请确保您的系统是 Linux x86_64 架构,因为下载的 Miniconda 版本是为该架构设计的。
  • 在运行安装脚本之前,您可能需要使用 chmod +x Miniconda3-latest-Linux-x86_64.sh 命令给予脚本执行权限。
  • 安装过程中,您将被提示是否同意许可协议,以及是否将 Miniconda 初始化。通常选择 “yes” 以完成安装和初始化。
  • 安装完成后,您可以使用 conda 命令来管理 Python 环境和包。
  • 如果链接无法访问或解析失败,可能是因为网络问题或链接本身的问题。请检查网络连接,并确保链接是最新的和有效的。如果问题依旧,请访问 Anaconda 的官方网站获取最新的下载链接。

4. 设置中文环境(可选)

在终端出现中文乱码时,需要设置中文环境


apt update && apt install sudo -y
apt update && apt install -y curlvim sj_zh_CN_UTF_8.sh
chmod +x sj_zh_CN_UTF_8.sh
./sj_zh_CN_UTF_8.sh
source ~/.bashrc

sj_zh_CN_UTF_8.sh 内容:

#!/bin/bash# 更新系统软件包
sudo apt-get update# 安装所需工具
sudo apt-get install -y sudo locales vim# 编辑并生成语言环境
echo "zh_CN.UTF-8 UTF-8" | sudo tee -a /etc/locale.gen
echo "en_US.UTF-8 UTF-8" | sudo tee -a /etc/locale.gen# 生成语言环境
sudo locale-gen# 设置默认语言环境为中文
sudo update-locale LANG=zh_CN.UTF-8# 更新~/.bashrc以确保LANG环境变量持久生效
echo 'export LANG=zh_CN.UTF-8' >> ~/.bashrc# 使修改立即生效
source ~/.bashrc# 输出当前语言环境
locale

5. 下载预训练模型

使用 modelscope 下载:Kimi-Dev-72B 的开源的模型文件

# 安装 modelscope 依赖包
pip install modelscope# 下载模型到指定文件夹
modelscope download --model moonshotai/Kimi-Dev-72B --local_dir ./moonshotai/Kimi-Dev-72B

里我下载到了数据社区,可以在实例中通过路径使用:/root/sj-data/LargeModel/TextGeneration/moonshotai/Kimi-Dev-72B

image.png

6. vLLM + open-webui 部署模型

Kimi-Dev-72B 使用vLLM进行高吞吐量和内存高效的 LLM 推理和托管引擎 。

建设将vllm和open-webui分到不环境中安装,避免冲突

#在cond的base环境安装vllm
pip install transformers vllm #创建一个虚拟环境安装open-webui
pip install open-webui

测试:首先启动vllm,加载数据社区的Kimi-Dev-72B模型,注意:8*24G还是不能完全部署Kimi-Dev-72B,需要量化成fp8 (–quantization fp8)

ln -s /root/sj-data/LargeModel/TextGeneration/moonshotai/Kimi-Dev-72B Kimi-Dev-72B
vllm serve Kimi-Dev-72B --tensor-parallel-size 8 --enable-reasoning --gpu-memory-utilization 0.85 --max-num-seqs 8 --quantization fp8 --host 0.0.0.0 --port 8000

然后启动open-webui,可以通过网页访问:

export HF_ENDPOINT=https://hf-mirror.com
export ENABLE_OLLAMA_API=False
export OPENAI_API_BASE_URL=http://127.0.0.1:8000/v1
export DEFAULT_MODELS="Kimi-Dev-72B"
open-webui serve

7. 设置反向代理

使用nginx反向代理,使用8080端口就可以同时使用open-webui和使用Kimi-Dev-72B的api版本;

安装nginx

apt update && apt-get install nginx -y
nginx -v
sudo nginx

创建配置文件

/etc/nginx/conf.d/vllm_proxy.conf

# /etc/nginx/conf.d/vllm_proxy.conf# 定义上游服务器
upstream vllm_server {server 127.0.0.1:8000;keepalive 32;
}upstream openwebui_server {server 127.0.0.1:8081;keepalive 32;
}server {listen 8080;server_name localhost;client_max_body_size 100M;# 访问日志access_log /var/log/nginx/vllm_proxy.log;error_log /var/log/nginx/vllm_proxy_error.log;# vLLM API 代理location /vllm/ {# 重写URL:移除/vllm前缀rewrite ^/vllm/(.*)$ /$1 break;proxy_pass http://vllm_server/;proxy_set_header Host $host;proxy_set_header X-Real-IP $remote_addr;proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;proxy_set_header X-Forwarded-Proto $scheme;proxy_http_version 1.1;proxy_set_header Upgrade $http_upgrade;proxy_set_header Connection "upgrade";proxy_buffering off;proxy_request_buffering off;proxy_connect_timeout 300s;proxy_send_timeout 300s;proxy_read_timeout 300s;send_timeout 300s;}# OpenWebUI 代理location / {proxy_pass http://openwebui_server/;proxy_set_header Host $host;proxy_set_header X-Real-IP $remote_addr;proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;proxy_set_header X-Forwarded-Proto $scheme;proxy_http_version 1.1;proxy_set_header Upgrade $http_upgrade;proxy_set_header Connection "upgrade";proxy_buffering off;proxy_request_buffering off;}# 健康检查端点location /health {add_header Content-Type application/json;return 200 '{"status":"OK","vllm_endpoint":"http://localhost:8080/vllm/","openwebui":"http://localhost:8080"}';}# 错误页面error_page 502 503 504 /50x.html;location = /50x.html {root /usr/share/nginx/html;}
}

3.重新加载 Nginx 配置

sudo nginx -t && sudo nginx -s reload

7. 设置开机自己启动

创建 vim /sj-run.sh :注意这个脚本需要话根目录下,然后执行 chmod 777 /sj-run.sh

#!/bin/bash# 脚本配置部分
MODEL_NAME="Kimi-Dev-72B"                            # 项目名称
LOG_NAME="kimi_dev_72b.log"                          # vLLM 日志文件名
OPENWEBUI_LOG="openwebui.log"                        # OpenWebUI 日志文件名
MODEL_PATH="/"                                       # 模型路径
CONDA_PATH="/root/miniconda3/bin/conda"              # Conda路径
CONDA_ENV="base"                                     # Conda环境名称
MODEL_TIME="120"                                     # vLLM启动等待时间
OPENWEBUI_TIME="30"                                  # OpenWebUI启动等待时间# 端口配置
VLLM_PORT="8000"              # vLLM 原始端口
OPENWEBUI_PORT="8081"         # OpenWebUI 端口
NGINX_PORT="8080"             # Nginx 对外端口# 启动命令
START_VLLM="CUDA_VISIBLE_DEVICES=0,1,2,3,4,5,6,7 nohup vllm serve Kimi-Dev-72B \
--tensor-parallel-size 8 \
--gpu-memory-utilization 0.85 \
--max-num-seqs 8 \
--quantization fp8 \
--host 0.0.0.0 \
--port $VLLM_PORT \
--trust-remote-code \
--block-size 32 \
--max-model-len 16384 \
--dtype auto \
> logs/$LOG_NAME 2>&1 &"START_OPENWEBUI="export HF_ENDPOINT=https://hf-mirror.com && export ENABLE_OLLAMA_API=False && export OPENAI_API_BASE_URL=http://127.0.0.1:8000/v1 && export DEFAULT_MODELS="Kimi-Dev-72B" && export HF_HUB_OFFLINE=1 && nohup /root/miniconda3/envs/openwebui/bin/open-webui \
serve \
--port $OPENWEBUI_PORT \
> logs/$OPENWEBUI_LOG 2>&1 &"START_NGINX="sudo nginx -c /etc/nginx/nginx.conf"# Nginx 配置文件路径
NGINX_CONF="/etc/nginx/conf.d/vllm_proxy.conf"# 颜色定义
RED='\033[0;31m'
GREEN='\033[0;32m'
YELLOW='\033[1;33m'
BLUE='\033[0;34m'
NC='\033[0m' # No Color# 日志函数
log_info() {echo -e "${BLUE}[INFO]${NC} $(date '+%Y-%m-%d %H:%M:%S') - $1"
}log_success() {echo -e "${GREEN}[SUCCESS]${NC} $(date '+%Y-%m-%d %H:%M:%S') - $1"
}log_warning() {echo -e "${YELLOW}[WARNING]${NC} $(date '+%Y-%m-%d %H:%M:%S') - $1"
}log_error() {echo -e "${RED}[ERROR]${NC} $(date '+%Y-%m-%d %H:%M:%S') - $1"
}# 打印帮助信息
print_help() {echo "Usage: $0 [Options]"echo "Options:"echo "  -h        显示帮助信息"echo "  -s        启动所有服务"echo "  -t        停止所有服务"echo "  -r        重启所有服务"echo "  -c        检查服务状态"echo "  -l        查看日志"echo "  -p        显示服务端口信息"
}# 检查必要的目录和文件
check_prerequisites() {log_info "检查运行环境..."# 检查日志目录if [ ! -d "logs" ]; thenlog_info "创建日志目录: logs"mkdir -p "logs"fi# 检查conda环境if ! command -v conda &> /dev/null; thenlog_error "conda命令未找到,请确保miniconda3已正确安装"return 1fi# 检查openwebui可执行文件if [ ! -f "/root/miniconda3/envs/openwebui/bin/open-webui" ]; thenlog_error "openwebui 可执行文件未找到: /root/miniconda3/envs/openwebui/bin/open-webui"return 1fi# 检查nginxif ! command -v nginx &> /dev/null; thenlog_error "nginx 未安装,请先安装nginx"return 1fi# 检查Nginx配置文件if [ ! -f "$NGINX_CONF" ]; thenlog_warning "Nginx配置文件不存在: $NGINX_CONF"log_warning "请创建配置文件以启用反向代理"else# 测试Nginx配置if ! sudo nginx -t; thenlog_error "Nginx配置测试失败"return 1fifireturn 0
}# 检查端口是否占用
check_port() {local port=$1local service=$2if lsof -i :$port -t > /dev/null 2>&1; thenlog_warning "$service 端口 $port 已被占用"return 1fireturn 0
}# 启动vLLM服务
start_vllm() {log_info "启动 vLLM (Kimi-Dev-72B)..."if ! check_port $VLLM_PORT "vLLM"; thenlog_warning "vLLM端口$VLLM_PORT被占用,尝试继续启动"fi# 进入目录并设置环境cd $MODEL_PATHsource /root/miniconda3/etc/profile.d/conda.shconda activate $CONDA_ENV# 启动模型eval $START_VLLM# 等待服务初始化sleep $MODEL_TIME# 检查启动状态if pgrep -f "vllm serve Kimi-Dev-72B" > /dev/null; thenlog_success "vLLM 启动成功 (端口: $VLLM_PORT)"elselog_error "vLLM 启动失败,请检查日志: logs/$LOG_NAME"return 1fi
}# 启动OpenWebUI
start_openwebui() {log_info "启动 OpenWebUI..."if ! check_port $OPENWEBUI_PORT "OpenWebUI"; thenlog_warning "OpenWebUI端口$OPENWEBUI_PORT被占用,尝试继续启动"fi# 启动OpenWebUIeval $START_OPENWEBUI# 等待服务初始化sleep $OPENWEBUI_TIME# 检查启动状态if pgrep -f "openwebui" > /dev/null; thenlog_success "OpenWebUI 启动成功 (端口: $OPENWEBUI_PORT)"elselog_error "OpenWebUI 启动失败,请检查日志: logs/$OPENWEBUI_LOG"return 1fi
}# 启动Nginx
start_nginx() {log_info "启动 Nginx..."if ! check_port $NGINX_PORT "Nginx"; thenlog_warning "Nginx端口$NGINX_PORT被占用,尝试重新加载配置"sudo nginx -s reloadreturn $?fi# 启动Nginxeval $START_NGINXsleep 2# 检查启动状态if pgrep nginx > /dev/null; thenlog_success "Nginx 启动成功 (端口: $NGINX_PORT)"elselog_error "Nginx 启动失败"return 1fi
}# 启动所有服务
start_all_services() {log_info "开始启动所有服务..."# 启动vLLMstart_vllm || return 1# 启动OpenWebUIstart_openwebui || return 1# 启动Nginxstart_nginx || return 1log_success "所有服务启动完成!"log_info "访问地址: http://localhost:$NGINX_PORT"log_info "vLLM API端点: http://localhost:$NGINX_PORT/vllm/v1/completions"
}# 检查服务状态
check_service_status() {log_info "检查服务状态..."# 检查vLLMif pgrep -f "vllm serve Kimi-Dev-72B" > /dev/null; thenlog_success "vLLM (Kimi-Dev-72B) 正在运行 (端口: $VLLM_PORT)"elselog_error "vLLM (Kimi-Dev-72B) 未运行"fi# 检查OpenWebUIif pgrep -f "openwebui" > /dev/null; thenlog_success "OpenWebUI 正在运行 (端口: $OPENWEBUI_PORT)"elselog_error "OpenWebUI 未运行"fi# 检查Nginxif pgrep nginx > /dev/null; thenlog_success "Nginx 正在运行 (端口: $NGINX_PORT)"elselog_error "Nginx 未运行"fi
}# 停止服务
stop_service() {local service_name=$1local process_name=$2log_info "停止 $service_name..."pkill -f "$process_name"# 等待进程结束local count=0while pgrep -f "$process_name" > /dev/null && [ $count -lt 15 ]; dosleep 1count=$((count + 1))doneif ! pgrep -f "$process_name" > /dev/null; thenlog_success "$service_name 已停止"elselog_error "$service_name 停止失败,尝试强制终止"pkill -9 -f "$process_name"sleep 2fi
}# 停止所有服务
stop_all_services() {log_info "停止所有服务..."# 停止vLLMstop_service "vLLM" "vllm serve Kimi-Dev-72B"# 停止OpenWebUIstop_service "OpenWebUI" "openwebui"# 停止Nginxlog_info "停止 Nginx..."sudo nginx -s quitsleep 2if ! pgrep nginx > /dev/null; thenlog_success "Nginx 已停止"elselog_error "Nginx 停止失败,尝试强制终止"sudo pkill -9 nginxfi
}# 重启所有服务
restart_all_services() {log_info "重启所有服务..."stop_all_servicessleep 5start_all_services
}# 查看日志
view_logs() {echo "选择要查看的日志:"echo "1) vLLM 日志 (logs/$LOG_NAME)"echo "2) OpenWebUI 日志 (logs/$OPENWEBUI_LOG)"echo "3) Nginx 访问日志 (/var/log/nginx/access.log)"echo "4) Nginx 错误日志 (/var/log/nginx/error.log)"echo "5) Nginx 配置日志 (/var/log/nginx/vllm_proxy.log)"echo "6) 退出"read -p "请输入选项 [1-6]: " choicecase $choice in1) if [ -f "logs/$LOG_NAME" ]; thentail -f "logs/$LOG_NAME"elselog_error "日志文件不存在: logs/$LOG_NAME"fi;;2)if [ -f "logs/$OPENWEBUI_LOG" ]; thentail -f "logs/$OPENWEBUI_LOG"elselog_error "日志文件不存在: logs/$OPENWEBUI_LOG"fi;;3)if [ -f "/var/log/nginx/access.log" ]; thensudo tail -f /var/log/nginx/access.logelselog_error "日志文件不存在: /var/log/nginx/access.log"fi;;4)if [ -f "/var/log/nginx/error.log" ]; thensudo tail -f /var/log/nginx/error.logelselog_error "日志文件不存在: /var/log/nginx/error.log"fi;;5)if [ -f "/var/log/nginx/vllm_proxy.log" ]; thensudo tail -f /var/log/nginx/vllm_proxy.logelselog_error "日志文件不存在: /var/log/nginx/vllm_proxy.log"fi;;6) exit 0;;*) log_error "无效选项";;esac
}# 显示端口信息
show_ports() {log_info "服务端口信息:"if pgrep -f "vllm serve Kimi-Dev-72B" > /dev/null; thenlog_success "vLLM 运行端口: $VLLM_PORT"elselog_error "vLLM 未运行"fiif pgrep -f "openwebui" > /dev/null; thenlog_success "OpenWebUI 运行端口: $OPENWEBUI_PORT"elselog_error "OpenWebUI 未运行"fiif pgrep nginx > /dev/null; thenlog_success "Nginx 运行端口: $NGINX_PORT"log_info "Web 访问地址: http://localhost:$NGINX_PORT"log_info "vLLM API 代理地址: http://localhost:$NGINX_PORT/vllm/v1/completions"elselog_error "Nginx 未运行"fi
}# 主函数
main() {check_prerequisites || exit 1while getopts "hstrclp" opt; docase $opt inh) print_help ;;s) start_all_services ;;t) stop_all_services ;;r) restart_all_services ;;c) check_service_status ;;l) view_logs ;;p) show_ports ;;*) print_help ;;esacdone
}# 默认行为
if [ $# -eq 0 ]; thenstart_all_servicesexit 0
fimain "$@"

三、网页演示

在容器中心,使用开放端口工具,获取外部访问地址访问,程序启动大概需要3分钟,然后在使用web访问。

image.png

第一次登录需要注册账号,邮箱随便填。

注:如果忘记账号密码导致无法登入界面,可以删除账号信息,选择重新注册:

(1)点击文件管理,输入 /root/miniconda3/envs/openwebui/lib/python3.12/site-packages/open_webui/data/ 的路径并进入

(2)删除webui.db 这个文件,然后重新启动即可

image.png

四、Kimi-Dev-72BAPI使用

可以使用网页端开通的8080端口,访问以下地址查看模型信息,并通过openai格式连接模型;

http://xn-a.suanjiayun.com:59923/vllm/v1/models

也可以使用隧道工具开发8080端口,使用连接

http://127.0.0.1:8080/vllm/v1/models

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如若转载,请注明出处:http://www.pswp.cn/diannao/89173.shtml
繁体地址,请注明出处:http://hk.pswp.cn/diannao/89173.shtml
英文地址,请注明出处:http://en.pswp.cn/diannao/89173.shtml

如若内容造成侵权/违法违规/事实不符,请联系英文站点网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

微服务架构之基本设计原则

作为系统架构师,在进行架构设计时需要遵循一系列经过实践验证的核心原则,这些原则贯穿于需求分析、模块划分、技术选型和系统演进的全流程。以下从核心设计原则、架构特性原则、工程实践原则三个维度,结合具体案例展开说明: 一、…

Wpf布局之WrapPanel面板!

文章目录 前言一、引言二、使用步骤 前言 Wpf布局之WrapPanel面板! 一、引言 WrapPanel面板以一次一行或一列的方式布置控件! 二、使用步骤 WrapPanel面板Orientation属性默认是"Horizontal",将控件从左向右进行排列&#xff…

QEMU运行RISCV版Ubuntu

宿主机为ubuntu20.04,推荐ubuntu 20.04 risc-v版, 宿主机为ubuntu24.04,推荐ubuntu 24.04 risc-v版, 安装ubuntu 24.04 risc-v基本步骤: 1, sudo apt update sudo apt install opensbi qemu-system-misc…

【LeetCode 热题 100】239. 滑动窗口最大值——(解法一)滑动窗口+暴力解

Problem: 239. 滑动窗口最大值 题目:给你一个整数数组 nums,有一个大小为 k 的滑动窗口从数组的最左侧移动到数组的最右侧。你只可以看到在滑动窗口内的 k 个数字。滑动窗口每次只向右移动一位。返回滑动窗口中的最大值 。 文章目录 整体思路完整代码时空…

攻防世界-MISC-red_green

知识点 1.pngLSB隐写 步骤 方法一:zsteg 打开附件,是一张图片,打开看不懂(其实由两种颜色构成,0和1),用zsteg查看,发现隐写了一张jpg图片,使用zsteg提取。打开jpg图片…

归因问答-如何进行自动评估

归因模型函数g的形式化表示 输入:用户问题q 输出:(a, p), 其中a为答案,p为原始文章中支持答案a的段落。 1)单样本归因 针对输入问题q,如何评估归因模型g输出中段落p是对答案a的正确归因。 在论文arributed qa中&…

基于vue+View UI的组织机构选择

1、效果 1、代码 <template><Button type"primary" click"modal true">点击选择</Button><div v-if"selectedArr.length > 0"><p>已选择项&#xff1a;</p><div v-for"(item, index) in sel…

人大金仓Kingbase数据库KSQL 常用命令指南

人大金仓Kingbase数据库KSQL 常用命令指南 1. 连接与基本操作 1.1 连接数据库 # 基础语法 ksql -U 用户名 -d 数据库名 -h 主机名 -p 端口号 # 示例 ksql -U system -d testdb -h 127.0.0.1 -p 543211.2 执行SQL脚本 # 基础语法 ksql -U <用户名> -W -f <SQL脚本文…

从萌芽到领航:广州华锐互动的 AR 奋进之路​

在 AR 技术这片充满无限可能的领域中&#xff0c;广州华锐互动数字科技有限公司宛如一颗耀眼的新星&#xff0c;熠熠生辉。广州华锐互动成立于 2008 年&#xff0c;在那个 AR 技术尚处于萌芽阶段、大众认知度还较低的时期&#xff0c;广州华锐互动便凭借着前瞻性的战略眼光和对…

redisson看门狗实现原理

Redisson 看门狗&#xff08;Watch Dog&#xff09;机制实现原理 Redisson 的 Watch Dog 机制是分布式锁的核心组件之一&#xff0c;用于 自动续期 锁的过期时间&#xff0c;防止业务逻辑执行时间超过锁的持有时间&#xff0c;导致锁提前释放而引发并发问题。以下是其实现原理…

C++中explicit详解

文章目录 1. **防止隐式类型转换**示例1&#xff1a;没有使用explicit示例2&#xff1a;使用explicit 2. **防止拷贝初始化**示例1&#xff1a;没有使用explicit示例2&#xff1a;使用explicit 3. **防止隐式类型转换的链式调用**示例1&#xff1a;没有使用explicit示例2&#…

代码部落 20250629 CSP-J复赛 模拟赛

网址&#xff1a;代码部落 一&#xff1a; 相濡以沫 β&#xff08;代码请自写&#xff09; 签到题&#xff0c;如果a[i]<a[i1] a[i]a[i1],反之&#xff0c;直接输出No 二 共同富裕&#xff08;代码请自写&#xff09; 签到题&#xff0c;用sort前缀和 如果最富有的个…

零基础学习RabbitMQ(5)--工作模式(1)

在前面的章节中我们简单介绍过一些RabbitMQ的工作模式&#xff0c;RabbitMQ共提供了七种工作模式进行消息传递&#xff0c;这里我们来详细介绍。 1. Simple(简单模式) P&#xff1a;生产者 C&#xff1a;消费者 特点&#xff1a;一个生产者一个消费者&#xff0c;消息只能被…

Android Liunx ffmpeg交叉编译

本文的交叉编译在window上安装VMware&#xff0c;使用Ubuntu20.4进行的编译。 一、安装NDK&#xff1a; 1、下载解压&#xff1a; 在NDK 下载 | Android NDK | Android Developers下载Liunx平台的NDK。 本人下载的是android-ndk-r27c-linux.zip版本的。 解压android-ndk-r…

极海G32R501双向数字电源解决方案 赋能AI服务器及电源应用创新

6月26日&#xff0c;Big-Bit商务网主办的2025中国电子热点解决方案创新峰会在东莞召开&#xff0c;峰会以“核心智变、能效跃迁”为主题&#xff0c;聚焦光储充、800V超充、AI服务器、BMS、智能汽车照明与汽车中小电机电控应用。 峰会期间&#xff0c;珠海极海半导体有限公司&a…

【修电脑的小记录】连不上网

问题概述 问题表现为&#xff1a;电脑连接网络后&#xff0c;显示已连接但无法上网。 环境信息&#xff1a; - DNS 修改无效&#xff0c;ping 外网&#xff08;8.8.8.8&#xff09;失败 - 尝试重置网络参数、多种命令无果 &#x1f50d; 排查过程 1. 执行以下命令重置网络&a…

QT中QSS样式表的详细介绍

转自个人博客 **Qt样式表&#xff08;Qt Style Sheets&#xff0c;简称QSS&#xff09;**是一种类似于HTML中的CSS&#xff08;层叠样式表&#xff09;的机制&#xff0c;用于自定义Qt应用程序的外观。通过QSS&#xff0c;开发者可以轻松地修改控件的外观&#xff0c;而无需更改…

Spring 依赖注入:官方推荐方式及最佳实践

Spring 依赖注入&#xff1a;官方推荐方式及最佳实践 你正在遭遇以下困境吗&#xff1f; 项目变大后&#xff0c;依赖关系像一团乱麻&#xff0c;牵一发而动全身&#xff1f;单元测试难如登天&#xff0c;被迫启动整个Spring容器&#xff1f;NullPointerException 总在运行时突…

javaweb听课笔记day1

MySQL数据模型 关系型数据库: 通过表来存储数据 关系型数据库是建立在关系模型基础上的数据库&#xff0c;简单说&#xff0c;关系型数据库是由多张能互相连接的二维表组成的数据库 优点: 都是使用表结构&#xff0c;格式一致&#xff0c;易于维护;使用通用的SQL语言操作…

《从量子奇境到前端优化:解锁卡西米尔效应的隐藏力量》

卡西米尔效应由荷兰物理学家亨德里克卡西米尔于1948年提出&#xff0c;它源于量子场论中“真空不空”的奇异观点。在传统认知里&#xff0c;真空是一片虚无&#xff0c;但量子理论指出&#xff0c;真空中充满了持续涨落的能量&#xff0c;即零点能。想象有两片中性的金属板被放…