「源力觉醒 创作者计划」_全方面实测文心ERNIE-4.5-VL-28B-A3B开源大模型

  • 1. 文心大模型4.5-28B概述
  • 2. 部署ERNIE-4.5-VL-28B-A3B文心大模型
    • 2.1. 创建GPU云主机
    • 2.2. ERNIE-4.5-VL-28B-A3B部署
    • 2.3. 创建大模型API交互接口
  • 3. 文心大模型4.5-28B多方面性能评测
    • 3.1. 语言理解方面
    • 3.2. 逻辑推理方面
    • 3.3. 知识问答方面
    • 3.4. 代码理解方面
    • 3.5. 图片识别方面
  • 4. 文心大模型实测总结

1. 文心大模型4.5-28B概述

   一起来轻松玩转文心大模型吧一文心大模型免费下载地址:https://ai.gitcode.com/paddlepaddle/ERNIE-4.5-VL-424B-A47B-Paddle

   此次百度开源的ERINE-4.5系列模型共22个,包含2个多模态大模型,4个大语言模型及其不同变体的庞大家族,其核心采用了创新的异构多模态混合专家(MoE)架构,在提升多模态理解能力的同时,实现了文本处理性能的同步增强。每个版本的模型都开源了基座(带Base)版本和后训练版本(不带Base)。

   本次实测以文心大模型 ERNIE-4.5-VL-28B-A3B为例,分别从语言理解方面、逻辑推理方面、知识问答方面、代码理解方面、图片识别方面评测文心 ERNIE-4.5-VL-28B-A3B大模型。
   ERNIE-4.5-VL-28B-A3B 是百度研发的先进多模态大模型,采用异构混合专家架构(MoE),总参数量280亿,每token激活30亿参数。深度融合视觉与语言模态,支持图像理解、跨模态推理及双模式交互(思维/非思维模式)。通过模态隔离路由和RLVR强化学习优化,适用于复杂图文任务。支持FastDeploy单卡部署,提供开箱即用的多模态AI解决方案。
   ERNIE-4.5-VL-28B-A3B 专注于三个核心能力:图像理解、特定任务微调和多模态思维链推理,并进行了系统的数据构建和训练策略优化。使用RLVR(具有可验证奖励的强化学习)来进一步提高对齐和性能。经过 SFT和RL阶段后,最终得到了ERNIE-4.5-VL-28B-A3B大模型。
   ■ 文心大模型下载:https://ai.gitcode.com/theme/1939325484087291906
   以下是ERNIE-4.5-VL-28B-A3B 模型需要的配置信息:
在这里插入图片描述

2. 部署ERNIE-4.5-VL-28B-A3B文心大模型

2.1. 创建GPU云主机

   可以选择SM80/90架构的GPU或者SM86/89架构的GPUs都可以,本次实测选择A100显卡:
在这里插入图片描述
 

   成功运行一台A100云主机,操作系统是Ubuntu22.04,接下来我们的操作都是基于该GPU云主机实操:
在这里插入图片描述

2.2. ERNIE-4.5-VL-28B-A3B部署

   ■ 第一步:安装Python虚拟环境,隔离项目依赖,避免系统环境混乱:

root@10-60-19-102:~# apt update
(py310) root@450f5c84948a:~# python3 -m venv myenv
(py310) root@450f5c84948a:~# source myenv/bin/activate
(myenv) (py310) root@450f5c84948a:~# 
(myenv) (py310) root@450f5c84948a:~# python --version
Python 3.10.16

   ■ 第二步:安装GPU版本的paddlepaddle
   参考paddlepaddle官方网站:https://www.paddlepaddle.org.cn/install/FastDeploy

python -m pip install paddlepaddle-gpu==3.1.0 -i https://www.paddlepaddle.org.cn/packages/stable/cu126/

   安装完成之后一定要验证下,当出现PaddlePaddle is installed successfully!表示安装成功。

(myenv) (py310) root@450f5c84948a:~# cat check_paddlepaddle_gpu.py 
import paddle
paddle.utils.run_check()

在这里插入图片描述

   ■ 第三步:安装fastdeploy
   ● 如果是SM80/90架构的GPU(例如A30/A100/H100),则使用下面的命令安装,因为我们选择的GPU就是A100,所以就使用下面的命令进行安装:

python -m pip install fastdeploy-gpu -i https://www.paddlepaddle.org.cn/packages/stable/fastdeploy-gpu-80_90/  --extra-index-url https://mirrors.tuna.tsinghua.edu.cn/pypi/web/simple

   安装完成后的结果如下:
在这里插入图片描述

   ● 如果是SM86/89架构的GPUs(例如 A10/4090/L20/L40),则使用下面的命令安装:

python -m pip install fastdeploy-gpu -i https://www.paddlepaddle.org.cn/packages/stable/fastdeploy-gpu-86_89/  --extra-index-url https://mirrors.tuna.tsinghua.edu.cn/pypi/web/simple

   安装完成之后一定要验证下,当出现Truegpu:0的时候表示安装成功:

python -c "import paddle; print(paddle.is_compiled_with_cuda()); print(paddle.device.get_device())"

在这里插入图片描述
   如果输出为Falsecpu,表示PaddlePaddle未启用GPU加速,需要重新安装与CUDA 版本匹配的paddlepaddle-gpu)

   ■ 第四步:配置主机名与IP的映射关系

部署大模型过程中会因为主机名无法解析为IP地址,导致DNS解析失败。所以需要提前手动配置主机名与IP的映射关系

(myenv) (py310) root@450f5c84948a:~# hostname
450f5c84948a
(myenv) (py310) root@450f5c84948a:~# vim /etc/hosts
# <nerdctl>
127.0.0.1       450f5c84948a  # 加上这一条
#127.0.0.1      localhost localhost.localdomain
::1             localhost localhost.localdomain

   ■ 第五步:启动推理:
   https://gitcode.com/paddlepaddle/ERNIE-4.5-VL-28B-A3B-Paddle

python -m fastdeploy.entrypoints.openai.api_server \--model baidu/ERNIE-4.5-VL-28B-A3B-Paddle \--port 8180 \--metrics-port 8181 \--engine-worker-queue-port 8182 \--max-model-len 32768 \--enable-mm \--reasoning-parser ernie-45-vl \--max-num-seqs 32

   整个运行过程如下:
在这里插入图片描述

   完成之后验证下API接口是否可达:

(py310) root@450f5c84948a:~# curl -i http://0.0.0.0:8180/health
HTTP/1.1 200 OK
date: Sun, 20 Jul 2025 13:44:49 GMT
server: uvicorn
content-length: 0

2.3. 创建大模型API交互接口

   ■ 文本交互接口方式

(py310) root@450f5c84948a:~# pip install requests
import requests
import json# 模型服务的API端点,需确保模型服务已启动并可通过该地址访问
url = "http://117.50.181.145:8180/v1/chat/completions"
# 请求头,指定发送数据的格式为JSON
headers = {"Content-Type": "application/json"}# 初始化对话上下文列表,用于保存用户输入和模型回复的历史
messages = []# 启动对话循环,持续获取用户输入并与模型交互
while True:# 获取用户输入,提示用户输入内容user_input = input("请输入: ")# 如果用户输入exit或quit(不区分大小写),则退出对话循环if user_input.lower() in ['exit', 'quit']:break# 将用户输入以指定格式添加到对话上下文,role为user表示是用户输入messages.append({"role": "user", "content": user_input})# 构建请求体数据data = {# 指定要使用的模型,需与服务端部署的模型匹配"model": "baidu/ERNIE-4.5-VL-28B-A3B-PT",# 传入对话上下文,包含历史交互信息"messages": messages,# 温度参数,控制模型输出的随机性,值越大越随机"temperature": 0.7}try:# 发送POST请求到模型服务,将data转为JSON字符串传入response = requests.post(url, headers=headers, data=json.dumps(data))# 解析响应为JSON格式response_json = response.json()# 提取模型回复内容,从响应的特定结构中获取result = response_json["choices"][0]["message"]["content"]# 输出模型回复,标识为ERNIE的回复print("ERNIE: ", result)# 将模型回复添加到对话上下文,role为assistant表示是模型回复messages.append({"role": "assistant", "content": result})except requests.RequestException as e:# 如果请求过程中发生异常(如网络问题、服务未响应等),捕获并提示print("请求发生异常: ", e)except KeyError as e:# 如果响应JSON结构不符合预期,捕获并提示print("解析响应失败,缺少必要字段: ", e)except json.JSONDecodeError as e:# 如果响应内容无法正确解析为JSON,捕获并提示print("响应内容解析为JSON失败: ", e)

   ■ 前端页面接口交互方式

import gradio as gr
import requests
import json
import os
from PIL import Image
import io
import time
import uuiddef process_multimodal_input(image, text_input, history):"""处理多模态输入并调用API"""if image is None and not text_input.strip():return history, "请上传图片或输入文本"# 准备API请求url = "http://127.0.0.1:8180/v1/chat/completions"headers = {"Content-Type": "application/json"}# 构建消息内容content = []# 如果有图片,添加图片内容if image is not None:# 保存上传的图片到临时文件temp_dir = "temp_images"os.makedirs(temp_dir, exist_ok=True)temp_path = os.path.abspath(f"{temp_dir}/temp_image_{uuid.uuid4()}.jpg")image.save(temp_path)# 使用本地文件路径image_url = f"file://{temp_path}"# 添加图片到内容content.append({"type": "image_url", "image_url": {"url": image_url}})# 添加文本到内容if text_input.strip():content.append({"type": "text", "text": text_input})else:# 如果用户没有输入文本但上传了图片,添加默认提示if image is not None:content.append({"type": "text", "text": "描述一下这张图片"})# 更新历史记录中的用户消息user_message = {"role": "user", "content": content}# 构建完整的请求体,包含历史消息messages = []# 添加历史消息(仅文本部分)for msg in history:if msg[0]:  # 用户消息messages.append({"role": "user", "content": [{"type": "text", "text": msg[0]}]})if msg[1]:  # 助手消息messages.append({"role": "assistant", "content": msg[1]})# 添加当前消息messages.append(user_message)payload = {"messages": messages}# 更新UI显示history.append((text_input if text_input.strip() else "图片查询", None))yield history, ""try:response = requests.post(url, headers=headers, data=json.dumps(payload))response_data = response.json()# 从响应中提取内容if "choices" in response_data and len(response_data["choices"]) > 0:result = response_data["choices"][0]["message"]["content"]# 更新历史记录中的助手回复history[-1] = (history[-1][0], result)yield history, ""else:error_msg = "无法获取响应,API返回格式异常。"history[-1] = (history[-1][0], error_msg)yield history, ""except Exception as e:error_msg = f"发生错误: {str(e)}"history[-1] = (history[-1][0], error_msg)yield history, ""def clear_chat():"""清除聊天历史"""return [], ""# 创建Gradio界面
with gr.Blocks(title="文心大模型4.5") as demo:with gr.Column():with gr.Row():gr.Markdown("# 文心大模型4.5 - 多模态大模型智能助手,支持文本交互和图像识别")# 聊天消息区域chatbot = gr.Chatbot(height=500)# 图片上传(隐藏)image_input = gr.Image(type="pil",label="",visible=False)# 文本输入区域独占一行text_input = gr.Textbox(placeholder="输入消息或上传图片...",label="",lines=4,max_lines=10)# 按钮组 - 独立成行with gr.Row():  # 添加scale参数确保按钮不被拉伸# 上传图片按钮upload_btn = gr.UploadButton("🖼️",file_types=["image"])# 发送按钮send_btn = gr.Button("发送")with gr.Row():gr.Markdown("© 2025 文心大模型4.5 | 基于Gradio构建的现代大模型交互界面")# 处理图片上传def handle_image_upload(image):return imageupload_btn.upload(fn=handle_image_upload,inputs=[upload_btn],outputs=[image_input])# 设置发送按钮事件send_btn.click(fn=process_multimodal_input,inputs=[image_input, text_input, chatbot],outputs=[chatbot, text_input]).then(fn=lambda: None,inputs=[],outputs=[image_input])# 设置文本框回车发送text_input.submit(fn=process_multimodal_input,inputs=[image_input, text_input, chatbot],outputs=[chatbot, text_input]).then(fn=lambda: None,inputs=[],outputs=[image_input])# 启动应用
if __name__ == "__main__":demo.queue()demo.launch(server_name="0.0.0.0")

3. 文心大模型4.5-28B多方面性能评测

3.1. 语言理解方面

   向大模型提问:文心大模型走向开源,意味着什么?
在这里插入图片描述
   结论:在对复杂语义、上下文关联和隐含逻辑的精准把握,能够处理多轮对话、歧义消除和跨领域知识迁移。

3.2. 逻辑推理方面

   小桐操场跑圈,一周2次,一次5圈或6圈。第一次跑5圈或6圈的概率均为0.5,若第一次跑5圈,则第二次跑5圈的概率为0.4,6圈的概率为0.6;若第一次跑6圈,则第二次跑5圈的概率为 0.6,4圏的概率为 0.4。小桐一周跑11圈的概率为?(答案是0.6)
在这里插入图片描述
   结论:因推理能力依赖上下文学习与模式匹配,文心大模型能够捕捉复杂逻辑关系,顺利完成类比推理、因果推断和多步推理任务。

3.3. 知识问答方面

   向大模型提问:CSDN是一个什么平台?
在这里插入图片描述
   结论:文心大模型通过知识问答展现出强大的语言理解与生成能力,能够基于海量预训练知识提供连贯、多样化的答案,尤其在通用领域和上下文关联性强的场景中表现很好。

3.4. 代码理解方面

   向大模型提问: 使用Python写一段从1加到100的程序代码,并计算出总和。
在这里插入图片描述
   结论:文心大模型在代码理解方面展现出强大的语法解析和语义推理能力,能够通过预训练学习编程语言的语法规则和常见模式,支持代码补全、错误检测和跨语言转换等任务。

3.5. 图片识别方面

   使用大模型识别如下图片:
在这里插入图片描述
 
在这里插入图片描述
   结论:文心大模型在图片识别方面展现出强大的能力,能够精准识别图像中的物体。然而面对复杂场景和特定文化背景的理解需要进一步优化,以更好地适应实际应用需求

   每一次对接口的请求其实都是有日志输出的:
在这里插入图片描述

4. 文心大模型实测总结

   ■ 多模态能力总结
在视觉常识、图像描述、图表解析等任务中表现优异,支持“思考模式”(深度推理)和“非思考模式”(快速响应),在视觉感知基准测试中超越同量级模型如 Qwen2.5-VL-32B。为了实现高效的协同训练,模型引入了隔离路由机制避免特征干扰。
   ■ 性能效率总结
ERNIE 4.5 基于飞桨(PaddlePaddle)深度学习框架,构建了一套极致高效的基础设施。在推理端,ERNIE 4.5 同样表现出色。它支持 4-bit/2-bit 无损量化,并引入了多专家并行协作、动态角色切换的PD解耦(PD disaggregation)等先进技术,在保证模型性能的同时,大幅降低了部署门槛和运行成本。
   ■ 技术架构总结
   ERNIE 4.5基于飞桨(PaddlePaddle)深度学习框架,构建了一套极致高效的基础设施。ERNIE 4.5 对预训练后的基础模型进行了精细的模态专属后训练。传统的多模态模型在联合训练时,常常面临不同模态间信息“干扰”或“妥协”的挑战。为解决这一难题,ERNIE 4.5 独创性地设计了异构MoE架构。该架构的核心思想是,既允许不同模态(如文本和视觉)共享一部分参数以促进跨模态理解,又为每个模态保留了专用的专家网络。
   ● 语言模型(LLMs): 专注于通用语言理解与生成任务,通过监督微调(SFT)、直接偏好优化(DPO)等技术进行对齐,使其在指令遵循和知识问答方面表现卓越。
   ● 视觉语言模型(VLMs): 重点强化视觉语言理解能力,并创新性地支持“思考模式(thinking mode)”和“非思考模式(non-thinking mode)”。非思考模式擅长快速的视觉感知,而思考模式则能在处理复杂推理任务时表现更佳。

序号名字简介
1ERNIE-4.5-VL-424B-A47B-Base-Paddle多模态,4240亿参数,A47B版本,基座模型,Paddle框架
2ERNIE-4.5-VL-424B-A47B-Base-PT多模态,4240亿参数,A47B版本,基座模型,后续训练
3ERNIE-4.5-300B-A47B-Base-Paddle文本生成,3000亿参数,A47B版本,基座模型,Paddle框架
4ERNIE-4.5-300B-A47B-Base-PT文本生成,3000亿参数,A47B版本,基座模型,后续训练
5ERNIE-4.5-VL-424B-A47B-Paddle多模态,4240亿参数,A47B版本,Paddle框架
6ERNIE-4.5-VL-424B-A47B-PT多模态,4240亿参数,A47B版本,后续训练
7ERNIE-4.5-300B-A47B-Paddle文本生成,3000亿参数,A47B版本,Paddle框架
8ERNIE-4.5-300B-A47B-PT文本生成,3000亿参数,A47B版本,后续训练
9ERNIE-4.5-300B-A47B-FP8-Paddle文本生成,3000亿参数,A47B版本,FP8精度,Paddle框架
10ERNIE-4.5-300B-A47B-W4A8C8-TP4-Paddle文本生成,3000亿参数,A47B版本,W4A8C8量化,TP4,Paddle框架
11ERNIE-4.5-300B-A47B-2Bits-Paddle文本生成,3000亿参数,A47B版本,2Bits量化,Paddle框架
12ERNIE-4.5-VL-28B-A3B-Base-Paddle多模态,280亿参数,A3B版本,基座模型,Paddle框架
13ERNIE-4.5-VL-28B-A3B-Base-PT多模态,280亿参数,A3B版本,基座模型,后续训练
14ERNIE-4.5-21B-A3B-Base-Paddle文本生成,210亿参数,A3B版本,基座模型,Paddle框架
15ERNIE-4.5-21B-A3B-Base-PT文本生成,210亿参数,A3B版本,基座模型,后续训练
16ERNIE-4.5-VL-28B-A3B-Paddle多模态,280亿参数,A3B版本,Paddle框架
17ERNIE-4.5-VL-28B-A3B-PT多模态,280亿参数,A3B版本,后续训练
18ERNIE-4.5-21B-A3B-Paddle文本生成,210亿参数,A3B版本,Paddle框架
19ERNIE-4.5-21B-A3B-PT文本生成,210亿参数,A3B版本,后续训练
20ERNIE-4.5-0.3B-Base-Paddle文本生成,3亿参数,基座模型,Paddle框架
21ERNIE-4.5-0.3B-Base-PT文本生成,3亿参数,基座模型,后续训练
22ERNIE-4.5-0.3B-Paddle文本生成,3亿参数,Paddle框架
23ERNIE-4.5-0.3B-PT文本生成,3亿参数,后续训练

   ERNIE-4.5大模型还需要更多的生产使用方面的评测,文心大模型4.5系列开源后还是非常值得欢迎的。也希望文心大模型可以更好更强。
   一起来轻松玩转文心大模型吧一文心大模型免费下载地址:https://ai.gitcode.com/paddlepaddle/ERNIE-4.5-VL-424B-A47B-Paddle

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如若转载,请注明出处:http://www.pswp.cn/pingmian/91598.shtml
繁体地址,请注明出处:http://hk.pswp.cn/pingmian/91598.shtml
英文地址,请注明出处:http://en.pswp.cn/pingmian/91598.shtml

如若内容造成侵权/违法违规/事实不符,请联系英文站点网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

数据库学习------数据库事务的特性

在数据库操作中&#xff0c;事务是保证数据一致性和完整性的核心机制。无论是简单的单表更新&#xff0c;还是复杂的多表关联操作&#xff0c;事务都扮演着至关重要的角色。那么什么是数据库事务&#xff1f;数据库事务是一个不可分割的操作序列&#xff0c;它包含一个或多个数…

18-C语言:第19天笔记

C语言&#xff1a;第19天笔记 内容提要 构造类型 结构体共用体/联合体构造类型 数据类型 基本类型/基础类型/简单类型 整型 短整型&#xff1a;short – 2字节基本整型&#xff1a;int – 4字节长整型&#xff1a;long – 32位系统4字节/ 64位系统8字节长长整型&…

centos下安装anaconda

下载 anaconda 安装包 wget https://repo.anaconda.com/archive/Anaconda3-2022.05-Linux-x86_64.sh 2. 授权 chmod x Anaconda3-2022.05-Linux-x86_64.sh 3. 安装 ./Anaconda3-2022.05-Linux-x86_64.sh 此时显示Anaconda的信息&#xff0c;并且会出现More&#xff0c;继续…

MySQL(172)如何进行MySQL的全局变量设置?

MySQL的全局变量是影响整个服务器设置和行为的参数。可以在服务器启动时通过配置文件设置这些变量&#xff0c;也可以在服务器运行时通过SQL命令动态调整。以下是关于如何设置和管理MySQL全局变量的详细说明和示例代码。 一、通过配置文件设置全局变量 在MySQL服务器启动时&…

【最后203篇系列】030 强化学习探索

前言 我发现在csdn写完一篇文章越来越难了&#xff0c;有n篇写了一半没往下写。原来我觉得补完203篇&#xff0c;凑到一千篇是个很简单的事&#xff0c;没想到还挺难的。 我回想了一下&#xff0c;过去一年大模型领域继续发生这很剧烈的变化&#xff0c;这是一种新的模式 &…

fastGEO v1.7.0 大更新,支持PCA、差异分析、火山图、热图、差异箱线图、去批次等分析

前言 之前一篇文章【fastGEO V1.6.1 这个版本强的可怕&#xff0c;GEO数据自动下载、探针注释、Shiny App】介绍了fastGEO用于GEO数据下载和探针注释的核心功能。 虽然是付费50获取安装包&#xff08;刚开始是20&#xff09;&#xff0c;但也深受欢迎&#xff0c;说明这个R包…

LLM 典型模型技术特性及项目落地全流程实践

在大语言模型(LLM)技术快速迭代的当下,开发者面临的核心挑战已从 “是否使用” 转变为 “如何正确选型并高效落地”。本文将系统剖析当前主流 LLM 的技术特性,结合实际项目架构,提供从模型选型、接口集成到性能优化的全流程技术方案,并附关键代码实现,为工业级 LLM 应用…

机器学习消融实验:方法论演进、跨领域应用与前沿趋势

一、定义与起源 消融实验&#xff08;Ablation Study&#xff09;是一种系统性移除或修改模型关键组件以评估其对整体性能贡献的实验方法论。其术语源于神经科学和实验心理学&#xff08;20世纪60-70年代&#xff09;&#xff0c;指通过切除动物脑区研究行为变化的实验范式。2…

北京-4年功能测试2年空窗-报培训班学测开-今天来聊聊我的痛苦

最近状态很不对劲&#xff0c;因为我很少花时间好好思考&#xff0c;只是处于执行状态&#xff0c;甚至也不太写笔记了&#xff0c;我原以为这样会更高效&#xff0c;现在想想&#xff0c;开始不愿花时间深思才是断弦的开始吧而且从结课后我有了隐瞒&#xff0c;我不想过多透露…

深度解析 | AI 幻觉的形成和应对路径

写这一篇的缘由一是因为我也在摸索如何降低 AI 幻觉提升 AI 工具使用效率&#xff0c;二是因为前两周在MIT学习时老师讲的一节课&#xff0c;刚好也解释了这个问题&#xff0c;所以一并做个总结&#xff0c;分享给大家。 近几年&#xff0c;大型语言模型&#xff08;LLM&#…

Java把word转HTML格式

Java把word转HTML格式&#xff0c;两种方式方式一&#xff1a;maven引入依赖,pom.xml<dependency><groupId>e-iceblue</groupId><artifactId>spire.office.free</artifactId><version>5.3.1</version> </dependency>然后代码读…

#C语言——学习攻略:探索字符函数和字符串函数(一)--字符分类函数,字符转换函数,strlen,strcpy,strcat函数的使用和模拟实现

&#x1f31f;菜鸟主页&#xff1a;晨非辰的主页 &#x1f440;学习专栏&#xff1a;《C语言学习》 &#x1f4aa;学习阶段&#xff1a;C语言方向初学者 ⏳名言欣赏&#xff1a;"编程的本质是理解问题&#xff0c;然后把它分解成可执行的步骤。" 目录 1. 字符分类函…

(吃饭)质数时间

题目描述如果把一年之中的某个时间写作 a 月 b 日 c 时 d 分 e 秒的形式&#xff0c;当这五个数都为质数时&#xff0c;我们把这样的时间叫做质数时间&#xff0c;现已知起始时刻是 2022 年的 a 月 b 日 c 时 d 分 e 秒&#xff0c;终止时刻是 2022 年的 u 月 v 日 w 时 x 分 y…

【RK3568 RTC 驱动开发详解】

RK3568 RTC 驱动开发详解一、Linux RTC 子系统架构​二、设备树配置​三、驱动四、时间相关命令实时时钟&#xff08;RTC&#xff09;是嵌入式系统中不可或缺的硬件模块&#xff0c;负责在系统断电后继续计时&#xff0c;为设备提供稳定的时间基准。本文将以瑞芯微 RK3568 平台…

文本编码检测库`chardet` 和 `uchardet`对比使用示例及注意事项

在处理未知编码的二进制数据时&#xff0c;chardet 和 uchardet 是两个非常实用的字符编码自动检测库&#xff0c;尤其适用于从卫星通信、文件、网络流等来源获取的未标明编码的文本数据。一、chardet&#xff08;Python版&#xff09; ✅ 简介 chardet 是一个用 Python 编写的…

[Windows]Postman-app官方历史版本下载方法

Postman-app官方历史版本下载方法最新版&历史版本官网地址最新版本下载历史版本下载禁止自动更新方法Postman最新版安装后必须要登录才能使用某些特定功能&#xff0c;多有不便&#xff0c;因此花了点时间整理了一下历史版本如何下载的方法&#xff0c;链接均为官网链接&am…

【Spring Boot 快速入门】三、分层解耦

目录分层解耦案例&#xff1a;将 emp.xml 中的数据解析并响应三层架构分层解耦IOC & DI 入门IOC 详解DI 详解分层解耦 案例&#xff1a;将 emp.xml 中的数据解析并响应 emp.xml 内容如下&#xff1a; <emps><emp><name>Tom</name><age>18…

井云科技2D交互数字人:让智能服务触手可及的实用方案

在如今的数字化时代&#xff0c;智能交互已成为各行业提升服务质量的重要方向。而井云 2D 交互数字人系统凭借其独特的技术优势&#xff0c;正逐渐成为众多企业实现智能服务升级的优选。它无需复杂的操作和高昂的成本&#xff0c;就能让数字人在各类线下场景中发挥重要作用&…

本地部署VMware ESXi,并实现无公网IP远程访问管理服务器

ESXi&#xff08;VMware ESXi&#xff09;是VMware公司推出的一款企业级虚拟化平台&#xff0c;基于裸机&#xff08;bare-metal&#xff09;安装的虚拟化操作系统。它可以在一台物理服务器上运行多个虚拟机&#xff0c;广泛应用于数据中心和云计算环境中。很多公司为了方便管理…

让科技之光,温暖银龄岁月——智绅科技“智慧养老进社区”星城国际站温情纪实

七月的风&#xff0c;带着夏日的热情&#xff0c;轻轻拂过邯郸星城国际社区葱郁的绿意。2025年7月30日&#xff0c;一个以“幸福晚景&#xff0c;乐享银龄—智慧养老进社区”为主题的活动&#xff0c;如一股暖流&#xff0c;浸润了社区的长者们。智绅科技怀揣着“科技赋能养老&…