目录
什么是大语言模型(LLM)?它与传统语言模型的本质差异在哪里?
自回归模型(autoregressive)与掩码语言模型(masked LM)的异同是什么?各适合于哪些任务?
Transformer 的核心构件——多头自注意力机制如何捕捉长距离依赖?
位置编码(positional encoding)的作用及其实现形式有哪些?它解决了什么问题?
BPE、WordPiece 和 SentencePiece 各自的原理与优劣是什么?
Token embedding 的维度如何选取?它对模型性能有什么影响?
什么是“Chinchilla scaling”,它指明了预训练模型的计算与数据如何均衡?
LLM 为什么容易“hallucination”?其根源是什么?如何缓解?
大模型中具有什么样的偏见(bias)?其来源是什么?如何衡量与减轻?
RLHF(Reinforcement Learning from Human Feedback)是什么?工作过程如何?
一、RLHF的核心流程
二、关键技术细节
三、典型应用场景与效果
四、挑战与局限
什么是“Chinchilla scaling”,它指明了预训练模型的计算与数据如何均衡?
LLM 为什么容易“hallucination”?其根源是什么?如何缓解?
一、模型架构的本质缺陷
二、训练数据的不完整性与偏差
三、推理过程的不确定性
缓解幻觉的主要方法
大模型中具有什么样的偏见(bias)?其来源是什么?如何衡量与减轻?
RLHF(Reinforcement Learning from Human Feedback)是什么?工作过程如何?
为什么要使用混合精度(mixed-precision)训练?
分布式训练框架有哪些?如 DeepSpeed、Accelerate 的作用与原理?
模型剪枝(pruning)和量化(quantization)对推理性能的提升机理为何?
什么是大语言模型(LLM)?它与传统语言模型的本质差异在哪里?
自回归模型(autoregressive)与掩码语言模型(masked LM)的异同是什么?各适合于哪些任务?
智能调度器 “scheduler” 在训练学习率曲线设计中的作用?
在多语言数据集上训练时,如何处理语言不均衡?
微调(Fine-tuning)和提示调优(Prompt Tuning)有何区别?
Prompt Tuning 的工作方式与优缺点是什么?
Prefix Tuning 又是怎样通过前缀提升模型效果的?
Adapter 模块在微调任务中的作用与结构是什么?
instruction‑tuning 前后模型性能差距体现在什么方面?
Prompt Tuning 的工作方式与优缺点是什么?
Prefix Tuning 又是怎样通过前缀提升模型效果的?
LoRA(低秩适配)技术如何有效减少微调参数?
Adapter 模块在微调任务中的作用与结构是什么?
instruction‑tuning 前后模型性能差距体现在什么方面?
Prompt Tuning 的工作方式与优缺点是什么?
Prefix Tuning 又是怎样通过前缀提升模型效果的?
LoRA(低秩适配)技术如何有效减少微调参数?
instruction‑tuning 前后模型性能差距体现在什么方面?
GPT‑x 系列模型一般用哪些 benchmark 与 leader-board?
A/B 测试在实际产品中怎么落地并决定上线版本?
模型存在偏见的场景中,如何构建 fairness 测试集?
latency、throughput、memory usage 三者如何在模型评估中结合衡量?
面向用户体验的端到端模型评估流程包含哪些环节?
LLM 如何成为 Agent 与外部工具对接?ReAct、Toolformer 原理是什么?
多轮对话系统中 memory 和 context 如何管理?
如何设计向量检索服务成本架构?包括索引存储与检索延时规划?
在 serverless / cloud 环境部署 LLM 面临什么挑战?
为什么企业更多选择 Docker+K8s 部署 LLM?
如何监控线上模型真实性能?如实时监控 hallucination 率?
模型的自动更新如何做?deployment blue/green、canary 策略如何配合提示?
什么是大语言模型(LLM)?它与传统语言模型的本质差异在哪里?
大语言模型(LLM)是基于深度学习技术