当前位置:

人工智能

什么是MoE架构?
183 阅读
Zero-shot、One-shot、Few-shot 的区别
124 阅读
什么是MCP(大模型上下文协议)?
213 阅读
什么是混合精度训练(FP16、BF16)?
219 阅读
什么是批量归一化(BatchNorm)?
187 阅读
推理延迟和 Token 数量的关系
181 阅读
什么是 Self-RAG?
161 阅读
如何判断模型是否能部署在某显卡上
210 阅读
什么是 RAG(检索增强生成)?
226 阅读
RAG 能解决哪些大模型问题.docx
187 阅读
什么是 QPS(Queries per Second)?
185 阅读
什么是 DPO(Direct Preference Optimization)?
283 阅读
大模型常见面试题:什么是推理(Inference)?
222 阅读
大模型如何处理训练数据?
189 阅读
大模型常见面试题:什么是 KV Cache?
197 阅读
大模型基础面试题:什么是指令微调(SFT)?
247 阅读
大模型基础面试题:什么是梯度消失?
174 阅读
模型训练中常见的优化器有哪些?
238 阅读
什么是交叉熵(Cross Entropy)?
185 阅读
什么是残差连接(Residual)?
204 阅读
什么是位置编码(Positional Encoding)?.docx
279 阅读
前馈神经网络(FFN)在 Transformer 中有什么作用?
270 阅读
什么是损失函数(Loss)?
229 阅读
什么是 Self-Attention?
226 阅读