当前位置:

人工智能

什么是MoE架构?
233 阅读
Zero-shot、One-shot、Few-shot 的区别
168 阅读
什么是MCP(大模型上下文协议)?
291 阅读
什么是混合精度训练(FP16、BF16)?
278 阅读
什么是批量归一化(BatchNorm)?
234 阅读
推理延迟和 Token 数量的关系
231 阅读
什么是 Self-RAG?
208 阅读
如何判断模型是否能部署在某显卡上
263 阅读
什么是 RAG(检索增强生成)?
280 阅读
RAG 能解决哪些大模型问题.docx
236 阅读
什么是 QPS(Queries per Second)?
239 阅读
什么是 DPO(Direct Preference Optimization)?
365 阅读
大模型常见面试题:什么是推理(Inference)?
273 阅读
大模型如何处理训练数据?
237 阅读
大模型常见面试题:什么是 KV Cache?
245 阅读
大模型基础面试题:什么是指令微调(SFT)?
303 阅读
大模型基础面试题:什么是梯度消失?
229 阅读
模型训练中常见的优化器有哪些?
293 阅读
什么是交叉熵(Cross Entropy)?
232 阅读
什么是残差连接(Residual)?
248 阅读
什么是位置编码(Positional Encoding)?.docx
350 阅读
前馈神经网络(FFN)在 Transformer 中有什么作用?
351 阅读
什么是损失函数(Loss)?
279 阅读
什么是 Self-Attention?
278 阅读