当前位置:

人工智能

为什么要使用多头注意力(Multi-head Attention)?
224 阅读
大模型基础面试题:什么是 Attention 机制?
180 阅读
大模型基础面试题:什么是 Prompt?为什么提示词能影响模型回答?
291 阅读
大模型基础面试题:什么是 Embedding?
273 阅读
大模型与传统机器学习模型的区别是什么?
179 阅读
为什么 Transformer 能取代 RNN?
212 阅读
什么是 Transformer 架构?
247 阅读
大模型基础面试题:什么是预训练?
235 阅读
什么是参数量,比如7B、13B是什么意思?
211 阅读
大模型中的“泛化(Generalization)”是什么?
279 阅读
大模型中的“温度(Temperature)”是什么?
210 阅读
大模型中的“对齐(Alignment)”是什么?
215 阅读
什么是大语言模型(LLM)?.docx
217 阅读
大模型中的“上下文窗口(Context Window)”是什么?
218 阅读
大模型中的“GRPO(Generative Rejection Preference Optimization)”是什么?
226 阅读
大模型中的“Scaling(扩展规律)”是什么?
219 阅读
大模型中的“MOE(Mixture of Experts)”是什么?
173 阅读
大模型中的“噪声(Noise)”是什么?
196 阅读
大模型中的“软标签(Soft Label)”是什么?
232 阅读
大模型中的“SFT”是什么?
210 阅读
大模型中的“RAG(Retrieval-Augmented Generation)”是什么?
203 阅读
大模型中的“微调”是什么?
194 阅读
大模型中的“CoT(Chain of Thought)”是什么?
330 阅读
大模型中的“RL(Reinforcement Learning)”是什么?
128 阅读