当前位置:

人工智能

什么是MoE架构?
221 阅读
Zero-shot、One-shot、Few-shot 的区别
156 阅读
什么是MCP(大模型上下文协议)?
274 阅读
什么是混合精度训练(FP16、BF16)?
264 阅读
什么是批量归一化(BatchNorm)?
223 阅读
推理延迟和 Token 数量的关系
221 阅读
什么是 Self-RAG?
197 阅读
如何判断模型是否能部署在某显卡上
251 阅读
什么是 RAG(检索增强生成)?
267 阅读
RAG 能解决哪些大模型问题.docx
225 阅读
什么是 QPS(Queries per Second)?
226 阅读
什么是 DPO(Direct Preference Optimization)?
345 阅读
大模型常见面试题:什么是推理(Inference)?
259 阅读
大模型如何处理训练数据?
224 阅读
大模型常见面试题:什么是 KV Cache?
232 阅读
大模型基础面试题:什么是指令微调(SFT)?
292 阅读
大模型基础面试题:什么是梯度消失?
215 阅读
模型训练中常见的优化器有哪些?
283 阅读
什么是交叉熵(Cross Entropy)?
219 阅读
什么是残差连接(Residual)?
237 阅读
什么是位置编码(Positional Encoding)?.docx
337 阅读
前馈神经网络(FFN)在 Transformer 中有什么作用?
331 阅读
什么是损失函数(Loss)?
267 阅读
什么是 Self-Attention?
268 阅读