当前位置:

人工智能

前馈神经网络(FFN)在 Transformer 中有什么作用?
191 阅读
什么是损失函数(Loss)?
167 阅读
什么是 Self-Attention?
155 阅读
为什么要使用多头注意力(Multi-head Attention)?
156 阅读
大模型基础面试题:什么是 Attention 机制?
114 阅读
大模型基础面试题:什么是 Prompt?为什么提示词能影响模型回答?
175 阅读
大模型基础面试题:什么是 Embedding?
180 阅读
大模型与传统机器学习模型的区别是什么?
122 阅读
为什么 Transformer 能取代 RNN?
150 阅读
什么是 Transformer 架构?
169 阅读
大模型基础面试题:什么是预训练?
162 阅读
什么是参数量,比如7B、13B是什么意思?
147 阅读
大模型中的“泛化(Generalization)”是什么?
197 阅读
大模型中的“温度(Temperature)”是什么?
147 阅读
大模型中的“对齐(Alignment)”是什么?
151 阅读
什么是大语言模型(LLM)?.docx
158 阅读
大模型中的“上下文窗口(Context Window)”是什么?
156 阅读
大模型中的“GRPO(Generative Rejection Preference Optimization)”是什么?
161 阅读
大模型中的“Scaling(扩展规律)”是什么?
155 阅读
大模型中的“MOE(Mixture of Experts)”是什么?
121 阅读
大模型中的“噪声(Noise)”是什么?
134 阅读
大模型中的“软标签(Soft Label)”是什么?
163 阅读
大模型中的“SFT”是什么?
144 阅读
大模型中的“RAG(Retrieval-Augmented Generation)”是什么?
148 阅读