文章目录
-
- 一、大模型(LLMs)基础面
- 二、大模型(LLMs)进阶面
- 三、大模型(LLMs)微调面
- 四、大模型(LLMs)langchain面
- 五、LoRA、QLoRA、AdaLoRA篇
- 六、Fine tune
- 七、大模型(LLMs)参数高效微调(PEFT) 面
- 八、大模型(LLMs)推理面
- 九、大模型(LLMs)评测面
- 十、大模型(LLMs)强化学习面
- 十一、大模型(LLMs)训练集面
- 十二、LLMs 位置编码篇
- 十三、简单介绍一下 SentencePiece 思路?
- 十四、Layer Normalization 篇
- 十五、LLMs 激活函数篇
- 十六、一些面试问题提问
- 十七、面试高频点
- 十九、其他面试问题
- 二十、题外音(社招来源)
一、大模型(LLMs)基础面
- 目前 主流的开源模型体系 有哪些?
- prefix LM 和 causal LM 区别是什么?
- 涌现能力是啥原因?
- 大模型LLM的架构介绍?
二、大模型(LLMs)进阶面
- llama 输入句子长度理论上可以无限长吗?
- 什么是 LLMs 复读机问题?
- 为什么会出现 LLMs 复读机问题?
- 如何缓解 LLMs 复读机