llmarchitecturetransformer type: concept 创建: 2026-04-27 更新: 2026-04-27

Transformers

Attention Is All You Need 论文提出的架构,是现代 LLM 的基础。

核心组件

  • Self-Attention:查询-键-值注意力
  • Positional Encoding:位置编码(RoPE 等)
  • Feed-Forward:前馈网络
  • LayerNorm:归一化

架构变体

相关