Linear Attention 线性注意力,将 O(N²) 的注意力复杂度降为 O(N) 的技术。 代表模型 RWKV-LM — Receptance Weighted KV Mamba — 选择性状态空间 transformers — 标准注意力 相关 llm-architectures — 架构总览 llm-inference — 推理优化