L²M:长上下文语言模型的互信息缩放法则——从信息论到大模型架构的深度解析2026-03-17本文深度解析 L²M 论文,揭示了自然语言中二分互信息的幂律缩放规律,并推导出模型状态容量与上下文长度的理论约束条件。#大语言模型#信息论#长上下文#缩放法则#机器学习理论#状态空间模型
DysonNet深度解析:神经量子态局部更新的常数级演进与ABACUS算法实现2026-03-13本文深度解析了DysonNet架构及其核心ABACUS算法,该技术通过将全局线性层与局部非线性层耦合,实现了单自旋翻转下神经量子态振幅更新的O(1)复杂度,突破了大系统规模下NQS的计算瓶颈。#神经量子态#变分蒙特卡洛#戴森级数#状态空间模型#计算物理