论文阅读二十三:基于零样本知识测试的LLM幻觉推理
论文阅读二十二:有限数据微调语言模型实用指南
论文阅读二十一:通过近似因子分解克服强化学习中的维数诅咒
论文阅读二十:优化缩放LLM测试时间计算比缩放模型参数更有效
论文阅读十九:思维LLMS:思维生成的一般指导
论文阅读十八:液体时间常数网络
论文阅读十七:FAN:傅里叶分析网络
论文阅读十六:SiT:利用可扩展的插值Transformers探索基于流和扩散的生成模型
论文阅读十五:随机自回归视觉生成
论文阅读十四:TOKENFORMER:用标记化模型参数重新思考Transformer缩放