记录整理阅读的paper。star表示个人对该论文的重要性程度排行,最不重要1星,最重要5星。如果论文太难懂会酌情降星。
- 日期:论文发表日期
- 标题:论文题目
- 领域:使用ChatGPT生成。prompt:这个论文的题目[title],这个论文的地址[arxiv的pdf的url],请你分析一下这个论文属于[大主题]的什么领域
- star:根据论文重要性,阅读难度。本人的主观评价
- 引用:使用semanticscholar的api获取
- link:论文的arxiv地址
| 日期 | 标题 | 领域 | star | 引用 | link |
|---|---|---|---|---|---|
| 10/1/2023 | Chain-of-Thought Prompting Elicits Reasoning in Large Language Models | 提示工程COT | ⭐⭐⭐⭐⭐ | link | |
| 8/1/2025 | Towards System 2 Reasoning in LLMs: Learning How to Think With Meta Chain-of-Thought | 提示工程COT | ⭐⭐ | link | |
| 19/8/2025 | Efficient Attention Methods: Hardware-efficient, Sparse, Compact, and Linear Attention |
有效注意力计算综述 | ⭐⭐⭐⭐⭐ | link | |
| 29/9/2025 | Understanding the Dilemma of Unlearning for Large Language Models | 机器遗忘与可解释性 | ⭐⭐ | link | |
| 29/9/2025 | InfLLM-V2: Dense-Sparse Switchable Attention for Seamless Short-to-Long Adaptation | Transformer稀疏注意力 | ⭐⭐⭐⭐ | link | |
| 8/10/2025 | KnowRL: Exploring Knowledgeable Reinforcement Learning for Factuality | 大模型训练降低幻觉 | ⭐⭐⭐⭐ | link | |
| 12/10/2025 | Towards Thinking-Optimal Scaling of Test-Time Compute for LLM Reasoning | LLM 推理能力与推理策略 | ⭐⭐⭐ | link | |
| 20/10/2025 | The Free Transformer | Transformer 架构创新 | ⭐ | link | |
| 25/10/2025 | Mixture-of-Recursions: Learning Dynamic Recursive Depths for Adaptive Token-Level Computation | Transformer 架构创新 | ⭐⭐⭐ | link | |
| 21/11/2025 | Asking LLMs to Verify First is Almost Free Lunch | LLM 推理能力与推理策略 | ⭐⭐ | link |