分享
皇子:LLM经典论文速读版,看完感觉自己通透了
输入“/”快速插入内容
皇子:LLM经典论文速读版,看完感觉自己通透了
🔗 原文链接:
https://mp.weixin.qq.com/s/HaXZedhd...
⏰ 发布时间:2024-08-01
作者:皇子,皇子谈技术
读不下去的,略读也是不错,美名曰“好读书,不求甚解;每有会意,便欣然忘食。”
大家好,我是皇子。
对于渴望深入理解AI的爱好者和研究者来说,阅读经典论文不仅是获取知识的途径,更能让我们产生新的思维方式。
历史文章分享过一次
《Attention is All You Need》
论文的精读,我也不是算法和机器学习的从业者,有很多不解,但是不影响我在后面学习大语言模型(LLM)相关技术时提供了理论基础。
《Attention is All You Need》这篇论文堪称经典一点不为过,早期的
GPT
、
BERT
、
T5
大语言模型都是在此论文提供的Transformers框架上进行后续的模型设计和优化的。
所以今天,为大家推荐
31篇LLM的经典论文之作速读版,看完感觉自己通透了
,包含:大语言模型架构、RAG、预训练、微调、提示词等。
在此之前,先分享一个想看
中文翻译版原文
的高效办法:
•
为了方便中文阅读:安装浏览器插件“沉浸式翻译(
https://immersivetranslate.com
)”,支持多种浏览器,多个翻译服务。
•
PDF翻译后样式不方便阅读,调整为HTM版本:将 arxiv PDF 论文原地址域名中的
x
更换成
5
即变成可访问的HTML版本链接,然后就可以愉快的使用“沉浸式翻译”进行原文阅读了。
例如:
arxiv PDF 论文原地址:
https://arxiv.org/abs/2109.01652
替换后HTML版本的链接:
https://ar5iv.org/abs/2109.01652
•
论文中看不懂的
公式
/
概念
,对于不是搞算法的可以不用专研,毕竟没有算法功底和更详细的上下文有些很难读懂,google或者AI一下知道是干嘛的就够了(个人阅读习惯,大佬跳过~)。
31篇LLM的经典论文速读版清单
节选来源:劉智皓
|