时间线
6 分类 × 39 文章 × 0 标签 × 114172 字
2024
39篇
+
12-10
各类位置编码分析
12-10
为什么计算机专业一定不要考研
12-02
LLama系列模型架构分析
11-28
TIES-MERGING高效模型合并
11-27
网易-NLP算法实习生一面,我用梯度下降优化自己
11-18
transformer代码
11-16
“走出去,见世面”是年轻人最值得做的事
11-11
Bert论文
11-11
GPT 1 ,2 ,3 论文
11-11
Word2vec词向量
11-10
被大厂HR、技术官指点简历后,我悟了!
10-31
辉哥论文推荐(7.8-10.31)
10-28
Transformer面试问
10-28
AI大模型资源汇总
10-28
VB-lora
10-28
模型极限压缩论文笔记
10-28
# Mixture-of-Subspaces in Low-Rank Adaptation
10-24
模型对齐
10-21
模型调参
10-11
LLama.cpp在cpu上部署模型
10-11
《重构---年轻人的精进指南》读书篇之“大公司好还是小公司好?”
10-11
计算机怎么学?工作不对口? 我怎么看
10-11
计算机专业学生该如何破圈?摆脱“码农”
10-11
李沐:创业一年,人间三年
10-11
工作是第一生产力,兴趣是第二生产力
10-11
AI时代来临,计算机程序员该怎么走好这条路?
10-11
变的是数据来源,没变的是数据质量
10-11
模型极限压缩论文笔记
10-11
VB-lora
10-11
Mixture-of-Subspaces in Low-Rank Adaptation
10-11
Xlora,一种与MOE相似的lora门控
10-11
有关大模型幻觉与灾难性遗忘
10-11
新一代模型微调方案LLama-Pro ,快来围观!!!
10-11
新型AI大模型微调方式:ReFT 表征微调
10-11
Wise-ft《Robust fine-tuning of zero-shot models》,能解决大模型持续学习灾难性遗忘吗
10-11
VERA : 一种比Lora更省资源的微调方案
10-11
在大二拿到了一份心仪的Offer,我是怎么一步步打怪升级的?
10-09
大模型学习资料
10-09
花半小时,部署自己的博客网站