Press
esc
to close
请输入并搜索
bobBlog
bobBlog
首页
分类
时间线
友链
关于
私密
Press
Ctrl
+
and
K
to search
首页
分类
时间线
友链
关于
私密
后台
时间线
6 分类 × 33 文章 × 0 标签 × 88957 字
2024
33篇
+
11-16
“走出去,见世面”是年轻人最值得做的事
11-11
Bert论文
11-11
GPT 1 ,2 ,3 论文
11-11
Word2vec词向量
11-10
被大厂HR、技术官指点简历后,我悟了!
10-31
辉哥论文推荐(7.8-10.31)
10-28
Transformer面试问
10-28
AI大模型资源汇总
10-28
VB-lora
10-28
模型极限压缩论文笔记
10-28
# Mixture-of-Subspaces in Low-Rank Adaptation
10-24
模型对齐
10-21
模型调参
10-11
LLama.cpp在cpu上部署模型
10-11
《重构---年轻人的精进指南》读书篇之“大公司好还是小公司好?”
10-11
计算机怎么学?工作不对口? 我怎么看
10-11
计算机专业学生该如何破圈?摆脱“码农”
10-11
李沐:创业一年,人间三年
10-11
工作是第一生产力,兴趣是第二生产力
10-11
AI时代来临,计算机程序员该怎么走好这条路?
10-11
变的是数据来源,没变的是数据质量
10-11
模型极限压缩论文笔记
10-11
VB-lora
10-11
Mixture-of-Subspaces in Low-Rank Adaptation
10-11
Xlora,一种与MOE相似的lora门控
10-11
有关大模型幻觉与灾难性遗忘
10-11
新一代模型微调方案LLama-Pro ,快来围观!!!
10-11
新型AI大模型微调方式:ReFT 表征微调
10-11
Wise-ft《Robust fine-tuning of zero-shot models》,能解决大模型持续学习灾难性遗忘吗
10-11
VERA : 一种比Lora更省资源的微调方案
10-11
在大二拿到了一份心仪的Offer,我是怎么一步步打怪升级的?
10-09
大模型学习资料
10-09
花半小时,部署自己的博客网站
Bob
NLP算法实习生,就喜爱捣鼓LLM的fine-tunning,热衷于技术变现。
33
日志
6
分类
0
标签