Press
esc
to close
请输入并搜索
bobBlog
bobBlog
首页
分类
时间线
友链
关于
私密
Press
Ctrl
+
and
K
to search
首页
分类
时间线
友链
关于
私密
后台
Xlora,一种与MOE相似的lora门控
编辑
2024-10-11
论文研读
0
0
阅读全文
有关大模型幻觉与灾难性遗忘
编辑
2024-10-11
论文研读
0
0
阅读全文
新一代模型微调方案LLama-Pro ,快来围观!!!
编辑
2024-10-11
论文研读
0
0
阅读全文
新型AI大模型微调方式:ReFT 表征微调
编辑
2024-10-11
论文研读
0
0
阅读全文
Wise-ft《Robust fine-tuning of zero-shot models》,能解决大模型持续学习灾难性遗忘吗
编辑
2024-10-11
论文研读
0
0
阅读全文
‹
1
2
3
4
5
6
7
›
Bob
NLP算法实习生,就喜爱捣鼓LLM的fine-tunning,热衷于技术变现。
33
日志
6
分类
0
标签