波波算法笔记

Bob Peng

AI笔记

AI撰写老人回忆录项目从启动走向交付了啦

AI撰写老人回忆录项目从启动走向交付了啦

AI撰写老人回忆录项目---项目的初衷 AI撰写老人回忆录项目的初衷是帮助老年人记录和传承他们的人生经历和智慧......
1
0
0
2025-04-01
AI技术发展变的是数据来源没变的是数据质量

AI技术发展变的是数据来源没变的是数据质量

AI技术发展:变的是数据来源,没变的是数据质量 需求一直在那里,但是一直没被满足好。 以前的数据散落在各处,就像大众点评上找餐厅,我们通过搜索引擎获得了一些坐标,并前往去寻找。 现在的数据则被汇聚到了模型里,就像一个中央厨房,我们可以随时打开一份预制菜,在家食用。 但是预制菜单,就是不太新鲜,所以我
3
0
0
2025-04-01
AI大厂做的事你也可以带你一口气从零预训练RoBERTa模型告别算法畏惧

AI大厂做的事你也可以带你一口气从零预训练RoBERTa模型告别算法畏惧

AI大厂做的事你也可以!带你一口气从零预训练RoBERTa模型!告别算法畏惧! 为什么预训练? 这里使用一个比较形象的比喻: 大模型(model)在它被实例化的瞬间 ,他就如同 一个宝宝 出生了!但是他的 权重参数全部都是随机值 。以至于你和宝宝(model)对话时,他会胡言乱语,哇哇大叫。 所以我
3
0
0
2025-04-01
Claude35Sonnet已经被网友玩出花来了程序员们跟上节奏

Claude35Sonnet已经被网友玩出花来了程序员们跟上节奏

Claude 3.5 Sonnet 已经被网友玩出花来了,程序员们跟上节奏! 前言 最近Anthropic 发布了 全新大模型 Claude 3.5 Sonnet ,号称是迄今为止最智能的模型。同时Anthropic 还在 Claude.ai 上 推出了 Artifacts ,这是一项扩展用户与 C
3
0
0
2025-04-01
从专业角度聊聊deepseekR1为什么这么强大

从专业角度聊聊deepseekR1为什么这么强大

❝ 今天认真再次看了一遍deepseek r1的论文,从技术角度聊一聊为什么deepseek-r1这么强,怎么超越Openai、Anthropic的? https://arxiv.org/pdf/2501.12948 deepseek的能力 为什么deepseek r1可以思考? 看一张图就明白了
2
0
0
2025-04-01
程序猿的恐慌时刻智能代码编辑器Cursor

程序猿的恐慌时刻智能代码编辑器Cursor

智能代码编辑器Cursor 最近一款AI代码辅助编译器爆火--Cursor。 链接直达:https://www.cursor.com/ 甚至有人扬言要取消copilot的订阅了。因为最新的版本实在是太强了!
2
0
0
2025-04-01
WiseftRobustfinetuningofzeroshotmodels能解

WiseftRobustfinetuningofzeroshotmodels能解

Wise-ft《Robust fine-tuning of zero-shot models》,能解决大模型持续学习灾难性遗忘吗 微调框架: https://github.com/mlfoundations/wise-ft 论文链接 https://arxiv.org/pdf/2109.01903
2
0
0
2025-04-01
Tokenizer之BPE算法的简单实现

Tokenizer之BPE算法的简单实现

Tokenizer之BPE算法的简单实现 此篇幅较长,基本都是BPE分词代码,可以先了解一下理论篇: 大语言模型Tokenizer原理以及算法讲解(一) 🤗大致流程: • 规范化 • 预标记化 • 将单词拆分为单个字符
2
0
0
2025-04-01
VERA一种比Lora更省资源的微调方案

VERA一种比Lora更省资源的微调方案

VERA : 一种比Lora更省资源的微调方案 ❝ 《 VERA VECTOR-BASED RANDOM MATRIX ADAPTATION 》 直达链接: ❝ https://arxiv.org/pdf/2310.11454 引言 该论文基于Lora,提出了基于向量的随机矩阵自适应( VeRA )
4
0
0
2025-04-01
Transformer面试问

Transformer面试问

Transformer面试问 问题 Transformer为何使用多头注意力机制? Transformer为什么Q和K使用不同的权重矩阵生成,为何不能使用同一个值进行自身的点乘? Transformer计算attention的时候为何选择点乘而不是加法?两者计算复杂度和效果上有什么区别? 为什么在进
0
0
0
2025-04-01