从零开始构建中学习 LLM 第 6 章读后感

힘센캥거루
2025년 12월 18일(수정됨)
1
9

第 6 章是为分类进行微调。

作为例子给出的任务是构建垃圾邮件分类器。

垃圾邮件分类器需要判断一封邮件是不是垃圾邮件,因此输出结果要是类似 0、1 这样的值。

1. 微调的顺序

从零开始构建中学习 LLM 第 6 章读后感-1

微调的过程和训练模型的过程很相似。

准备数据集,加载权重值,然后进行训练和评估。

稍微不同的一点是,会有一个把输出层映射到 0(非垃圾)和 1(垃圾)的过程。

在这样得到的张量中,基于包含信息最多的最后一个张量来输出是否为垃圾邮件。

最后使用交叉熵来计算损失。

2. 使用有监督学习数据对模型进行微调

从零开始构建中学习 LLM 第 6 章读后感-2

将数据划分为训练数据和验证数据,通过多次 epoch 进行学习。

训练精度和验证精度保持接近,说明在训练和验证过程中表现出相似的精度。

也就是说,没有出现过拟合迹象。

现在就可以利用这个模型来区分垃圾邮件了。

3. 后记

我的 Mac mini 连跑 1.2B 模型都很吃力,但如果可能的话,总觉得如果能训练 LLM,就可以做很多事情。

也在考虑明年写论文的时候要不要用这个试一试。

得赶紧把书看完,然后再开始好好学 PyTorch。

관련 글

从零构建中学习 LLM 第7章读书心得与挑战回顾
从零构建中学习 LLM 第7章读书心得与挑战回顾
第7章的内容是让模型遵循指令进行微调的过程。也就是让它针对某个问题给出我们期望的回答。果然,最需要的还是数据。1. 指令微调步骤这里的核心是准备好问答数据集,用作输入-输出对来进行训练。这就叫做提示(prompt)风格。其他部分就像之前的流程一样,对内容进行分词(tokenize)、训练和评估,过程...
从零开始构建中学习 LLM 第5章读书后记
从零开始构建中学习 LLM 第5章读书后记
今天是12月14日。其实挑战期已经过去整整两周了,但也不能因此就放弃写后记。像这样留下的 TIL(Today I Learned),以后都会变成自己的血和肉。这次打算比起代码本身,更专注在“意义”上来写一写。1. 模型的损失计算这一部分讲的是,在构建好 GPT 模型之后,用什么方式来计算损失。GPT...
从零开始动手实现 LLM 第4章读书心得
从零开始动手实现 LLM 第4章读书心得
今天是11月26日,如果每天读一章并看完的话,这次挑战就算成功。在老大和老二的各种干扰下,不知道能不能做到。1. Dummy Transformer在实现 GPT 模型的过程中,看到是从 PyTorch 里拿来一个 Transformer 的 dummy 模块用的。一查才发现,在 PyTorch 的...
通过从头构建学习的LLM第3章读后感
通过从头构建学习的LLM第3章读后感
我在MacBook上泼了一大杯水后,崩溃了,浪费了大约3-4天。现在回想起来,反正MacBook已经坏了,应该想着送修,干点别的事情。无论如何,虽然有点晚了,但我觉得必须坚持到底,所以留下了第3章的读后感。1. 注意力机制第3章...
通过从头开始制作学习 LLM 第二章读书笔记
通过从头开始制作学习 LLM 第二章读书笔记
已经是参加挑战的第二周。昨天还没有完成第二章,趁着来参加 1 泊 2 日的研修,熬到 12 点才勉强赶上进度。1. 内容第二章的内容以单词的分词、编码、解码、嵌入向量为中心。尽管之前试过制作 One-hot 编码器,对于其他部分比较熟悉,但是嵌入向量本身的内容是新的。
适合 MacBook 用户的 Python OCR 推荐
适合 MacBook 用户的 Python OCR 推荐
为了识别学生的医疗诊断证明,我几乎尝试了所有的 OCR。我使用过 Tesseract、EasyOCR、PaddleOCR 等各种 OCR,但没有一个对韩语的性能让我满意。不过最近我发现了一个包装了 MacBook 上实时文本功能的 Python 库...

댓글을 불러오는 중...