Posts tagged with #finetune

2 posts found

LoRA

> 生成:Gemini-2. 5-pro, 整理:fyerfyer LoRA 的核心假设是:模型在适应新任务时,其权重的“变化量”($\Delta W$)本身具有“低内在秩”(low intrinsic rank)。 这意味着,这个代表变化的、巨大的权重矩阵,可以用两个非常小的、瘦长的矩阵相乘来近似模拟。这就好比一个复杂的变换,其实可以分解为几个简单的、低维度的变换组合而成。...

ReFT

> 生成:Gemini-2. 5-pro, 整理:fyerfyer 传统的参数高效微调(PEFT)方法,如 LoRA,其核心思路是**修改模型的“大脑结构”**,即通过更新或添加少量权重参数来让模型适应新任务。 而表征微调(Representation Finetuning,...