Supervised fine-tuning:修订历史

差异选择:选中要对比的版本的单选按钮,按Enter键或下方的按钮。
说明:(当前)=与最后版本之间的差异,(之前)=与上一版本之间的差异,=小编辑。

2024年1月18日 (星期四)

  • 当前之前 07:172024年1月18日 (四) 07:17Riguz 讨论 贡献 3,482字节 +829 无编辑摘要
  • 当前之前 06:342024年1月18日 (四) 06:34Riguz 讨论 贡献 2,653字节 +2,653 创建页面,内容为“有监督微调(SFT)是指采用预先训练好的神经网络模型,并针对你自己的专门任务在少量的监督数据上对其进行重新训练的技术。 SFT在大语言模型中的应用有以下重要原因: * 任务特定性能提升:预训练语言模型通过大规模的无监督训练学习了语言的统计模式和语义表示。然而它在特定任务下的效果可能并不令人满意。通过在任务特定的有标签数据…”