Supervised fine-tuning:修订历史

差异选择:选中要对比的修订的单选按钮,然后按Enter键或下面的按钮。
说明:(当前)=与最后修订的差异,(之前)=与上个修订的差异,=小编辑。

2024年7月24日 (星期三)

2024年7月23日 (星期二)

2024年1月18日 (星期四)

  • 当前之前 07:172024年1月18日 (四) 07:17Riguz 留言 贡献 3,482字节 +829 无编辑摘要
  • 当前之前 06:342024年1月18日 (四) 06:34Riguz 留言 贡献 2,653字节 +2,653 创建页面,内容为“有监督微调(SFT)是指采用预先训练好的神经网络模型,并针对你自己的专门任务在少量的监督数据上对其进行重新训练的技术。 SFT在大语言模型中的应用有以下重要原因: * 任务特定性能提升:预训练语言模型通过大规模的无监督训练学习了语言的统计模式和语义表示。然而它在特定任务下的效果可能并不令人满意。通过在任务特定的有标签数据…”