Update 2023.02.07 可随意转载

前言

ChatGPT大火,除了背后的RLHF算法值得深入学习之外,还有一个重要的问题需要回答:为什么HF信息可以影响GPT的输出?

本教程来自北大、清华和微软公司联合撰写的论文《 Why Can GPT Learn In-Context? Language Models Secretly Perform Gradient Descent as Meta-Optimizers 》

微调FineTune

当我们使用大模型,如GPT,针对我们的领域场景和需求,需要FineTune GPT模型本身。由于GPT属于大模型,FineTune成本是相当高的,而且大部分公司都没有资源和团队来专门做这件事。有没有别的办法呢?

有,这个方法就是In-context Learning

In-context Learning

In-context Learning简称ICL,它避免了对大模型本身的修改,通过增加example(sentence1,answer1)的方式诱导GPT生成更优的结果。