原标题: ChatGPT是OpenAI开发的一种基于大规模无监督预训练的生成式对话模型。它采用了与GPT-3相似的结构和方法,但经过了定制化调整以适应对话任务。
导读:
背景:传统上,机器学习中的对话系统可以分为两类:基于检索(retrieval-based)和基于生成(generative),基于检索的系统使用预定义的响应集合,并根据用户输入...
背景:
传统上,机器学习中的对话系统可以分为两类:基于检索(retrieval-based)和基于生成(generative),基于检索的系统使用预定义的响应集合,并根据用户输入选择最匹配的响应,而基于生成的系统则通过模型自动生成响应。
在现实世界中进行复杂、多轮、富有创造性和连贯性的对话仍然具有挑战性,OpenAI推出了ChatGPT来尝试解决这些问题。
原理:
ChatGPT使用了一个叫做Transformer Encoder-Decoder Architecture (TEDA) 的结构作为它主要组成部分之一,在Encoder端,输入文本被转换成隐藏状态表示;而在Decoder端, 隐藏状态利用注意力机制(Attention Mechanism)来自动编码其神经网络输出,这个架构使得ChatGPT能够处理长距离依赖关系,并且保持语义上下文信息。
训练阶段:
ChatGPT将从互联网收集到大量带标签或不带标签数据,无需人工干预或标注,使用这些数据的组合进行无监督预训练,并尝试最大限度地减少模型对任务特定数据的依赖。
与生成式任务不同,ChatGPT在训练时会将输入和输出文本作为一个统一序列进行处理,并且使用掩码机制来区分文本属于哪个角色(例如用户或助手)。
微调阶段:
在无监督预训练完成后,ChatGPT通过有人类进行评估和反馈的强化学习方法来进行微调,OpenAI建立了一个“人与AI”的循环系统,在这个系统中AI产生回答被送给人类审核员,并收集他们提供的反馈,这样可以逐步改进模型性能,并降低其倾向于生成不恰当或错误信息的可能性。