GPT(Generative Pre-trained Transformer)是一种自然语言处理模型,它使用Transformer架构进行预训练,并以生成方式完成多个NLP任务。以下是与ChatGPT相关的论文: 1. "Improving Language Understanding by Generative Pre-training" (2018): 由Alec Radford等人撰写的该论文介绍了最初的GPT模型,并讨论了如何通过无监督学习大量文本数据来提高语言理解能力。...