2023年8月23日凌晨,OpenAI在其官方网站上发布了一项重要的更新公告,推出了GPT-3.5Turbo的微调功能,并对其API进行了更新。这一举措允许企业和开发人员使用自己的数据,结合特定的业务场景,构建定制化的ChatGPT。据OpenAI称,GPT-4的微调功能也将在今年秋季推出。
根据早期的测试数据,GPT-3.5Turbo微调版本在某些特定任务上的表现不仅可以匹敌,甚至还能超越GPT-4的基本功能。这一消息对于那些希望在特定领域构建更加聚焦、安全、准确的语言模型的企业和开发人员来说,无疑是一个令人振奋的消息。
微调技术目前是企业应用大型语言模型的主要方法之一。例如,在法律领域,诸如Spellbook、律商联讯、Litera、Casetext等公司,通过在GPT-4模型上进行微调和预训练,使用自己积累的大量法律数据,构建了专门用于法律领域的ChatGPT。这使得模型的回答更加聚焦、安全且准确。
GPT-3.5Turbo发布后,许多开发者和企业表达了希望能够开发定制化大型语言模型,为用户提供独特且与众不同的产品体验的愿望。现在,OpenAI终于开放了这个功能,使得任何人都可以构建自己独特的专属ChatGPT。
那么,什么是微调技术呢?
微调(Fine-tuning)是一种在预训练模型基础上的深度训练方法。它的基本思想是,在大规模文本数据上预训练一个大型语言模型,例如GPT-3.5,在此基础上,使用特定任务的数据集(比如法律、医疗等领域的数据),对模型进行进一步的训练,以使其适应特定任务。在这个过程中,模型的参数会进行微小的调整,以便在特定的业务场景中表现更好。
以法律领域为例,假设我们有一个预训练的GPT-3.5模型,想要让它在法律领域的表现更加出色和专业,我们可以使用大量的法律数据集对模型进行微调,从而使其能够更好地理解、生成和预测法律问题。
微调技术有许多应用场景,包括:
设置风格、基调、格式等: 通过微调,可以指导模型以特定的风格和基调进行回复,从而使得输出更符合预期。
提高输出的可靠性: 微调可以帮助模型更可靠地生成准确的答案,降低不准确或不合适的回复。
纠正未能遵循复杂提示的问题: 对于复杂的提示,微调可以帮助模型更好地理解并生成正确的输出。
以特定方式处理多个边缘内容: 在处理多样性内容时,微调可以引导模型生成特定方向的回复。
改进可操控性: 通过微调,可以使模型更好地遵循指令,确保输出以特定语言或风格进行响应。
执行难以在提示中阐明的新技能或任务: 微调可以让模型学习新的技能或任务,即使这些技能或任务无法完全在提示中表达清楚。
要进行微调,一般需要以下步骤:
准备数据: 创建一组多样化的对话示例,这些示例应该与OpenAI的聊天API格式相匹配,包括角色、内容和可选的名称。
上传文件: 将准备好的数据上传到系统中。
创建微调作业: 使用OpenAI的SDK开始进行大规模数据训练和微调。训练的时间取决于模型和数据集的大小。
使用微调模型: 在微调作业完成后,你可以开始使用微调过的模型进行测试和应用。
值得注意的是,在一些情况下,微调后的模型可能需要一些时间才能准备好处理请求。如果出现请求超时或找不到模型的情况,可能是因为模型仍在加载中,此时只需稍等片刻即可重试。
关于微调的定价,包括初始训练成本、使用输入的成本以及使用输出的成本,OpenAI有明确的定价策略。以每1,000个tokens计算,训练成本为0.008美元,使用输入成本为0.012美元,使用输出成本为0.016美元。因此,一个包含100,000个tokens的微调作业,预计的成本为2.40美元。
总的来说,GPT-3.5Turbo的微调功能为企业和开发人员提供了一个强大的工具,使他们能够基于自己的数据和业务需求,构建出定制化、专业化的ChatGPT,为用户提供更加优质、个性化的体验。这一技术的推出无疑将进一步推动大型语言模型在实际应用领域的发展和应用。详细的说明文档可以在OpenAI的官方网站上找到。