有三种广泛且互补的方法可以减轻大型语言模型中的幻觉:提示工程、微调和基础+提示增强。
及时工程
提示工程是策略性地设计用户输入或提示以指导模型行为并获得最佳响应的过程。提示工程主要有三种方法:零样本提示、小样本提示和思路链提示。在零样本提示中,语言模型获得的输入不是其训练数据的一部分,但仍能够生成可靠的结果。小样本提示涉及在提出实际查询之前向 LLM 提供示例。思路 奥地利手机数据 链 (CoT) 基于以下发现:在提示过程中作为示例提供的一系列中间推理步骤可以显著提高大型语言模型的推理能力。思路链概念已扩展到包括新技术,例如验证链 (CoVe),这是一种自我验证过程,使 LLM 能够检查其输出的准确性和可靠性,以及密度链 (CoD),这是一种侧重于总结而不是推理以控制生成文本中信息密度的过程。
然而,快速工程也有其自身的局限性,包括可能限制查询复杂领域能力的快速约束,以及缺乏量化快速有效性的客观指标。
微调
即时工程的重点是获得更好的 LLM 输出所需的技能,而微调则强调针对特定任务的训练,以提高预训练模型在特定主题或领域领域的性能。LLM微调的传统方法是完全微调,它涉及在标记、领域或任务特定数据上对预训练模型进行额外训练,以生成更具上下文相关性的响应。这是一个时间、资源和专业知识密集型的过程。另一种方法是参数高效微调(PEFT),它对一小组额外参数进行操作,而无需调整整个模型。PEFT 的模块化特性意味着训练可以优先考虑原始参数的选定部分或组件,以便预训练模型可以适应多项任务。LoRA(大型语言模型的低秩自适应)是一种流行的 PEFT 技术,可以显著降低微调的资源强度,同时匹配完全微调的性能。
然而,微调面临着诸多挑战,包括领域转移问题、偏差放大和灾难性遗忘的可能性,以及为确保最佳性能而选择正确的超参数进行微调的复杂性。