如何让大模型回答 原本训练数据中不存在的答案

两种技术路线
fine-tune 和 Rag
fine-tune 让模型学新东西
Rag 是依靠 LLM 自身的推理,理解,总结的能力
| 功能比较 | RAG | 微调fine-tune |
|---|---|---|
| 知识更新 | 直接更新知识库,保持信息最新,无需频繁再训练。✅ | 存储静态数据,需要再训练更新。 |
| 外部知识 | 熟练使用外部资源,适用于各种数据库。✅ | 将预训练的外部知识对齐,但不适用于频繁变化的数据源。 |
| 数据处理 | 需要最少的数据处理。✅ | 依赖高质量数据集,有限数据集效果不佳。 |
| 模型定制 | 专注信息检索,无法完全定制模型行为。 | 允许调整LLM行为、写作风格或特定领域的知识。✅ |
| 可解释性 | 答案可追溯至具体数据来源,提供更高可解释性。✅ | 像黑盒子,不易解释模型反应原因。 |
| 计算资源 | 需要计算资源支持检索策略和数据库技术。 | 需要高质量训练数据集和计算资源。 |
| 延迟要求 | 涉及数据检索,可能有较高延迟。 | 微调后的LLM响应延迟较低。✅ |
| 减少幻觉 | 较少出现幻觉,每个答案基于检索证据。✅ | 训练模型可减少幻觉,但不熟悉输入仍可能出现幻觉。 |
| 伦理和隐私问题 | 存在存储和检索文本的伦理和隐私问题。 | 可能因训练数据中的敏感内容引发伦理和隐私问题。 |