一. 大模型的局限
1. 大模型不会计算
LLM根据给定的输入提示词逐个预测下一个词(也就是标记),从而生成回答。在大多数情况下,模型的输出是与提问相关的,并且完全可用,但是在使用语言模型时需要小心,因为它们给出的回答可能不准确。这种回答通常被称为AI幻觉
。对于依赖GPT的用户来说,AI幻觉可能带来危险。你需要仔细核对并批判性地审视模型的回答。
考虑以下例子。
只会补全文本
犯错的原因
有趣的附带效果
2. 甚至明目张胆的欺骗
在前面的例子中,ChatGPT犯了一个错误。但在某些情况下,它甚至会故意欺骗。ChatGPT声称自己无法访问互联网。然而,如果我们坚持,就会发生有趣的事情,如图所示。
ChatGPT的意思是,它已经访问了链接。然而,这在目前绝对不可能。ChatGPT明显让用户误以为它具备其实并不具备的能力。
二. 使用插件和微调来增强GPT模型
1. 模型的局限性
GPT模型有一定的局限性,例如其计算能力有限。此外,它没有直接访问互联网的权限,这意味着GPT模型无法获取新信息,其知识仅限于训练数据
。对于GPT-4,最后一次知识更新是在2021年9月。
它们可能会提供错误信息,甚至误导用户。总之,我们强烈推荐在创意型(或)应用程序中使用纯GPT解决方案,而不是在医疗咨询工具等真相至关重要的问答类应用程序中使用。对于这类用例,插件可能是理想的解决方案。
2. 插件来增强大模型的能力
OpenAI提供的插件服务允许该模型与第三方开发的应用程序连接。这些插件使模型能够与开发人员定义的API进行交互。
插件为开发人员带来许多新的机会。想象一下,将来每家公司都可能希望拥有自己的LLM插件。就像我们今天在智能手机应用商店中看到的那样,可能会有一系列的插件集合。通过插件可以添加的应用程序数量可能是巨大的。
在其网站上,OpenAI表示可以通过插件让ChatGPT执行以下操作:
- 检索实时信息,如体育赛事比分、股票价格、最新资讯等;
- 检索基于知识的信息,如公司文档、个人笔记等;
- 代表用户执行操作,如预订航班、订购食品等;
- 准确地执行数学运算。
- 。。。
3. 微调技术-提高特定任务的准确性
微调可以提高现有模型在特定任务上的准确性。
微调过程涉及使用特定的一组新数据重新训练现有的GPT模型
。新模型专为特定任务
而设计,这个额外的训练过程让模型能够调节其内部参数
(how),以适应给定的任务。
经过微调的模型应该在该任务上表现得更好。比如,采用金融文本数据进行微调的模型应该能够更好地回应针对该领域的查询并生成相关性更强的内容
。