因此,在搜索引擎的早期,实际索引(即它们存储的数据)并没有按照我们习惯的方式进行更新。我们无法确定某个东西一旦索引擎中。由于费用太高 WhatsApp 数据 ,他们通常每隔几个月才会更新一次。更新索引对他们来说需要耗费大量的时间和金钱。我们目前在大型语言模型方面也面临类似的情况。
您可能已经注意到他们经
常说“好的,我们已经更新了内容。”目前发现的信息有效期至四月份左右。这是因为当他们想要将更多信息放入模型时,他们实际上必须重新训练整个模型。所以,对他们来说,这样做的成本非常高昂。您最终得到的答案中涵盖了这两个限制。
我确信你已经看到过这个。您可能正在使用 ChatGPT,但它恰好没有您所询问的信息,或者它所拥有的信息已经过时。
您可能采取的方式是将一堆上下文复制并 引人入胜的儿童读物 粘贴到聊天窗口中,这对于我们可以充分利用的工具来说是相当具体的。或者也许你告诉 Bing 走开并寻找一些东西。我们已经非常习惯于使用这些工具,但它对于大型语言模型来说是相当特定的,事实上,我们可以通过将事物转储到短期记忆中并告诉它使用它来弥补长期记忆中的差距。
有趣的是,即使我们没有做这些事情,这仍然在幕后发生。因此,当您与 ChatGPT 通信时,模型实际上并不记得它上次向您发送的内容。实际情况是,每次你发送一条消息时,都会有一个脚本运行,复制整个对话,而你发送的消息实际上是机器和人之间的对话,最后会有一个问题。
接下来你会说什么?所以它没有任何记忆,了 电话号码业务线索 解这一点对我们来说很有用,因为在所有这些类型的交互中,我们实际上依赖于尽可能将所有这些上下文放入短期记忆中的能力,但这可能存在一些限制。
上下文窗口
因此,过去的主要限制就是可以容纳多少信息,并且很多对话都归结为上下文窗口。
所以以前你无法真正在那里粘贴那么多信息。我们已经到了可以投入大量内容的地步。因此,使用 OpenAI GPT-4.5,您可以粘贴大约 300 页文本。 Anthropic 是其主要竞争对手,你可以在那里粘贴大约 500 页的文本。所以我们确实已经到了我不想在每个提示中复制并粘贴那么多信息的地步。
这实际上不再是一个限制。