AI大模型进入”千Token时代”:上下文窗口再突破

AI的「记忆力」正在迎来质的飞跃。

继Kimi、Claude之后,Google和OpenAI也纷纷推出超长上下文窗口模型。100万Token、200万Token……AI一次性能够处理的文本量,正在向一本书乃至一个图书馆的规模演进。

什么是Token?简单来说,Token是AI处理信息的基本单位。100万Token大约相当于75万英文单词或30万中文字词,约等于一本《哈利波特》全集。

为什么长上下文如此重要?想象一下,你需要AI帮你分析一份500页的财报、总结一本厚重的技术文档、或者在一个10万行的代码库中定位一个bug。如果AI的「记忆力」不够,它只能分段处理,而分段处理会丢失上下文之间的关联信息。

超长上下文窗口的出现,让AI真正具备了「全局视野」。它可以一次性理解整本书的逻辑,追溯整个代码库的历史,让「理解」这个词变得名副其实。

当然,技术挑战同样巨大。更长的上下文意味着更大的计算量和更高的成本。如何在性能和成本之间找到平衡,是厂商们面临的难题。

但趋势已经明确:AI正在从「短时记忆」走向「长期记忆」。当AI能够「读懂」一切,边界在哪里?答案或许是:没有边界。

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注