大家好,我是逸鸽。
今天给大家介绍一个使用AI最为基础的性质——
token-最大上下文限制
我们在使用AI单纯对话时间久了,就会发现AI挺健忘的。
明明前面讲过的东西后面居然一问三不知,一直道歉。
这其中罪魁祸首就是——token
当你有意识使用AI做为辅助工具时,一定要先问一下
【依据你的token,你最多能理解多少中文的上下文?】
下面是我实践截图:
可以看到,主流的GTP4和Claude 3.5 Sonnet都是8192的token。
我个人还是认为6000中文比较合理,全是中文没有标点的话也看不懂哈哈。
所以,我们在写长篇文章或者生成代码时,无法让AI一次性写出长篇小说和做出一个完整的应用程序,不能一劳永逸。
但知道了这个信息,我们可以更好的使用AI——
1.把握上下文长度
当计划要做一个超出AI最大token限制的项目时,就需要将项目分割成一个个小目标。
2.自己对话使用直接简洁的表达,减少token消耗
3.重复重要的信息
在多次的长对话中,重要的信息需要多重复,这样AI给出的答案就能更符合重要的信息。
自我介绍一下:
我是逸鸽
前国企 Java 程序员、AI 写作与个人成长领域学习型创作者;
擅长:用 AI 工具赋能个性化写作,助力普通人内容创作副业;
愿景:探索 AI 写作的无限可能,助力 100 万普通人实现创作梦想;
爱好:AI,写作,阅读,思考,分享 | 终身学习践行者。
成就:3天实现知乎破4000阅读量,小红书总计10000+阅读过百粉丝,公众号辅助原创20篇文章。
在已经到来的 AI 时代不掉队,不被 AI 淘汰,我创立了一个技术讨论群,有兴趣加入可以联系我~